Охота на электроовец. Большая книга искусственного интеллекта - Сергей Сергеевич Марков
Шрифт:
Интервал:
Закладка:
В целом такая картина, конечно, не очень сильно грешит против фактов, но в ней невооружённым глазом заметен некоторый изъян: неясно, чем был вызван двенадцатилетний разрыв. В конце концов, работа Розенблатта над перцептронами продолжалась всего 15 лет, что стало целой эпохой в истории коннекционизма. Казалось бы, ещё в 1990-е гг. работы Лекуна, Хинтона и их коллег показали перспективность нейросетевого подхода, почему же новой весне ИИ потребовалось ждать целых 14 лет? Давайте попробуем разобраться в том, что происходило в области распознавания изображений в это время, и тем самым заполнить пробел в существующей популярной картине истории мира глубокого обучения.
6.2.1.1 Фей-Фей Ли и ImageNet
Обратимся для начала к личности Фей-Фей Ли и к истории ImageNet.
Фей-Фей Ли родилась в 1976 г. в Пекине, а выросла в городе Чэнду на юге Китая. Когда ей было 12 лет, её отец переехал в США, а через четыре года перевёз к себе жену и дочь. Ли окончила среднюю школу в Парсиппани (штат Нью-Джерси, США) в 1995 г. В том же году она поступила в Принстонский университет, который окончила с отличием в 1999 г., получив степень бакалавра искусств в области физики. Во время учёбы в Принстоне Ли на выходных подрабатывала в принадлежавшей её родителям химчистке.
В 2000 г. она поступила в аспирантуру в Caltech, где в 2005 г., работая на стыке нейробиологии и информатики, получила степень доктора философии в области электротехники[1824]. Именно в Caltech Ли начала работу над своей первой базой данных изображений, предназначенной для отработки и тестирования методов распознавания образов и машинного зрения. Датасет, увидевший свет в 2003 г., получил название Caltech 101. Он пришёл на смену более простому датасету Caltech 4, в котором было только четыре класса изображений (самолёты, лица, мотоциклы и фон). Вместе с Фей-Фей Ли над созданием датасета трудились Марк Ранцато и Пьетро Перона, научный руководитель Ли. В базу данных вошло 9146 изображений в формате jpeg, распределённых на 101 категорию: чай, чемоданы, чебуреки, чебоксары, трилобиты, зонтики, мозги, дельфины, эму, лица, ножницы и так далее. Изображения имеют различный размер, тяготеющий к популярному разрешению 320 × 200[1825], [1826].
В 2006-м на смену Caltech 101 пришла улучшенная версия датасета[1827], получившая название Caltech 256. В ней содержалось 30 607 изображений и, как можно догадаться из названия, 256 различных классов. Она создавалась уже без участия Фей-Фей Ли, которая к тому моменту стала доцентом сразу двух факультетов: электротехники и вычислительной техники в Иллинойсском университете в Урбане-Шампейне и компьютерных наук в Принстонском университете.
На базе Caltech 4, Caltech 101 и Caltech 256 в 2000-е гг. было выпущено множество исследований, посвящённых задаче распознавания изображений, многие из которых были представлены на крупных ежегодных конференциях по компьютерному зрению, таких как CVPR (Conference on Computer Vision and Pattern Recognition, Конференция по компьютерному зрению и распознаванию образов), ICCV (International Conference on Computer Vision, Международная конференция по компьютерному зрению) и CAIP (International Conference on Computer Analysis of Images and Patterns, Международная конференция по компьютерному анализу изображений и образов)[1828]. Беглый анализ этих публикаций показывает, что свёрточные нейронные сети в то время практически не были представлены в числе обучавшихся на датасетах Caltech моделях. Причина этого не столь уж загадочна, как может показаться на первый взгляд. Переход от анализа чёрно-белых изображений размером 28 × 28 точек (MNIST) к цветным изображениям размером 320 × 200 точек (Caltech 101) означал примерно 245-кратное увеличение числа входных параметров моделей. Если считать, что каждые два года благодаря прогрессу в области вычислительной техники мы можем создавать модели с удвоенным количеством входных параметров (темпы роста, аналогичные темпам роста в законе Мура), то для преодоления 80-кратного разрыва потребуется около 13 лет. Удивительно, насколько эта оценка близка к сроку, разделяющему публикацию Лекуна и появление AlexNet (2012).
Покинув Caltech, Фей-Фей Ли не утратила интереса к идее создания стандартизованных визуальных датасетов. В то время, когда большинство исследований в области распознавания изображений были сосредоточены на моделях и алгоритмах, Ли в первую очередь стремилась увеличить объём и качество данных. В поисках более правильных подходов к разметке данных Ли обратилась к опыту смежной отрасли, занимающейся автоматизированной обработкой естественного языка [Natural language processing]. Дело в том, что к тому моменту, когда появились первые системы для решения задач в этой области, человечество уже имело богатый опыт сбора и систематизации текстовой информации. Разного рода словари и энциклопедии появились задолго до первых машин, способных воспользоваться накопленной в них информацией. Неудивительно, что и первые электронные языковые базы данных появились уже на заре компьютерной эры.
Внимание Ли привлекла лексическая база данных английского языка WordNet, разработанная в Принстонском университете. Эта база, появившаяся в эпоху расцвета символьного подхода в ИИ, представляет собой электронный словарь-тезаурус[1829], содержащий набор «семантических сетей» для английского языка: базовой словарной единицей WordNet является не отдельное слово, а целый синонимический ряд, так называемый «синсет» [synset], объединяющий слова со сходным значением в узел семантической сети. Работа над WordNet началась в 1985 г. под руководством профессора психологии Джорджа Миллера. Продолжательницей его дела стала Кристиана Феллбаум. Именно встреча Ли и Феллбаум в 2007 г. дала начало созданию базы данных ImageNet.
Каждое изображение в базе привязано к одному или нескольким узлам семантической сети WordNet (при этом сама сеть была несколько расширена путём добавления в неё 120 названий разных пород собак для демонстрации тонкой классификации) так, что наличие связи означало присутствие на изображении объекта соответствующего класса. При этом связь могла также содержать координаты ограничивающего прямоугольника для видимой на картинке части соответствующего объекта. Разметка данных происходила на платформе Amazon Mechanical Turk под чутким контролем группы исследователей из Принстона, работавших под началом Ли. В 2012 г. ImageNet был крупнейшим в мире пользователем платформы WordNet из академической среды.
Сегодня база данных WordNet доступна более чем на 200 языках. Попытки создать русскую версию WordNet предпринимались четырежды[1830], [1831], [1832], [1833], [1834], но по результатам на сентябрь 2023 г. ни одна из них не была доведена до конца. Впрочем, последняя версия русскоязычной базы WordNet почти догнала по объёму свой англоязычный прототип: 133 745 уникальных слов и словосочетаний в русской версии