Об ИИ без мифов. Путеводитель по истории Искусственного Интеллекта - Леонид Черняк
Шрифт:
Интервал:
Закладка:
Проблема души и тела (психофизиологическая проблема) и эффект AI
Остановимся на одной из причин, почему один из подходов оказался тупиковым, а у второго, во всяком случае так видится сейчас, перспективы ничем не ограничены. Создание работающих систем с AI связано с проблемой, схожей с той, которую немецкие психофизиологи обозначили в середине прошлого века, назвав ее Leib-Seele Problem или Psychophysisches Problem, в английский вошел перевод первого варианта Mind and BodyProblem, в русский же второго – Психофизиологическая проблема. Отношения между душой и телом играют центральную роль в современной медицине, психотерапии и психопатологии. Разумеется, с моделью мозга все гораздо проще, но принцип тот же, AI, как сознанию человека, нужна материальная оболочка, тело. В середине пятидесятых начались первые исследования в области символьного подхода к AI и тогда без каких-либо сомнений на роль тела назначили компьютеры, рассуждая следующим образом: мозг оперирует символами и компьютер оперирует символами, раз так, то почему бы и не вложить в него мыслительные способности (по Тьюрингу, сверху-вниз). Однако при этом не учли одной вещи, того, компьютер в том виде как он сегодня существует является программируемым устройством и инструментом для создания AI должно стать программирование. Программируемый мозг – нонсенс.
Нынешние компьютеры – прямые наследники тех, которые создавались в сороковые годы прошлого века с единственным желанием – автоматизировать трудоемкие процедуры расчетов и только, ничего иного от них и не ожидали. Но неожиданно оказалась, что путем перепрограммирования те же компьютеры можно использовать для решения множества иных задач.
Все существовавшие и существующие компьютеры строятся по одной из двух архитектур, созданных три четверти века назад. В подавляющем большинстве (99,9 %) по принстонской, которую не вполне справедливо называют фон-неймановской (ФНА). Неизмеримо меньшее число специализированных сигнальных процессоров созданы по альтернативной гарвардской архитектуре. Этими двумя архаичными на сегодняшний день решениями ограничено все разнообразие компьютерных архитектур. Их объединяет главное – программный принцип управления последовательным выполнением команд, в том и другим случае процессор отрабатывает записанную в память программу. В первом случае данные и программа хранятся в общей памяти, а во втором – раздельно. За семьдесят с лишним лет в ФНА внесены многочисленные усовершенствования, способствующие компенсации присущих ей врожденных недостатков – неспособности к распараллеливанию вычислений, ограничение пропускной способности канала процессор-память (проблема бутылочного горла) и других.
Программное управление известно с античных времен, о его использовании в автоматонах подробно рассказано в главе 3. На компьютеры его распространил Чарльз Беббидж, создав проект Аналитической машины, для этого он, с одной стороны, позаимствовал математические принципы разделения сложных расчетов на простые операции у Гаспара де Прони, а с другой, идею записи программы на перфокарты у Жозефа Жаккара, изобретателя ткацкой машины. Совмещение одного с другим позволило создать архитектуру Аналитической машины, предтечи ФНА. В компьютерах принципы программного управления Бэббиджа сохранились с небольшими модификациями, такими как условные и безусловные переходы и разного рода детали. В целом же нужно признать, что компьютер генетически непосредственно связан с простейшими автоматами. Это кажется весьма странным, но дистанция между Аналитической машиной Бэббиджа и ФНА не слишком велика.
Жизнь показала: рожденный считать – думать не может, попытки обнаружить хотя бы признаки интеллекта в программных системах, претендующих на эту способность, приводят к огорчающему выводу – любые потуги запрограммировать AI в конечном счете сводятся к построению систем, лишь обладающих внешними признаками AI. Очень похоже на известную максиму В. С. Черномырдина: «Хотели как лучше, а получилось как всегда». Этот печальный факт американский автор книг по истории и философии AI Памела МакКордак предложила называть «эффектом AI» (AI effect). Эффект AI обнаруживается во всех без какого-либо исключения программах, которые по замыслу авторов должны были бы демонстрировать наличие у них разума. При непредвзятом анализе в 100 % случаев обнаруживалось, что их поведение на самом деле псевдоразумно и имеет простое логическое объяснение. Как сказал один из виднейших специалистов в робототехнике Родни Брукс: «Магии AI нет, но есть обычные вычисления».
То же самое, но более образно, выражено в утверждении, известном как «теорема» Теслера: «AI – это то, что еще не было сделано» (AI is whatever hasn't been done yet.). Теоремой оно названо не вполне корректно, поскольку не содержит доказательства. Ее сформулировал Дуглас Хофштадтер, автор получившей известность книги «Гедель, Эшер, Бах: эта бесконечная гирлянда», за нее автор был удостоен в 1980 году Пулитцеровской премии в номинации «Нехудожественная литература». Хофштадтер представитель тех, кого называют AI-скептиками, он категорически отвергает возможность создания искусственного разума в форме сильного или тем более общего AI. Когда в 1996 году мир испытал шок, вызванный поражением Гарри Каспарова в поединке с суперкомпьютером компании IBM, он совершенно уверенно заявил: «Разумеется, победа Deep Blue стала поворотным моментом в истории AI, но она ни в малейшей степени не свидетельствует о наличии разума у компьютеров».
История появления самой «теоремы» такова. Ларри Теслер, именем которого она названа, известный специалист в области человеко-машинного интерфейса, работал в Xerox PARC, а позже в Apple, Amazon и в Yahoo!. Случилось так, что однажды в разговоре с Хофштадтером он поведал о наблюдаемом им феномене – если решение некоей задачи вначале может создать о себе иллюзию машинного мышления, то при детальном анализе того что внутри, оказалось – это обычные программы и никаких чудес и решение этой задачи считать примером «настоящего мышления». Наделить мыслительными способностями программируемый автомат невозможно, на этом споткнулись и великие Марвин Минский с Джоном Маккарти, и все-все-все, пошедшие по предложенному ими пути. Будучи писателем, Хофштадтер всего лишь придал этой мысли более лаконичную форму.
Как забытый было AI снова оказался в центре общественного внимания
Забегая вперед, скажем, что к началу XXI века, пережив два цикла подъема и падения символьного подхода, AI впал состояние близкое к анабиозу. Те немногие, кто сохранил веру в него, скрылись в своего рода академических окраинах, они трудились над тем, что представляло интерес для них самих и еще небольшого числа близких им единомышленников. На фоне нынешнего хайпа вокруг AI человеку, не знающему об этом мрачном периоде, трудно поверить, однако реальность была такова.
Неожиданный воскрешение AI, точнее выход из состояния многолетней летаргии случилось в интервале с 2007 по 2012 год. За этот короткий период сложились необходимые и достаточные условия для интеллектуального и технологического взрыва в ограниченной области Слабого AI (ANI). По динамике взлета, по приятию происходящего в разных слоях общества случившееся с AI можно сравнить разве