Молох (сборник) - Станислав Лем
Шрифт:
Интервал:
Закладка:
6
Работы над AI продолжаются уже около полувека, а результаты остаются чрезвычайно скромными. Как показывают американские исследования, наш мозг — это многомодульная система, то есть его образуют относительно независимые подгруппы, и они могут, например, и хорошо сотрудничать, и вступать в функциональные противоречия. Поэтому возникают явные парадоксы: дебил может быть хорошим вычислителем, конкурирующим с электронными счетами, по крайней мере в области арифметики; кто-то может феноменально запоминать целые страницы текста «фотографическим» способом. Впрочем, известно, что функции, введенные под контролем сознания, покидая его и превращаясь в автоматизм, бывают функционально более точными (что лучше всего демонстрирует анекдот о сороконожке, которую спросили, как так получается, что она ЗНАЕТ, как передвигать такое количество ног, и она, задумавшись, уже не могла ступить ни шагу). Контроль сознания направлен на некоторые автоматизмы и, например, процесс декламации поэмы он может нарушить и даже остановить. А что касается языка — ребенок учит (без изучения грамматики) язык окружения и между вторым и четвертым годом жизни может в совершенстве знать два и даже три языка «не по науке», а путем погружения во многоязыковую среду. Зато локализация языков, которые мы учим позже, уже полностью отличается («другие модули» должны пройти тренинг и введение в состав, лексику и т. п.). Поэтому тот, кто подвергся повреждению центров родного языка, может иногда объясняться (понимать) с помощью позже выученного языка, причем того, которым владел довольно слабо. С детьми, изолированными от языковой среды, после 5–8 лет будет беда, потому что научиться успешно «автоматизму языка» они уже не способны. Это значит, что мозг после рождения в значительной мере переформирован настолько, что располагает готовностью к получению языкового навыка, а затем невральные механизмы, «ожидающие» этого, как бы подвергаются атрофии. Одним словом, чем лучше, хотя все время мизерно, мы познаем мозг, тем более явно проявляются различия между ним и такими совершенными автоматами, каковыми являются компьютеры ВСЕХ поколений. Загадка мозга заключается в том, что его модульность может быть как сильной стороной с точки зрения интеллекта, так и слабой. В мозге может оставаться в потенциале зерно и гениальности, и таланта, а отклонения во взаимодействии модулей могут стать основой безумия. Туннель «к AI» надо пробивать со стороны технологии наших компьютерных знаний и со стороны нейрофизиологии мозга. Чтобы описать то, как могли бы в будущем действовать компьютеры, «смешанно» построенные, то есть биотехнические, мне уже в этом эссе не хватит места. Более правильным мне кажется приведение в движение безличного разума, чем интеллекта, сдающего тест Тьюринга на «отлично» путем имитации человеческих языковых способностей. Мы были сформированы эволюцией, которая делает «приоритетными» способности, служащие для выживания, а не для распознавания особенностей внутренней динамики мозга или функционирования нашего тела благодаря ему. Поэтому сегодня мы больше можем узнать о галактиках, чем о том, что мы «имеем в голове», и отсюда столько неразберихи в философиях, основанных на самонаблюдениях философов, ибо допустить ошибку здесь очень легко. Мы ничего не знаем о тех подкорковых «Атласах», которые не только поддерживают сознание, но просто участвуют в его создании и тем самым являются агрегатами, работающими едино «для дела» интеллекта, их же сотрудничество определяется и через канал наследования (генами), и через канал культуры жизненного окружения. Компьютеры могут быть объединены в сети (как сейчас) различных интернетов, но даже если соединить их миллиарды, то из этого множества не удастся высечь искры интеллекта. Иначе говоря, разница между мозгом и компьютерами, умеющими ему подражать благодаря программам, как была огромной в эпоху ЭНИАКа, такой и осталась до сих пор. Но для будущих поколений машин, перерабатывающих информацию, следует из этого ровно столько, сколько следует из непохожести птицы и реактивного самолета или даже реактивного самолета и «орнитоптера». Как известно, и на Луну мы долетели, но орнитоптеров, конкурирующих с орлом или самолетом, в нашем технологическом вооружении нет. Итак, не следует ни провозглашать, что AI «уже, уже» перед нами, ни зарекаться, что его не будет никогда. Впрочем, цивилизованная среда сама все время информационно «подзаряжается», так что человек все хуже ориентируется в тех информацией питающихся и приводящихся в движение инструментах, которые ему служат, которые сконструировали для него специалисты… и тем самым отдали на съедение деструктивным, преступным актам человеческой воли.
Тайна китайской комнаты[109]
1
Джон Сёрл своей книгой «Minds, Brains and Programs», сразу же включенной в «The Behavioral and Brain Science», том III, Cambridge University Press, изданной в 1980 году (то есть 15 лет назад), вызвал настоящий переполох, или, если кто-то предпочитает более мягкое определение, полную разногласий бурю в среде американских исследователей Artificial Intelligence. Я, намереваясь положить на операционный стол clous[110] его статьи, название которой соответствует титулу этого эссе, не буду здесь приводить порядка 28 реплик и диатриб, которыми общество AI в США пыталось «уничтожить» выводы, каковые, по мнению Сёрла, вытекают из его книги. Я также не хотел бы произвести такое впечатление, что являюсь якобы умнее всех исследователей этого круга проблем, работающих во всех (без малого) университетских центрах, но amicus Plato, sed magis amica veritas.[111] Если кто-то увидит возможность опровержения моего секционного вывода в пользу Сёрла, то я буду одновременно очень удивлен и доволен, потому что это совсем невыгодная вещь — возвышаться над собранием мудрецов.
Перехожу ad rem.[112] Сёрл хотел сказать, что возможно точное подражание ПОНИМАНИЮ текста, который на самом деле человек, занимающийся его составлением, вообще не понимает. Он сделал это в вымышленном эксперименте, описание которого я читал два раза для большей уверенности в понимании дела МНОЙ САМИМ: первый раз — в оригинальном труде Д.Р. Хофштадтера и Д. Деннетта «The Mind’s I»,[113] а второй — в хорошем немецком переводе «Einsicht ins ich». — Klett-Coa Verlag, 1981.
2
Дело выглядит таким образом. Сёрл, зная английский, но никак не китайский, заперт в комнате и получает поочередно ТРИ пакета карточек, исписанных знаками китайского письма. Эти знаки в его глазах ничем не отличаются от нагромождения бессмысленных каракулей. В первом пакете он получает написанные по-английски инструкции, каким образом он должен другие знаки из второго пакета привести в соответствие со знаками первого. Наконец, он получает третий пакет страниц, также с китайскими символами и с инструкцией по-английски, которая дает ему возможность сделать определенное упорядочивание знаков третьего пакета в соответствии со знаками двух первых. Сёрлу необязательно знать, что тот, кто ему всё это дал, называет первый пакет «письмом» («Script», «Schrift»), второй — «рассказом», а третий — «вопросами», касающимися этого рассказа. Поступая чисто формально, то есть раскладывая одни знаки в соответствии со вторыми и третьими, Сёрл получает уже саму запись, которую ТАКЖЕ абсолютно не понимает. При этом по мнению лиц, знающих китайский язык и письмо, в комнату попал рассказ, а из комнаты вышли разумные и складные ответы на вопросы, касающиеся содержания этого же рассказа, ХОТЯ манипулирующий знаками-карточками человек НИЧЕГО в китайском письме не понимает и не знает. Из этого можно сделать вывод, что манипулятор в комнате действует подобно компьютерному hardware, а инструкции на английском языке представляют ПРОГРАММУ (software), и уже из этого видно, что можно толково отвечать на китайские вопросы, относящиеся к китайскому рассказу, вообще не понимая китайского, и это должна быть модель работы компьютера.
Хофштадтер, который в своей книге вслед за Сёрлом кратко излагает «эксперимент» с китайской комнатой, снабдил его как собственными комментариями, так и пересказом самых существенных контраргументов (против сравнения формулы «комната плюс человек плюс инструкция» с компьютерной hardware, а английской инструкции — с программой, то есть software), которые прислали самые передовые коллективы исследователей, изучающих АI, в том числе из университетов: Беркли («системный» ответ: человек сам ничего не понимает, но он плюс инструкция плюс комната «понимает китайский»), Йельского (в ответе событие изображается в стиле «робота»), Массачусетского технологического института с помощью Беркли (реплика, основанная на симуляции мозга), Стэнфордского (комбинированная реплика), Йельского (попытка редукции ad absurdum: откуда известно, что есть какие-то ДРУГИЕ, которые понимают китайский? — из их поступков, потому что в мозг им никто заглянуть не может, следовательно, поведенчески «комната» эквивалента «китайцу»), опять Беркли и т. д. Дальнейшее перечисление реплик было бы утомительным. Хофштадтер пробует опровергнуть «довод» Сёрла, вытекающий из его «мысленного эксперимента», подчеркивая, что, как умелый фокусник, Сёрл скрывает реальные трудности, так как само составление сотен и сотен китайских символов продолжалось бы, возможно, месяцы (по-моему, это не контраргумент, а только увертка), да и не нужно забывать «синологическую» сторону. Это более разумно, потому что ТОЛЬКО тот, кто НИЧЕГО о китайском не знает, помимо своей воли предполагает, что он является языком, построенным из отдельных «знаков-кубиков», которые не имеют ни склонения, ни спряжения, ни идиоматики. Так как я с «китайской комнатой» ни в какой спор, ни в какую дискуссию вступать не намерен, позволю себе перевести весь этот мысленный эксперимент в другой, более простой, который неплохо раскроет «тайну».