Туннель Эго - Томас Метцингер
Шрифт:
Интервал:
Закладка:
Но решающий шаг к Эго Машине следующий. Если система может интегрировать равно прозрачный внутренний образ себя в эту феноменальную реальность, тогда она будет видна сама себе. Она станет Эго и наивным реалистом относительно всего, что бы ни сказала о себе её себя-модель. Феноменальное свойство самости будет выражено в искусственной системе и она будет явлена себе не только, как бытие кем-то, но и как бытие здесь. Она будет верить в себя.
Рисунок 17b: Робот непрерывно воспроизводит повторяющиеся действия. (A и B) Синтез себя-модели. Робот физически предпринимает действия (А). Изначально, это действие произвольно; позже, это лучшее действие, которое можно обнаружить в (С). Робот тогда производит несколько себя-моделей для того, чтобы сопоставить собранные данные от сенсоров в то время, пока он выполнял предыдущие действия (В). Он не знает, какая модель правильная. (С) Синтез исследовательских действий. Робот производит несколько возможных действий, которые устраняют неопределённость соперничающих себя-моделей. (D) Синтез целевого поведения. После нескольких циклов от (А) до (С), лучшая данная модель используется для производства локомотивных последовательностей через оптимизацию. (Е) Лучшая локомотивная последовательность исполняется физическим устройством. (F)4
Заметьте, что этот переход превращает искусственную систему в объект нравственного суждения: Теперь она потенциально способна страдать. Боль, негативные эмоции и другие внутренние состояния, изображающие часть действительности, как нежелательную, могут служить причинами страдания только в том случае, если они осознаваемы. Система, которая не явлена себе, не может страдать, так как она лишена чувства обладания. Система, в которой включен свет, но никого нет дома, не может быть объектом этических рассуждений; если у системы есть минимально сознательная модель мира но нет себя-модели, то мы можем выдернуть шнур в любое время. Но Эго Машина может страдать, так как она интегрирует болевые сигналы, состояния эмоциональных потрясений или негативные мысли в свою прозрачную себя-модель и они явлены так, как будто это чья-то боль или негативные чувства. Это поднимает важный вопрос животной этики: Как много сознательных биологических систем на нашей планете являются всего лишь машинами феноменальной реальности и сколько из них являются подлинными Эго Машинами? Сколько есть видов, способных к сознательному переживанию страдания? Принадлежит ли к ним РобоТаракан? Или одни лишь млекопитающие, вроде тех макак и котят, оказываются жертвами исследований сознания? Очевидно, если ответ на этот вопрос невозможно получить по эпистемологическим причинам, мы всегда должны быть уверены в том, что ошибаемся в сторону осторожности. На нынешней стадии исследований, любая теория сознания становится релевантной для этики и философии морали.
Эго Машина есть нечто, что располагает перспективой. Если быть точным, она приобретает эту перспективу, когда осознаёт тот факт, что она направлена. Она должна быть способна разработать внутреннюю картину своих динамических взаимоотношений с другими сущностями или объектами своего окружения, как она воспринимает их и взаимодействует с ними. Если мы намереваемся успешно построить или развить систему такого типа, она будет ощущать себя взаимодействующей с миром, как по отношению к яблоку в своей руке, так и к человеческим агентам, с которыми она общается. Она будет ощущать себя направленной к целевым состояниям, которые она репрезентирует в себе-модели. Она изобразит мир как содержащий не просто как содержащий в себе её самость, но как вмещающий в себя воспринимающего, взаимодействующего, целенаправленного агента. Она даже могла бы обладать высокоуровневой концепцией себя как субъекта знания и опыта.
Всё, что может быть представлено, может быть осуществлено. Набросанные шаги описывают новые формы того, что философы называют репрезентационным содержимым. Нет причин, по которым это содержимое не должно быть доступно живым системам. Алан М. Тьюринг в своей знаменитой публикации 1950го «Вычислительные Машины и Интеллект» сделал заявление, которое позднее было приведено в сокращённом виде в книге видного философа Карла Поппера Самость и её Мозг, которую он написал в соавторстве с нобелевским лауреатом по нейробиологии Сэром Джоном Экклом. Поппер писал: «Уточните, что именно даёт Вам основание считать, что человек превосходит компьютер, и я построю компьютер, который опровергнет ваше верование. Не нужно принимать вызов, брошенный Тьюрингом, ибо любая достаточно точная спецификация может быть использована, как принцип программирования компьютера».6
Конечно, не самость использует мозг (как это имеет место быть у Карла Поппера), но мозг использует себя-модель. Но что Поппер действительно выявил, так это диалектику искусственной Эго Машины: Либо вы не можете идентифицировать, что именно из человеческого сознания и субъективности не может быть воплощено в искусственной системе, или, если всё-таки можете, то всё дело в написании соответствующего алгоритма для работы программы. Если у вас есть точное определение сознания и субъективности, выраженные повседневным языком, то у вас есть то, что философы называют функциональным анализом. На этом моменте, загадка исчезает и искусственная Эго Машина становится, в принципе, технологически возможной. Однако, должны ли мы делать всё то, что мы можем сделать?
Приведу здесь мысленный эксперимент, имеющий скорее этические, а не эпистемологические цели. Представьте, что вы являетесь членом этического комитета, который рассуждает над использованием научного гранта. Один говорит:
Мы хотим использовать генные технологии для того, чтобы плодить умственно отсталых детей. Для научного исследования необходимы дети человека с определенными умственными, эмоциональными недостаточностями и дефицитом восприятия. Это важная инновационная стратегия исследований, которая требует управляемого и воспроизводимого исследования психологического развития умственно отсталых детей после рождения. Это важно не только для понимания того, как работает наш собственный ум, но также имеет огромный потенциал для лечения психиатрических заболеваний. Поэтому, нам срочно необходимо соответствующее финансирование.
Вне всяких сомнений вы найдёте эту идею не только абсурдной и безвкусной, но также и опасной. Можно полагать, что предложение такого рода не будет одобрено ни в одном из этических комитетов в демократическом мире. Предмет этого мысленного эксперимента, однако, в том, чтобы вы осознали, что нерождённые искусственные Эго Машины будущего не будут иметь своих героев в современных этических комитетах. Первые машины, удовлетворяющие минимальному достаточному набору условий сознательного переживания и самости, обнаружат себя в ситуации, похожей на ситуацию генетически спроектированных умственно отсталых человеческих младенцев. Как и эти последние, машины будут обладать всеми видами функционального и репрезентационного дефицитов — различными дисфункциями, проистекающими из ошибок человеческого проектирования. Вполне допустимо, что их системы восприятия — их искусственные глаза, уши и так далее — поначалу будут работать не очень хорошо. Они будут полуглухими, полуслепыми и столкнутся со всеми возможными сложностями в восприятии мира и себя в нём; и тогда, если они будут являться истинными искусственными Эго Машинами, то они будут, ex hypothesi, способны страдать.
Если бы у них была устойчивая телесная себя-модель, они были бы способны ощущать чувственную боль, как боль собственную. Если их постбиотическая себя-модель непосредственно укоренена в низкоуровневых саморегулирующих механизмах своего аппаратного обеспечения, то есть, точно так же, как наша собственная эмоциональная себя-модель укоренена в верхнем стволе мозга и гипоталамусе, то они сознательно будут ощущать себя. Они будут болезненно переживать потерю гомеостатического контроля, потому, что у них есть встроенное представление о своём собственном существовании. Они имели бы собственные интересы, причём, субъективно переживали бы этот факт. Они могли бы эмоционально страдать качественно отличным, от нашего, образом или в такой степени интенсивности, которую мы, создатели, даже не можем себе представить. На самом деле, первое поколение таких машин, скорее всего, будут иметь много негативных эмоций, вызванных неудачами в саморегулировании из-за различных аппаратных дефицитов, а также нарушений более высокого порядка. Эти негативные эмоции будут осознаваться, равно как и интенсивно ощущаться, но во множестве случаев, мы можем не быть способными понять или даже распознать их.