Хаос. Создание новой науки - Джеймс Глейк
Шрифт:
Интервал:
Закладка:
К досаде молодых ученых, оказалось, что они не создали ничего нового, а всего лишь развили готовую идею настолько, насколько было возможно с точки зрения практики, научившись измерять показатели Ляпунова и соотносить их с другими важными характеристиками. Используя компьютерную анимацию, они строили серии движущихся картин, иллюстрировавших биения порядка и хаоса в динамических системах. Проделанный ими анализ ясно показывал, каким образом системы, будучи неупорядоченными в одном направлении, могут оставаться вполне определенными и устойчивыми в другом. Один из таких своеобразных фильмов демонстрировал, что происходит с крошечным кластером соседствующих точек на странном аттракторе — олицетворением начальных условий — по мере развития системы во времени. Кластер начинал «распыляться», теряя фокус, превращался в точку, затем — в маленький шарик, который у некоторых типов аттракторов быстро распылялся. Такие аттракторы представляли интерес при изучении смешивания. У других аттракторов распыление шло лишь в определенных направлениях: шарик превращался в ленту, хаотичную по одной оси и упорядоченную по другой. Создавалось впечатление, будто в системе уживаются упорядоченный и хаотический импульсы и они как бы обособлены. В то время как один импульс приводил к случайности и непредсказуемости, другой работал будто точнейшие часы. И оба они могли быть определены и измерены.
Исследования хаоса, проведенные в Санта-Крусе, наиболее существенно затронули тот раздел математики, в котором присутствует изрядная доля философии и который называется теорией информации. Эта теория была создана в конце 40-х годов Клодом Шенноном, американским инженером, трудившимся в лабораториях компании «Белл телефон». Он назвал свою работу «Математическая теория коммуникации», но поскольку речь в этом труде шла об особом предмете, называемом информацией, за новой дисциплиной закрепилось наименование «теория информации». То был продукт века электроники. Линии связи и радиопередачи несли в себе нечто определенное, в недалеком будущем компьютерам предстояло хранить это «нечто» на перфокартах, магнитных цилиндрах и в оперативной памяти, и все же оно не являлось знаниями и само по себе не обладало смыслом. Основными единицами этого загадочного предмета являлись не идеи, не понятия и даже не всегда слова или числа. Независимо от того, нес ли он в себе смысл или бессмыслицу, инженеры и математики могли его измерять, пересылать по линиям передач и проверять такие передачи на точность. Слово «информация» было таким же словом, как и все остальные, но люди должны были запомнить, что они используют специальный термин, не освященный фактическим доказательством, учением, мудростью, пониманием и просвещением.
Технические средства ввели в рамки предмет изучения теории. Поскольку информация хранилась в ячейках компьютерной памяти в двоичном представлении, один разряд такой ячейки, содержащий единицу или ноль (что соответствует понятиям «да» и «нет») и названный битом, стал основной мерой информации. С технической точки зрения теория информации превратилась в инструмент, который помогал выяснить, каким образом шумы в форме случайных помех препятствуют плавному потоку битов при передаче. Теория подсказывала способ определения необходимой пропускной способности коммуникационных каналов, компакт-дисков или прочих продуктов технологии, кодировавшей язык, звуки и зрительные образы. Она указывала пути исчисления эффективности различных схем коррекции ошибок, в частности применения некоторых битов для проверки остальных. Наконец, она исследовала такое важнейшее понятие, как «избыточность». Согласно теории информации Шеннона обычный язык более чем на 50 % избыточен, т. е. содержит звуки или буквы, которые не являются строго необходимыми для передачи сообщения. Знакомая идея, не правда ли? Надежность связи в мире, где невнятно проговаривают слова и допускают опечатки, существенным образом зависит от избыточности. Известная всем реклама курсов стенографии «если в мжт прчть здс сбщн» наглядно демонстрирует выдвинутое утверждение, а теория информации позволяет дать количественную оценку данного феномена. Избыточность являет собой предсказуемое отклонение от случайного. В повседневном языке она проявляется в повторяемости значений, которое весьма сложно изменить — мера ее зависит от того, как избыточность сказывается на знаниях людей о собственном языке и мире. Именно элемент избыточности помогает людям решать кроссворды или вставлять пропущенное слово, если оно заканчивается, к примеру, буквой «а». Есть и другие типы избыточности, больше пригодные для численных измерений. Согласно статистическим данным, вероятность того, что взятой наугад буквой английского языка окажется буква «e», гораздо выше 1/26 (в английском алфавите 26 букв). К тому же не стоит рассматривать буквы как изолированные единицы. К примеру, зная, что в английском тексте есть буква «t», можно предположить, что за ней следует буква «h» или «о», а идентификация уже двух букв позволяет строить дальнейшие догадки. Частотность употребления комбинаций из двух или трех букв определяется особенностью того или иного языка. Компьютер, руководствуясь одной лишь частотностью трехбуквенных сочетаний, может выдать бессмысленный текст, но это будет узнаваемо английская бессмыслица. Криптологи долгое время использовали статистический принцип при расшифровке простых кодов. Сейчас инженеры, работающие в сфере коммуникаций, применяют его к технологиям сжатия данных и устранения избыточности, чтобы экономить пространство передающей линии или дискового накопителя. По Шеннону, нужно рассматривать эти модели, руководствуясь следующими соображениями: поток информации в обычном языке является менее чем случайным; каждый новый бит частично ограничен предшествующими; таким образом, каждый новый бит несет в себе в некоторой степени меньше содержания, чем тот, что заключает в себе реальную информацию. В такой формулировке просматривается некий парадокс: чем выше доля случайности в потоке данных, тем больше информации будет передано каждым новым битом.
Весьма ценная в техническом плане для начала компьютерной эры, теория информации Шеннона мало что привнесла в философию. Главный ее вклад, привлекший внимание специалистов других областей, выражается одним-единственным термином — энтропия. Как объяснял Уоррен Уивер в классическом изложении теории информации, «человек, впервые сталкивающийся с понятием энтропии в теории коммуникаций, вправе ощутить волнение, он вправе заключить, что встретил нечто основополагающее, важное». Концепция энтропии восходит к термодинамике; она фигурирует во втором законе, гласящем, что Вселенная и каждая отдельная система в ней неизбежно стремятся к нарастанию беспорядка. Разделите бассейн на две части, поставив между ними перегородку. Наполните одну часть водой, а другую — чернилами. Дождитесь, пока поверхность успокоится, а затем снимите перегородку. Вы увидите, что лишь посредством случайного перемещения молекул вода и чернила со временем перемешаются. Этот процесс никогда не повернет вспять, сколько ни жди — хоть до конца света. Именно поэтому считается, что второй закон термодинамики уподобил время одностороннему уличному движению. Энтропия — наименование того свойства систем, которое увеличивается согласно второму закону, — смешения, беспорядочности, случайности. Это понятие легче постичь интуитивно, не пытаясь измерить его в реальной жизни. Как с достаточной степенью достоверности можно оценить уровень смешения двух веществ? Во-первых, можно пересчитать молекулы каждого из них в отдельно взятой пробе; но как быть, если они организованы по принципу «да — нет — да — нет— да — нет — да — нет», подобно данным в линиях передач и компьютерной памяти? В этом случае вряд ли можно измерить энтропию с желаемой точностью. Другой способ заключается в подсчете только молекул «да — нет», но что делать, если они расположены по схеме «да — нет— нет — да — да — нет — нет — да»? К сожалению, строгий пересчет не поддается несложной алгоритмизации.
Роберт Шоу узрел в аттракторах движущую силу информации. Согласно его первоначальной и главнейшей концепции, хаос указывает естественный путь возврата к живым физическим наукам, к тем идеям, которые теория информации почерпнула из термодинамики. Странные аттракторы, соединяющие порядок и беспорядочность, придали новую значимость измерению энтропии систем. Они являются эффективными смесителями, которые создают непредсказуемость и таким образом повышают энтропию. По представлениям Шоу, они порождают информацию там, где ее ранее не существовало.
Однажды Норман Паккард, читая журнал «Американская наука», наткнулся на сообщение о конкурсе очерков, объявленном Луи Жако. Стоило подумать об участии: Жако, французский финансист, который выдвинул собственную теорию, касавшуюся структуры Вселенной, обещал победителю солидный приз. В конкурсе могли участвовать любые очерки, так или иначе соответствовавшие теме Жако. («Они получат груды писем от всяких чудаков», — предрекал Фармер.) Состав жюри впечатлял: туда входили светила французской науки. Паккард показал объявление Шоу. Работу нужно было представить на конкурс не позднее первого января 1978 г.