Истинный творец всего. Как человеческий мозг сформировал вселенную в том виде, в котором мы ее воспринимаем - Николелис Мигель
Шрифт:
Интервал:
Закладка:
Знаменитый австрийский физик Людвиг Больцман, один из создателей термодинамики, первым нашел способ описать это понятие на количественном уровне, создав статистическую формулу для энтропии природных веществ, таких как газы. Его формула выглядит так:
E = k × log n,где E – энтропия, k – постоянная Больцмана, а n – общее число микросостояний системы.
Как следует из первой формулировки второго закона термодинамики, предложенной Уильямом Томпсоном в 1852 году, общая энтропия замкнутой изолированной системы со временем увеличивается. Этот закон применим ко всей вселенной, однако он не учитывает возникновения «локальных очагов сопротивления» со стороны живых организмов, которые оттягивают момент окончательного распада и рассредоточения. Эта партизанская война живых организмов хорошо отражена в работе другого знаменитого австрийца – лауреата Нобелевской премии физика Эрвина Шрёдингера, одного из титанов квантовой физики, который в книге «Что такое жизнь?» высказал предположение, что жизнь – это бесконечная борьба за создание и сохранение островков с пониженной энтропией, которые мы называем организмами. Как он писал, «существенно в метаболизме то, что организму удается освобождать себя от всей той энтропии, которую он вынужден производить, пока он жив»[8].
В книге «Вопрос жизни» британский биохимик из Университетского колледжа Лондона Ник Лейн дополнительно проясняет связь между энтропией и жизнью: «А главное вот что: чтобы обеспечивать рост и размножение, некоторые реакции должны непрерывно выделять тепло в окружающую среду, разупорядочивая ее»[9]. И далее продолжает: «Мы и сами платим за свое непрерывное существование теплом, которое высвобождается в результате непрерывно протекающей реакции дыхания. Мы постоянно окисляем пищу кислородом, нагревая окружающее пространство. Потеря тепла – не побочный эффект, а совершенно необходимый для поддержания жизни процесс. Чем больше потеря тепла, тем выше доступный уровень сложности».
Используя терминологию Пригожина, можно сказать, что чем больше энергии рассеивает организм, тем большей сложности он может достигнуть!
В конце 1940-х годов концепции энтропии и информации оказались навечно тесно связаны благодаря работе американского математика и электромеханика Клода Шеннона, который в 1948 году в возрасте тридцати двух лет, будучи сотрудником лаборатории Белла, опубликовал в техническом журнале компании знаменитую работу длиной в 79 страниц. В своей «Математической теории коммуникаций» Шеннон впервые представил количественную теорию информации. Помимо прочего, эта статья навсегда вошла в анналы истории в качестве теоретической колыбели, из которой позднее появилась одна из самых важных математических единиц измерения, созданных человеком в XX веке, единица информации – бит.
За несколько лет до выхода этой революционной статьи, в 1937 году, Шеннон, тогда еще студент Массачусетского технологического института, показал, что для описания каких-либо логических или численных связей в электрических цепях достаточно лишь двух чисел (0 и 1) и соответствующей логики, называемой Булевой логикой в честь ее создателя Джорджа Буля. Эта потрясающая теория положила начало эпохе цифровых сетей – изобретение транзистора в той же лаборатории Белла и первая теория Алана Тьюринга для построения идеальной вычислительной машины сделали возможным создание цифровых компьютеров, кардинально изменивших жизнь человечества за последние восемьдесят лет.
В своей статье 1948 года Шеннон предложил статистическое описание информации, как его предшественники в предыдущем столетии предлагали количественное описание энергии, энтропии и других термодинамических параметров. Более всего Шеннона интересовало то, что он называл «фундаментальной проблемой коммуникации»: «точное или приблизительное воспроизведение в определенной точке сообщения, выбранного в другой точке». В шенноновском подходе к информации не отводилось никакой роли контексту, семантике или даже смыслу; все это были лишь ненужные усложнения узкой проблемы передачи информации, которую он хотел разрешить.
В своей книге «Информация: История, теория, поток» Джеймс Глик отлично суммирует основные выводы Шеннона из его поразившей мир вероятностной теории информации. Три из них имеют непосредственное отношение к нашему рассказу. Вот они:
1. Информация является мерой неопределенности и может быть измерена простым подсчетом количества возможных сообщений. Если через канал может пройти лишь одно сообщение, то в этом нет никакой неопределенности, а значит, и информации.
2. Информация – это неожиданность. Чем более обыденным является передаваемый по каналу символ, тем меньше информации передает канал.
3. В концептуальном плане информация соответствует энтропии – ключевому термодинамическому понятию, использованному Шрёдингером и Пригожиным для описания того, как диссипация энергии дает начало жизни из неживой материи.
К общим выводам из последнего шокирующего утверждения мы еще вернемся, но до этого важно показать, как записать статистические представления Шеннона об информации в виде уравнения. В этой математической формуле энтропия Шеннона (H) представляет собой минимальное количество битов, необходимое для точного кодирования последовательности символов, каждый из которых может встречаться с определенной вероятностью. В упрощенном виде формула выглядит следующим образом:
H (X) = ∑ pilog2 piгде pi представляет собой вероятность появления каждого символа, передаваемого по каналу. В этом случае H измеряется в битах информации.
Например, если канал пропускает только один 0 или одну 1 с равной вероятностью 50 % для каждого из двух символов, для точного кодирования и передачи этого сообщения нужен один бит. С другой стороны, если канал пропускает только 1 (это означает, что вероятность появления этого символа составляет 100 %), значение H равно нулю: не передается никакой информации, поскольку сообщения не содержат никакой неожиданности. Но если длинная последовательность символов состоит из миллиона независимых битов (и каждый с равной вероятностью несет либо 0, либо 1), такой канал передает 1 миллион битов информации.
По сути, определение Шеннона означает, что чем более случайной является последовательность символов (чем она более «неожиданная»), тем больше информации в ней содержится. Точно так же, когда лопается шарик, гелий переходит из состояния с низкой энтропией в состояние с высокой энтропией, и количество информации, необходимой для описания локализации каждого атома гелия, тоже увеличивается из-за увеличения неопределенности локализации атомов в пространстве гораздо большего объема. Таким образом, согласно Шеннону, энтропию можно описать как количество дополнительной информации, необходимой для определения точного физического состояния системы с учетом ее термодинамической специфики. Иначе энтропию можно воспринимать в качестве меры недостатка информации о такой системе.
Успешность шенноновской концепции информации была очевидна – она быстро преодолела границы сферы, для которой была сформулирована изначально, и перетекла во множество других дисциплин, при этом изменив многие из них, иногда радикальным образом. Например, понимание того, что длинные последовательности четырех основных нуклеотидов позволяют нитям ДНК кодировать всю информацию, необходимую для воспроизведения организмов из поколения в поколение, ввело шенноновскую концепцию информации в сферу генетики и молекулярной биологии. С открытием генетического кода начал формироваться определенный консенсус. В общих чертах этот консенсус сводится к тому, что все наши знания о вселенной можно закодировать и расшифровать в битах – в соответствии с инновационным и революционным цифровым определением информации Шенноном. В статье «Информация, физика, квант: поиски связей» один из величайших физиков прошлого столетия Джон Арчибальд Уилер отстаивал свое мнение о том, что «информация дает начало всему, каждой частице, каждому силовому полю, даже самому пространственно-временному континууму». Он описывал это с помощью выражения «Все из бита» (It from Bit), которое немедленно вошло в оборот.