Иллюзия пользователя. Урезание сознания в размерах

Норретрандерс Тор

Часть I. Вычисления

 

 

Глава 1. Демон Максвелла

“War esein Gott, der diese Zeichenschrieb?” («Был ли это Бог, кто начертал эти знаки?») — спросил австрийский физик Людвиг Больцман, обращаясь к поэзии Гете, чтобы выразить свое удивление и восхищение четырьмя короткими математическими уравнениями, которые появились в уме ученого-физика.

И для его восхищения действительно были основания. В 1860-х годах шотландскому физику по имени Джеймс Кларк Максвелл удалось суммировать все, что было на тот момент известно о таких феноменах, как электричество и магнетизм, в четырех коротких уравнениях, которые были столь же важны в плане теории науки, сколь элегантны эстетически. Но Максвеллу не просто удалось в этих уравнениях суммировать то, что было уже известно. Ему также удалось предсказать явление, которое никому не пришло бы в голову связать с электричеством и магнетизмом — феномен, который не был открыт до смерти Максвелла в 1879 году.

«Как такое могло быть возможно?» — спрашивал Людвиг Больцман, современник Максвелла и его коллега в установлении важных вех теоретической физики. Каким образом содержание столь богатой и разнообразной коллекции явлений могло быть суммировано в виде столь немногочисленных и мощных символов, как те, которые содержат четыре знаменитых строчки уравнений Максвелла?

В определенном смысле это остается большой научной тайной. Ведь дело не ограничивается тем, что в нескольких словах или уравнениях содержится максимум возможного и создается карта территории, карта, которая просто и ясно суммирует всю важную информацию и тем самым позволяет нам находить дорогу. Но — здесь-то и заключается тайна — была создана карта, которая позволяет нам видеть детали территории, не известные на тот момент, когда создавалась карта!

Физика появилась как теоретическая наука, которая была одной из форм объединения различных разрозненных явлений в единую теоретическую базу. В 1687 году Исааку Ньютону удалось впервые объединить различные природные явления в единый теоретический образ, когда он представил свою теорию гравитации. Сама теория была довольно элегантной с математической точки зрения, но ее реальное значение состояло в том, что она объединяла знания о двух различных, хотя и сходных, группах явлений. В начале 1600 годов Галилей основал современную теорию движения тел на Земле — падение тел, ускорение, колебания и многое другое — и в тот же период Иоганн Кеплер сформулировал серию законов, которые описывают движение планет вокруг солнца. И Галилей, и Кеплер базировались в своих теориях на наблюдениях. Для Галилея это были его собственные эксперименты, для Кеплера — наблюдения за планетами датского астронома Тихо Браге.

Подвиг Ньютона заключался в том, что ему удалось объединить две эти теории — теорию Галилея о Земле и Кеплера о небесах — в одну теорию, которая свела воедино небо и землю. Значение имел только один принцип — гравитация — то, что пока никто не мог понять.

Теория Ньютона стала моделью для всех более поздних физиков (и оказала влияние на все отрасли науки), когда идеалом стало Великое Объединение теорий из различных научных отраслей.

Однако началом Второго Великого объединения стали лишь знаменитые уравнения Джеймса Кларка Максвелла. И если Ньютон объединил небо и землю, Максвеллу удалось соединить электричество и магнетизм.

Весь современный научный взгляд на Вселенную базируется на признании определенных природных сил — гравитации, электричества, магнетизма и двух других, которые действуют в мире атомов. Эти силы описывают, каким образом различные материальные тела взаимодействуют друг с другом. А истинный смысл заключается в том, что не существует в природе иных сил помимо тех, что перечислены выше. Все нам известное может быть описано через эти силы и оказываемые ими эффекты.

И потому открытие, совершенное в прошлом веке, имело огромное значение: оказывается, существует связь между двумя этими силами — электричеством и магнетизмом. В 1820 году датский ученый Ганс Христиан Эрстед обнаружил, что магнитная игла отклоняется электрическим током. До этого момента никому не приходило в голову, что существует связь между электричеством и магнетизмом — двумя хорошо известными явлениями. В 1831 году Майкл Фарадей доказал и обратное теории Эрстеда — что электрический ток, который возникает в проводнике, подвергается действию магнитных полей — мы называем это электромагнитной индукцией. Когда Фарадея спросили, какую практическую пользу может иметь его открытие, он ответил: «А какая польза может быть от ребенка?».

Джеймсу Кларку Максвеллу было всего несколько месяцев от роду, когда Фарадей открыл индукцию. 30 лет спустя Максвеллу удалось инициировать Второе Великое объединение в физике, когда его уравнения объединили в себе достижения Фарадея, Эрстеда и многих других.

Максвелл сознательно работал с использованием принципа аналогии. Он создавал теории об электрических и магнитных явлениях, воображая вихри в пространстве, которые представляли собой поля, вызывающие электрические и магнитные явления. Он сознательно использовал простые образы, которые можно было отбросить, когда он начинал понимать явление достаточно хорошо, чтобы выразить его в математической форме. Как написал Максвелл, начинать необходимо с «упрощения и сокращения результатов предыдущих исследований до такой формы, когда их может охватить ум».

Размышляя о вихрях (что впоследствии превратилось в гипотетическую модель, созданную из небольших шестеренок), Максвелл пришел к выводу о том, что если проводить механическую аналогию между электричеством и магнетизмом, то необходимы дополнительные небольшие вихри. Эти новые вихри не соответствовали ни одной известной на тот момент концепции — но были необходимы для того, чтобы ментальные построения обрели смысл, и карта стала как можно более аккуратной.

Когда Максвелл подсчитал скорость, с которой должны были бы распространяться в пространстве эти гипотетические крошечные вихри, он обнаружил, что они распространяются со скоростью света. Это было странно, так как до тех пор никому не приходило в голову, что свет каким-либо образом связан с электричеством и магнетизмом. Но Максвелл обнаружил, что свет представляет собой электромагнитное излучение — подвижные электрические и магнитные поля, которые распространяются по Вселенной, чередуясь в вечном движении под нужными углами, в направлении своего рассеивания. Поразительная картина, объясняющая природу света — вопрос, который ученые обсуждали в течение столетий.

Таким образом, уравнения Максвелла описывают не только то, для описания чего они были созданы, но также — в качестве бонуса — и сам свет. И выяснилось, что у света есть целая плеяда «родственников»: радиоволны, Х-лучи, инфракрасная радиация, микроволны, гамма-лучи и ТВ-волны (первые из которых были открыты Генрихом Герцем в 1888 году, лишь через 9 лет после смерти Максвелла).

Следовательно, материальное значение уравнений Максвелла оказалось огромным.

Каким бы был 20 век без радио, рентгеновских лучей, телевидения и микроволновок? Лучше — возможно, другим — совершенно точно.

Как сказал Генрих Герц об уравнениях Максвелла: «Нельзя изучать эту удивительную теорию, не испытывая по временам такого чувства, будто математические формулы живут собственной жизнью, обладают собственным разумом — кажется, что эти формулы умнее нас, умнее даже самого автора, как будто они дают нам больше, чем в свое время в них было заложено».

Как удалось Максвеллу гипотетически, используя аналогии, прийти к тому, что никто еще не открыл? Именно этот вопрос на самом деле имел в виду Людвиг Больцман, когда спрашивал, не были ли уравнения Максвелла написаны Богом.

В каком-то смысле на этот вопрос ответил сам Максвелл, умирая от рака. Когда к нему пришел профессор Ф. Дж. А. Хорт, которого он знал еще по Кембриджу, Максвелл сказал, не зная ничего о высказывании Больцмана: «Я чувствую, что совершенное мною на самом деле совершено кем-то более великим, чем я сам».

И подобное предположение — о том, что многие научные идеи возникают в уме, не контролируемые сознанием — было выказано Максвеллом уже не в первый раз. Вскоре после смерти своего отца в 1856 году он написал стихотворение о «мощи и мыслях внутри нас, которых мы не знаем до тех пор, пока они не поднимутся сквозь течение сознания — оттуда, где секретно обретается наша сущность». Максвелл увидел свет в своих уравнениях не благодаря сознательному действию: «Когда Воля и Разум молчат, мысли приходят и уходят».

Подобные мысли вовсе не являются необычными для прирожденных великих ученых, которые очень часто говорят о подсознательных или даже мистических явлениях, которые легли в основу их теорий. И в этом смысле уравнения Максвелла действительно были написаны не Максвеллом. Это сделал кто-то внутри него — гораздо более великий, нежели он сам.

Другие физики с тех пор пытались повторить подвиг Ньютона и Максвелла, которым удалось объединить различные теории о различных явлениях. Но пока не одному из них еще не выпал подобный джек-пот унификации.

Безусловно, в этом веке Альберту Эйнштейну удалось развить новые идеи, базирующиеся на идеях Ньютона и Максвелла, но его восхитительно красивая теория относительности, описывающая движение и гравитацию, не привела к объединению каких-либо природных сил.

С другой стороны физики, изучающие мир атомов, открыли две фундаментальные природные силы в дополнение к гравитационным и электромагнетическим: сильное и слабое взаимодействие, существующие на атомном и субатомном уровне.

Слабые взаимодействия обнаруживаются только при процессах радиоактивного распада. Сильные взаимодействия проявляются только в атомном ядре. В 60-е годы прошлого века Абдус Салаам и Стивен Вайнберг объединили теории слабых взаимодействий и электромагнетизма, что привело к пониманию их как одной силы. В 70-е годы другим физикам удалось показать, что сильные взаимодействия также могут рассматриваться как вариации этого нового «электро-слабого взаимодействия». Таким образом, в этой картине появился новый порядок — но на самом деле все, что совершили физики — это вписали две вновь открытые силы в систему уже существующих. Эту картину вполне можно было бы считать Великим Объединением — но в ней все еще отсутствует критически важная часть, а без нее окончательное объединение будет невозможным. И эта отсутствующая часть — гравитация.

В 80-е годы появилась теория об образованиях, которые получили название «суперструны». Она вызвала большой интерес, так как впервые появились основания надеяться, что удастся объединить гравитацию (теория относительности Эйнштейна) и теории электромагнетизма, а также сильные и слабые взаимодействия (ядерная физика и физика частиц). Суперструны включают в себя крошечные вибрирующие элементы, которые выступают в качестве строительных кирпичиков для всей материи Вселенной. Но это Третье Великое объединение оказалось дорогой, идти по которой было очень сложно — и в любом случае гораздо менее интересно, чем следовать первым двум объединенным теориям.

Великий вклад Исаака Ньютона заключался в том, что ему в конечном итоге удалось объединить землю и небеса; вклад Максвелла состоял в том, что он объединил такие повседневные явления, как магнетизм, электричество и свет. Теория суперструн, однако, не имеет ничего общего с нашей повседневной жизнью: она действует в экстремальных и странных для нас условиях, которые не являются обычными — и эти условия настолько далеки от возможностей современной физики, что не стоит в скором будущем ожидать каких-либо экспериментов в этой области.

Сегодня, несмотря на громадные суммы, которые тратятся на сложные устройства — к примеру, Европейской организацией ядерных исследований неподалеку от Женевы — никто на самом деле не верит, что Третье Великое объединение — теория, которая сможет объединить все силы природы — состоится в обозримом будущем. Можно много говорить о том, что её создание уже не за горами, но как показывает теория суперструн, даже если она появится, возможно, она не сможет сообщить нам много нового в дополнение к тому, что мы уже используем в своей повседневной жизни. И это весьма разочаровывает.

Тем не менее в 80-е годы прошлого века был сделан целый ряд драматических и удивительных прорывов, которые увели физику прочь от тех тенденций, которые доминировали в ней в течение 20 столетия.

На протяжении большей части прошлого века физики уходили все дальше от нашей повседневной жизни, от явлений, которые мы можем наблюдать собственными глазами. Все большие и большие ускорители, и все более сложные аппараты создавались для изучения причудливых эффектов, которые, по уверениям физиков, могу пролить свет на то, каким образом можно объединить теорию гравитации с теориями, разработанными на атомном уровне. Пока успеха не достигнуто.

В 80-е годы прошлого века целый ряд новых теорий — теория хаоса, фракталов, теория самоорганизации и теория сложности — снова позволили осветить нашу повседневную жизнь. Физики могут понять множество мелких деталей, проводя эксперименты на дорогостоящих исследовательских площадках — но они вряд ли смогут объяснить обычные явления; наука сегодня испытывает проблемы с тем, чтобы ответить на вопросы, подобные тем, которые задают дети — вопросы о форме, в которой предстает перед нами природа, о деревьях, облаках, горных хребтах и цветах.

Теории хаоса и фракталов привлекли большой интерес, так как в них содержатся совершенно новые взгляды, и они несут в себе полностью новые эстетические формы, особенно если говорить о фракталах в компьютерной графике.

Но фактически самым интересным аспектом этих новых направлений является то, что в них содержится серия важных концептуальных инноваций, которые могут нас привести к Третьему Великому объединению. Правда, это будет не теория, которая объединяет гравитацию и теорию атома, а соединение науки и повседневной жизни. Теория, которая с одинаковым успехом сможет объяснить возникновение Вселенной и повседневного сознания, теория, которая объяснит, каким образом концепция смысла, к примеру, соотносится с концепцией черных дыр.

Подобное объединение по своей важности легко будет соответствовать тому, что сделали Ньютон и Максвелл. Есть множество указаний на то, что так и будет. И все это благодаря задаче, которая была решена в 1980-е годы. Эта задача была предложена Джеймсом Кларком Максвеллом в 1867 году — задача демона Максвелла.

«Призрак бродит по науке — призрак информации». Этими словами, намекающими на «Коммунистический манифест», физик Войцех Зурек открыл в 1988 году встречу в Санта Фе, Мексика. На этой встрече собрались 40 ведущих мировых физиков и несколько математиков, чтобы обсудить «Сложность, Энтропию и Физику информации».

Зурек говорил о ряде «глубоких аналогий» между очень различными полюсами физики — и между физикой и каждодневной жизнью. Аналогии между тем, как работает паровой двигатель, и теорией коммуникации, между измерением атомных явлений и теорией познания, между черными дырами Вселенной и уровне беспорядка в чайной чашке, между вычислениями в компьютере и основами математики, между сложностью биологических систем и расширением Вселенной.

Когда тот же состав физиков снова собрался на следующую конференцию двумя годами спустя, 79-летний американский физик Джон А. Вилер открыл собрание. В 1939 году Вилер создавал теорию расщепления ядра с Нильсом Бором. Именно Вилер дал название самому странному феномену эйнштейновской теории гравитации — черным дырам. Вилер, которому нравилось играть роль пророка, был большим специалистом во многих областях физики, которые обсуждались на встрече.

Сначала низенький кругленький человечек с приятным, постоянно счастливым лицом прошел через небольшую, но исключительно квалифицированную группу ученых, собравшихся в аудитории института Санта Фе 16 апреля 1990 года. Затем он заговорил: «Это не просто еще одна встреча. К концу недели я ожидаю, что мы сможем узнать, каким образом сложена Вселенная».

Затем Вилер перешел к тому, что поставил под сомнение несколько «священных коров» физики. «Не существует пространства, и не существует времени,» — сказал он, начиная свою атаку на концепцию реальности. — «Там» нет никакого «там»…

«Идея одной Вселенной нелепа: Мир. Мы все являемся участниками и наблюдателями во Вселенной — и это чудо, что у нас формируется одинаковый взгляд на нее. Но к концу недели мы можем понять, каким образом создать все это из ничего», — сказал Вилер небольшой группе ученых.

С этим согласились не все. Та неделя не изменила нашего взгляда на Вселенную, но у всех появилось ощущение, что пришло время еще раз все обдумать. Ведущие ученые создали документы, в которых были тщательно проверены все фундаментальные идеи физики.

«Я хочу поговорить о том, о чем не говорится в учебниках, — объяснил Эдвин Т. Джейнс, еще один американский ученый-коротышка, который в 50-е годы сформулировал новые теоретические описания термодинамики, теорию, которая заложила основы энтропии и информации — центральных вопросов конференции 1990 года. — Или, возможно, говорится — в том смысле, что все формулы в учебниках есть, но они ничего не говорят нам о том, что означают эти формулы, — сказал Джейнс. — Математика, которую я намерен использовать, намного проще, чем то, на что все мы способны. Но проблемы носят не математический, а концептуальный характер».

Во время перерыва Томас Кавер, математик из Стэнфордского университета, спросил: «Все встречи физиков такие, как эта? Это же как съесть конфетку!»

На самом деле эта встреча была исключением. Подобные открытые встречи действительно случаются редко. Здесь можно было услышать тот же вопрос, который создавал вам проблемы с учителями в школе: «Что это значит? Как это понимать?». Здесь можно было слышать, как лучшие умы восклицают: «С чего бы моему автомобилю интересоваться тем, что я знаю о мире?»

Казалось, что физика получила новое рождение. И все это из-за первой серьезной темы, которая была поднята, когда Вилер задал тон всей встрече: демон Максвелла.

Тепло. Если человечество и располагает знаниями о чем-то, то это о тепле. Тепло тела. Летнее тепло. Нагреватели. Но до середины 19 века физики не могли дать точное определение, что же такое тепло. В Древней Греции Аристотель определял огонь как независимый и необъяснимый элемент, как и воздух, земля и вода, и тепло как одно из неотъемлемых качеств, комбинация которых определяет эти элементы.

В начале 1800-х годов превалировали сходные с этой идеи: тепло рассматривалось как особая субстанция, термическая материя, тепло, которое окружает все тела. Но точное определение того, что такое тепло, стало настоятельной потребностью после того, как Джеймс Ватт изобрел новый эффективный паровой двигатель в 1769 году, что не только привело к возможности индустриализации, но и породило многочисленные дискуссии относительно машин на основе бесконечного движения. По мере того как паровой двигатель продвигался по Европе, ученым попросту пришлось прийти к пониманию термодинамики.

Первый решительный вклад был сделан в 1824 году французом Сади Карно, который под влиянием скорее всего своего отца Лазаря Карно, имевшего опыт в сфере инженерии тепловых машин, а не в результате знания физических теорий, сформулировал описания паровых двигателей, которые десятилетиями позже стали описаниями первого и второго законов термодинамики.

Первый закон термодинамики касается общего количества энергии в мире. Это количество является постоянным. Энергия не появляется и не исчезает, когда мы ее «потребляем». Мы можем конвертировать энергию угля в горячий пар или нефти в тепло — но задействованная при этом энергия просто переходит из одной формы в другую.

Это входит в противоречие с повседневным значением слова «энергия», которое мы применяем по отношению к тому, что мы потребляем. Мы говорим: «Страна имеет определенный уровень энергопотребления». Но на самом деле это не имеет смысла, если брать во внимание определение энергии, которое дают физики. Страна переводит одну форму энергии в другую. Нефть в тепло, к примеру. Но общее количество энергии остается неизменным.

Однако наш повседневный язык вовсе не настолько глуп, так как очевидно: когда мы обогреваем свои дома, нечто все же расходуется — вернуть обратно нефть нам не удастся.

Так что, когда мы «потребляем» энергию, что-то все же происходит, даже если первый закон термодинамики и утверждает: количество энергии в мире — величина постоянная, и энергия не может быть использована. Ведь второй закон термодинамики объясняет, что энергия может быть использована.

Второй закон термодинамики говорит нам, что энергия может появляться в более или менее пригодной для использования форме. Некоторые формы энергии позволяют нам проделать огромное количество полезной работы с помощью машины, которая может иметь к ней доступ. Мы можем выполнять такие виды работы, как обогревание жилища, обеспечение энергии для движения поезда или работы пылесоса.

Энергия существует во многих формах, и несмотря на то, что количество этой энергии остается постоянным, формы, в которых она представлена, определенно не остаются таковыми. Некоторые формы энергии могут применяться для выполнения различных видов полезных работ. Одна из наиболее полезных форм энергии — это электричество. Другие формы не могут быть использованы с такой же легкость. К примеру, тепло, как правило, не применяется для чего-либо за исключением обогрева.

Но, разумеется, тепло можно применять и для решения более специфических задач, нежели просто «обогрев». Тепло может служить в качестве движущей силы парового локомотива. Но снабжать локомотив энергией за счет тепла будет не столь же эффективно, как используя электричество в качестве источники энергии. Если применять тепло, то требуется большее количество энергии, причем эта энергия будет отличаться низким качеством.

Паровые двигатели заставили людей осознать, что энергия может присутствовать и при этом не быть доступной. Тепло — это форма энергии, которая не отличается столь же высокой доступностью, как электричество. Чтобы заставить поезда двигаться, нам потребуется конвертировать большее количество тепловой энергии. Мы не потребляем при этом больше энергии, так как потребить энергию невозможно, что бы мы ни делали и ни говорили. Но при использовании энергии в форме тепла тратится понапрасну гораздо большая ее часть, нежели при использовании ее в форме электричества. Другими словами, конвертируется больше энергии.

Очень точно это описывает второй закон термодинамики. Он говорит нам, что каждый раз, когда мы конвертируем энергию («потребляем» энергию, как мы привыкли говорить), она становится менее доступной — с ее помощью мы можем сделать меньше работы. Дело обстоит именно так, говорит нам второй закон: любая конверсия энергии приводит к тому, что энергия становится менее доступной, чем была до этого. (Есть несколько очень специфических случаев, когда энергия может быть конвертирована с возможностью обратной конверсии, но их можно встретить в основном в учебниках, а не в обычной жизни).

Энергия в мире — величина постоянная, но она становится все менее и менее ценной — менее и менее доступной — по мере того, как мы ее используем все больше и больше.

Итак, законы термодинамики утверждают, что энергия — это постоянная величина, но она становится все менее и менее доступной. В конце 19 века эти два закона привели к тому, что люди начали верить: мир ожидает зловещее будущее. Ведь чем больше энергии мы конвертируем, тем менее доступной она становится, и в конце концов вся энергия превратится в тепловую — наименее доступную из всех форм.

Люди назвали это «тепловой смертью» Вселенной: вся энергия в конце концов превратится в нечто однородное и едва теплое, и из подобной энергии уже нельзя будет извлечь никакой пользы.

Практика использования паровых двигателей ясно показывает, что тепло можно использовать для выполнения работы только в том случае, если присутствует разница — разница между двумя температурами. Только потому, что бойлер парового двигателя значительно горячее, чем окружающая температура, он может привести поезд в движение. Полезную работу за счет использования тепла можно получить только в том случае, если горячее удастся снова охладить. Но когда мы охлаждаем что-то горячее до температуры окружающей среды, это неминуемо будет иметь последствия: мы не сможем разогреть это снова без использования энергии. Как только ваш кофе остывает (после того, как вы нагрели его с помощью электричества, на котором работает ваша плитка), оно никогда не нагреется снова само по себе (пока вы снова не включите электричество). Разница в уровне температур уничтожается необратимо.

Таким образом, второй закон термодинамики говорит нам, что мы живем в мире, где все стремится к подобию, однородности, серости и умеренной температуре — к тепловой смерти Вселенной. Если бы дело обстояло не так, профессия инженера была бы гораздо более счастливой. В конце концов, в мире предостаточно энергии, и она никуда не исчезает. Мы могли бы снова и снова использовать одну и ту же энергию. Мы могли бы без всякого промедления создать машины на принципе вечного движения. Но извините, так не получится. Это говорит нам второй закон термодинамики.

В 1859 году прусский физик Рудольф Клаузевиц дал этому явлению название — энтропия. Энтропия — это мера, определяющая количество доступной энергии. Чем больше энтропия, тем меньше энергии мы можем использовать. Два закона термодинамики можно выразить другим способом: согласно первому закону, энергия постоянна, а согласно второму — энтропия постоянно возрастает. Каждый раз, когда мы конвертируем энергию, энтропия системы, в которой конвертируется энергия, растет.

Но это так и не объясняет, что же такое на самом деле тепло — зато частично объясняет то, почему тепло является настолько особенной формой энергии: в тепле много энтропии, намного больше, чем в электрическом токе.

Но вскоре развилось и понимание того, что такое тепло. Самый значительный вклад в это внесли Джеймс Кларк Максвелл и Людвиг Больцман. Они осознали, что старая идея может быть сформулирована более точно: идея о том, что тепло является одной из форм движения внутри материи. Предпосылкой для этого стала теория атомов — идея о том, что материя состоит из огромного числа крошечных частиц, которые находятся в постоянном движении.

Атомная теория в конце прошлого века не была еще признана повсеместно — но сегодня ясно, что вся материя состоит из атомов, которые находятся в постоянном движении. Атомы объединяются в небольшие группы — молекулы, и каждый вид материи состоит из определенного типа молекул, созданных из различного числа существующих 92 видов атомов. Но существуют различные виды движения. Твердые тела поддерживают постоянную форму, несмотря на то, что их молекулы находятся в движении; жидкости более податливы и принимают форму дна того сосуда, в котором они находятся; газы полностью мобильны, заполняя весь контейнер. Существуют три состояния, или фазы, в которых может находиться материя: твердое, жидкое и газообразное. (На самом деле есть еще и четвертое состояние — плазма, в котором атомы разбиваются на частицы. В повседневной жизни это состояние материи знакомо нам в качестве огня).

Разница между этими тремя состояниями не настолько велика, как можно было бы подумать. На примере одного вещества, H2O (которое состоит из атома кислорода — О- и атомов водорода — Н —, последних содержится два на молекулу) мы знакомы со всеми тремя состояниями вещества: лед, вода и пар. При низких температурах молекулы передвигаются очень медленно. Структура поддерживается в постоянной форме. Если температура немного повышается, молекулы начинают двигаться быстрее и могут меняться местами друг с другом, но они все еще держатся вместе. При температуре выше 100 градусов Цельсия все молекулы разделяются и начинают свободно перемещаться в форме пара — как газ. Переход между этими тремя состояниями или фазами носит название «фазовый переход». При всех движениях, которые совершаются при повышении тепла, молекулы движутся хаотично, туда-сюда. Движение, вызванное выделением тепла, не имеет направления.

Но тепло — это не единственная форма движения материи: электрический ток также является проявлением движения. Но в случае электричества не все молекулы движутся беспорядочно. У электрического тока имеется одна составляющая атомов молекулы — отрицательно заряженный электрон — который движется в определенном направлении. При возникновении электрического тока наблюдается больше порядка, чем при хаотическом тепловом движении. Аналогично атмосферный ветер является иным, нежели тепло, проявлением: огромное количество молекул движется в определенном направлении, вместо того, чтобы просто топтаться на месте друг вокруг друга. Вот почему ветряные мельницы являются разумным способом производства электричества, в то время как атомные и работающие на нефти электростанции не столь элегантны — ведь на них применяется топливо, которое нагревает воду, движущую турбины. Обходной путь с использованием горячей воды — это высокая цена, которую приходится платить за излюбленные игрушки инженеров.

В любом случае мы многое можем понять о материи, если поймем, что она состоит из множества мельчайших компонентов, которые находятся в той или иной стадии движения. Движение подразумевает использование определенного количества энергии, либо упорядоченной, как в случае с ветром, либо неупорядоченной, как в случае с теплом. Ветер более полезен с точки зрения генерирования электрического тока, нежели тепло, как раз потому, что у него есть направление движения. Но тем не менее в тепле содержится масса энергии — просто ею тяжелее воспользоваться, так как она содержится в настолько беспорядочном движении.

Температура — это выражение типичной скорости, с которой движутся молекулы. То, что мы подразумеваем под теплом и измерением температуры — это не что иное, как неупорядоченное движение.

Значит ли это, что все молекулы газа движутся с совершенно одинаковыми скоростями? Как им удается угнаться друг за другом, когда мы включаем обогреватель?

Именно эту дилемму и удалось разрешить Максвеллу.

Впервые в истории физики он ввел статистическую концепцию. Не все молекулы движутся с одинаковой скоростью. У некоторых из них огромная скорость, у других намного меньшая. Но их скорость имеет характерное распределение — распределение Максвелла-Больцмана, которое утверждает: у молекул есть определенная средняя скорость, но они проявляют вариации в отношении этой средней скорости. Если среднее значение является высоким — температура будет высокой. Если среднее значение низкое — температура низкая.

В материи с заданной температурой молекулы проявляются со многими различными скоростями. У большинства из них скорость близка к среднему значению. В горячей материи можно обнаружить больше молекул с высокими скоростями, чем в холодной материи. Но в холодной материи можно обнаружить скоростные молекулы, и в горячей — молекулы, которые почти впали в летаргию.

Это дает нам возможность понять процесс испарения. Чем выше температура, тем больше будет молекул с высокими скоростями. Если представить себе процесс испарения в виде крошечных молекул, которые как ракеты отправляются в космос, то мы увидим: чем выше температура жидкости, тем больше молекул отправятся в путь.

Но у статистического распределения скоростей есть и интересное последствие: для каждой отдельно взятой молекулы невозможно определить, к какой температурной группе она относится. Другими словами, каждая индивидуальная молекула не имеет представления, частью какой температурной составляющей она является.

Температура — это концепция, которая приобретает значение только в том случае, если у нас имеется сразу много молекул. Было бы нонсенсом спрашивать каждую молекулу, какова ее температура. Ведь молекула этого не знает: все, что ей известно — это скорость, причем только ее собственная.

Или все же знает? Через какое-то время молекула газа сталкивается с другими молекулами и приобретает определенное «знание» о том, какова их скорость. Именно поэтому материя поддерживает ровную температуру: молекулы сталкиваются друг с другом и обмениваются скоростями: достигается состояние баланса. Когда мы нагреваем материю, мы можем делать это снизу. Результирующая высокая скорость быстро распределится среди всех молекул.

Вклад Максвелла заключался в том, что он основал учение о законах, управляющих подобным поведением. Движение и столкновения крошечных молекул могут быть красиво описаны по старым законам Ньютона — это движение и столкновения, в которых участвуют миллиарды шаров. Оказалось, что если у вас есть достаточное количество шаров (а в воздухе просто ужасно много молекул — приблизительно 1,000,000,000,000,000,000,000,000,000 [1027] молекул в обычной комнате), результатом действия ньютоновских законов движения становятся статистические законы материи, с которыми мы уже знакомы: правила для температуры, давления и объема, правила уменьшения доступности энергии тепла.

Но в этой картине есть кое-что странное. Законы Ньютона для миллиардов шаров и другие механические явления — это простые и красивые законы. Они описывают обратимые явления — эти явления могут быть обращены во времени. Во Вселенной Ньютона время может течь в обратную сторону — а мы даже не заметим разницы. Но в мире термодинамики поведение шаров связано с такими причудами, как второй закон термодинамики. Если смешать горячее и холодное, разделить их снова будет невозможно. Когда ваш кофе остыл, уже произошло нечто необратимое.

Толпа «высокоскоростных» молекул смешивается с толпой «низкоскоростных»: шарики сталкиваются друг с другом и приобретают новую среднюю скорость. Это позволяет раз и навсегда уравнять разницу: вы не сможете отделить молекулы, которые ранее имели высокую скорость, и те, которые ранее двигались на низкой скорости, так как каждая индивидуальная молекула не имеет ни малейшей мысли о том, частью какой температуры она являлась в тот или иной момент.

Как только молекулярная колода была перетасована, вы не сможете вернуть ее в прежнее состояние.

Эту проблему удалось точно сформулировать Людвигу Больцману примерно в период смерти Максвелла, в 1879 году: не существует высокой вероятности того, что законы Ньютона заставят все молекулы внезапно вернуться к своей первоначальной скорости перед смешиванием. На самом деле — это очень маловероятно. Со временем молекулы смешиваются все больше и больше. Холод и жар уравниваются до тепла.

Вот почему растет энтропия. Энтропия — это выражение недоступности данного вида энергии. Если эта энергия находится в форме тепла — измеряемого как температура — использовать ее можно только в том случае, если смешать что-то горячее с чем-то холодным (горячий пар и холодный окружающий воздух, которые смешиваются в паровом двигателе, к примеру). Но как только вы смешаете эти субстанции, вы уже не сможете их разделить и ожидать, что процесс будет работать снова.

Причина этого — возникающее выравнивание, и это выравнивание является необратимым. Это и есть причина того, что энтропия Вселенной возрастает. Необратимо.

Больцману удалось достичь понимание сущности тепла и понимания того, что вскоре начали рассматривать как самый фундаментальный закон природы: второй закон термодинамики. В определенном смысле это еще и понимание того, что на самом деле означает течение времени: молекулы обмениваются скоростями, их движение уравнивается, они обретают среднюю скорость — баланс. Это и есть разница между «тогда» и «теперь» — мы движемся от разницы к однообразию.

Но многие физики, современники Больцмана, критиковали его точку зрения. Мы не можем, говорили они, вывести подобный необратимый и безотзывный закон, как закон термодинамики, из законов Ньютона о движении и кинетике — физики бильярдного стола! Ведь обратимость придает картине мира Ньютона такое могущество: все уравнения можно обернуть во времени, все процессы суть одно и то же, движутся ли они вперед или назад.

На основании практически любого опыта, который мы получаем из нашей повседневной жизни и о котором можем упомянуть, мы можем заявить, что многие вещи в этом мире просто необратимы: когда что-то бьющееся падает на пол, оно не может восстановиться само по себе; тепло поднимается вверх по печной трубе, а беспорядок на столе со временем становится только еще беспорядочнее. Время проходит — и все гибнет. Все ломается. Вы когда-нибудь видели, чтобы разбитая тарелка вновь восстала из обломков?

Но это не интересовало критиков Больцмана, ведь теории Ньютона составляли саму суть физических теорий, и картина, в которой что-то безвозвратное выводилось из возвратного, необратимое из обратимого, выглядела для них в корне неверной. Физики того времени говорили, что Больцман неправильно понимает время.

Теория, согласно которой материя состоит из атомов, не была целиком принята учеными до рубежа 19 века. Теоретическая основа всех идей Максвелла и Больцмана о тепле как статистическом феномене огромных конгломератов молекул, подверглось жесткой критике. И так было вплоть до первой декады 20 века, когда такие физики, как Эйнштейн, Томсон и Бор установили раз и навсегда, что атомы действительно существуют.

В 1898 году в предисловии к книге о теории молекулярного движения в воздухе Больцман написал, что он убежден: «эти атаки базируются только на непонимании» и что он осознает: «он является всего лишь человеком, который пытается бороться с потоком времени».

Когда Больцману исполнилось 62 года, в 1906 году, он все еще не был чествуемым героем, несмотря на свой огромный вклад в развитие физики. Его мучили депрессии и боязнь чтения лекций. Он вынужден был оставить профессорскую деятельность в Лейпциге и оказаться в собственной научной изоляции.

В предыдущем году он написал в одной из популярных книг: «Я могу сказать, что остался единственным из тех, кто всем сердцем принимает старые теории; по крайней мере единственный, кто готов бороться за них изо всех сил».

Но силы его истощились. Во время летнего отдыха возле Триеста 6 сентября 1906 года Людвиг Больцман покончил жизнь самоубийством.

Объединение принципов обратимости в возвышенных уравнениях Ньютона и необратимости повседневной жизни не стало задачей Больцмана, несмотря на тот факт, что именно с этой проблемой столкнулся Максвелл в 1867 году, когда он ощутил своего непослушного демона, который на протяжении более чем столетней дискуссии, смог осветить и объяснить ту самую сложность, которая оказалось для Людвига Больцмана необратимой.

«Демон Максвелла жив до сих пор. После более чем 120 лет сомнительной жизни и по меньшей мере двух провозглашенных смертей, этот причудливый персонаж кажется более живым, чем когда-либо», — написали два американских физика, Харви Лефф и Эндрю Рекс в 1990 году, когда они опубликовали книгу об исторических источниках, иллюстрирующих историю демона Максвелла. Эту историю два физика считают незаслуженно забытой главой истории современной науки. «Демон Максвелла — это не более чем простая идея, — писали они. — Тем не менее он бросал вызов многим из лучших научных умов, и его литературная деятельность охватывает термодинамику, статистическую физику, теорию информации, кибернетику, пределы вычислений, биологические науки, историю и философию науки».

В 1867 году физик Питер Гатри Тейт написал своему близкому другу и университетскому приятелю Джеймсу Кларку Максвеллу, спрашивая его, не пробежится ли тот критическим взглядом по рукописи об истории термодинамики до ее публикации. Максвелл ответил, что будет счастлив это сделать, несмотря на то, что с подробностями истории термодинамики он незнаком. Но он, возможно, мог бы обнаружить одну или парочку дыр. После чего Максвелл продолжил свое письмо, указывая на одну огромную дыру в работе, которой он еще даже не видел: и эта дыра заключалась во втором законе термодинамики.

Идея Максвелла была проста: в контейнере с двумя отделениями — А и В — содержится газ. В перемычке, которая разделяет эти два контейнера, имеется дыра, которая может открываться и закрываться без приложения каких-либо усилий, другими словами, путем суперскольжения.

«А теперь представьте себе определенную сущность, которая узнала пути и скорости всех молекул посредством простого осмотра, и которая не может выполнять никакой другой работы, кроме как открывать или закрывать дыру в перемычке, пользуясь способом скольжения без массы», — написал Максвелл Тейту. Далее он продолжил описание того, как это маленькое существо открывает отверстие каждый раз, когда быстрая молекула из левой камеры направляется к нему. Когда медленная молекула из той же камеры приближается к отверстию, оно остается закрытым.

Таким образом из левой камеры в правую могу попасть только быстрые молекулы. И наоборот, только медленные молекулы из правой части камеры могут попасть в левую.

Результатом станет то, что в правой части камеры соберутся быстрые молекулы, а в левой — медленные. Количество молекул в обеих камерах остается тем же, но их средняя скорость меняется. В правой камере температура повышается, в то время как в левой она снижается. Разница создана. «И тем не менее не было выполнено никакой работы, — пишет Максвелл. — Был задействован только интеллект очень наблюдательного и ловкого существа».

Максвелл действительно обнаружил дыру во втором законе термодинамики: умное маленькое существо может создавать жар из обычного тепла, не производя при этом никакой работы. «Говоря коротко, — писал Максвелл, — если тепло — это движение конечных порций материи и если мы можем приложить к этим порциям инструменты, которые позволят работать с ними раздельно, то мы сможем воспользоваться преимуществом разницы движений различных пропорций для восстановления равномерно горячей системы, исходя из разницы температур или движения больших масс. Мы не можем этого сделать лишь потому, что недостаточно умны».

Мы слишком велики и неуклюжи, чтобы обойти второй закон термодинамики. Но если бы мы были немного более ловкими и наблюдательными, мы смогли бы разделить молекулы в воздухе нашей кухни, направив их в холодильник и в духовку — и это бы не отразилось в наших счетах за электричество.

Три года спустя Максвелл писал лорду Райли, другому физику: «Мораль такова: Второй закон термодинамики верен настолько же, насколько и утверждение о том, что если вылить в море какой-то объем воды, то мы никогда не сможем вновь получить тот же ее объем обратно».

Этим Максвелл хотел показать, что второй закон термодинамики имеет только статистическую ценность: это закон, который применим на нашем уровне, а не для крошечных и очень умных существ. Когда мы описываем мир таким, как мы его знаем, в форме очень больших скоплений молекул, закон увеличения энтропии и снижения доступности энергии действительно применим. Но если бы мы были чуть более умными, мы смогли бы получить тепло из холода, просто открывая окно, когда быстрые молекулы залетали бы в комнату по пути от холодного ночного воздуха (хотя это и происходило бы довольно редко), или когда медленные молекулы хотели бы покинуть комнату.

Вечный двигатель, основанный лишь на интеллектуальном наблюдении.

Идею о маленьком создании Максвелл опубликовал в своей книге «Теория тепла» в 1871 году, и три года спустя другой физик, Уильям Томсон, назвал это существо демоном — не злобной сущностью, а «разумным существом со свободной волей и достаточным уровнем тактильной организации и восприимчивости, чтобы наблюдать отдельные молекулы материи и оказывать на них влияние».

Демон Максвелла дразнит нас: причина, по которой нам приходится работать, чтобы получить тепло зимой, заключается в нашей собственной неадекватности, а не в неадекватности Вселенной. Все приходит в беспорядок и замешательство только по той причине, что мы слишком велики и неуклюжи, чтобы манипулировать отдельными компонентами материи.

Максвелл таким образом указал на разницу между описанием беспорядочного движения отдельных молекул туда-сюда — как доказано в возвышенных уравнениях Ньютона — и описанием конечных порций материи — как доказано представлением о тепловой смерти в термодинамике — которая через несколько лет приведет к реальной смерти Больцмана.

Термодинамика — это статистическая теория, которая говорит нам о мире, который мы можем узнать, но не можем получить, так как мы недостаточно умны. В действительности между различными формами энергии разницы нет — они одинаково доступны тому, кто знает, как ими пользоваться.

Тот факт, что энергия становится все более и более недоступной, следовательно, связан с нашим описанием мира и теми возможностями для вмешательства, которые дает нам это самое описание.

В девятом издании энциклопедии «Британика» 1878 года Максвелл написал о возрастающей недоступности энергии, ее рассеивании, о том, что она просачивается сквозь наши пальцы, о росте энтропии.

Он указал на одну особенность: если взять два газа, то смешав их, можно получить определенные преимущества. Исчезновение разницы во время смешивания дает доступ к определенным видам работы. Если же газы одного вида, смешав их, мы ничего не получим — интуитивно это кажется вполне верным и правильным. Но это ведет нас к странной мысли. Максвелл писал: «Теперь, когда мы говорим, что два газа одинаковы, мы имеем в виду, что не можем отличить один от другого с помощью любых известных реакций. Маловероятно, но возможно, что эти два газа происходят из разных источников, и при том, что они предположительно являются одинаковыми, они могут оказаться разными — и, возможно, может быть открыт метод, позволяющий разделить их с помощью обратимых процессов». Таким образом, не исключено, что когда мы со временем станем умнее, то сможем установить разницу, которой мы раньше не видели. Следовательно, внезапно мы сможем обнаружить энергию там, где ее раньше не было. Рассеивание энергии не может быть установлено, пока мы не научимся ее отличать. Эта способность не является постоянной! Максвелл продолжает свою мысль следующими выдающимися наблюдениями:

«Из этого следует, что идея о рассеивании энергии исходит из объема наших знаний. Доступная энергия — это энергия, которую мы можем направить в любое желаемое русло. Рассеянная энергия — это энергия, на которую мы не можем наложить свои руки и направить по своему усмотрению — к примеру, это энергия спутанного перемещения молекул, которое мы называем теплом. Таким образом, беспорядок, как и соответствующий ему термин «порядок», являются не качествами материальных вещей как таковых, а существуют только в уме, который эти вещи воспринимает».

И Максвелл продолжает: «Книга заметок при условии, что она ведется аккуратно, не будет казаться беспорядочной человеку неграмотному или ее владельцу, который отлично ее понимает. Но для любого другого человека, который умеет читать, она покажется необъяснимо запутанной. Аналогично и понятие рассеянной энергии не может быть доступно существу, которое не может преобразовать ни одну из природных энергий себе на пользу, или тому, который может проследить движение каждой молекулы и захватить ее в нужный момент. Только существо в промежуточной стадии, которое может использовать определенные виды энергии, в то время как остальные от него ускользают, может считать, что энергия неизбежно переходит из доступной формы в рассеянное состояние».

Демон Максвелла смеется нам в лицо: второй закон термодинамики можно обойти, если только мы окажемся для этого достаточно умны. Вот только мы не настолько умны.

Изгнание этого демона стало основной темой научной картины Вселенной 20 века. Если только с концепцией демона Максвелла все в порядке, единственное, что стоит между нами и вечным движением — это наша собственная глупость. Просто потому, что смертные недостаточно умны, мы обречены в поте лица зарабатывать себе на жизнь.

Но есть ли цена, которую придется заплатить за то, чтобы стать такими же умными, как и демон Максвелла?

 

Глава 2. Отсеивание информации

Демон должен быть изгнан. Первые десятилетия 20 века стали одной длинной чередой побед идеи, что материя состоит из атомов и молекул. Идеи Максвелла и Больцмана, касающиеся статистического поведения больших скоплений подобных атомов и молекул, были подтверждены, несмотря на определенное сопротивление, которое оказалось для Больцмана столь фатальным.

В конце 19 века споры о существовании атомов все еще были настолько ожесточенными, что проблему демона Максвелла можно было до поры до времени оставить в покое. Но чем дальше мы продвигаемся к 20 веку, тем яснее становится, что с этим демоном у нас серьезная проблема. В конце концов, оказалось, что имеется проблема со вторым законом термодинамики — то есть если бы мы имели достаточно знаний о мире, все было бы так, как мы хотим. Но как нам известно, все совсем не так.

Венгерский физик Лео Сцилард в 1929 году выдвинул отличный вопрос: можно ли знать все о мире, не меняя его. Ответ был простым: нет, нельзя.

В документе под устрашающим названием «Об увеличении энтропии в термодинамических системах при влиянии мыслящих существ» Сцилард задался вопросом о цене обретения знаний и о том, сможет ли такая цена «спасти» второй закон от демона Максвелла.

Лео Сцилард сам дал ответ на собственный вопрос. Он выяснил, что цена знания для спасения второго закона была бы слишком высокой. Если вы хотите быть таким же умным, как и демон Максвелла, вам придется конвертировать огромное количество энергии, а, следовательно, создать огромное количество энтропии в противовес накоплению знаний. Демон получает свое преимущество, наблюдая за абсолютно каждой молекулой, будучи готовым закрыть отверстие немедленно. Но подобное преимущество перевешивается его ценой: чтобы быть готовыми закрывать и открывать заслонку между двумя камерами в нужный момент, нам придется изучить движение всех без исключения молекул. Так что нам придется измерить все частицы. А это имеет свою цену. Сцилард объясняет: «Можно предположить, что процедура изменения будет фундаментально связана с производством определенного среднего количества энтропии — и это восстановит соответствие со вторым законом».

Данная оригинальная идея существенно повлияла на науку этого столетия — от теории информации и компьютерных наук до молекулярной биологии.

Физики были в восхищении: демон был изгнан. Он работает только потому, что кое-что знает о мире — и это знание имеет высокую цену. С этого времени историки науки выступили вперед на поле научных баталий: «Почему Максвелл об этом не подумал?» Эдвард Е. Дауб задал этот вопрос в 1970 году в журнале истории и философии науки. Он ответил: «Потому, что его демон являлся созданием его теологии».

Теология Максвелла, установил Дауб, происходила от Исаака Ньютона, основателя современной физики. Ньютон говорил о Боге, который видит, слышит и понимает все «не совсем как человек, не материально, способом, который нам полностью не известен. Подобно тому, как слепой человек не имеет представления о цвете, мы не имеем представления о том, каким образом всемудрый Бог воспринимает и понимает все происходящее», — написал Ньютон.

Сцилард отринул божественное. «Демон Максвелла не был смертным, — написал Дауб, — так как он был создан по подобию Бога. И как Бог, он может видеть, не глядя, и слышать, не слушая. Если говорить коротко, он может получать информацию, не тратя при этом энергию. В общем, Сцилард сделал максвелловского привратника смертным».

Анализ демона Максвелла, который выполнил Лео Сциллард, начался с изучения знания как части физического мира — озарение, как нечто, имеющее цену; измерения как материальное действие; ощущения как акт метаболизма; знание как работа; термодинамика мышления; внутренняя жизнь разума, связанная с его физической сущностью.

Исключительно значимое событие в истории человеческого знания. Важная веха в восприятии человеком его окружения и самого себя.

И еще более примечательно то, что анализ Сциларда в конечном итоге оказался неверным. С помощью его аргументов невозможно изгнать демона. Они не выдерживают критики, несмотря на то, что в них верили около полувека — вплоть до 1982 года.

«Это одна из великих загадок социологии науки — почему этот очевидно неадекватный аргумент был столь широко и некритично принят, — написал в 1989 году физик Рольф Ландауэр, добавляя с едва скрытым нетерпением: — Лишь в последние годы появились четкие обсуждения, но они еще не получили широкого одобрения».

Ландауэр, который работает в исследовательских лабораториях IBМ в Йорктаун Хайз, Нью Йорк, сам является одной из ведущих фигур, стоявших за озарениями, которые привели к окончательному изгнанию демона. Его провел коллега Ландауэра по IBM Чарльз Беннет в 1982 году.

Изменение, получение информации не будут стоит ничего. Цену будет иметь избавление от этой информации. Знание не имеет цены. А мудрость — имеет.

Как это часто бывало в истории науки, неверное заключение оказалось исключительно плодовитым. Анализ Лео Сциларда не выдерживает критики, но от этого становится не менее интересным, ведь Сциларду удалось во многом ухватить самую суть проблемы.

На самом деле Сцилард вовсе не писал о том, что ему удалось изгнать демона Максвелла. Он пишет, как процитировано выше, «мы можем предполагать», что процесс измерения будет стоить нам выработки определенного количества энтропии — определенное количество существующей энергии станет недоступным. Он показывает далее, что количество произведенной энтропии будет по меньшей мере равно тому количеству энергии, которое будет произведено благодаря действиям демона, вооруженного своими знаниями.

Так что на самом деле Сцилард предполагает, что измерение будет иметь свою цену в форме возрастания энтропии. Но он этого не доказывает.

Но не так много людей заметили то, что озадачило Ландауэра. Каким образом аргумент Сциларда мог приниматься в течение половины столетия, если на самом деле он был неверным? Одна из главных причин этого, безусловно, тот факт, что способность демона опровергнуть один из самых фундаментальных законов физики казалась несколько обескураживающей. Второй закон был настолько фундаментальным для физики, что было ясно как день — демон Максвелла попросту не мог работать. Потому что, если бы он работал, мы смогли бы построить различные виды вечных двигателей и получать теплый воздух из морозного ночного воздуха. Так что никому не приходило в голову усомниться, что что-то здесь было не так — а Сцилард оказался опытным физиком, который обеспечил элегантный аргумент в пользу этого мнения.

Не то чтобы анализ Сциларда не вызывал протестов. Но они поступали в основном от философов. Физики же никогда не питали особого уважения к философам, которые оспаривают результаты физических исследований, так как эти результаты вступают в противоречие с их философскими воззрениями. Протесты звучали от таких философов, как Карл Поппер, Пол Фейерабенд и Рудольф Карнап — самых влиятельных философов науки 20 века. Они протестовали в первую очередь потому, что их философии не слишком соответствовал факт понимания ментального феномена через физические характеристики. Так что их протесты не произвели особого впечатления.

Более того, взгляды Сциларда образца 1929 года во многом напоминали воззрения квантовых физиков, которые возникли в 20-е годы относительно процессов измерения при изучении частиц и «кусочков», составляющих материю. Нильс Бор и его студент Вернен Хайзенберг указали, что измерения нарушают систему, в которой они выполняются. Конечно, это имеет мало общего с нашей проблемой, но это как раз то, что думали многие, когда некоторые физики попытались оптимальным образом выкристаллизовать аргументы Сцилларда.

«Демон Максвелла не может работать, — заявлял Леон Бриллоун, физик в лабораториях IBM в Нью-Йорке в своей статье, где пытался расширить аргументацию Сциларда. Бриллоун уже обсуждал проблемы демона в работе «Жизнь, термодинамика и кибернетика», которая была опубликована в 1949 году. Он стал известным благодаря своей книге «Наука и теория информации» 1956 года. Предметы, которые Бриллоун выводит на арену дискуссии о демоне Максвелла, довольно интересны: жизнь, информация и механизмы контроля (кибернетика).

Аргумент кажется кристально ясным: демон Максвелла находится в контейнере, наполненном газом при определенной температуре. Он следит за различными молекулами и проводит их отбор в соответствии со скоростью таким образом, что самые быстрые молекулы оказываются в одной из двух камер сосуда.

Тем не менее поначалу газ является равномерно горячим. Это значит, что излучение и материя внутри сосуда находятся в равновесии и мы ничего не можем увидеть: так как все одинаково горячее, никакой разницы заметить нельзя. «Демон не может видеть молекулы, следовательно, он не может управлять дверью и у него не получится нарушить второй принцип», — писал Бриллоун.

Демон Максвелла не работает, так как он ничего не видит. Это может показаться весьма специфическим утверждением, но речь идет о мысленном эксперименте — гипотетическом мире, который не напоминает нашу обычную жизнь, а призван проиллюстрировать физические законы во всей их простоте.

В повседневной жизни все, на что мы смотрим, имеет примерно одинаковую комнатную температуру (не считая солнца и звезд, поверхность которых очень горячая). Но так как в обычном мире много света, мы можем видеть. Свет, который позволяет нам видеть, происходит от тела, которое намного горячее, чем то, на что мы смотрим (поверхность солнца или нить накала электрической лампы). В своей повседневной жизни мы можем видеть предметы, так как свет исходит от объектов, которые намного горячее, чем эти предметы. Мы живем в сложном мире, поэтому можем видеть — а демон живет в мире, где соблюдается баланс, и, следовательно, видеть от не может.

Тем не менее Бриллоун решает прийти на помощь демону. «Мы можем оснастить его электрическим фонариком, так что он начнет видеть молекулы». Но фонарик будет иметь свою цену. Бриллоун подсчитывает стоимость заряженной батарейки и лампочки, которая будет испускать свет. Свет рассеивается по сосуду после того, как освещает молекулы, и превращается в тепло. Фонарик конвертирует доступную энергию батареи в тепло от рассеявшегося света. Энтропия возрастает. В то же время энтропия и уменьшается, так как молекулы, которые летают вокруг, сортируются по двум отсекам сосуда в соответствии с их скоростью. Но количество энергии, к которой мы можем получить доступ в подобном случае, будет меньше, чем количество энергии, к которой мы теряем доступ по мере того, как истощается батарейка.

Бриллоун расширил этот анализ до более общей теории, касающейся того, каким образом физики могут осуществлять эксперименты, в которых необходимо вести измерение природных явлений. Его заключение было понятным. «Физику в его лаборатории ничуть не лучше, чем демону… Ему нужны батарейки, источник энергии, сжатый газ и т. д… Физику в лаборатории также нужен свет, чтобы он смог прочитать показания амперметров и других приборов.

Знание имеет цену.

Лео Бриллоун прояснил важный момент в работе Сцилларда: демон Максвелла не работает, так как информация выражается материальной величиной. Бриллоун был доволен. «Мы открыли очень важный физический закон, — написал он. — Каждое физическое измерение требует соответствующего возрастания энтропии». Такой вывод можно сделать из того факта, что демону сложно видеть в темноте.

Но Бриллоун забыл поинтересоваться, может ли демон Максвелла ощущать свое окружение. Так что он пришел к заключению — как и многие физики с тех пор, к примеру, Денис Габор, изобретатель голографии — что второй закон был спасен только благодаря тому, что демон начал пользоваться фонариком. Но ведь демон — умный малый, и кто сказал, что ему нужен свет для того, чтобы стать более знающим?

В 1982 году Чарльз Беннетт, физик из IBM, продемонстрировал, что демон отлично справлялся бы со своей задачей и в неосвещенном контейнере. Беннетт сконструировал оригинальный аппарат, в котором демон смог бы определять положение каждой молекулы совершенно бесплатно. Идея заключалась не в том, чтобы получать знание без конвертирования энергии — это было бы невозможно даже для демона. Идея заключалась в том, чтобы определять свое положение таким образом, что вся конвертируемая при этом энергия была бы доступной после того, как измерения были бы завершены.

Когда мы используем фонарик, свет рассеивается и в конечном итоге превращается в тепло. Энергия оказывается недоступной. Но если мы сможем ощущать все, что происходит вокруг, то сможем обнаружить молекулы без того, чтобы использованная энергия становилась недоступной.

Аппарат, который спроектировал Беннет, был весьма усовершенствованным. Фактически он мог работать только со «специальным изданием» демона Максвелла, в контейнере которого содержится газ, состоящий из единственной молекулы! Это может звучать как весьма странная версия гипотезы демона, но как раз она и пришла на ум Сциларду в 1929 году, когда он показал, что цены определения местоположения этой единственной молекулы как раз будет достаточно для спасения второго закона. Просто анализируя цену очень простого измерения — отправить ли молекулу направо или налево — Сцилард пришел к тому, что стало основой для всех последующих информационных теорий: ответ на вопрос «да/нет».

Настолько упрощая проблему, Сцилард получил возможность задать вопрос: сколько будет стоит такой простой кусочек знания. С тех пор он стал известен как бит — самый маленький кусочек информации. Эта концепция стала одним из самых распространенных технических терминов, постоянно применяемых в конце 20 столетия. В своей статье о демоне Максвелла Сцилард стал основоположником всей современной теории информации.

Сцилард предполагал, что измерение даже такого бита будет иметь свою стоимость. Но Беннетт доказал, что эта стоимость в случае, который анализирует Сцилард, может оказаться произвольно маленькой.

Если задуматься об этом, то ничего странного нет: получение информации о местонахождении молекулы будет означать копирование информации, которая уже существует. Вы «считываете» состояние, а копирование подобной информации не обязательно будет иметь большую цену в виде энергии, которая становится недоступной. В конце концов можно сделать множество копий, и стоимость каждой из них будет относительно низкой. На самом деле это очень характерная черта информации, в отличие от многих потребительских товаров: может быть выполнено произвольное количество копий, а состояние оригинальной информации не изменится. Информацией можно пользоваться, не меняя ее состояния. Так с чего бы знаниям, которые получает демон, иметь цену?

Рольф Ландауэр и Чарльз Беннет могли доказать, что никакой стоимости вообще не было. Но это не значит, что демон Максвелла может нарушить второй закон термодинамики. Это просто означает, что измерения вовсе не обязательно должны иметь цену. На самом деле демон платит не за то, чтобы получить информацию — а за то, чтобы снова ее забыть.

В 1961 году Ландауэр доказал, что забывание всегда имеет цену. Когда вы избавляетесь от информации, стирая ее, приходится платить за это увеличением энтропии. Вам нужно избавиться от информации, так как измерение необходимо повторить: вам нужно очистить память, чтобы вновь обнулить измерительный аппарат.

В случае с демоном Максвелла это означает, что он может обнаруживать молекулы в темноте и платить за это только преимуществом получения знания. Но демон очень быстро столкнется с такой проблемой: ему приходится сохранять информацию своего знания о большом количестве молекул, которыми он уже распорядился должным образом. Демон начинает тонуть в большом количестве знаний, накопленных от предыдущих наблюдений.

Эту мысль в 1987 году обобщил Беннет: «Мы обнаружили причину, по которой демон не может нарушить второй закон: чтобы наблюдать за молекулой, ему сначала нужно забыть результаты предыдущих наблюдение. Это забывание, или уничтожение информации, будет иметь свою стоимость с точки зрения термодинамики».

Можно возразить, что демон просто может помнить все. Тогда ему не будет нужды забывать и, следовательно, создавать энтропию. У нас от подобного количества информации наступило бы истощение — но мы ведь не демоны. Но это истощение показывает нам, что цена есть — цена памяти. Энтропия увеличивается по мере того, как память постепенно заполняется молекулами, которые давно уже распределены. Проблема поддержания такого огромного количества памяти превышает преимущества от обладания ею.

Если взглянуть на относительные размеры в реальном мире, можно увидеть, что на практике это действительно представляет огромную проблему. В воздухе находится громадное число молекул. Даже если демону потребуется всего один бит информации о каждой молекуле (пропускать через отверстие или нет), у него вскоре закончится резерв памяти. Даже если у демона будет память, всех компьютеров в мире вместе взятых (10 миллионов миллиардов бит), память, в которой он хранит результаты измерений, закончится еще до того, как ему удастся снизить энтропию в одном грамме воздуха всего на одну десятую миллионной доли процента! В воздухе молекул невообразимо много — они просто очень, очень малы. Мы живем в мире, где объема памяти, эквивалентного всей информации, которую обрабатывает мозг в течение жизни, будет недостаточно, чтобы запомнить всего по одному биту информации о каждой молекуле в единственном литре воздуха.

Так что факт заключается в следующем: демон Максвелла не сможет функционировать, так как ему придется все забывать, а это обойдется дороже, чем вся приносимая им польза. Эта идея может показаться странной, но она указывает нам на очень важный факт: в информации интересно то, что от нее приходится избавляться. Сама по себе информация — предмет очень скучный. А вот то, как от нее избавиться — и за счет чего — это уже весьма интересно.

К примеру, вы стоите у кассы супермаркета. Все ваши покупки уже посчитаны. Каждый предмет в вашей корзине имеет свою цену. Кассир вводит каждое значение цены, складывает их и получает сумму — итого, скажем, 27,80 долларов. Эта сумма является результатом вычислений, включающих в себя сложение нескольких чисел.

Что будет наиболее информативным — результат вычислений? Эта сумма представляет собой одно число — 27,80 — а само вычисление является коллекцией нескольких чисел — к примеру, 23 различных цен. Может показаться, что больше информации содержится в результате — ведь когда мы выполняли сложение в школе, учитель всегда объяснял нам, что нужно получить правильный ответ. Но на самом деле в результате гораздо меньше информации, чем в самой задаче. В конце концов, существует множество различных комбинаций товаров, которые могут приводить к такой же итоговой сумме. Но это не означает, что вы всегда можете определить, что содержится в корзине, зная только ее итоговую стоимость.

Кассир за кассой уничтожает информацию после того, как установит итоговую сумму. В этой ситуации кассиру все равно, какие товары вы выносите из магазина и сколько стоит каждый из них — при условии, что вы их все оплатили.

Значимой является общая цена, даже несмотря на то, что в ней содержится очень мало информации — или, если быть более точным, значение имеет тот факт, что в ней содержится мало информации. Она содержит ровно такое количество информации, которое является релевантным в данном контексте.

Вычисления — это способ избавления от информации, в которой вы более не заинтересованы. Вы просто отсеиваете то, что не нужно.

Это противоречит нашему обычному представлению о том, что информация является чем-то очень позитивным, хорошим. Мы привыкли рассматривать информацию с позитивной точки зрения, но это может оказаться полностью нецелесообразным — это предрассудок, который оказывает влияние на человека, живущего в информационном обществе.

Как утверждает Чарльз Беннет, «мы платим за то, чтобы нам доставляли газеты, а не уносили их. Интуитивно может показаться, что запись предыдущих действий демона может быть ценной (или по меньшей мере их ценность может быть бесполезной). Но «вчерашняя газета» (результат предыдущих измерений) забирает у демона ценное место в памяти, и стоимость очистки этого места нейтрализует ту пользу, которую демон извлек из газеты, когда она еще была свежей. Возможно, идея о том, что информация может иметь негативную ценность, сегодня, в эпоху растущих опасений по поводу загрязнения окружающее среды и информационному взрыву, который приносят компьютеры, кажется более естественной, нежели она казалась еще недавно.

В лабораториях IBM отлично известно, что информация тесно связана с энтропией, которая является мерой беспорядка. Время от времени мы можем просто складировать наши старые газеты в подвале. Но информация тоже нуждается в рециркуляции — избыток информации приведет нас к хаосу.

Но нам всем кажется, что информация — это благо, воплощение порядка, педантичности и правильных результатов. Этому мы научились, когда изучали арифметику в школе: все предварительные вычисления сделать на черновике, чтобы затем представить в чистовике аккуратно записанный результат. Мы научились избавляться от информации, а не приобретать ее. Тем не менее мы живем в мире, который верит, что информация — это то, что является ценным в информационном обществе.

Да, пожалуй, с нашим обычным восприятием информации действительно что-то не так (или с восприятием информации учеными в сфере естественных наук — эти два понятия не совпадают). Демон Максвелла уже указал нам на часть проблемы. Но кое-что было скрыто у него в рукаве — и мы снова возвращаемся к Людвигу Больцману.

За несколько лет до того, как умер Джеймс Кларк Максвелл, Больцман опубликовал серию работ, в которой разъяснял удивительную теорию о связи между понятием энтропии, которое выросло из учения об ограничении эффективности паровых двигателей, и теорией тепла как статистического завихрения мельчайших компонентов материи. Максвелл так и не узнал об этих работах, и, как пишет историк Мартин Кляйн, соответственно он «лишился удовольствия увидеть связь между энтропией и вероятностью».

Идея Больцмана была проста. Он ввел разделение между тем, что известно, как макросостояния и микросостояния — между характеристиками больших конгломератов материи и индивидуальными компонентами этой материи. Макросостояния — это такие показатели, как температура, давление, объем. Микросостояния включают в себя тщательное описание поведения каждого индивидуального компонента.

Температура облака газа — это макросостояние, который не может многое сказать нам о микросостояниях. Температура говорит нам о том, что молекулы неорганизованно движутся по отношению друг к другу со средней скоростью, которая выражается температурой и распределением скоростей, которое является статистическим и известно, как «распределение Максвелла-Больцмана». Оно говорит нам о том, что большинство молекул движутся со скоростями, близкими к средним, в то время как несколько молекул имеют скорости, которые намного больше или намного меньше средних показателей. На самом деле это не представляет для нас большого интереса: мы можем знать макросостояние — определенную температуру, но это не говорит нам почти ничего о состоянии отдельных молекул.

Так как при данной температуре у нас есть 117 тысяч миллионов миллиардов молекул (а обычно гораздо больше), то не слишком важно, у какой молекулы какая скорость, если они распределены по правилу, которое устанавливает распределение Максвелла-Больцмана — а это так и есть, раз уж они постоянно сталкиваются друг с другом.

Существует невообразимое количество различных способов распределения скоростей между … надцатью миллиардами молекул, которое будет соответствовать данной температуре. Существует множество микроскопических состояний, которые соответствуют макросостоянию, выражаемому температурой — и действительно неважно, какие из них на самом деле присутствуют в помещении.

Чем выше температура, тем больше скоростей, из которых можно выбирать. Увеличивается и количество микросостояний, которые соответствуют данному росту макросостояния — температуры.

Идея Людвига Больцмана, проще говоря, состояла в том, что макросостояния, которые реализуются через множество различных микросостояний, являются более неорганизованными, чем макросостояния, соответствующие всего нескольким микросостояниям. Согласно Больцману чем большим количеством микросостояний сопровождается макросостояние, тем большей будет энтропия последнего.

Макросостоянию «температура в помещении 21 градус по стоградусной шкале» соответствует очень много микросостояний, так что все их сосчитать очень сложно. Поэтому Больцман использовал математический фокус, известный еще с эпохи Возрождения, когда числа стали слишком большими, чтобы с ними оперировать: он взял логарифм количества микросостояний и сделал этот логарифм равным энтропии. Это просто означает, что, если вы будете спрашивать не о миллионе миллиардов (1016) микросостояний или миллиарде миллиардов (1018), а всего лишь о том, равен ли логарифм их числа 15 или 18. Более того, использование логарифмов несет в себе и еще одно важное преимущество, если речь идет о подсчете микросостояний.

Но важнее всего является базовая идея, неважно, каким математическим способом вы ее выразите: энтропия является мерой того, сколько микросостояний мы можем не принимать в расчет и почему мы выбираем вместо этого макросостояния. Энтропия — это мера того, насколько нам не нужно быть аккуратными — мы просто можем смести все под ковер, используя общий термин, который скажет нам все, что нужно знать — то есть температуру.

Будучи людьми, мы любим тепло. Температура представляет для нас интерес. Нас мало волнует движение молекул (точно также, как политические фигуры часто заинтересованы в своих избирателях только тогда, когда их набирается достаточно для состояния, которое может оказать пользу на выборах). Макросостояние — это выражение интереса, релевантность. Оно заключает в себе интерес. Нам интересно знать.

Хороший пример — покер. У вас есть колода карт. Когда вы ее покупаете, она находится в очень специфическом макросостоянии. Карты положены по порядку мастей и рангов. Это макросостояние соответствует только одному микросостоянию — когда все карты находятся в том порядке, в котором они поступают с завода.

Но прежде чем начнется игра, карты нужно перетасовать. Когда у вас будет колода перетасованных карт, у вас все еще будет одно макросостояние — перетасованные карты — но существует практически бесконечное количество микросостояний, которые соответствуют этому макросостоянию. Все способы, которыми могут быть перетасованы карты, различны — но у нас недостаточно энергии, чтобы их выразить. Поэтому мы просто говорим: карты перетасованы.

Чтобы начать игру, каждому игроку дается пять карт — «рука». Эта рука теперь является макросостоянием, в котором заинтересованы игроки. Оно может иметь различные формы. некоторые макросостояния включают в себя сходные карты — к примеру, пять карт той же масти, хотя и не находящиеся в последовательности — флеш. Другие макросостояния могут представлять собой пять последовательных карт, хотя и различных мастей — стрейт. Стрейт может быть сформирован различными способами — но их не слишком много. Существует гораздо больше вариантов формирования не-стрейта.

Среди множества состояний, которые описываются макроскопическим «стрейтом», есть небольшая группа стрейтов, которые известны как стрейт флеш. Здесь карты находятся не только в последовательности — они еще и одной масти. Лучшим из всех является флеш-рояль — последовательность от десятки до туза одной масти. Существует только 4 микросостояния, которые соответствуют макросостоянию «флеш рояль» — а вот макросостоянию, известному как «пара», соответствует астрономическое число микросостояний.

Ценность в покере — это выражение того, сколько микросостояний соответствует макросостоянию. Ваша рука является «сильной», если она не предполагает множество вариантов и, следовательно, встречается редко.

Существует выраженная связь между вероятностью и энтропией. Чем большим будет количество различных карт, которые могут складывать ту или иную руку, тем выше будет вероятность, что вам попадется такая рука. Таким образом, чаще всего вам приходится иметь дело со «слабыми» руками (с большим количеством энтропии), а не с «сильными» руками, где макросостоянию соответствует только очень небольшое количество макросостояний.

Цель игры — выяснить, у кого имеется макросостояние с самым низким уровнем энтропии.

Огромное количество микросостояний на самом деле настолько несущественно, что в покере для них даже нет названий. В ваших картах может не прослеживаться никакой схемы, и единственное, что вы можете заявить — это «крупные карты» — макросостояние, которое соответствует любому микросостоянию. Так как люди играют в покер для своего удовольствия, в игре есть возможность оказать влияние на макросостояние путем изменения микросостояния — то есть индивидуальных карт: вы можете тянуть карты. Это может помочь улучшить макросостояние до такого, которому будет соответствовать уже не так много микросостояний. Вы играете роль демона Максвелла — если вам повезет, вы вытащите хорошие карты вместо тех, от которых избавляетесь.

В игре есть и возможность притвориться, что макросостояние, которое у вас есть на самом деле, соответствует только очень небольшому количеству микросостояний — даже если на самом деле это и не будет правдой. Это явление известно под названием «блеф» и предполагает использование более продвинутых теорий, нежели нам предлагает Больцман. О них мы поговорим позже, в Главе 5.

Связь между энтропией и вероятностью может дать нам представление о том, почему увеличивается энтропия: вероятность получить низкоэнтропийное макросостояние меньше, чем вероятность высокоэнтропийного. Таким образом, все движется по направлению к более высокой энтропии.

Если макросостояние меняется, оно будет непреклонно вести к другому макросостоянию с еще более высоким уровнем энтропии — и, следовательно, с ним будет связано больше микросостояний, чем с первым. Следить за миром становится все более сложной и утомительной задачей.

В этом нет ничего таинственного. Все это становится очевидным, как только определено макросостояние. Но как миру узнать о том, что именно мы находим настолько скучным, чтобы не напрягать себя отслеживанием этого?

Больцман объяснял, что энтропия — это выражение количества микросостояний, которые соответствуют данному макросостоянию. Это может звучать как очень субъективная концепция, так как энтропия, по-видимому, выражает то, что нам неизвестно об известном макросостоянии. Высокая температура соответствует высокой энтропии, так как чем выше скорость молекул, тем больше существует вариантов образования различных схем их движения. Наш недостаток знания о микросостояниях растет по мере того, как в гостиной становится жарче. Энтропия — это мера невежества, но это комфортное невежество: на самом деле нет никаких причин, которые побуждали бы нас знать, куда направляется каждая молекула и с какой скоростью.

Энтропия — это выражение грубого структурирования, которое применимо на том уровне, на котором мы описываем предметы. Тепло — это весьма грубая концепция: имеется огромное количество знаний, которые мы радостно игнорируем. Тепло — это концепция, которая включает в себя огромное количество энтропии, так как эта концепция весьма грубая и она не рассматривает большую часть знаний о микросостояниях, которые мы не удосуживаемся приобрести. Ветер и течение — это несколько менее грубые концепции, так как мы знаем достаточно много о том, куда направляются молекулы, когда говорим, что на улице теплый бриз, а не просто заявляем, что: «На улице тепло».

Энтропия — это мера информации, к которой нет немедленного интереса — микросостояния, только думая о которых, мы уже устаем. Энтропия — это концепция, которая предполагает наличие значения только тогда, когда мы можем объяснить, за чем именно мы не будем следить. Концепция энтропии предполагает, что мы объяснили, какое макросостояние нас интересует. Но независимо от того, какое именно состояние мы выбираем — его энтропия растет.

Второй закон говорит нам, что мир становится все сложнее описать: беспорядок растет, его становится все больше, и все в конечном итоге превратится в трение и тепло. Беспорядок — это такой вид порядка, который настолько изобилует деталями, что становится беспорядком.

Откуда миру знать, что именно мы расцениваем как беспорядок? Почему наши учебники физики никогда не рассказывают нам о том, что концепции подобные энтропии бессмысленны, если не объяснить, какое именно макросостояние имеется в виду? Зачем учить школьников и студентов термодинамике, не рассказав им о том, что Максвелл и Больцман все время упоминали как способ, которым мы описываем мир? Так как подсознательно физики всегда знали о том, что интересует человека — тепло.

Это негласная предпосылка всей современной термодинамики — люди любят тепло. Вот почему термодинамика описывает тепло и сходные с ним макросостояния — то, что интересует людей. В свою очередь микросостояния — определенный порядок атомов и молекул — это то, что интересует физиков.

Но дать определение энтропии можно только тогда, когда мы знаем, кто его дает. Энтропия неопределима, пока нам не станет известной степень точности наблюдателя. Учителям физики это кажется настолько очевидным, что они не видят никаких причин рассказать об этом своим студентам.

Именно на это намекал физик Эдвин Джейнс, когда выступал в Санта Фе в 1990 году — на важность задать вопрос: что означают вещи, те вещи, о которых написано в наших учебниках физики. Джейнс переформулировал современную версию термодинамики и очень ясно осветил старые моменты работ Больцмана. В 1979 году он написал: «Энтропия в термодинамической системе — это мера степени невежества человека, чье знание о ее микросостояниях состоит всего лишь в оценке макроскопического количества Х, которое определяет ее термодинамическое состояние. Это полностью «объективное» количество в том смысле, что функция зависит только от Х и не зависит от чьей-либо индивидуальности. Следовательно, нет причин, почему она не может быть измерена в лаборатории».

Таким образом, энтропия может быть точно определена, когда вы установили уровень описания.

Эта концепция не является субъективной в том плане, что для каждого наблюдателя будет существовать собственная энтропия. Каждый, кто заинтересован в тех же макро- и микросостояниях, может обнаружить одинаковую меру энтропии. Но она является субъективной в том плане, что не будет иметь никакого смысла, пока вы не спросите у человека, заинтересованного в определении энтропии, в чем конкретно он заинтересован.

Это, впрочем, не исключает того, что энтропия является мерой невежества. Ведь она является именно мерой того невежества, которое сопровождает данный уровень грубости вычислений.

«Но с чего бы моей машине интересоваться тем, что я знаю о мире?» — спросил один физик в Санта Фе, когда Джейнс объяснял эти вещи. Ответ действительно очень простой: потому, что она построена такими же людьми, как и вы. Потому, что двигатель машины будет иметь как раз ту приблизительность, которую люди используют при описании мира: мы ощущаем тепло — но не ощущаем молекул. Наше описание мира приобретается через обработку того, что мы ощущаем. И оно воспроизводится в тех машинах, которые мы строим на базе своего знания.

Философ Пол Фейерабенд говорил о Больцмане: «Со своим осознанием гипотетического характера всех наших знаний Больцман намного опередил свое время — а возможно, и наше собственное».

В 1948 году инженер Клод Шеннон задал очень хороший вопрос: «Сколько стоит передать сообщение из одного места в другое?». Сцилард задавал вопрос, сколько будет стоит измерение. Шеннон же заинтересовался тем, сколько будет стоить общение. Отправным пунктом стала концепция бита — разницы между двумя идентичными состояниями: ответом на вопрос «да/нет».

Анализ Шеннона оказался революционным. Базируясь на идеях Сциларда, он стал основателем современной теории информации.

Когда мы говорим об информации в нашей повседневной жизни, мы имеем в виду ее содержание. Но Клода Шеннона интересовало не содержание. Его интересовала продолжительность телефонных разговоров.

Шеннон был инженером в лабораториях Белла, знаменитом исследовательском отделе AT&T. Он изучал сложность передачи сообщений в форме сигналов. Он был заинтересован в определении того, что требуется для передачи специфического сообщения через специфическое соединение — к примеру, телефонную или телексную линию.

Как можно измерить сложность передачи сообщения?

Шеннон предположил, что сложность коммуникации можно выразить с помощью понятия «неожиданное значение». Как измерить неожиданное значение букв алфавита?

Мы знаем, что следующий символ, который перед нами появится, будет буквой. Мы знаем также, что алфавит состоит из 26 букв. Таким образом неожиданность для нас будет выражаться фактом, что каждый символ состоит из одной из 26 возможных букв. Когда мы видим букву, неожиданность для нас будет ограничена пределом, что перед нами — именно эта буква, а не любая другая из 25 возможных.

Выразить теорию Шеннона можно так: каждый символ — это макросостояние, которому могут соответствовать 26 различных микросостояний, то есть отдельных букв. Каждый символ обладает определенной степенью неожиданности, которая выражается его способностью быть одной из этих 26 букв. Получение отдельной буквы, таким образом, содержит неожиданное значение, которое исходит из факта, что оно исключает появление остальных 25 букв.

Это позволяет точно выразить сложность коммуникации: отдельный символ — это макросостояние, неожиданное значение которого определяется тем, сколько микросостояний ему соответствуют.

Шеннон долго сомневался, как назвать эту величину. Он рассматривал возможность использования слова «неуверенность» и слова «информация». Математик Джон фон Нейман, известный как отец логической структуры современных компьютеров, пытался убедить Шеннона, что это неожиданное значение нужно назвать энтропией, поскольку сходство с концепциями термодинамики было настолько удивительным, что он, как отмечалось, спорил с Шенноном: «это даст тебе большое преимущество в спорах, так как в любом случае никто не знает точно, что такое энтропия».

В конце концов Шеннон выбрал формулировку «информационная энтропия», но так как никто не знал, что такое энтропия, его теория вошла в историю как теория информации.

В реальности, следовательно, «информационное общество» — это на самом деле «общество энтропии» — общество невежества и беспорядка.

Проще всего дать определение этой концепции информации, если мы ограничим себя общением с помощью специального алфавита — бинарных чисел. Когда мы применяем бинарные числа, как сегодня это делается везде в коммуникации и компьютерной индустрии, у нас есть только два фундаментальных значения для выражения себя: 0 или 1.

Будучи макросостоянием, бинарная цифра соответствует только двум равновероятным микросостояниям. Когда мы получаем бинарный символ, наше неожиданное значение ограничено: или/или. Но ведь именно эта степень неожиданности, когда мы различаем две одинаково равные возможности, была открыта Сциллардом и в дальнейшем именовалась «один бит»: информация, которая выражается ответом на вопрос «да/нет», то есть разницей между двумя возможностями. Когда мы получаем бит, мы получаем кусочек информации, который соответствует разнице между двумя микросостояниями. Таким образом, прежде чем неожиданность станет существенной величиной, нам придется получить хотя бы несколько бит.

В символе, который известен как часть алфавита, содержится несколько большее количество информации. Здесь прибытие определенной буквы исключает не только одну-единственную другую возможность, а целых 25. Таким образом, когда мы получаем одну букву, мы получаем определенное количество бит — а точнее, 4 или 5.

На практике, конечно, все несколько сложнее. Язык отличается избыточностью — в нем есть лишние символы. Нам не нужно знать все буквы, чтобы мы могли угадать слово в «Колесе фортуны». Таким образом, на практике буквы обладают в среднем меньшей информативностью, чем пять бит. В датском содержание информации на одну букву составляет около 2 бит, а в более систематизированном языке, таком, как немецкий, значение одной буквы уменьшается до 1,3 бит. Более того, буквы используются неодинаково, следовательно, получив «А», мы получим не так много информации, как получив «Z». В среднем каждое микросостояние (буква) обладает вероятностью, которая пропорциональна числу различных микросостояний. Но вероятность каждой буквы пропорциональна и ее частоте использования, которая также связана с числом различных микросостояний в целом. Как знают участники «Колеса фортуны», информационная ценность буквы обратно пропорциональна частоте ее использования. Чем реже встречается буква, тем больше информации содержит ее присутствие.

Вооруженный этим точным определением информации, которая может быть измерена как количество бит, Шеннон смог получить несколько очень полезных уравнений, с помощью которых можно управлять телефонными линиями и размерами кабелей. Его основное заключение было таким: всегда можно передать сообщение без ошибок, если имеется достаточная полоса пропускания.

Полоса пропускания выражает способность коммуникационного канала передавать информацию, определяемую в количестве бит в секунду. Телефон, к примеру, может передавать 4000 бит в секунду, тогда как телевидение передает 4 миллиона — в тысячу раз больше. Хороший радиоприемник находится примерно посередине с его 16000 бит в секунду.

Шеннон знал, что если полоса пропускания будет больше, чем информационное содержание единицы сообщения, это сообщение можно будет передать без потерь.

Это очень полезно знать, если вы зарабатываете себе на жизнь, продавая людям телефонные линии.

Но это не слишком соотносится с информацией в повседневном понимании. Как мы все знаем, можно вести очень продолжительный разговор и при этом не передавать почти никакой информации — или написать огромное количество слов, которые не будут нести в себе никакого определенного значения.

Термин «информация» не слишком волновал Шеннона. На самом деле он вообще не слишком любил это слово и подчеркивал, что разработанная им теория — это теория коммуникации, теория о передаче информации, а не о значении информации. Данный объем информации может содержать глубокие откровения — или просто откровенный вздор. Это не играет роли — телефонный счет будет одинаковым и в том, и в другом случае.

Но это не делает аналитическую работу Шеннона откровенным вздором. То, что Шеннон называл «информацией», столь же реально, как и то, что Клаузиус называл энтропией. Телефонный звонок имеет свою цену. Чтобы ваша теща могла пощебетать, необходимо передать сигнал. Но все это может и не иметь ничего общего с содержанием информации.

Информация — это мера всего, что она могла бы сказать, а не того, ЧТО она сказала.

Информационное содержание в коммуникации — это выражение объема, который мог бы быть передан — а не того, который был передан на самом деле. Точно так же и энтропия при определенной температуре — это выражение того, сколькими разными способами могут расположиться молекулы, не приводя ни к каким изменениям, информация — это выражение того, сколькими способами могут расположиться буквы, чтобы не потребовался еще один кабель.

Термодинамика имеет дело с макросостояниями, которые интересуют людей: тепло. Теория информации имеет дело с макросостояниями, которые интересуют телефонные компании: символы.

Но в определении информации, данном Шенноном, есть кое-что странное. Оно устраняет саму идею значения и ограничивается только тем значением, которое могло бы присутствовать — но вовсе не обязательно присутствует. Если сравнить это с нашим повседневным пониманием информации, то данное определение может показаться очень скудным. С другой стороны, оно невероятно точное, и мы могли бы простить ему за эту точность определенное упущение.

Тем не менее термин «информация» не всегда может быть особо точным. Это в огромной степени субъективная концепция: речь идет о том, насколько неожиданным для нас может оказаться сообщение. Она говорит нам о том, что буква «А» содержит в себе определенную информационную ценность, так как мы знаем: вместо нее могла дойти любая другая из 25 букв алфавита — но не дошла: дошла буква «А».

Но что, если бы нам было неизвестно, что мы имеем дело с буквой из 26-буквенного алфавита? Сколько информации содержала бы «А» в этом случае? Определение информации Шеннона ничего нам об этом не говорит.

Информация имеет определение только тогда, когда мы определили, кто говорит, с кем говорит и в каком контексте. Мы не можем дать определение информации Шеннона, пока не будем знать, какие допущения по обоюдному согласию принимают передатчик и приемник. Таким образом Шеннон предпринимает странный маневр: сначала он выбрасывает любые разговоры о значениях — а затем дает определение информации как зависящей от столь фундаментальных связей, что мы о них даже не говорим.

Если мы не будем знать, сколько микросостояний соответствует каждому макросостоянию, мы вообще не можем вести речи об информации. Только когда мы определяем макро- и микросостояния, мы можем знать количество информации. Точно так же, как и в случае энтропии.

Информация очень тесно связана с энтропией: энтропия данного макросостояния измеряется количеством соответствующих ему микросостояний. Чем их больше, тем выше энтропия. Информация — это нечто, чем мы обладаем, когда знаем, какие микросостояния задействованы.

Буква в тексте имеет энтропию, которая определяется тем фактом, что на ее месте мог быть один из 26 символов. Информация — это знание о том, каким именно символом она является. Информационная ценность знания о том, какое микросостояние задействовано, зависит от того, сколько вообще микросостояний может быть задействовано. У символа есть определенная энтропия, и знание о его реальном микросостоянии — какая буква? — таит в себе определенное количество информации, которое соответствует энтропии данного символа.

Таким образом, мы не можем определить энтропию или информацию, если нам не известен контекст.

Отсюда происходит множество непониманий, в первую очередь потому, что «информация» — это нагруженное значением слово со знаком плюс, выражение, которое мы спонтанно ассоциируем с чем-то «хорошим». В течение десятков лет информация ассоциировалась с порядком — а энтропия с беспорядком.

Эта идея ведет свое происхождение от математика Норберта Винера, основателя кибернетики — теории контрольных систем. В своей книге «Кибернетика» 1948 года он говорит, что информационная теория пришла к нему примерно в то же время, как и к Шеннону (который опубликовал ее в 1948 году). Несколькими строчками далее Винер провозглашает, что «точно так же, как количество информации, в системе есть мера ее степени организованности, так что энтропия системы — это мера ее дезорганизации».

Эта точка зрения находится весьма далеко от точки зрения Шеннона. Если же говорить точнее, то идея Винера является противоположностью тому, что утверждал Шеннон. Но она получила большое влияние особенно в свете изучения демона Максвелла. Леон Бриллоун с энтузиазмом развивал идею Винера, обобщив ее в концепции негэнтропии — «без-беспорядка», то есть порядка.

Звучит интригующе — но это не может быть верным. И в действительности чтобы эта идея стала верной, Бриллоуну пришлось изменить знак концепции информации Шеннона. Из этого изменения выросли десятки лет непонимания. Информация Шеннона — это энтропия: количество выборов, количество микросостояний, неопределенность. Бриллоун же просто поменял символ: информация — это порядок, то есть негативная энтропия.

Восприятие информации как порядка лежит ближе к нашему повседневному пониманию «информации», нежели понятие Шеннона. Так что понятие негэнтропии Бриллоуна и Винера оказалось соблазнительным. Проблема просто заключается в том, что нельзя просто играть с символами в уравнении, иначе можно полностью лишить его смысла.

Датский физик Педер Воэтманн Кристиансен говорит об этом так: «Люди думают, что им удастся постичь сущность смысла, поменяв знак бессмыслицы». Винер и Бриллоун оказались слишком нетерпеливыми.

Энтропия — это мера количества информации, знание которой нас не интересует. Информация — это то, что можно в изобилии найти в состоянии, в котором энтропия высока. Но это не значит, что мы обладаем этой информацией — это означает только, что она там есть и что мы могли бы ее получить, если бы она была нам нужна.

Информация — это то, что можно обнаружить в беспорядке. В беспорядке больше информации, нежели в порядке. Чем больше беспорядок, тем больше информации. Чем больше микросостояний, тем больше информации. Чем больше микросостояний воплощены в макросостоянии, тем больше информации мы отбрасываем, когда сосредотачиваемся на макросостоянии. Макросостояние «тепло» соответствует невообразимо огромному числу микросостояний, о которых мы не знаем, если просто обращаем внимание на температуру.

Беспорядок сложно описать. Особенно в деталях.

Покойный американский физик Ричард Файнман выразил это так: «Мы измеряем беспорядок тем количеством способов, которым может быть изменено внутреннее содержание таким образом, чтобы извне все выглядело по-прежнему».

Энтропия — это мера количества информации, которую мы не принимаем во внимание, когда рассматриваем систему снаружи: движение газа как температура, серия букв как набор символов. Если мы внутри системы, мы можем получить эту информацию, если она будет нам нужна. Если мы снаружи системы, мы «отсеиваем» ее — или вообще никогда не обладаем ею.

Информация — это выражение разницы между нахождением внутри и снаружи: температура/молекулы, количество букв/сообщение. Информация и энтропия сообщают нам нечто о разнице между описанием или контролем системы снаружи и изнутри.

Если мы посмотрим на газ снаружи, со своего уровня описания, где нас больше всего интересует тепло, мы можем суммировать все в сжатом общем описании: макросостояние тепла измеряется в виде температуры. Если же мы посмотрим на газ с «его собственного» уровня описания, где все состоит из молекул в движении, нам придется перечислить огромное количество бит, которые описывают огромное количество простых состояний: микросостояния молекулярного движения, которые измеряются как скорости.

Если мы будем рассматривать газ снаружи, мы сможем выделить определенное количество энергии тепла постольку, поскольку мы соблюдаем второй закон термодинамики, который описывает газы извне. Если мы взглянем на него изнутри, мы можем получить намного больше энергии из молекулярного движения газа — но это если нам удастся избавиться от всей той информации, которую мы уже получили.

Пока мы находимся снаружи, мы можем быть полностью индифферентны к той информации, которая имеется внутри газа. Но в это время мы обязаны соблюдать второй закон термодинамики и называем эту информацию «энтропия».

Если мы хотим получить доступ к энергии хаотического теплового движения, мы должны признать все микросостояния молекулярного движения, которые до этих пор мы игнорировали, просто заявляя, что тепло подразумевает определенный уровень энтропии. Мы должны получить информацию обо всех и каждых из этих микросостояний.

Но теперь у нас проблема: нам придется либо напрячься, чтобы сохранить контроль над всей этой информацией — или снова ее забыть. В долгосрочной перспективе и то, и другое окажется слишком дорогостоящим.

Демон Максвелла хочет описать газ сразу и изнутри, и снаружи. Он хочет знать, где находятся молекулы — и в то же самое время наслаждаться теплом. Но так не получится, даже если вы и демон.

В 1988 году Войцех Зурек задал важный вопрос: а что, если демон настолько хитер, что сначала начинает измерять все молекулы, а затем суммирует все свое полученное знание в очень простом описании, к примеру: «Все молекулы находятся в левой камере»? Эта информация не содержит большого числа бит — на самом деле только один. Избавиться от нее не будет стоить дорого, и тем не менее она содержит знание, которое можно использовать, чтобы выиграть джекпот.

Знание о нашем мире интересно тем, что иногда оно может быть обобщено с такой завораживающей красотой, что великие озарения можно уложить всего лишь в несколько строчек. И демон должен быть в состоянии сделать то же самое — и одновременно наслаждаться своей наградой.

В конце концов — он же демон, а не смертный?

 

Глава 3. Бесконечные алгоритмы

Если наука может достичь своих целей, то и демон Максвелла тоже может достичь своих целей — пробить дыры в самом фундаментальном законе природы, открытом наукой.

В действительности это последствия вопроса, заданного Войцехом Зуреком в 1988 году: если единственная причина, по которой не работает демон Максвелла, заключается в том, что демону приходится тратить огромное количество энергии на то, чтобы забыть все, что он узнал, демон мог бы суммировать свои знания в новой формуле, которая не потребует за забывание высокой платы. Затем он сможет воспользоваться практически всеми преимуществами своего знания мира на молекулярном уровне: он сможет извлекать тепло из ночного мороза — бесплатно. Второй закон термодинамики будет нарушен, вечный двигатель станет возможным — и привычное научное видение мира окажется под угрозой.

Так что, скорее всего, у демона не получится «сжать» свои знания до нескольких простых формул и данных, которые рассказажут всю историю молекул в контейнере, где действует демон.

Но если демон не сможет этого сделать, это наверняка будет не по силам и человеку? Целью науки всегда было создание наиболее краткого из всех возможных описания мира. Но этой краткости, с которой может быть описан мир, есть свой предел. Иначе с демоном Максвелла будут проблемы.

Это следствие вопроса Войцеха Зурека: если мы сможем доказать, что у нас получится описать весь мир в достаточно краткой форме, самое фундаментальное утверждение в нашем восприятии мира будет сломано: нарушится второй закон термодинамики.

Демон Максвелла — это не просто проблема изучения тепла и термодинамики. Демон Максвелла — это проблема для всей нашей космографии — понятие о том, что весь мир может быть детально описан всего лишь несколькими короткими уравнениями почти божественной красоты, является неверным.

Так и есть. Это было доказано в 1930 году в ходе изучения одной из самых базовых задач, лежащих в основе математики. Это было открытие, которое полностью преобразило ситуацию для математиков и логистиков, открытие, которое заставило ученых признать, что они никогда не смогут ничего доказать в этом мире, что человеческое понимание мира будет навсегда состоять только из интуитивных озарений, когда нельзя будет доказать, что люди знают о мире больше, чем могут объяснить через формальные системы.

Это осознание, которое по понятным причинам было названо самым глубоким из всех когда-либо созданных доказательств, касается пределов уверенности человеческого знания, пределов того, что мы в состоянии доказать. Это доказательство того, что все доказать нам не удастся — даже если мы будем знать, что это правда.

Когда математик Курт Гедель опубликовал доказательство своей теоремы в январе 1931 года, он вряд ли осознавал, что это может соотноситься с термодинамикой и невозможностью построения вечного двигателя. Потребовалось еще полстолетия и стало возможным почти с облегчением осознать, что именно теорема Геделя привела к объяснению того, почему не работал демон Максвелла.

Ведь в теореме Геделя мы просто вплотную подходим к самому порогу всех формальных знаний — и, следовательно, в каком-то смысле к единственному точному знанию, которым мы в состоянии обладать: бесконечность истины никогда не получится охватить одной-единственной теорией.

Только сам мир настолько велик, чтобы понять весь мир. Невозможно создать такую карту всего мира, которая включала бы в себя абсолютно все, если только эта карта не будет являться самой территорией — а в этом случае она, конечно, не будет картой.

Современное представление математики о своих собственных основах было уничтожено одним ударом. Мечты об уверенности увяли.

«Wir Mussen Nur Wissen, Wir Werden Wissen». Это заключительная фраза, которую произнес великий математик Давид Гильберт в своей великой лекции, когда его родной город Кенигсберг сделал его почетным гражданином 9 сентября 1930 года. «Мы должны знать. Мы будем знать».

В течение десятилетий Давид Гильберт высказывался в пользу ясных и определенных логических основ математики. В 1900 он перечислил задачи, решение которых позволит взять основы математики под полный контроль. Необходимо было показать, что математическая наука включает в себя связную, непротиворечивую и исчерпывающую логическую систему.

Снова и снова в течение первых десятилетий 20 столетия Гильберт подчеркивал, что подобное абсолютное разъяснение основ математики не за горами и мысль о том, что любая математическая задача может быть решена, имеет под собой основания. «Мы все в этом убеждены!», — сказал он и продолжил описанием мечты математика: «В конце концов, когда мы посвящаем себя решению математической проблемы, нас привлекает именно зов, который мы слышим внутри себя: вот проблема, ищи решение, ты можешь найти его чистой силой своей мысли, так как в математике нет места понятию «ignorabimus» — «не знаем и не узнаем».

В 1930 году, когда Гильберту было 68 лет, он ушел с поста профессора в Готтингене, столицы немецкой математики, и одна из наград, которой он был удостоен, стала для него особенно ценой — он стал почетным гражданином своего родного города. Церемония проходила осенью, когда Немецкое общество немецких ученых и физиков собралось на свою 91-ю конвенцию в Кенигсберге, который играл очень важную и особую роль в интеллектуальной истории Германии — именно здесь жил и всю жизнь работал философ Иммануил Кант.

Давид Гильберт решил прочитать по этому случаю большую лекцию по случаю получения этого звания — лекцию, в которой он смог бы провести связь с Кантом, одним из самых великих философов современности — а, возможно, и самым великим. В работе под названием «Naturerkennen und Logik» он высказал прямую, хотя и вежливо сформулированную критику величайшего сына Кенигсберга.

В конце 1700 годов Кант осознал, что человеческое знание базируется на определенном количестве предпосылок, которые предшествуют опыту. Мы можем познавать мир только потому, что наше знание базируется на серии концепций и категорий, таких, как время и пространство, которые сами по себе не могут быть познаны. Мы смотрим на мир через очень специфические рамки, которые мы не можем подвергать сомнениям, так как они сами по себе составляют предпосылку для того, чтобы мы вообще были в состоянии видеть. Кант говорит об априори в знаниях, концепциях и категориях, которые являются предвзятым и необходимым условием для любого понимания.

С этим не согласился Гильберт. «Кант сильно переоценивал роль и размеры априори, — отмечал он по этому поводу. — Теория априори Канта содержит антропоморфический шлак, от которого нужно освободиться. После того, как мы от этого избавимся, останется только то априорное знание, которое является основой чистого математического знания».

Другими словами, его проект заключался в том, чтобы закрепить математику несколькими логическими математическими принципами, из которых все остальное может быть окончательно доказано. Это значило, что логика сможет объяснить большинство из того, что исходит из человеческой интуиции — следовательно, не будет необходимости в априорных знаниях Канта — вещах в нашем понимании, которые не могут найти рационального объяснения. И в окончательном анализе объяснение понимания будет основано на факте, что мы то, что мы есть и мы воспринимаем мир так, как мы это делаем. Гильберт хотел отойти от этого нелогичного априорного знания. Он хотел получить полностью прозрачное объяснение наших знаний.

В 1800-х годах французский философ Огюст Конт стал основоположником позитивизма — философской школы, которая говорит, что нам нужно ограничиться только знанием, которое имеет позитивное подкрепление — то есть может быть получено через опыт или путем логических, или математических доказательств. Все остальное ненаучно. Конт серьезно критиковал Канта.

Но по мнению Гильберта, позитивизм продвинулся не слишком далеко. Он выразил свое мнение по поводу Конта и его обсуждения проблемы нерешаемых задач (что является проблемой для любой философии, которая принимает только знание, правильность которого может быть доказана). Гильберт утверждал: «В попытках дать пример нерешаемой задачи философ Конт однажды сказал, что науке никогда не удастся установить секрет химического состава тел Вселенной. Через несколько лет эта проблема была решена… Истинная причина, почему, по моему мнению, Конт не мог найти нерешаемую задачу, состоит в том факте, что такой вещи, как нерешаемые задачи, не существует».

Нет предела познанию — все может быть понято, и однажды все будет понято. Мы должны знать. Мы будем знать.

В тот день Гильберт пришел на местную радиостанцию. Два кенигсбергских математика позаботились о том, чтобы свои заключения он мог повторить в студии, а его слова могли попасть в эфир и быть записаны для потомства.

Констанс Райд, которая написала хорошую биографию Гильберта, отмечает: «Его последние слова, произнесенные в микрофон, были твердыми и уверенными: «Мы должны знать. Мы будем знать». Когда он поднял глаза от бумаги и техник выключил запись, он засмеялся. Запись, которая была сделана по время последней части его речи в Кенигсберге, все еще существует. И в конце, если слушать очень внимательно, можно услышать, как Гильберт смеется».

Но Гильберт не знал, что в числе слушателей этого обращения был никому не известный 24-летний математик их Вены, который двумя днями ранее, 7 сентября 1930 года в первый раз, скорее всего, без всякой задней мысли в том же самом Кенигсберге рассказал своим друзьям-математикам о сделанном им открытии — открытии, которое было основано на программе Гильберта об установлении основ математики. Но это открытие полностью разрушало эту программу.

Этим молодым человеком был Курт Гедель. Его упоминание об этом открытии прошло практически незамеченным среди его коллег. Он сделал его на семинаре по эпистемологии науки, который посещали многие великие математики тех дней. Однако важность этого открытия дошла до них только после того, как его теорема была опубликована.

17 ноября Гедель представил статью, в которой содержались сделанные им доказательства, в журнал «Monatshefte fur Mathematik und Physik». Она была опубликована в январе 1931 года, но в рождественский сочельник 1930 года ассистент Геделя Пол Бернейс написал Геделю с просьбой предоставить ему копию для печати. Когда Бернейс рассказал Гильберту о работе Геделя, Гильберт «несколько рассердился». Но он высоко показал себя и как человек, и как ученый в 1939 году, вместе с Бернейсом расширив работу Геделя и добавив в нее несколько важных технических деталей.

На могильном камне Гильберта в Геттингене высечены слова: «Мы должны знать. Мы будем знать». Но он прожил достаточно долго, чтобы понять: на самом деле нам это никогда не удастся.

В 1910-13 годах британский философ и математик Бертран Рассел и математик А.Н. Вайтхед опубликовали работу «Principia mathematica», которая была призвана вывести все математические теории из законов логики. Готовя эту работу, Рассел обнаружил то, что сегодня известно как «парадокс Рассела», который во всех отношениях испортил их общий проект. Выяснилось, что математике свойственны неотъемлемые противоречия: парадоксы появляются в системах, которые во всем остальном являются вполне логичными. Проблемы начались тогда, когда математические величины начали соотноситься сами с собой. Но Рассел считал, что с этой проблемой можно справиться. И очевидно, было найдено красивое техническое решение.

Статья Геделя, написанная в январе 1931 года, носила название «О формально неразрешимых утверждениях в «Principia mathematica» и сходных системах». Другими словами, свое осознание Гедель напрямую связывает с работами Рассела и Вайтхеда.

Бертран Рассел был человеком широких интеллектуальных способностей. Он стал одним из доминирующих философов 20 века, занимаясь почти всеми философскими дисциплинами (и в течение своей жизни принимая очень различные философские позиции). Когда он, как ему казалось, решил все фундаментальные задачи в «Principia mathematica», он оставил математическую логику.

В 1963 году он писал: «Прошло уже 50 лет с тех пор, как я серьезно работал над математической логикой, — и практически единственная работа, которую я с тех пор прочел — это работа Геделя. Я, конечно, понял, что работа Геделя имеет фундаментальное значение — но она меня озадачила. Она заставила меня порадоваться тому, что я больше не занимаюсь математической логикой».

Тем не менее именно благодаря работе Геделя тема столетия действительно начала разворачиваться.

«Я лгу». Это утверждение, парадокс лжеца, преследовало европейскую мысль на протяжении тысяч лет. Если оно истинно, то оно ошибочно — и наоборот. Лжец, который говорит, что он лжет, должен говорить правду: если он лжет, то, когда он говорит, что лжет, на самом деле не лжет.

Существует множество более техничных версии этого парадокса, но смысл у них один: при соотнесении с самим собой возникают сложности. Это касается случаев, когда человек утверждает, что он лжет, а также случаев, когда человек говорит очень кратко. Такие парадоксы отвратительны. Один из них известен как «антиномия Ричарда» и касается он теории множеств.

Гедель уничтожил надежду математической логики изучить утверждения, напоминающие подобные парадоксы — или антиномии, как их предпочитают называть философы. Одно из очень немногих нематематических предложений в его работе 1931 года гласит: «Аналогия этого аргумента с антиномией Ричарда бросается в глаза. Он также тесно связан и с «Лжецом».

Оригинальная идея Геделя заключалась в том, чтобы принять утверждение «Я не могу быть доказан». Если это верно, мы не можем это доказать. Если это неверно, то мы можем это доказать — то есть мы доказали правильность чего-то, что не является правильным. Утверждение может быть верным тогда и только тогда, когда оно не может быть доказано.

Для математической логики это было не очень хорошо — но не потому, что это было парадоксом, противоречием. Проблема скорее заключалась в том, что утверждение «Я не доказуем» верно. Оно значит, что существует истина, которую мы не можем доказать. Существуют истины, к которым мы не можем прийти путем математических или логических доказательств.

Это неформальная версия доказательства Геделя — даже учитывая, конечно, что изначально оно было выражено в значительно менее строгой версии и менее формальных терминах. Гедель показал, что утверждения могут быть закодированы в виде чисел. Следовательно, он перевел проблему с утверждениями, которые опираются сами на себя, в числа, которые «опираются сами на себя».

Это простая, но очень глубокая идея. И она ведет к пониманию того, что логическая система никогда не сможет доказать свою последовательность. Истина или правильность логической структуры или языка никогда не может быть доказана изнутри. Вам нужно находиться вне системы и сказать: «Она последовательна. Она цельная». Последовательность и свобода от противоречий никогда не могут быть доказаны изнутри системы.

Математик Эндрю Ходжес выразил это так: «Особое утверждение Геделя заключалось в том, что так как это невозможно доказать, то в определенном смысле это правда. Но чтобы сказать, что это «правда», необходим наблюдатель, который мог бы взглянуть на систему со стороны. Это невозможно показать, работая внутри аксиоматической системы».

Логика не может обойтись без человека.

«Люди часто воспринимают теорему Геделя как нечто негативное», — писал британский математик Роджер Пенроуз в 1988 году. Осознание Геделя обычно воспринимается как знак всего, чего не может сделать человек. Или, как об этом пишет датская философская литература, она воспринимается как аксиома бессилия. И на самом деле, доказательство Геделя является также и доказательством бессилия. Но не бессилия человека — а бессилия логики.

Мы никогда не сможем избежать необходимости в собственной силе суждений. Гедель доказал, что люди знают больше, чем они могут узнать оттуда, откуда получают знания. Способность понимания сути достигает гораздо большего, нежели любое логическое построение. Теорема Геделя является беспрецедентным вкладом в креативность человеческого мозга.

Но исторические обстоятельства сложились так, что открытие Геделя напоминало о заключениях предыдущей эпохи больше, чем знаменовало собой открытие новой.

Программа Гильберта была не более чем математическим выражением самонадеянности, которая влияла на философию науки на рубеже столетия. Позитивизм Конта осуждал любое знание, которое невозможно получить на основании опыта или логической дедукции. В Вене 20-х годов прошлого века эта философия была усовершенствована и отточена до направления, которое известно, как логический позитивизм. Круг философов и математиков отточили требования позитивизма до требования, что мы должны иметь возможность проверить знание, прежде чем принимать его на веру. Мы должны иметь возможность доказать, что оно верно.

Следствием этого усовершенствования стала смерть позитивизма. Выяснилось, что он противоречил с тем, как естественные науки использовали индукцию, при которой общее знание может быть получено из серии наблюдений. В конце концов никто никогда не знает, нарушит ли следующее явление, которое мы наблюдаем, закон, который только недавно стал известен.

Подобный крах позитивизма не вызвал удивления у Геделя, который посещал встречи в венском кругу: вся его математическая философия была вдохновлена Кантом, который подчёркивал, что мы не можем доказать все, что знаем, но должны принять: оно базируется на основаниях, которые не могут быть доказаны — априорных категориях.

Но Гедель был не просто оппонентом позитивизма. Он был платонистом. Его взгляды на математические числа были частично заимствованы от греческого философа, который вывел философию идей около 400 года до н. э. Идея Платона заключалась в том, что за воспринимаемой нами с помощью органов чувств реальностью лежит еще более реальная реальность, состоящая из фундаментальных принципов, идей, для которых реальность, которую мы воспринимаем, является не более чем подобием. Но эта реальность существует, осознаем мы это или нет.

Эта точка зрения существенно контрастировала с мнением большинства математиков в начале 20 века (но сегодня она получила гораздо более широкое распространение). Давид Гильберт полагал, что математика является своеобразной игрой, которая доказывает свою правильность через формальную последовательность. Бертран Рассел воспринимал математику просто как один из видов прикладной логики. Другие, к примеру, датчанин Лютцен Брауэр, полагали, что математические величины представляли собой усовершенствованную человеческую практику — то есть нашу интуицию.

Но Гедель полагал, что реальность этих величин не имеет ничего общего с тем, можем ли мы доказать их последовательность или то, что они могут быть доказаны логически или применены на практике. Целые числа или другие математические величины существовали «там» задолго до того, как мы осознали их существование.

Эти взгляды Гедель сохранял с середины 20-х годов и на протяжении 30-х годов, когда он получал глубокие результаты в математической логике — один за другим. Он полагал, что эти взгляды являются жизненно важными для его научных достижений. Однако он их не обсуждал. Он не публиковал свои философские воззрения, даже несмотря на то, что философия являлась одним из главных интересов его жизни. Только в 1944 году его взгляды получили широкую огласку — в юбилейном сборнике статей в честь Бертрана Рассела. Математик и философ Соломон Феферман говорил о его статье так: «Гильберт умер в 1943 году, за год до того, как появился Гедель».

«В процессе подготовки вступительной главы по Геделю для предстоящего полного издания его работ я был поражен огромным контрастом, — писал Феферман, главный редактор Собрания работ Геделя, — между глубокими платоновскими убеждениями, которые Гедель сохранял относительно объективных основ математики и особой осторожностью, которую он проявлял в раскрытии этих убеждений».

Можно задать вопрос, чего стоило ему это молчание. Гедель не делился с людьми источником своих озарений. Он напрямую не раскрывал своих верований о мире. Он говорил другим только то, что мог доказать.

Гедель вел очень одинокую жизнь, доверял очень немногим людям и несколько раз лечился в санаториях по поводу депрессии и переутомления. Он был сдержанным и подозрительным — не до такой степени, чтобы это обеспокоило докторов — несмотря на то, что был озабочен своим здоровьем. Его депрессия усугублялась и в 70-е годы превратилась в паранойю с ее классическим синдромом страха отравления. В 1977 году ситуация стала критической — его жена попала в больницу и больше не могла за ним ухаживать. Он не открывал дверь медицинскому персоналу и 14 января 1978 умер. Его тело нашли в позе эмбриона. «Недоедание и истощение», которые стали результатом «нарушений психики» — такой была официальная причина смерти.

Он внес самый большой вклад в то, чтобы человеческий мозг вышел за пределы формально доказуемого, который когда-либо появлялся в области логического мышления. Но это воспринималось как утверждение бессилия, техническая особенность — с исторической точки зрения — локализованное восстание против чрезмерной веры в науку.

Сам Курт Гедель признавал следующую формулировку, которая пришла к нам от математического логика Хао Ванга: «В философии Геделю так и не удалось найти то, что он искал: новый взгляд на мир, его базовые составляющие и правила, по которым они складываются. Несколько философов, особенно Платон и Декарт, утверждают, что в определенные моменты жизни у них возникал интуитивный взгляд на подобные вещи, отличный от нашего повседневного взгляда на мир».

Безусловно, у Геделя тоже были подобные откровения. Но он не осмеливался их обсуждать. Он осмеливался открывать нам только те из них, которые мог однозначно толковать. Он осмеливался делиться своими откровениями только в том виде, какими они представали снаружи — с точки зрения всего остального общества.

Чудо математики состоит в том, что этого было достаточно, чтобы и другие могли увидеть свет.

Весной 1935 года 22-летний Алан Тьюринг, который только что закончил докторат, посещал лекции, которые проводил математик М.Х.А. Ньюман в Кембридже, Англия. Предметом лекций были фундаментальные задачи математики. Отправная точка — программа Гильберта. На лекциях говорилось, что Гедель ясно и четко показал: центральные элементы программы Гильберта не выдерживают критики. Но оставался один вопрос, который не удалось решить Геделю: так называемая проблема разрешимости — Entscheidungsproblem.

Эта самая Entscheidungsproblem рассматривается по-другому: если у нас есть математическая система, которая говорит о частном предположении — можем ли мы решить, возможно ли вывести это предположение из системы? Гедель показал, что в любой закрытой системе возникнут вопросы, на которые не будет ответов — правдивые утверждения, которые не могут быть выведены. И это было критично, так как показывало, что мечта раз и навсегда уладить все в математике является недостижимой.

Проблема решения, может или нет быть выведено то или иное отдельное предположение, на первый взгляд гораздо больше должна занимать инженеров — это проблема, которая затрагивает специфические и конкурентные вопросы. Безусловно, она интересует и математика, но для всех остальных она должна казаться значительно менее важной, чем сама фундаментальная проблема — что мы не в состоянии доказать все.

Но нет. Даже если этот вопрос может показаться скучным — ответ на него определенно таковым не является.

В своих лекциях Ньюман спрашивал, можем ли мы создать своего рода «механический процесс», который был бы применим к математической задаче с целью определить, имеет ли она решение. В сущности, это было как раз то, о чем спрашивал Гильберт: существует ли рецепт, который может нам сказать, способны ли мы вывести специфические следствия из теории? Желательно, чтобы это был способ, который не потребует слишком много воображения и при этом действительно будет механическим — алгоритм, как называют это математики.

«Механический процесс». Алан Тьюринг принял во внимание выражение Ньюмана. Он подумал о машинах — машинах, которые могли бы считать. В 1935 подобные машины уже существовали — но они не представляли особого интереса. И Тьюринг начал рассматривать принцип работы подобных машин: что нужно, чтобы машина могла решить математическую задачу и определить, может ли предположение быть получено из теоретической системы?

Требовалось не так уж много. Тьюринг изобрел простую логическую машину, которая не слишком много умела. Она могла выполнять несколько инструкций: писать, читать и выполнять в своей памяти исправления. Немногим больше, чем обычная печатная машинка.

Но Тьюринг оснастил свою логическую машину бесконечно большой памятью. Он предусмотрел для машины возможность записывать свою деятельность на рулоне бумаги бесконечно долго. Эта бумага могла перемещаться вперед и назад, так что машина — как и печатная машинка — работала на определенном участке в определенный момент времени. Этот бесконечный рулон бумаги — лента — был бесконечным вот почему: на самом деле неважно, насколько точно машина выполняла свои инструкции. Ведь у нее было достаточно памяти и достаточно времени.

Тьюринг понял, что такая простая машина — которая известна сегодня как машина Тьюринга — могла бы на самом деле решить многие задачи Гильберта по дедукции — и как раз потому, что Гедель изобрел элегантный логический маневр, благодаря которому можно было рассматривать любой вид математических конструкций под видом чисел. Это была универсальная машина, способна решить любые арифметические задачи. Любые известные выполнимые вычисления можно было выполнить на машине Тьюринга, которая, следовательно, воплотила принцип счетной машины в ее чистом и обобщенном виде.

Но вскоре Тьюринг понял и кое-что еще: алгоритм может быть написан так, что будет для машины «не пережевываемым» в понятной для нее манере. Были числа, к которым она не могла подобраться. И не потому, что числа были слишком большими — а потому, что алгоритм был слишком непостижим: невозможно было сказать, сможет ли машина справиться с числом, пока операция не была выполнена — а это могло занять бесконечно много времени. Таким образом никто не мог знать, удастся ли ему получить результат в течение конечного периода времени.

Это значит, что Entscheidungsproblem Гильберта была неразрешимой. Мы не можем создать алгоритм, который говорил бы нам, может ли что-либо быть выведено из математической системы.

Это заключение важно само по себе — и к нему одновременно и независимо пришел и другой ученый — американский логик Алонзо Черч.

Но в открытиях Тьюринга есть и еще одна интересная вещь: ему удалось сделать сразу два открытия одновременно, летним днем, лежа на лугу. В своей биографии Алана Тьюринга Эндрю Ходжес описывает это так:

«Алан доказал, что не существует никакой «чудесной машины», которая могла бы разрешать все математические задачи. Но в процессе он открыл кое-что столь же чудесное — идею универсальной машины, которая могла бы взять на себя работу любой машины».

Тьюринг создал теорию машин, которые могли считать. Несколько лет спустя Вторая мировая война привела к тому, что значительные ресурсы были брошены на срочное развитие электронных компьютеров, особенно в Великобритании и США. Британцы пользовались ими, чтобы расшифровать секретные немецкие коды коммуникации. Американцы использовали их, помимо всего прочего, для создания атомной бомбы.

Со времен Второй мировой войны компьютеры стали обычным делом. Уже десятки лет человек увлечен идеей тех бесконечных возможностей, которыми наделили нас компьютеры и которые позволяют нам контролировать мир и следить абсолютно за всем.

Но факт заключается в том, что как только была изобретена концепция и теория вычислительных машин, Алан Тьюринг тут же осознал: мы не можем вычислить все. Человеческий разум оказался в состоянии сформулировать идею об универсальной вычислительной машине в тот самый момент, когда стало ясно: мы не в состоянии вычислить все механически. Существуют вопросы, возможность ответа на которые приходит только тогда, когда эти ответы получены — но не раньше.

Глубина этих отношений может оказаться для нас чуждой. Тезис Черча-Тьюринга просто утверждает, что мы можем вычислить все, что уже было вычислено. Вы можете делать все то, что, как вам известно, вы можете делать. А узнать, можете ли вы это сделать, вы сможете только после того, как уже сделаете!

Сегодня, когда компьютеры стали вездесущими, эта идея более знакома нам как «проблема остановки Тьюринга»: если говорить в целом, можем ли мы определить, когда компьютер закончит определенное вычисление? Ответом будет «нет»: мы не можем знать заранее, когда компьютер закончит вычисление (если, конечно, раньше он этого не делал).

Аналогично мы не можем знать, закончит ли компьютер вычисления вообще — до тех пор, пока он их не закончил. Пока он не закончил, мы не знаем, закончит ли он или будет продолжать работать вечно.

Это, конечно, не касается простых вычислений повседневной жизни — относительно них у нас есть большой опыт. Но мы знаем это только потому, что у нас уже есть подобный опыт. Нет принципиальных универсальных логических правил, которые могли бы сказать нам то, что было бы нам не известно.

Тезис Черча-Тьюринга и проблема остановки Тьюринга говорят нам о том, что мы не можем получить знаний иначе, чем через опыт. Невозможно заранее сказать, что произойдет.

В этом отношении компьютеры сходны с искателями истины и маленькими детьми. Все, что мы можем сделать — это ждать, пока они закричат: «Я закончил!».

«Большинство математиков, возможно, предпочли бы ограничить разглашение информации о текущем статусе математики «членами семьи», — писал в 1980 году Морис Клайн в своем предисловии к книге о том, как математика теряет уверенность. — Если об этих проблемах узнает общественность, это будет так же нехорошо, как распространять сведения о чьих-то проблемах в браке».

И действительно, в течение многих последних лет прошло несколько волн кризиса. Последовательность этих событий подытожил Руди Рукер в своей книге, опубликованной в 1987 году: «Теорема Геделя показывает, что человеческая мысль является более сложной и менее механической, нежели мы могли ранее полагать. Но после первоначального волнения 30-х годов результат свелся к небольшому количеству технической математики. Теорема Геделя стала частной собственностью представителей математической логики, и многие из этих академиков впадают в высокомерие при любом предположении о том, что эта теорема может иметь какое-то значение для реального мира».

Философы тоже не слишком преуспели, хотя в начале 30-х годов польский философ Альфред Тарский действительно представил сходные с Геделем аргументы, демонстрирующие, что мы никогда не сможем вывести истины из системы, находясь внутри нее.

Но теорема Геделя все же стала широко известной, и не в последнюю очередь потому, что в 1979 году американский ученый-компьютерщик Дуглас Хофстадтер опубликовал очень красивую, очень сложную и очень знаменитую книгу «Godel, Escher, Bach и Kомпания», в которой он указывает на духовное родство Иоганна Себастьяна Баха (1685–1750), чью музыку современники находили чересчур «математической», графического художника Мориса Эшера (1898–1972), до сих пор не вполне признанного коллегами, и Курта Геделя (1906–1978), информация о котором только сейчас распространяется в широких кругах.

Существовала и другая причина, почему мир начал замечать Геделя: стало ясно, что феномен, на который он указал, не был ограничен только странными парадоксами древних греков. Недоказуемость и неразрешимость являются фундаментальными характеристиками нашего мира.

Дальнейшее развитие теоремы Геделя в 60-е годы шло под различными названиями — теория алгоритмической информации, алгоритмическая степень интеграции, алгоритмическая случайность. Но какое бы название мы ни выбрали, отцов-основателей этого направления было три: Рэй Соломонофф, Андрей Холмогоров и Грегори Чаитин.

Сложно? На самом деле все не так сложно, как кажется. На самом деле с помощью этой теории можно гораздо проще выразить то, что открыли Гедель и его последователи. Она дает нам разумное определение того, чем на самом деле является случайность — а это важно, так как это дает нам намек на то, что такое порядок.

Отправной точкой здесь являются числа. Что такое случайное число? Так как все три эти джентльмена были математиками, у них была склонность к бинарным числам — то есть числам, которые состоят только из нулей и единиц: 010110100110 …

Такие числа сложно воспринимать визуально — но если перед ними поставить запятую, то они будут выглядеть как старые добрые десятичные дроби: 0.10110100110. Является ли это число случайным? На самом деле мы просто записали серию случайных двоичных цифр. Но была ли это просто случайность?

Мы могли с таким же успехом 12 раз бросить монетку, обозначив «орла» как 1 и «решку» как 0. В этом случае, конечно, число было бы случайным? Можем попробовать: 100010000111 — нет, никакого обмана: мы бросили монетку 12 раз. Но если мы сделаем это еще раз, число, конечно, будет другим: 110011010000.

Конечно, можно было сделать и что-то совсем другое. К примеру, можно было устроить проверку нашего знания бинарных номеров, написав, допустим, 0.010101010101.

Вот это уже не кажется случайным — это последовательность 01. Такую последовательность можно было выразить проще: 0 точка 6 раз 01. Но на самом деле этот пример довольно хитрый, так как выразить данное число можно даже более кратко: это бинарное представление 1/3.

Смысл заключается в том, что определенные числа могут быть представлены в гораздо более краткой форме. К примеру, 111111111111111111 можно записать как «18 раз единица».

Если использовать десятичную систему, 0.42857142857 можно записать как 3/7, а 1234567891011121314151617181920 как «последовательность цифр от 1 до 20».

Но могут ли последовательности, которые мы получаем, бросая монетку, также быть записаны в краткой форме? Нет, не могут. Ведь они в сущности являются информацией о 12 последовательных событиях, полностью независимых друг от друга. Не существует системы, которая могла бы определить, появится ли в следующей позиции 0 или 1. Да, мы вполне можем ожидать, что много раз выпадут нули или единицы, а вся последовательность при этом будет состоять примерно из одинакового количества тех и других, так как мы ожидаем выпадения «орлов» и «решек» с примерно одинаковой вероятностью. Однако порядок их будет произвольным. В нем не будет системы.

Конечно, мы можем подбросить монетку 12 раз и получить последовательность 010101010101, которая может быть выражена очень кратко — но это не будет происходить слишком часто. На самом деле примерно можно подсчитать, что нам для этого придется подбрасывать монетку тысячи раз, прежде чем мы сможем получить эту последовательность (и любую другую специфическую последовательность). Не стоит принимать это во внимание.

Таким образом, случайные числа нельзя описать более кратко. Но другие — можно, к примеру, 0.42857142857 может быть записано как 3/7.

Таким образом, различия между случайными и упорядоченными числами может быть выражено так: случайные числа — это числа, которые нельзя описать более коротким образом, а упорядоченные — можно. Именно это мы и подразумеваем под порядком.

Теория этих трех джентльменов гласит, что таким образом мы получаем очень хорошую теорию порядка и случайности. Случайность — это то, что не может быть выражено более кратко в виде алгоритма. Случайные числа — это числа, которые нельзя выразить короче, чем они есть.

Противоположный случай — упорядоченные числа. «3/7» — это правило арифметики, алгоритм, который говорит нам, как получить последовательность 0.42857142857 (если мы согласимся иметь дело только с первыми 12 цифрами). Таким образом, эта последовательность является менее случайной, чем 0.32857142877, где изменены две цифры и, вероятно, получилось число, которое не может быть выражено простой дробью.

Но можем ли мы быть уверены? Кто сказал, что 0.35657142877 не является некоей простой дробью — ведь, возможно, мы просто в спешке это просмотрели?

Возможно, найдется читатель, который найдет алгоритм для последовательности 0.35657142877, который будет короче, чем сама последовательность. Если это произойдет, будет доказано, что последовательность не является случайной. Но до тех пор мы можем предполагать, что она таковой является.

Тем не менее никто не знает, что именно может предпринять хитрый читатель: и в определенном смысле именно это и доказал Гедель.

Мы не можем установить одно общее правило, которое будет говорить нам, как установить, является ли число случайным или нет — может ли оно быть выражено более коротко или нет. Это есть прямое следствие открытия Геделя. Это теорема Геделя — именно то, что он доказал.

Мы знаем, что число может быть выражено в более краткой форме, только тогда, когда понимаем, что это возможно. До тех пор мы не можем этого утверждать.

Случайных чисел больше, чем упорядоченных. Большинство чисел невозможно представить в более коротком виде, нежели они уже есть. Это можно понять интуитивно благодаря способу, по которому мы (возможно) создаем случайные числа: мы просто смотрим на упорядоченное число 3/7), записываем его в десятичной форме — и меняем две цифры. Результат (предположительно) будет представлять собой случайное число. Но мы можем изменить и две другие цифры, или поменять уже измененные цифры на другие. Результат (предположительно) тоже будет случайным числом. (Важно, что алгоритм, описывающий способ создания «беспорядочных» номеров, не может быть выражен более кратко, нежели само число — иначе все пойдет насмарку. Число 0.32857142877 может быть представлено как 3/7 — 0.1 + 2 X 10~10 — это почти короче, чем само число, которое в этом случае точно не будет случайным).

Есть возможность доказать, что число не является случайным, так как оно может быть описано в более коротком виде — другими словами, в виде алгоритма. Но невозможно сказать, что число не может быть описано более кратко.

Это и есть открытие Геделя: мы можем сказать, что такое порядок, когда его увидим. Но мы не можем сказать, что это не является порядком только потому, что мы его не видим — и никакие математики, логика или компьютер не смогут нам в этом помочь.

Порядок есть порядок. Остальное остается неопределенным.

Безусловно, три джентльмена расширили эти идеи. Самый короткий путь описания серии цифр также может быть выражен в виде самой короткой инструкции, которую мы можем дать машине для распечатывания этого номера. В ситуации со случайным числом нам придется сказать машине всю последовательность, в то время как числа вида 0.42857142857 могут вводиться более кратко — как s/t.

Идея, таким образом, заключается в определении алгоритмического информационного контента серии чисел как самого короткого алгоритма, который заставит машину Тьюринга распечатать эту последовательность. Эта концепция известна также как алгоритмическая степень интеграции или алгоритмическая случайность.

Но — можем возразить мы — это значит, что случайные числа содержат больше информации, чем упорядоченные. И это действительно так. Информационное содержание выражается тем, насколько сложной является передача сообщения. Более длинный разговор по телефону потребуется для описания результата подбрасывания 12 раз, чем числа 3/7, так как случайное — это то, что не может быть сказано короче.

Информация ассоциируется с энтропией — мерой термодинамического беспорядка. Макросостояние «12 бросков монеты» соотносится с большим количеством микросостояний (бинарные цифры), чем макросостояние «3/7». В 12 бросках содержится больше информации.

Информация — это мера случайности, так как случайность — это мера беспорядка: того, что сложно описать.

Информация — это мера того, какая неожиданность нас ожидает: в беспорядке больше неожиданностей, чем в порядке. На самом деле именно это мы и подразумеваем под порядком: нечто, что не может нас удивить, так как оно упорядочено.

Странность определения информации, данного Шенноном, становится теперь более постижимой: информация может быть определена только тогда, когда мы знаем ее содержание, когда мы можем сказать, о каких макросостояниях и микросостояниях мы ведем речь. Информация может быть определена только тогда, когда мы объясняем, что мы имеем в виду под порядком.

Теорема Геделя говорит нам о том, что мы никогда не сможем знать, есть ли порядок в случайности — порядок, который мы просто пока не увидели. Чтобы установить, сколько информации содержится в беспорядке, нам сначала необходимо знать, сколько порядка уже обнаружено в этом беспорядке. Мы не можем определить информацию до тех пор, пока мы не узнаем, какой порядок обнаружил получатель информации. Информацию нельзя установить без знания ее содержания. И не потому, что с нашим понятием информации что-то не так, а потому, что понятие порядка и случайности обязательно включает в себя элемент субъективности.

Каждый из этих трех джентльменов создал теорию алгоритмической информации независимо друг от друга. Андрей Холмогоров, один из величайших математиков столетия, работал в Москве; Реймонд Соломонофф — в Кембридже, Массачусетс, а Грегори Чаитин — в Нью-Йорке. Грегори Чаитину удалось дальше всего продвинуться в этой теории. В 60-е годы прошлого века, когда родилась эта теория, Чаитин учился в Городском университете Нью-Йорка. В настоящее время он работает в IВМ Laboratories в Йорктаун Хайс около Нью-Йорка (там, где работают Рольф Ландауэр и Чарльз Беннетт).

Чаитин доказал, что открытия Геделя естественны и легки для понимания: Гедель показал, что любая формальная система, состоящая из конечной серии постулатов или аксиом, всегда будет содержать неполные утверждения. Подобную систему невозможно полностью изучить изнутри. Мы никогда не сможем ее полностью постичь, если ограничим себя формальными методами доказательства.

«Теорему Геделя можно продемонстрировать с помощью аргументов, которые будут иметь информационно-теоретический привкус, — пишет Чаитин. — В подобном подходе можно утверждать, что если теорема содержит больше информации, чем данный набор аксиом, то ее невозможно вывести из этих аксиом. Это составляет контраст с традиционным доказательством, которое базируется на парадоксе лжеца. Эта новая точка зрения предполагает, что феномен неполноты, открытый Геделем, является скорее естественным и широко распространенным, нежели необычным и патологическим».

Но Чаитин также вывел свою теорему как продолжение теоремы Геделя. Он начал с задачи остановки Тьюринга — можем ли мы знать, когда остановится компьютер, решив задачу? Ответ таков: мы узнаем только тогда, когда он остановится.

Чаитин задался вопросом: какова была вероятность, что машина Тьюринга, которой дана в высшей степени случайная программа, остановится, так как она нашла решение? Он доказал, что возможность эта не обнаруживаема. Мы не можем ее подсчитать. Это число под названием Омега. Оно находится где-то между 0 и 1. Но мы никогда не сможем его узнать.

Чаитин доказал: это значит, что сама теория целых чисел должна быть пронизана случайностями. Теорию чисел нельзя описать, не вводя в картину случайные элементы.

В 1988 году британский математик Иан Стюарт, которого можно с уверенностью считать самым знающим комментатором современной математической науки, писал в журнале «Nature»: «Для основ математики и даже до философии применительно к науке это столетие оказалось столетием разбитых иллюзий. Одно удобное предположение за другим разлетались вдребезги в лицо математикам. Предположение о том, что формальная структура арифметики является точной и постоянной, оказалось бомбой замедленного действия — а Чаитин только привел в действие детонатор».

Позже в том же году Чаитин написал в «Scientific American»: «Какое влияние на математику могли оказать неполнота теоремы Геделя, проблема остановки Тьюринга и моя собственная работа? Смысл в том, что большинство математиков предпочитают не обращать внимания на эти результаты. Конечно, они согласны с принципом того, что любой конечный набор аксиом не является полным — но на практике они исключают этот факт, как не оказывающий непосредственного влияния на их работу. К сожалению, однако, иногда он все же влияет. Несмотря на то, что оригинальная теорема Геделя, судя по всему, применима только к необычным математическим утверждениям, которые не представляют особого практического интереса, алгоритмическая информационная теория показала, что неполнота и случайность являются естественными и повсеместно распространенными».

Математика, судя по всему, слишком важна, чтобы оставить ее только математикам.

Чаитин согласился бы с этим. «Тот факт, что многие математические задачи оставались нерешенными сотни и даже тысячи лет, только подтверждает мое утверждение.

Математики стойко предполагают, что невозможность решения этих проблем заключается только в них самих — но не может ли быть так, что проблема заключается не только в неполноте их аксиом?» Он добавляет: «Это может казаться большинству математиков нелепым предположением — но для физика и биолога оно не будет столь уж абсурдным».

«Это вопрос, который поистине достоин Уотергейта: что знает демон Максвелла — и когда он это знает?» — с большим энтузиазмом сказал Войцех Зурек в своем вступительном обращении на семинаре по степени интеграции, энтропии и информационной физике в Институте Санта Фе в 1990 году.

Идея Зурека была довольно хороша, как он объяснил на первой встрече группы двумя годами ранее. Его обращение называлось «Алгоритмический информационный контент, тезис Черча-Тьюринга, физическая энтропия и демон Максвелла». Его идея соединяла воедино эти до того времени несоединимые области физики и математики.

В числе слушателей были Ландауэр и Беннетт. Зурек процитировал их решение задачи демона Максвелла — решение, которое указывало, что проблемой демона было забывание того, что он узнал: как только он узнал, где находятся все молекулы в контейнере и как они движутся. В направлении самых быстрых из них в одну камеру, он, конечно, преуспел — но теперь ему придется очень много забыть. Проблема заключалась не в том, как думали Сцилард и позже Бриллоун, чтобы узнать, где находятся молекулы. Проблема заключалась в том знании, которое приобретает демон. Ландауэр доказал: чтобы избавиться от этой информации, придется платить; Беннетт доказал, что цена этого искупает второй закон термодинамики. Демон не сможет обеспечить энергию для вечного двигателя.

Но затем Зуреку пришла идея: а что, если демон настолько умен, что сможет сжимать свое знание? Что, если он сможет описать движение молекул в очень краткой форме, так что очистка его памяти не будет обходиться слишком дорого? Если бы он мог помнить, к примеру, что все более быстрые молекулы имеют определенное расположение (на дне контейнера), это описание бы не требовало слишком большого количества бит — а затем он мог бы это забыть? Смог ли бы этот интеллектуальный демон создать вечный двигатель и нарушить наше видение мира?

С большим удовольствием Зурек описал, как ему удалось решить эту задачу: существуют пределы того, насколько умным может быть демон. Физические пределы. Он не сможет описать схему движения молекул способом, который был бы менее сложным, чем само это движение — а физические законы дают нам минимальный уровень сложности, который применим к вещам.

Конечно, для того, чтобы описать ситуацию, при которой все молекулы собираются в левой части контейнера, много бит не потребуется. Но с физической точки зрения такая ситуация крайне маловероятна — это как раз такая ситуация, которую демон попытается применить в своей умной попытке выиграть.

Следовательно, демону придется принять во внимание тот факт, что в скоплении молекул, которое находится в равновесии, всегда наблюдается беспорядок — и описание его не может быть более коротким, чем этот беспорядок. Нарушения равновесия возможны — но они редки и ничего не будут значить в долгосрочной перспективе.

Таким образом Зурек перевел физический беспорядок в категорию описания. Ключом к этой операции, как было доказано, является алгоритмическая теория информации, так как огромное скопление молекул может быть описано очень длиной цепью цифр. Они появляются в результате того, что все молекулы измеряются и взвешиваются с головы до пят: результат — серия чисел.

Сложность этих чисел должна отражать сложность описания состояния молекул. Как раз потому, что мы имеем дело со случайным движением тепла, числа, которые будут описывать молекулярное движение, будут включать в себя большой элемент случайности. Основная характеристика подобной случайности заключается в том, что она не может быть описана произвольно кратко.

И Зурек использовал алгоритмическую информационную теорию, чтобы перевести физическую случайность в самое короткое описание. Это дало ему меру того, сколько информации демону придется отбросить чтобы «сохранить холодную голову».

Эту меру можно сравнить с работой, которую удастся выполнить демону, имеющему такое описание. Если второй закон работает, случайность в движении молекул найдет свое отражение и в случайности описания, что сделает его достаточно длинным и в результате выгода окажется меньше, чем стоимость.

Зурек обнаружил, что второй закон может спасти одна особая теорема информационной теории — неравенство Крафта. «Успех умного демона Максвелла исключается как следствие теоремы, которая была предложена через столетие после второго закона в совершенно другом контексте — в составе теории коммуникации!» — нетерпеливо объяснял Зурек.

Пока аудитория перешептывалась и аплодировала этому замечательному примеру связи между совершенно разными областями исследования и получала удовольствие от этого открытия, Зурек начал пересказывать лекцию, которую он прочитал несколькими месяцами ранее и в которой поделился своим триумфом в аудитории одного американского университета.

«А потом кто-то задал мне один из тех вопросов, на которые никогда не знаешь, как отвечать. Очень умный вопрос», — сказал Зурек и с юмором посмотрел на физика, который до этого все утро спрашивал, с чего бы это его машине интересоваться энтропией, когда она является всего лишь субъективным понятием.

Аудитория быстро поняла, что этот вопрос задал не кто иной как Уильям Унру из Ванкувера. Уилл Унру принадлежит к великолепной плеяде физиков, которых лучше всего можно описать словами «проницательная развязность» — герр Варум, мистер «Почему», как называли Геделя в школе. На данной встрече эту роль играл мистер Унру.

«Он спросил меня, что произойдет, если демон окажется настолько умным, что начнет измерять только молекулы, измерение которых окупится, — сказал Зурек, — а про остальные просто забудет».

Хоть Билл Унру и спросил, но в тот момент Зурек не ответил, так как ответ не пришел ему в голову.

Но в Санта Фе ответ на этот вопрос был у него уже готов. Детальный анализ логических последствий показал, что он был очень прост. Демон, конечно, должен был забыть обо всех тех молекулах, помнить о которых было бы нерентабельно.

Но вот само забывание, как объяснил Зурек, имеет свою цену. «Это верно!», — согласилась аудитория, немного посмеявшись над Унру, который в последние годы задал столько вопросов, многие из которых были весьма хорошими, что спокойно мог жить с осознанием того, что в конечном итоге большинство из этих вопросов оказались глупыми.

Вопрос Уилла Унру доказывает, что аргумент можно рассматривать и наоборот: иногда, очень-очень редко, демон может оказаться в контейнере, где все молекулы собрались слева. Эта ситуация настолько же невозможна с физической точки зрения, насколько легко описываема: 1 бит. Тяжело найти, легко забыть: нет «плохих» молекул, о которых нужно помнить. Но когда демон сталкивается с такой ситуацией (не создавая ее сам), он может извлечь из нее работу. В противном случае с информационно-теоретическим анализом возникает проблема. Физик Чарльтон Кейвз описывает это так: «Иногда демон выигрывает — но не в долгосрочной перспективе».

Работа Зурека стала триумфом не только для Зурека, но и для всего собрания. Люди собрались для того, чтобы услышать описание физики в рамках информации. Идея, конечно, не нова — еще со времен теории информации Шеннона в 1948 году люди пытаются практически все объяснить в рамках информации.

Новым стало то, что теперь было похоже — они куда-то пришли, как будто алгоритмическая информационная теория внезапно сделала возможной соединить физическую энтропию с информацией описания, как будто беспорядок и случайность могли быть поняты физикой, которая в основном сосредоточена на правилах и порядке.

Демон Максвелла действительно оказался ключом. Изучение этого хитрого маленького интригана оказалось наиболее полезным для понимания этих новых идей.

Ученым удалось создать «вычислительный аналог второго закона термодинамики», как Зурек нескромно сформулировал это в «Nature». Физическую энтропию можно понимать, как беспорядок, который можно объяснить через алгоритмическую информационную теорию. Плюс, конечно, невежество, которого у нас всегда в избытке. Сама безотзывность отсеивания информации решила эту задачу: «Я продемонстрировал, что второй закон термодинамики находится в безопасности даже от «интеллектуальных существ», пока их способность обрабатывать информацию поддается тем же законам, по которым работают универсальные машины Тьюринга… Теорема остановки Тьюринга подразумевает, что информация, которая необходима для работы с максимальной эффективностью, может быть защищена только посредством бесконечно длинных вычислений. Неразрешимость Геделя можно назвать дополнительным источником рассеивания».

Демон Максвелла не был изгнан. Он больше не угрожает второму закону, но вместо вредного демона он превратился в настоящего друга, в доказательство глубокого родства в нашем мире, о молекулярных составляющих которого мы не хотим знать — а, следовательно, никогда и не будем. Мы лучше будем просто ощущать тепло.

Если бы мир можно было исчерпывающе описать как произвольно короткое число алгоритмов, с демоном Максвелла возникла бы проблема. Но это невозможно. Древняя мечта ученых о всеобъемлющей теории, формуле мира, по которой можно было бы предсказать что угодно, осталась в прошлом.

Немецкий биолог Бернд-Олаф Купперс говорит об этом так: «… в рамках алгоритмической информационной теории существует строгое математическое доказательство утверждения, что мы никогда не сможем узнать, обладаем ли мы минимальной формулой, с помощью которой могут быть предсказаны все явления реального мира. Полнота научной теории в принципе никогда не может быть доказана».

Мы получаем удовольствие от таких кратких, элегантных построений, как формулы Максвелла для электромагнетизма. Но мы никогда не узнаем, можно ли выразить их еще более кратко — до того дня, когда нам удастся это сделать.

Жизнь всегда останется для нас открытой. Мы никогда не узнаем о том, что ее нельзя выразить еще прекраснее.

Количество красоты в мире увеличивается.

 

Глава 4. Глубина сложности

«Какое яблоко?» — Сет Ллойд был быстр. Очень быстр. На самом деле ему удалось выдать довольно хорошую практическую шутку.

Физик из Калифорнийского института технологии стоял спиной к затихшей аудитории. Он писал на доске формулы и одновременно объяснял, как ему удастся вывести сущность всех вещей из определения информации.

Был день пятницы 20 апреля 1990 года, и в начале недели Джон Вилер предсказал, что к этому моменту все собравшиеся получат объяснение того, как сложена Вселенная. Конечно, в Институте Санта Фе этого пока не произошло, но многие физики ощущали, что конференция по сложности, энтропии и информационной физике действительно приближалась к чему-то интересному. «Все от бита», — как объяснял это седеющий провидец Джон Вилер, имея в виду вывод теории вещей из теории информации.

Сет Ллойд начал свою лекцию «Логические разногласия» рассказом о яблоке и его самости. «Я хочу попытаться сделать то, что предложил Вилер — и вывести это из бита», — сказал Ллойд и откусил от яблока (игра слов: bit — бит и bite — кусать).

Но вскоре он переключился со своего материального яблока к более теоретическим материям, обернутым в очень длинную серию уравнений, которые Ллойд царапал на доске, а пара дюжин физиков в это время старались не уснуть в конце этого последнего дня недели.

Во время одного из длинных вычислений Ллойда физик Джон Денкер из знаменитой лаборатории AT&T Bell Laboratories смел яблоко с кафедры Ллойда. Оно исчезла. Другой его коллега из Bell Labs Йан Ле Кан ухватился за идею и прервал поток слов Сета Ллойда, все еще вычислявшего. «Как конкретно это понятие относится к самости яблока?» — его вопрос не демонстрировал особой проницательности, но все затаили дыхание, ожидая реакции Ллойда.

Сет Ллойд повернулся к аудитории, чтобы ответить, но он тут же заметил ловушку. «Какое яблоко?» — спросил он, повернулся обратно к доске и продолжил вычисления.

Когда в следующий раз его прервали, на этот раз более серьезным вопросом, он повернулся к аудитории и заметил: «Я отказываюсь отвечать на какие-либо вопросы, пока не получу назад свое яблоко!». Но к этому моменту яблоко снова было на кафедре, а аудитория старалась притвориться, что не имеет понятия, о чем он говорит.

Когда лекция закончилась, начался шум. Дойн Фармер, возглавлявший группу нелинейных исследований в лаборатории Лос Аламос возле Санта Фе, попытался завладеть яблоком Ллойда. «Я очень хочу это яблоко», — прокричал он, но Ллойд не собирался просто так сдаваться. Яблоко раздора завершило свой жизненный путь на полу лекционного зала Института Санта Фе, раздавленное на кусочки.

На этой неделе из бита ничего не было выведено. Но перспективы того, что это будет действительно так, насколько реальны, что ученые уже устроили соревнование: кто решит загадку сложности.

«Сложность занимает огромную территорию, которая простирается между порядком и хаосом», — написал в своей провидческой книге «Сны разума» (1988 г.) физик Хайнц Пагельс. Факт состоит в том, что спектр возможностей, которые предлагают нашей космологии порядок и беспорядок, очень невелик.

Полный беспорядок не представляет интереса. Бардак, не стоящий того, чтобы о нем говорили, так как мы не можем дать ему убедительного описания. Беспорядок говорит сам за себя — и добавить к этому нечего.

Аналогично и полный порядок не представляет большого интереса. Решетка атомов в кристалле, методично организованная схема повторений. Все, что можно сказать о таком порядке, может быть сказано очень быстро и сразу становится тривиальным.

Таким образом, должна существовать третья возможность, которая не будет ни полным порядком, ни полным беспорядком, чем-то, что определенно не будет тривиальным и будет при этом сложным, но не хаотичным: сложность.

Территория между порядком и хаосом охватывает практически все, о чем стоит говорить, все, о чем мы говорим и с чем сталкиваемся в своей повседневной жизни: живые существа, изменения погоды, прекрасные ландшафты, дружеские разговоры, вкусные салаты, веселье и игры.

Возьмите что-либо написанное. Если оно находится в полном порядке и предсказуемо, оно представляет мало интереса. В тексте, который состоит из повторения серий букв, к примеру, АААААААААА — масса порядка. Алгоритмическая информационная теория объясняет, почему это скучно. Не составит никакой сложности вывести краткое описание, которое позволит воспроизводить подобный текст: 10 раз А.

И наоборот, полностью беспорядочный текст тоже не представляет особого интереса: LIUQWEGAEIUJO. Согласно алгоритмической информационной теории, самая короткая программа, которая может воспроизвести эту цепь случайных букв — сама эта цепь. Потому что это случайная цепь букв.

Широкому распространению алгоритмической информационной теории всегда мешал тот факт, что в тексте, написанном обезьяной, всегда будет гораздо больше информации, чем в тексте, написанном знаменитым писателем. Но это естественно, так как в том, что пишет обезьяна, нет никакой системы (скорее всего, при любой системе оценки), так что написанное ею не получится выразить более кратко. В то же время авторский текст всегда содержит определенную избыточность — текст, в котором присутствует значение, всегда можно выразить несколько более кратко, так как язык содержит определенное количество избыточных символов. Вы мо-ете п-очит-ть, чт- здес- напе-атан-, даже — есмо-ря на — о, что к-ждая — ятая буква — дале-а, вер-о?

Полностью упорядоченный текст содержит очень мало информации и, следовательно, телефонному инженеру будет легко сжать и передать его, в то время как полностью беспорядочный текст потребует очень точного воспроизведения — но даже это не сделает его особо интересным.

Таким образом, смысл и информация не всегда идут рука об руку, если речь идет об отрывках текста. Аналогично и сложность, и информация не могут иметь много общего друг с другом, если иметь в виду физический мир. Конечно, прежде чем мы начнем говорить о смысле сложности, определенное количество информации должно быть представлено. Но количество — это не самое важное.

Информация — это интересная концепция, но она не является особо хорошей мерой сложности.

Научный взгляд на мир характеризуется той же проблемой: он включает в себя порядок и беспорядок, но не эту третью возможность, которая действительно представляет интерес.

Классическая физика Ньютона характеризуется величественным порядком, выраженным в уравнениях, которые могут быть обращены во времени: все описываемые ею процессы настолько точны и постоянны, что они с таким же успехом могут происходить и наоборот. Планеты вращаются вокруг Солнца с таким постоянством, что у нас была бы точно такая же картина, если бы мы могли обратить их движение, чтобы они двигались по своим орбитам в обратную сторону. Механика и другие классические дисциплины физики состоят из обратимых законов, в которых направление времени не имеет значения. Эти законы больше соответствуют тому, что происходит в небе, нежели на Земле, так как они работают только в том случае, если отсутствует трение — сопротивление воздуха и сцепление, которые постоянно присутствуют на Земле. Тем не менее это — единственная поправка, и мы можем ее допустить — во всяком случае, так нас учили в школе.

Но мы можем задать тот же вопрос, который задал американский физик Ричард Файнман: «Являются ли все физические законы обратимыми? Очевидно, что нет! Попытайтесь собрать обратно яичницу-болтунью! Начните крутить фильм в обратную сторону — и всего через несколько минут все начнут смеяться! Самая естественная характеристика всех явлений — это их очевидная необратимость!»

С другой стороны, область физики, которая действительно объясняет трение и другие бесповоротно необратимые процессы, заканчивается полным хаосом. Термодинамика говорит нам, что со временем возрастает энтропия, потому запечатленные в фильме яйца, которые разбиваются о пол, выглядят странными, если прокрутить его наоборот: термодинамика гораздо ближе к нашей повседневной жизни, чем уравнения Ньютона. Но термодинамика заканчивается тепловой смертью Вселенной: все движется к сумраку в сумраке и огромной массе энтропии. В сущности, мир изнашивается. Проходит время, и все постоянно меняется к худшему.

Термодинамика тоже не полностью соотносится с миром вокруг нас: каждую весну деревья вспыхивают целой гаммой красок, пауки выползают из щелей, начинает петь новое поколение птиц. Зимний холод создает дивные ледяные узоры на наших стеклах, осенние ветры приносят постоянно меняющиеся скопления облаков, а летние морские волны лепят непредсказуемые скульптурные формы из песка. В небесах мы видим звезды, которые сияют в темноте пустоты.

Мир не состоит из однородности. Возможно, именно так все и будет в конце, но большинство наших жизней вращаются вокруг факта, что существуют и другие вещи, достойные размышлений, нежели клочья пыли и мытье посуды. Жизнь развивается и — насколько мы можем судить со слов наших предков — становится все более и более сложной.

Так что чего-то не хватает, чего-то совершенно иного, нежели ньютоновский порядок или беспорядок термодинамики — того, что лежит посередине и связано со сложностью. Или со смыслом.

Жизнь всегда была сложной штукой, и сложность всегда была характерна для мира. Так почему же — может возникнуть вопрос — наука внезапно воспылала интересом к тому факту, что мир является явно более сложным, нежели простые круги, которые до сих пор изучали ученые?

Ответ заключается в появлении компьютеров во время и после Второй мировой войны. Компьютеры означали конец того высокомерия, которые ученые демонстрировали по отношению к повседневным явлениям.

Классическая наука, основанная Ньютоном, описывала простой и постижимый мир, состоящий их простых систем, которые можно было понять с помощью простых уравнений. Безусловно, это имело мало общего с тем миром, который обнаруживался за окнами физиков — но их это не особо тревожило: они бы его все равно не поняли.

Ученые всегда проявляли индифферентность к вопросам наподобие тех, которые задают дети: «Почему деревья выглядят так, а не иначе, почему облака похожи на уточек или ягнят, почему мир выглядит не так, как в наших книжках по геометрии?» Или точнее можно выразиться так: ученые не столько проявляли индифферентность, сколько осознавали, что не смогут ответить на подобные вопросы. Им были известны уравнения мира — но у них не было достаточно энергии, чтобы выполнить все подсчеты: если бы ее хватало, они бы их выполнили. Они бы, конечно, поняли, почему облака похожи на животных и вечерний туман придает облик эльфам и троллям…

Обычные вещи настолько сложны, что выполнять для них подсчеты не имеет смысла — во всяком случае, так говорят друг другу ученые. И предоставляют родителям и учителям попадаться в ловушки пытливых отроков.

Но компьютеры все изменили. Внезапно стало возможным выполнять полномасштабные вычисления — и стало очевидно, что даже самые простые уравнения поднимают на поверхность очень сложные решения. Хотя мир и описывается в простых формулах, которые выглядят такими же понятными, как примеры в наших учебниках, выяснилось, что эти формулы — и это при том, что мы еще не закончили вычисления — вдруг оказались исключительно сложными. Умные слова типа «хаос» и «фракталы» — не единственные рассказчики этой истории. Где бы в науке ни начали применяться компьютеры, выясняется, что мы можем генерировать очень сложные миры даже на основе самых простых формул.

Ох, ученые не могли и подумать, к каким моделям могут привести эти формулы — большинство систем оказались несокращаемыми с вычислительной точки зрения. Мы не имеем представления о структуре, пока не проведем вычисления по формуле. Этот феномен является вариацией теоремы Геделя — и очень глубокой. Мы можем рассматривать физические процессы как вычисления, которые превращают простые законы и несколько базовых условий в окончательный результат. Это значит, что многие сложности, которые возникли в теории вычислений, должны также появиться и в описании физического мира. Физические системы также являются несокращаемыми: мы не знаем, где они заканчиваются и заканчиваются ли вообще, пока не вычислим их в рамках самих этих систем. Нет ничего хорошего в грубых вычислениях, в которых мы, к примеру, игнорируем трение — в этом случае мы не узнаем, в каком направлении развивается система.

В 1985 году 24-летний американский физик Стивен Вольфрам написал: «Вычислительная несокращаемость часто наблюдается в системах, исследуемых в математической и вычислительной теории. Эта работа предполагает, что они встречаются также и в теоретической физике».

В течение сотен лет ученые верили, что у них в руках находятся формулы — и простые уравнения ведут к простому же поведению. Но оказалось, что эти формулы несокращаемы с вычислительной точки зрения. Никто не сможет знать их содержания, пока они не будут просчитаны — но никто не собирался высчитывать их в те дни, когда все вычисления выполнялись вручную.

Так что ученые решили ограничиться своими формулами — и закрыли глаза на мир, который находился у них за окном.

Но тем не менее однажды произошло кое-что серьезное. Из простоты вычислений, которая была дана нам компьютерами, появилась сложность. Простые вычисления выполнялись снова и снова в петле, которая известна как «итерация». Простые вычисления привели к огромной сложности, когда они были повторены достаточное количество раз, и когда на компьютерных мониторах по всему миру появилась сложность, ученые выглянули в окно и узрели знакомый вид.

Они поняли, что мир не делится на хорошо упорядоченные формулы и беспорядочный повседневный мир. Они тесно смыкаются! Беспорядок происходит из порядка — и это очень сложный и запутанный процесс.

Появилась новая область, и ученые ринулись в нее. Сложность стала уважаемым предметом даже для ученых. А инструментом для них стал компьютер. «Родилась новая парадигма», — написал Стивен Вольфрам.

Вольфрам установил повестку дня для ученых на ближайшие десятилетия. «Системы, поведение в которых является исключительно сложным, часто встречаются в природе — тем не менее их фундаментальные составляющие части по отдельности очень просты. Сложность создается совместным эффектом многочисленных идентичных компонентов. В физических и биологических системах уже было много открытий, касающихся природы их компонентов — но пока мало известно о механизмах, благодаря которым эти компоненты выступают вместе, создавая общую наблюдаемую сложность.»

Это территория между порядком и хаосом: огромный неоткрытый континент — континент сложности. Предпосылкой его открытия стало то, что мы хотим научиться лавировать между двумя полюсами нашего видения — порядок и случайность, контроль и сюрприз, карта и территория, наука и наша повседневная жизнь.

Нам необходимо проложить путь не просто между порядком и беспорядком в структуре вещей. Сложность возникает на полпути между предсказуемостью и непредсказуемостью, стабильностью и нестабильностью, периодичностью и случайностью, иерархическим и единообразным, открытым и закрытым. Между тем, что мы можем сосчитать и тем, что не можем.

Сложность — это то, что не тривиально. То, что не скучно. То, что мы можем интуитивно ощущать — но не в состоянии выразить.

Все это может казаться очевидным — но самое любопытное то, что прошло не так много лет с тех пор, как влиятельный в международном масштабе и исключительно информированный немецкий физик Петер Грассбергер из Университета Вупперталя вынужден был признать: не существует точного понимания того, что вообще представляет собой сложность.

На 16-ой Международной конференции по термодинамике и статистической механике в Бостоне в августе 1986 года он сказал: «Мы столкнулись с загадкой, что никакая признанная мера сложности не может, к примеру, подтвердить, что музыка Баха является более сложной, нежели случайная музыка, написанная обезьяной».

Единственная общепризнанная мера сложности, к которой в то время мог обратиться Грассбергер — это сложность Холмогорова. Это понятие, которое пришло от одного из трех джентльменов, представленных в предыдущей главе книги со своей алгоритмической информационной теорией.

В 60-е годы Андрей Холмогоров предположил, что сложность объекта может быть измерена путем оценки длины самого короткого описания этого объекта, то есть смой короткой из всех возможных последовательностей бинарных чисел, представляющих этот объект. Холмогоров предположил, что чем длиннее будет это самое короткое объяснение, тем большей степенью сложности обладает объект. Но, конечно, это значит всего лишь то, что случайная последовательность обладает наибольшей сложностью, так как случайность не может быть выражена в более краткой форме.

Холмогоров приравнял сложность к случайности, а, следовательно, и сложность к информации. Это не самая лучшая идея, так как благодаря ей обезьяна, с сумасшедшим усердием барабанящая по клавишам, порождает больше сложности, чем творения Иоганна Себастьяна Баха.

Таким образом, с сложностью Холмогорова что-то было явно не так.

Но в то же время эта мера является самой привычной. И потому в 1986 году возникла проблема. «Интуитивное представление о сложности структуры не совпадает с единственным объективным определением сложности любой специфической структуры, которое видится возможным (имеется в виду определение Холмогорова)», — объясняет Грассбергер. — Это загадка, известная уже в течение определенного времени, хотя создается впечатление, что в печатном виде она появилась только недавно».

Бернардо Хуберман и Тад Хорр, ученые в исследовательском центре Rank Xerox, Пало Альто, Калифорния, в 1985 году указали, что сложность должна лежать где-то между порядком и беспорядком, и, следовательно, ее невозможно измерить в качестве алгоритмической сложности информации. Они предложили другой способ измерения сложности, который предполагал, что она является наибольшей в системах, в которых не слишком много и не слишком мало порядка.

Грассбергер позже осознал, что подход Хубермана и Хогга был не нов: еще в 1962 году его выразил Херберт А. Саймон, один из основателей исследований искусственного интеллекта.

Тем не менее нам не придется возвращаться во времени дальше 1986 года за тем, что ведущий международный физик вроде Питера Грассберга признал полной новинкой предположение о том, что сложность лежит между порядком и хаосом и что она довольно существенно отличается от случайности, которая измеряется информацией Шеннона.

Тем не менее перед тем, как лекция 1986 года была напечатана, Грассбергер, один из самых благородных представителей физики, демонстрировавший вежливость и скромность, в доказательной части прибавил извинения: «В то время, когда я писал это, к сожалению, я не был знаком с понятием С.Х. Беннетта о «логической глубине».

А в предыдущем году произошел великий прорыв в изучении сложности.

«У меня есть критерий смысла», — робко высказался Чарльз Беннетт во время обеда в «Паскале» в Санта Фе в апреле 1990 года. Беннета и его близкого коллегу из IBM Рольфа Ландауэра попросили объяснить, что исследования вычислительной теории могли бы рассказать о нашей повседневной жизни.

«Серия подбрасываний монетки может иметь высокую информационную составляющую — но мало пользы. Эфемерида, дающая информацию о положении Луны и планет на каждый день в течение столетий, содержит не больше информации, чем уравнения движения и изначальные условия, на основе которых она была высчитана — но она позволяет владельцу не трудиться над тем, чтобы самому пересчитывать эти положения, — написал Чарльз Беннетт в 1985 году, когда представлял свои критерии смысла. — Ценность сообщения, таким образом, скорее всего, содержится не в его информации (его совершенно непредсказуемой части) и не в его очевидной избыточности (словесные повторения, неравная частота цифр), но скорее в том, что может быть названо его скрытой избыточностью — это части, которые можно считать предсказуемыми лишь с натяжкой. Другими словами, ценность сообщения представляет собой объем математической или другой работы, которая уже выполнена тем, кто его послал, который принимающей стороне не придется повторять».

Логическая глубина. Это название критерия Беннетта: логическая глубина сообщения — это мера его значения, его ценности. Чем больше сложностей у отправителя, тем больше логическая глубина сообщения. Чем больше «вычислительного времени» он потратил — с помощью своей головы или компьютера — тем большей будет ценность сообщения, так как в этом случае отправитель избавляет получателя от необходимости самому выполнять эту работу.

Больше или меньше времени придется в результате потратить — не столь важно (для любого, кроме телефонной компании). Важно то, сколько времени было потрачено на создание сообщения для передачи.

В 1985 году Беннет предположил, что сложность может быть измерена как логическая глубина. Она также может быть использована как критерий, с помощью которого мы сможем определить, сколько смысла содержится в сообщении. Сложность нужно измерять не продолжительностью сообщения, а той работой, которая предварительно была выполнена. Смысл не возникает из информации в сообщении — он возникает из информации, которая была отсеяна в процессе формулирования сообщения, которое имеет определенную информационную составляющую.

Важно не то, чтобы сказать, как можно больше. Смысл в объеме размышлений перед тем, чтобы что-то сказать.

«Если говорить неофициально, логическая глубина — это количество шагов дедукции, или причинная связь, которая соединяет вещь с ее вероятным источником», — пишет Беннет. Но можно дать и более точное определение.

Мы начинаем с алгоритмической информационной теории: сообщение можно сжать до самой возможной короткой формы, до самого короткого описания, которое позволит машине Тьюригна сформулировать сообщение. Самая короткая форма — это мера действительного количества информации, присутствующей в сообщении. Но машине Тьюринга потребуется определенное время, чтобы сформулировать само сообщение, базирующееся на самом коротком возможном описании. К примеру, когда законы, управляющие движением планет, нужно перевести в таблицу солнечных затмений. Сжатую информацию нужно распаковать. Это требует времени. Это время и будет измеряться как логическая глубина.

There is a bus every seven minutes. The buses depart from the bus station twelve minutes before they get to my bus stop. The first bus leaves at five. It is now half past six. When is the next bus? At 17:54.

Каждые 7 минут приходит автобус. Автобусы отъезжают со станции за 12 минут до того, как они доходят до моей остановки. Первый автобус отправляется в пять. Сейчас половина седьмого. Когда будет следующий автобус? В 17:34.

Информационная составляющая «17:34» не очень велика — сама по себе. Но время вычисления довольно значительно, особенно если я только выхожу из двери. Кто бы ни поработал уже над вычислением результата, может помочь, сообщив его другому человеку. Эта помощь сэкономит получателю определенное вычислительное время — она содержит смысл.

Логическая глубина — это мера процесса, который ведет к определенному количеству информации, а не к количеству информации, которая была произведена и может быть передана. Сложность, или смысл — это мера процесса производства, а не продукта, скорее рабочего времени, а не результата работы, информации, которая была отсеяна, а не оставшейся информации.

Понятие логической глубины, следовательно, будет перпендикулярно информационному содержанию. Все обладает номинальной стоимостью в отношении информационного содержания. Но номинальная стоимость не всегда может многое нам сообщить о глубине — насколько сложно было ее создавать.

За данным сообщением или продуктом может стоять огромное количество работы или мыслительных усилий. Тем не менее они могут оставаться незамеченными. Сложно заставить вещи выглядеть простыми. Ясность требует глубины.

С другой стороны, ерунда не отличается глубиной: вздор — это просто беспорядочная пустая болтовня, которая не может быть выражена более кратко, так как в ней нет порядка. Следовательно, не существует разницы между самой возможно короткой программой для его повторения и самим этим вздором. Так что не потребуется никакого вычислительного времени — только то время, которое потребуется, чтобы произнести этот вздор.

У обычного беспорядка тоже нет глубины, так как беспорядок нельзя описать короче, чем он сам себя описывает, просто будучи беспорядком.

Суть предложения Беннетта заключается в том, что любые осмысленные или сложные количества можно описать в более короткой форме, хотя это и необязательно: они могут быть сжаты в виде краткого рецепта.

Живой организм можно определить по нескольким генам — но, чтобы это сделать, потребуется время. Великую оперу можно написать, используя всего несколько нот — но, чтобы ее поставить, потребуется много работы. Годичную таблицу фаз луны можно высчитать по простому алгоритму. Но на это уйдет время.

Беспорядок, вздор и то, что просто срывается с языка, нельзя, однако, описать более кратко. Самая короткая программа будет равняться самой этой болтовне.

Понятие Беннетта указывает, что сложность — это нечто, для возникновения чего требуется время. Время, за которое создается порядок. Время, за которое отсеивается информация, чтобы пришлось меньше ее обрабатывать. Вычислительное время на компьютере или эволюционное время на Земле.

Термодинамика, к примеру, позволяет живым существам само организовываться. Им, безусловно, приходится перерабатывать большое количество пищи (тем самым экспортируя энтропию), но зато они могут развиваться и становиться настолько сложными, что обучаются читать книги. Но это происходит медленно: чтобы живые существа само организовались, требуется время. Биологическая эволюция была процессом, который занял много времени — и для того, чтобы человек вырос достаточно большим для того, чтобы читать книги, тоже нужно время. Беннетт сформулировал закон «медленного роста» для сложных систем. Для того, чтобы вещества организовались в живые существа, к примеру, требуется время. Много времени. Но это возможно. На земле это произошло в течение нескольких миллиардов лет.

С другой стороны, смерть и разрушение могут происходить мгновенно — и при этом почти без затрат времени возникают большие объемы информации. Мы можем создать огромное количество информации, подбрасывая монетки или разбивая на кухне тарелки. Чтобы описать результат, потребуется много информации. Но это не слишком интересно — в этом нет глубины.

Понятие логической глубины является весьма значительным. Оно подразумевает, что для понимания сложности главным будет не номинальная стоимость информации — а предыдущий процесс отсеивания информации. В информации важно то, что раньше присутствовало — а теперь отсутствует.

Большинство того, что мы считаем стоящим обсуждения, включает в себя очень запутанные вещи и мысли: много глубины, но, возможно, не так много будет видно на поверхности. В процессе мы отсеиваем большое количество информации, и остаться ее может не так много. Структура с богатым прошлым. Интересными вещами в жизни могут оказаться вовсе не те, которые приходится долго описывать и объяснять, а те, для постижения которых потребовался долгий опыт.

Но в понятии логической глубины есть и серьезная проблема. Она предполагает: то, о чем мы говорим, может быть приравнено к результату вычислений. Это может иметь смысл по отношению ко многим материальным величинам, как живым, так и неживым. Многие физические и биологические системы могут быть поняты как результат последовательности законов, которые действуют через процессы, описанные в этих законах. Другими словами, на компьютере мы можем симулировать эволюцию системы. Затем мы можем задать вопрос: сколько времени потребовалось на вычисления. Чем больше времени, тем больше глубина системы.

Биологическое существо является результатом очень длительных эволюционных вычислений. Изобретательные научные законы могут быть результатом очень длительных умственных усилий. «Да» или «нет» могут быть результатом огромного количества сложного опыта.

Но мир не состоит целиком из вычислений, не говоря уже о машинах Тьюринга. Самые интересные вычисления в мире происходят в «компьютере», который работает совершенно по-другому, нежели машина Тьюринга — в мозгу. Возможно, все математические и символические вычисления, которые производит мозг, могут быть воспроизведены машиной Тьюринга. Но эта машина не сможет вычислить все: как показал Гедель, человеку известна истинность утверждений, которые не могут быть доказаны математическими символами. В конечном итоге мы отсеиваем информацию способами, не известными машине Тьюринга. Способами, не известными нам самим.

Так что, если рассматривать все объекты как результат компьютерных вычислений, остается кое-что неудовлетворительное на интуитивном уровне. Знаменитым писателям и композиторам это совершенно не нравится (хотя идея логической глубины признает их превосходство над обезьянами и другими акробатами на клавиатуре).

Другую проблему представляет привязка понятия Беннетта к алгоритмической информационной теории и ее понятием кратчайшей возможной программы. Что такое кратчайшая возможная программа? Работа Чаитина, которая базируется на теореме Геделя, говорит, что мы можем никогда не узнать, действительно ли мы нашли самое короткое описание того, как сделать тот или иной объект. И вычислительное время может оказаться совершенно не таким, как ожидается, если в нашем распоряжении оказался неверный алгоритм. Необоснованно коротким, или необоснованно длинным.

Фольклор разных стран мира полон примерами того, как люди могут делать что-то очень простое очень сложным способом. Современное общество может похвастать огромным количеством профессионалов, которые являются экспертами по достижению простых решений исключительно сложными способами: бюрократы, академики и солдаты, к примеру. Математические задачи составляются учителями, у которых отлично получается сделать работу над интуитивно понятным арифметическим примером очень сложной.

Мы стремимся приписывать высшую степень сложности тем вопросам, которые считают сложными государственные служащие.

Фундаментальная проблема в опыте Геделя-Чаитина является очень глубокой. Формальными методами мы никогда не сможем решить, является ли глубина реальной или мнимой. Это фундаментальная проблема нашего описания мира — и та или иная идея не должна пугать нас только потому, что она приводит к подобной проблеме. Частично так происходит потому, что представление Беннетта требует объездного пути через компьютер, где и возникает эта проблема — хотя эта идея «объезда через компьютер» конечно же возникла для того, чтобы оформить это представление очень точно. Тем не менее это не так, раз уж теорема остановки Тьюринга показывает, что время вычисления для той или иной программы не может быть установлено иначе, чем посредством выполнения этого вычисления.

Но центральный момент понятия логической глубины Беннетта — это не способ, которым ее можно подсчитать. Центральный момент — это выяснить, сколько информации было отсеяно в процессе. Именно эта идея и стала революционной — а не определение понятия логической глубины.

В течение многих лет Ганс Кун, немецкий химик из Геттингена, разрабатывал родственную идею, применимую к биологическим системам. В попытке понять происхождение и эволюцию жизни он сфокусировался на том, как по пути эволюции отсеивается информация. Согласно Куну, биологическая эволюция состоит из серии выборов, связанных с отношениями организма и его окружения. Это окружение подвергает организм давлению, и его выбором становится действие — чтобы выжить. Его гены содержат опыт выживания — в противном случае не было бы ни организмов, ни генов.

Чем дольше выживает организм, тем большим будет его опыт — и тем более ценными становятся его гены. Поэтому важно не то, сколько у него генов — другими словами, насколько длинная у него ДНК. Самое интересное — это богатство опыта, которое умещается в этих генах.

Информация, содержащаяся в генах организма, имеет ценность, которая пропорциональна массе сжатого в них опыта. Нам интересна не номинальная ценность информации — то есть размер генов — а та информация, которая была отсеяна. «Это качество составляет знание, где «знание» измеряется общим количеством отсеянных бит информации», — писал Кун. Следовательно, биологическое знание можно просто определить так: это — отсеянная информация.

Это также позволяет решить проблему, которая волновала многих ученых, когда была открыта. У лилии намного больше ДНК, нежели у человека. Да, они красивее — но уж точно не умнее нас!

Предложенная Куном модель происхождения и эволюции жизни проблематична — но она тесно связана с более многообещающими моделями, которые развили Манфред Эйген и его ассистент Петер Шустер.

Идея биологической эволюции Куна очень глубока, причем глубина ее не зависит от предложенной им модели.

Коренная разница между точками зрения Беннетта и Куна заключается в теоретическом статусе. Идея Куна является исторической и фактической, в то время как идеи Беннетта являются логическими и теоретическими. Кун в основном говорит об информации, которая была отсеяна в реально существующих процессах, в то время как Беннетт говорит об информации, которая должна быть отсеяна в теоретической реконструкции процесса. И разница здесь вовсе не обязательно заключается в том факте, что Кун говорит о биологии, а Беннетт в основном о физике. Подход Куна позволяет избежать сложностей, которые свойственны моделями, связанными с компьютерами. Следовательно, это будет применимо к более физическому подходу — и это как раз то, что лежит за понятием термодинамической глубины.

«Этот тезис был опубликован слишком рано, но, к сожалению, так сложились обстоятельства», — говорит Сет Ллойд об одном из самых многообещающих трактатов, опубликованных за многие года. «Сложность как глубина термодинамики» появилась в «Анналах физики» в 1988 году.

Работа была написана Ллойдом и его научным руководителем в Университете Рокфеллера Хайнцем Пагельсом — автором «Сны разума», книги, которая в 1988 году объяснила суть необходимости теории сложности, книги, которая соединила в себе огромные научные знания физических проблем с философской точкой зрения на предмет — редкое среди представителей естественных наук качество. Более того, она исключительно интересно написана и ее легко понятные научные отчеты приправлены весьма информативными автобиографическими анекдотами. Эта прекрасно написанная книга гармонично следует в русле предыдущих успешных работ ученого, которому удалось представить физику широкому кругу читателей — книг «Космический код» и «Идеальная симметрия». Она стала отличным завершением великолепной писательской карьеры.

Хайнц Пагельс погиб летом 1988 года, когда они вместе с Сетом Ллойдом занимались альпинизмом в горах Колорадо.

Вот почему тезисы Ллойда о сложности, которые он разрабатывал в своей диссертации под руководством Пагельса, появились в печати слишком рано и под давлением. Этот факт может оказать влияние на всю историю науки, так как мир физики не слишком одобрительно относится к идеям, которые еще не дозрели до того, чтобы стать физическими. Физиков интересует не то, что имеет значение в мире, а то, что может стать объектом их физических теорий. Наука — это искусство возможностей. Поэтому не принято запускать в обращение теории, прежде чем не станет окончательно ясно, что они действительно являются плодотворными и могут быть развиты в виде формальных описаний, которые далее могут развивать другие люди. В свете этого идея термодинамической глубины была опубликована слишком рано.

Ясно, что понятие термодинамической глубины выглядит просто как понятие для описания сложности. Но также ясно и то, что трактат из «Анналов физики» не включает в себя удовлетворительного объяснения того, как можно теоретически сформулировать это понятие.

Термодинамическая глубина — это просто идея об определении сложности как количества информации, исключаемой в процессе, который приводит к существованию физического объекта. Это понятие носит скорее исторический, нежели логический характер.

Теперь проблема заключается в определении этой глубины. Как узнать, сколько информации было отсеяно во время подобного процесса? Для любых объектов, за исключением самых тривиальных, это будет непростым делом. История вещи нам не известна. Мы не присутствовали при том, как она появилась в мире.

Ллойд и Пагельс пытались решить эту проблему, указывая на наиболее вероятную историю. Вместо того, чтобы искать самую короткую программу, способную воспроизвести объект (понимаемую как описание в битах), нам стоит поискать наиболее вероятный способ, благодаря которому возник этот объект. Эта история будет базироваться на существующих научных теориях о процессах, которые могут привести к возникновению подобных объектов. Объем информации, которая отсеивается в ходе такого процесса, измеряется не количеством вычислительного времени, а теми термодинамическими и информационными ресурсами, которые, возможно, были при этом использованы.

Этим немедленно обеспечивается решение важной проблемы в определении сложности: естественное требование любого описания сложных систем — это то, что присутствие двух образцов не подразумевает двойной глубины по сравнению с присутствием одного образца. Ллойд и Пагельс писали: «Сложность должна быть функцией процесса — обычной сборкой, которая привела к существованию объекта. Если физическая сложность является мерой процесса или набора процессов, в ходе которых набор начальных состояний развивается до финального состояния, то 7 быков будут не более сложными, чем один бык. Чтобы эволюционировал один бык, Земле потребовались миллиарды лет — но один бык и несколько покладистых коров произведут семь быков достаточно быстро».

Проблема заключается в том, чтобы превратить эти интуитивно убедительные идеи в понятные и измеримые величины. Эта проблема так и не была решена.

В своей статье 1988 года Ллойд и Пагельс попытались установить термодинамическую глубину как разницу между двумя версиями энтропии объекта: энтропии, измеренной приблизительно, и энтропии, измеренной более точно. Приблизительная энтропия — это обычная термодинамическая энтропия, которая говорит нам: есть многое, чего мы не знаем, когда просто описываем макросостояния, к примеру, температуру. Более точная энтропия — это энтропия, которой обладает демон Максвелла: демону о молекулах газа известно больше, чем нам — нам известны всего лишь такие термодинамические состояния, как температура и давление. Демон знает — и может менять — целый ряд микросостояний, а, следовательно, он выводит газ из состояния баланса, которое исчерпывающе описывает приблизительная энтропия.

Так как термодинамическая глубина является функцией разницы между точной и приблизительной энтропией, она говорит нам, насколько далека система от баланса. Если система находится в равновесии со своим окружением, она должна быть «такой же теплой», как и окружение. Позволив системе охладиться, мы не сможем выполнить никакой работы. И наоборот — в систему не нужно добавлять никакой энергии, чтобы поддерживать ее в настоящем состоянии. Мертвая материя находится в равновесии со своим окружением, в то время как живые существа далеки от равновесия: им всем нужно что-то есть, чтобы жить.

По мнению Ллойда и Пагельса в этом случае система является сложной только в том случае, если она не находится в равновесии, так как когда она в равновесии, приблизительные величины скажут нам все, что мы хотим узнать о системе: когда движение представляет собой случайное тепловое движение, нам будет неинтересно знать больше о движении молекул, нежели может рассказать температура. Точная энтропия настолько же великолепна, как и приблизительная энтропия. Это полностью соответствует нашим интуитивным ожиданиям насчет того, что беспорядок не является сложным.

Аналогично, высокоорганизованные системы тоже не обладают большой глубиной. Характерной чертой порядка является то, что при его описании в более высоких терминах не происходит большой потери информации. Организованную систему можно основательно описать в широких терминах. В конце концов порядок означает, что каждое макросостояние соответствует всего нескольким микросостояниям. Тотальный порядок означает: для каждого макросостояния — одно микросостояние. В кристаллической решетке атомы находятся именно там, где должны находиться. И если описывать их в соответствии с макросостоянием, не будет никакой энтропии. И опять-таки это означает, что полностью упорядоченные состояния не обладают глубиной.

Это очень важная идея. Расстояние от равновесия — вот что важно. Нечто полностью упорядоченное или полностью беспорядочное является стабильным по определению. Кристаллы соли изменяются только в растворе. Единственные изменения, которые происходят с газом при постоянной температуре, происходят через движение на микроскопическом уровне — но это не представляет для нас никакого интереса: на макроуровне ничего не меняется.

Термодинамическая глубина объекта говорит нам о том, что у этого объекта есть история. С ним произошло что-то, что вывело его из самоподдерживающегося состояния, было ли это состояние обычным порядком без движения или тотальным хаосом, о котором нельзя ничего сказать, кроме температуры, которая его характеризовала.

Изящные идеи — но, к сожалению, никому не известно, как измерить разницу между точной и грубой энтропией.

Обсуждения того, каким образом можно описать термодинамическую глубину, всегда заканчиваются разговорами о количестве вычислительных циклов компьютера: это именно та мысль, которая лежит в понимании логической глубины Беннетта. Следовательно, исчезает сам смысл термодинамической глубины — что это понятие определяется скорее действительной физической историей, нежели логическими реконструкциями. Более того, снова проявляется вся скорбь Геделя: мы никогда не сможем узнать, получили ли мы самое короткое из всех возможных описаний.

Сила и слабость понятия термодинамической глубины заключается в том, что она является исторической. Это значит, что мы избегаем проблемы невозможности узнать самую короткую программу. Если нам нужно выдать не самую короткую из всех возможных программ, а просто описание процесса, действительно имевшего места быть, проблема Геделя-Тьюринга-Чаитина исчезает в принципе. Теперь остается только одна проблема — выяснить, каким образом вещи действительно появились на свет. И тогда мы будем знать, насколько они глубоки.

(Под этим имеется в виду, что процессы, которые «происходят по кругу», будут иметь большую глубину, даже несмотря на то, что огромное количество отсеянной информации на самом деле не будет оказывать никакого эффекта на конечный результат. Процессы, в ходе которых происходит поверхностное отсеивание информации, могут на самом деле обретать большую глубину — а процессы, в которые вовлекаются другие, глубокие процессы, могут внезапно обретать большую глубину — и при этом на самом деле ничего не значить. Рольф Ландауэр описал это так: «При таком подходе обломки камня, которые несут на себе следы человеческой деятельности, обременены всей историей человеческой эволюции и будут обладать гораздо более высоким уровнем сложности, нежели аналогичные фрагменты, являющиеся результатом естественной геологической вентиляции». В 1989 году Войцех Зурек попытался определить «минимальную термодинамическую глубину», в которой для определения глубины объекта применяется не его реальная история, а самая короткая история из всех возможных. Как только мы применим этот метод, мы переходим с исторического на логический уровень, но польза очевидна: термодинамическая глубина становится идентичной разнице алгоритмической сложности между начальной точкой и результатом. Мы теряем историко-фактическую перспективу — но получаем ясность, которая, возможно, в конечном итоге обещает перспективу оттачивания понятия термодинамической глубины. Результаты Зурека важны, так как неточность является ахиллесовой пятой этого понятия).

Публикация теории сложности как термодинамической глубины в незавершенной форме в 1988 году имела свою цену. В теоретической физике незамедлительно следуют жесткие санкции, если ты не представил все в лучшем виде. Проблема квантификации этих понятий заставила многих физиков просто пожать плечами — несмотря на их интуитивную ясность. Сегодня у нас нет количественного понятия сложности — понятия, которое позволило бы нам измерять сложность. Таким образом, это пока не та сфера, с которой физики стали бы считаться.

Сет Ллойд и его коллеги откусили от яблока только первый кусочек.

«Существует определенная опасность в том, что озабоченность формулировкой определения будет стоить нам самой ясности вопросов», — написал Рольф Ландауэр в 1988 году, комментируя развитие понятия глубины и сложности Беннетта, Куна и Ллойда-Пагельса: базовая идея глубины как меры объема отсеянной информации является весьма многообещающей. Может появиться и более ясная формулировка, если несколько глупых вопросов укажут на новые удивительные аспекты понятия глубины и сложности.

Определения очень быстро превращаются в тавтологии, или в утверждения, которые на самом деле ни о чем не говорят («Дождь либо будет, либо нет», «Все холостяки неженаты»). В «Nature» Ландауэр пишет о Беннетте, Куне и Ллойде-Пагельсе: «Эти определения в каком-то смысле слова являются тавтологиями. Они гласят примерно следующее: то, чего можно достичь только сложным путем, является сложным. Тем не менее тавтологии можно приветствовать, если они приходят на смену чуши. Дарвин сделал очень немало, сказав нам, что выживают оставшиеся в живых».

Давайте же последуем совету Ландауэра и забудем о проблемах, которые возникают у физиков в связи с определениями и измерением количества. Возможно, проблема всего лишь заключается в том, что их мир слишком прост, чтобы адресовать правильные вопросы определению глубины. Давайте забудем о разнице между логической и термодинамической глубиной и будем придерживаться ясности, свойственной самой идее глубины: это объем информации, которая была отсеяна в процессе, который описывает нам сложность продукта. Это понятная мысль вне зависимости от того, каким образом подойти к ее измерению.

Понятие информации Шеннона — это мера удивления, непредсказуемости, неожиданности. Глубина объекта — это мера информации, от которой пришлось избавиться, чтобы он начал существовать. Таким образом можно сказать, что глубина — это мера того, скольким «сюрпризам» объект подвергался за историю своего существования.

Глубина показывает, что в существование мира что-то вмешалось. Глубина изменилась — но осталась собой; в ней не стало равновесия — но собой она все равно быть не перестала. Для нее было много неожиданностей — каждая в определенное время. Но глубина все еще здесь. Она оставила свою отметку на нашем мире, и мир оставил на ней свою отметку. А она стала еще глубже.