Шрифт:
Принцип сохранения энергии при её превращениях между теплом и другими формами называется первым началом термодинамики.
Энтропия
Вряд ли можно назвать удачной идею припарковать свой BMW в дождевом лесу на пятьсот лет. Вернувшись, вы обнаружите лишь кучу ржавчины. Это и есть рост энтропии. Если оставить кучу ржавчины ещё на пятьсот лет, вы можете быть совершенно уверены, что она не превратится снова в работающий BMW. Если кратко, то второе начало термодинамики говорит: энтропия возрастает. Об энтропии говорят все — поэты, философы, компьютерщики, — но что же это такое? Чтобы ответить на этот вопрос, рассмотрим более внимательно разницу между BMW и кучей ржавчины. То и другое состоит примерно из 1028 атомов, в основном железа (а в случае ржавчины ещё и кислорода). Представим, что вы берёте эти атомы и случайно их перемешиваете. Каковы шансы, что они соединятся в форме работающего автомобиля? Нужно немало труда, чтобы рассчитать, насколько именно это невероятно, но, я думаю, все согласятся, что вероятность подобного очень низка. Очевидно, будет гораздо вероятнее получить кучу ржавчины, чем новенькую машину. Или даже старую и ржавую. Если разделить атомы, а потом смешивать их снова, и снова, и снова, вы в конце концов получите автомобиль, но прежде получится куда больше ржавых куч. Почему? Что такого особенного в автомобиле? Или в куче ржавчины?
Если представить себе все возможные способы, которыми можно собрать атомы, то подавляющее большинство вариантов будут выглядеть как ржавые кучи. И гораздо меньшее число будет напоминать автомобиль. И даже среди последних, заглянув внутрь, вы, скорее всего, обнаружите ржавую кучу. Работающий автомобиль получится в исчезающе малом числе вариантов. Энтропия автомобиля и энтропия ржавой кучи как-то связаны с числом вариантов, которые будут восприниматься как автомобиль и как ржавая куча соответственно. Если перемешать атомы автомобиля, вы с гораздо большей вероятностью получите кучу ржавчины, потому что такая куча реализуется намного большим числом вариантов, чем автомобиль.
А вот другой пример. Обезьяна, стучащая по клавишам пишущей машинки, будет почти всегда печатать абракадабру. Очень редко ей удастся построить грамматически правильное предложение вроде такого: «Я хочу рассудить мою гипотенузу с помощью точки с запятой». Ещё реже у неё будет получаться осмысленная фраза вроде: «У короля Кнуда [61] была бородавка на подбородке». А ещё, если взять буквы осмысленного предложения, перемешать их и выложить друг за другом, как в игре «Эрудит», результат почти наверняка окажется абракадаброй. Причина? Существует гораздо больше бессмысленных последовательностей из двадцати или тридцати букв, чем тех, которые имеют смысл.
61
Кнуд Великий — король Англии, Дании и Норвегии в первой половине XI века. — Прим. черев.
Английский алфавит содержит двадцать шесть букв, но есть и более простые системы письменности. Азбука Морзе — очень простая система, использующая всего два символа: точку и тире. Строго говоря, в ней три символа — точка, тире и пробел, — но всегда можно заменить пробел специальной последовательностью точек и тире, которая в других случаях вряд ли встретится. Если игнорировать пробелы, на описание короля Кнуда и его бородавки азбукой Морзе уходит в целом 110 знаков [62] :
62
Примеры русифицированы, в частности использована русская версия азбуки Морзе. Численные оценки соответственно скорректированы. — Прим. черев.
Сколько различных сообщений азбукой Морзе можно составить из 110 точек и/или тире? Всё, что нужно, — это перемножить 110 двоек и получить 2110, что составляет примерно миллион миллиардов миллиардов миллиардов.
Когда информация кодируется с помощью двух символов — это могут быть точки и тире, единицы и нули или любые другие пары, — такие символы называются битами. Таким образом, в кодировке Морзе фраза «У короля Кнуда была бородавка на подбородке» представляет собой 110-битное сообщение. Если вы собираетесь читать эту книгу дальше, то было бы неплохо запомнить определение технического термина бит. Его значение отличается от того, что использовано во фразе: «За это он не раз бывал бит». Бит — это отдельная минимальная единица информации, подобно точкам или тире в азбуке Морзе.
Зачем нам эти трудности с переводом информации в точки и тире, нули и единицы? Почему не использовать последовательность 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, а ещё лучше буквы алфавита? Сообщения было бы проще читать, и они занимали бы гораздо меньше места.
Суть в том, что буквы алфавита (как и десять обычных цифр) — это человеческое изобретение, которые мы обучаемся распознавать и хранить в памяти. Но каждая буква или цифра несёт сразу много информации за счёт весьма тонкой разницы между буквами А и Б или цифрами 5 и 8. Телеграфисты и компьютерщики, которые полагаются только на простейшие математические правила, предпочитают — на самом деле они просто вынуждены — использовать двоичный код из точек и тире или нулей и единиц. Между прочим, когда Карл Саган разрабатывал систему для отправки сообщений негуманоидным цивилизациям, живущим в далёких планетных системах, он использовал двоичный код.
Вернёмся к королю Кнуду. Сколько из 110-битных сообщений будут связными? На самом деле я не знаю, возможно, несколько миллиардов. Но всё равно это — чрезвычайно малая доля от 2110. Так что почти наверняка если вы возьмёте 110 битов или 37 букв фразы «У короля Кнуда была бородавка на подбородке» и перемешаете их, результатом будет абракадабра. Вот что я получил, когда проделал это с фишками «Эрудита» (выкинув пробелы):
ОРКЫУРООЛО ДАДВЛБОНБРЕ ДКБКАУАОЯНАОКДПА
Допустим, вы перемешивали буквы совсем недолго. Сообщение лишь слегка утратит связность. «У кролоя Кнуда была бородавка а подбородкен». Но постепенно буквы будут превращаться во всё менее осмысленную мешанину. Бессмысленных комбинаций так много, что сползание к абракадабре неизбежно.
Теперь я могу дать определение энтропии. Энтропия — это мера числа вариантов, которые соответствуют некоему конкретному распознаваемому критерию. Если критерий состоит в наличии 110 битов, тогда число вариантов составляет 2110.