Шрифт:
Они поняли, что мир не делится на хорошо упорядоченные формулы и беспорядочный повседневный мир. Они тесно смыкаются! Беспорядок происходит из порядка — и это очень сложный и запутанный процесс.
Появилась новая область, и ученые ринулись в нее. Сложность стала уважаемым предметом даже для ученых. А инструментом для них стал компьютер. «Родилась новая парадигма», — написал Стивен Вольфрам.
Вольфрам установил повестку дня для ученых на ближайшие десятилетия. «Системы, поведение в которых является исключительно сложным, часто встречаются в природе — тем не менее их фундаментальные составляющие части по отдельности очень просты. Сложность создается совместным эффектом многочисленных идентичных компонентов. В физических и биологических системах уже было много открытий, касающихся природы их компонентов — но пока мало известно о механизмах, благодаря которым эти компоненты выступают вместе, создавая общую наблюдаемую сложность.»
Это территория между порядком и хаосом: огромный неоткрытый континент — континент сложности. Предпосылкой его открытия стало то, что мы хотим научиться лавировать между двумя полюсами нашего видения — порядок и случайность, контроль и сюрприз, карта и территория, наука и наша повседневная жизнь.
Нам необходимо проложить путь не просто между порядком и беспорядком в структуре вещей. Сложность возникает на полпути между предсказуемостью и непредсказуемостью, стабильностью и нестабильностью, периодичностью и случайностью, иерархическим и единообразным, открытым и закрытым. Между тем, что мы можем сосчитать и тем, что не можем.
Сложность — это то, что не тривиально. То, что не скучно. То, что мы можем интуитивно ощущать — но не в состоянии выразить.
Все это может казаться очевидным — но самое любопытное то, что прошло не так много лет с тех пор, как влиятельный в международном масштабе и исключительно информированный немецкий физик Петер Грассбергер из Университета Вупперталя вынужден был признать: не существует точного понимания того, что вообще представляет собой сложность.
На 16-ой Международной конференции по термодинамике и статистической механике в Бостоне в августе 1986 года он сказал: «Мы столкнулись с загадкой, что никакая признанная мера сложности не может, к примеру, подтвердить, что музыка Баха является более сложной, нежели случайная музыка, написанная обезьяной».
Единственная общепризнанная мера сложности, к которой в то время мог обратиться Грассбергер — это сложность Холмогорова. Это понятие, которое пришло от одного из трех джентльменов, представленных в предыдущей главе книги со своей алгоритмической информационной теорией.
В 60-е годы Андрей Холмогоров предположил, что сложность объекта может быть измерена путем оценки длины самого короткого описания этого объекта, то есть смой короткой из всех возможных последовательностей бинарных чисел, представляющих этот объект. Холмогоров предположил, что чем длиннее будет это самое короткое объяснение, тем большей степенью сложности обладает объект. Но, конечно, это значит всего лишь то, что случайная последовательность обладает наибольшей сложностью, так как случайность не может быть выражена в более краткой форме.
Холмогоров приравнял сложность к случайности, а, следовательно, и сложность к информации. Это не самая лучшая идея, так как благодаря ей обезьяна, с сумасшедшим усердием барабанящая по клавишам, порождает больше сложности, чем творения Иоганна Себастьяна Баха.
Таким образом, с сложностью Холмогорова что-то было явно не так.
Но в то же время эта мера является самой привычной. И потому в 1986 году возникла проблема. «Интуитивное представление о сложности структуры не совпадает с единственным объективным определением сложности любой специфической структуры, которое видится возможным (имеется в виду определение Холмогорова)», — объясняет Грассбергер. — Это загадка, известная уже в течение определенного времени, хотя создается впечатление, что в печатном виде она появилась только недавно».
Бернардо Хуберман и Тад Хорр, ученые в исследовательском центре Rank Xerox, Пало Альто, Калифорния, в 1985 году указали, что сложность должна лежать где-то между порядком и беспорядком, и, следовательно, ее невозможно измерить в качестве алгоритмической сложности информации. Они предложили другой способ измерения сложности, который предполагал, что она является наибольшей в системах, в которых не слишком много и не слишком мало порядка.
Грассбергер позже осознал, что подход Хубермана и Хогга был не нов: еще в 1962 году его выразил Херберт А. Саймон, один из основателей исследований искусственного интеллекта.
Тем не менее нам не придется возвращаться во времени дальше 1986 года за тем, что ведущий международный физик вроде Питера Грассберга признал полной новинкой предположение о том, что сложность лежит между порядком и хаосом и что она довольно существенно отличается от случайности, которая измеряется информацией Шеннона.
Тем не менее перед тем, как лекция 1986 года была напечатана, Грассбергер, один из самых благородных представителей физики, демонстрировавший вежливость и скромность, в доказательной части прибавил извинения: «В то время, когда я писал это, к сожалению, я не был знаком с понятием С.Х. Беннетта о «логической глубине».
А в предыдущем году произошел великий прорыв в изучении сложности.
«У меня есть критерий смысла», — робко высказался Чарльз Беннетт во время обеда в «Паскале» в Санта Фе в апреле 1990 года. Беннета и его близкого коллегу из IBM Рольфа Ландауэра попросили объяснить, что исследования вычислительной теории могли бы рассказать о нашей повседневной жизни.
«Серия подбрасываний монетки может иметь высокую информационную составляющую — но мало пользы. Эфемерида, дающая информацию о положении Луны и планет на каждый день в течение столетий, содержит не больше информации, чем уравнения движения и изначальные условия, на основе которых она была высчитана — но она позволяет владельцу не трудиться над тем, чтобы самому пересчитывать эти положения, — написал Чарльз Беннетт в 1985 году, когда представлял свои критерии смысла. — Ценность сообщения, таким образом, скорее всего, содержится не в его информации (его совершенно непредсказуемой части) и не в его очевидной избыточности (словесные повторения, неравная частота цифр), но скорее в том, что может быть названо его скрытой избыточностью — это части, которые можно считать предсказуемыми лишь с натяжкой. Другими словами, ценность сообщения представляет собой объем математической или другой работы, которая уже выполнена тем, кто его послал, который принимающей стороне не придется повторять».