Шрифт:
Не менее, а мне кажется, даже более эффективным критерием оценки уровня развития цивилизаций может служить информация: например, количество информации, принимаемой и перерабатываемой одной особью данной цивилизации в течение суток. И по этому критерию, как и по энергетическому, земляне скорей всего находятся на первых ступеньках гигантской лестницы, ведущей в царство сверхцивилизаций и, наверно, полного раскрытия каждой личности.
Однако поток информации, который уже сегодня обрушивается на землянина, становится угрожающим. В этом потоке и быстронарастающий опыт человечества (копящийся со времен начала нашей цивилизации), то есть вся наука и техника, и текущая информация, приносимая газетами, журналами, телеграфом, телефоном, радио, телевидением, и огромный поток художественной литературы, кинокартин, театральных пьес, музыки, живописи… Этот поток информации стремительно нарастает. Зарубежные прогнозисты часто полагают, что все это кончится «информационным взрывом» — человек потеряет ориентировку в поступающей информации: земная цивилизация не сможет использовать всю добываемую информацию, и темп ее развития снизится.
Эти прогнозы и породили образ информационного вулкана, из кратера которого исторгается вся добываемая человечеством информация. Сегодня он только дышит, лишь небольшие потоки лавы изредка стекают с его склонов и выбрасывается немного пепла, горячих газов и прорываются гейзеры на склонах. Однако это еще не извержение; оно только зреет в глубинах кратера. Об этом напоминает и подземный гул, и легкие толчки землетрясений. Упомянутые прогнозисты предсказывают неизбежность извержения этого вулкана, рисуют картину, напоминающую бессмертное творение К. Брюллова «Последний день Помпеи».
Резонно спросить: а есть ли основания для столь пессимистических прогнозов? Чтобы ответить на этот вопрос, надо заглянуть в кратер этого вулкана. Но предварительно вооружимся инструментом для измерения информации.
Математики и физики сошлись на том, что за единицу информации и удобно и логично принять такую дозу информации, которая уменьшает наше незнание в каком-то вопросе вдвое. При этом, конечно, полностью игнорируется значимость этого выбора.
Вот несколько примеров получения информации, равной единице.
— В каком полушарии находится самая высокая горная вершина?
— В северном.
— В какой половине года планировать вам отпуск?
— В первой.
Студент в растерянности: долг обязывает идти на лекцию, неутоленная жажда приключений зовет в кино на новый детектив. Как сделать выбор из двух возможностей? Бросается монета. Ура! Детектив!
Все это ситуации, в которых информация получается при выборе одной из двух равноправных возможностей.
Перейдем теперь к более сложному случаю — к выбору из четырех возможных исходов. Так, если понадобилось планировать отпуск с точностью до квартала, то во втором примере надо задать еще один вопрос:
— В каком квартале первого полугодия?
— Во втором.
Еще один пример. Ваш приятель спрятал, под одной из четырех пиал монету. Как с помощью только двух заданных ему вопросов с ответами только «да» или «нет» найти ее?
— Монета находится под первой или второй пиалой?
— Нет.
— Монета находится под четвертой пиалой?
— Нет.
Монета найдена, она под третьей пиалой.
Из примеров следует, что при выборе из четырех равноправных исходов уже нужна не одна, а две единицы информации.
Если бы мы запрятали монету под восемь пиал, то для отгадки понадобилось бы не две, а три единицы информации. После первого вопроса: «Где монета: в первых четырех или последующих четырех пиалах?» — мы пришли бы к ситуации с четырьмя пиалами. Следовательно, нахождение монеты при восьми вариантах требует трех единиц информации. Не рискуя дальше наращивать число пиал, прошу читателя поверить такой табличке:
Выбор из двух — одна единица информации
Выбор из четырех — две единицы
Выбор из восьми — три
Выбор из шестнадцати — четыре единицы информации
Выбор из тридцати двух — пять единиц
Выбор из шестидесяти четырех — шесть
и так далее
Из этих данных усматривается любопытная зависимость между числом вариантов N, или исходов, и числом единиц информации I, необходимыми для принятия решения:
N = 21.
Логарифмируя это выражение по основанию два, получаем:
I = log N.
Вот мы и вывели сообща формулу для вычисления необходимого количества информации, которую предложил американский ученый Р. Хартли еще в 1928 году. Она гласит: «Информация, необходимая для выбора из N равноправных вариантов, равна логарифму числа вариантов».
Логарифмическая функция, знакомая из школы, возрастает очень медленно с ростом числа. Значит, и потребное количество информации с ростом числа вариантов растет очень медленно. Так, продолжая нашу таблицу для большого числа исходов, легко находим, что при 512 вариантах необходимо только 9 единиц информации, чтобы принять решение, а при N = 4096 только на три единицы больше, то есть 12.