Седов Евгений Александрович
Шрифт:
Поэтому объективное, научное и вместе с тем доступное широкому кругу читателей изложение современного состояния проблемы заслуживает безусловного одобрения.
Понятие энтропии введено в науку Клаузиусом в 1865 году как логическое развитие термодинамики Карно, сформулированной еще до открытия закона сохранения энергии и основанной на теплородной гипотезе. Энтропия характеризовала свойства макроскопической системы в условиях покоя или равновесия применительно к обратимым (идеальным) процессам.
Распространение концепции Клаузиуса на необратимые процессы привело к заключению, что в необратимых взаимодействиях (свойственных макросистемам) энтропия возрастает.
Дальнейшее развитие физики обусловило появление статистической термодинамики, в основу которой легла формула Больцмана, связывающая энтропию с логарифмом вероятности состояний системы (энтропия Планка). Здесь проявляется на макроуровне необратимость времени: со временем энтропия растет, хотя на микроуровне все процессы обратимы и направления времени «вперед» и «назад» симметричны.
Шеннон ввел понятие энтропии в качестве меры неопределенности знания о чем-либо, а сообщение как средство увеличения знания. Соответственно сообщение, переданное по каналу, связи, уменьшает первоначальную энтропию, а шум в канале увеличивает энтропию сообщения. Отсюда родилось понятие информации как меры уменьшения энтропии. Энтропия Шеннона есть сумма произведений вероятности состояния системы на двоичный логарифм этой вероятности, взятая с обратным знаком. Для вычисления энтропии, следовательно, требуется знать распределение вероятностей. Концепция Шеннона позволила ему построить фундаментальную теорию, которая получила широкое признание, большое практическое применение и продолжает интенсивно развиваться.
Аналогия между термодинамической энтропией (энтропией Клаузиуса), энтропией вероятности состояний (энтропией Планка) и информационной энтропией (энтропией Шеннона) сыграла определенную положительную роль в формировании концепции организации, упорядочения и случайности.
И. Пригожин показал, что нелинейные неравновесные процессы способны порождать макроорганизацию, для которой можно сформулировать условия устойчивости. Если эти условия не выполняются, могут возникнуть новые упорядоченные структуры, и т. д. Современные математические методы позволяют описывать такие процессы, но не позволяют определять, по какому из возможных путей пойдет развитие от неустойчивых точек. Система как бы «выбирает» свое дальнейшее поведение, и то, что аппарат описания процесса допускает возможность такого выбора, свидетельствует о несовершенстве наших физических знаний, в частности знаний об энтропии как «меры организации».
Представление об энтропии эволюционировало вместе с представлением об энергии — основной категории естествознания.
Под энергией понимается общая мера различных процессов и видов взаимодействия. Энергия позволяет измерять различные физические формы движения и взаимодействия единой мерой. Энергия есть первичная категория, количественно характеризующая фундаментальные свойства материального мира. Отсюда — по аналогии — возникло определение энтропии как меры «беспорядка», «дезорганизации» физической системы, а негэнтропии как меры организации.
Категории движения и покоя вполне обоснованы физически, но понятие организации физического обоснования и объяснения не имеет. Когда говорят о мере, прежде всего предполагается возможность измерения («физика — это отклонение стрелок»). Энтропия — единственная физическая величина, которая не измеряется, а вычисляется.
И все же благодаря энтропии мы нащупываем путь к сущности организации материи.
Определенную роль в этом смысле сыграла теория информации. Словарное определение термина «информация» многозначно:
1) совокупность каких-либо сведений, знаний о чем-либо;
2) сведения, являющиеся объектом хранения, передачи и переработки;
3) совокупность количественных данных, выражаемых при помощи цифр или кривых, графиков и используемых при сборе и обработке каких-либо сведений;
4) сведения, сигналы об окружающем мире, которые воспринимают организмы в процессе жизнедеятельности;
5) в генетике — совокупность химически закодированных сигналов, передающихся от одного живого объекта другому (от родителей потомкам) или от одних клеток, тканей, органов другим в процессе развития особи;
6) в математике, кибернетике — количественная мера устранения энтропии (неопределенности), мера организации системы;
7) в философии — свойство материальных объектов и процессов сохранять и порождать определенное состояние, которое в различных вещественно-энергетических формах может быть передано от одного объекта другому; степень, мера организованности какого-либо объекта (системы).
Вместе с тем физические аспекты информации не переставали привлекать внимания исследователей. Одним из важных следствий этого является тот вывод, что при физическом подходе нет надобности вводить новую меру количества информации. Вряд ли существуют природные явления или отрасли техники, в которых физические процессы переноса и преобразования информации не играли бы выдающейся роли. Более того, невозможно отличить — не только теоретически, но и практически — энергетическое или силовое воздействие от последствий получения информации, заключенном в этом воздействии. Проблемы причинности и физической сущности пространства и времени тесно связаны с категорией информации, которая (независимо от терминологии) используется естествоиспытателями с незапамятных времен.