Вход/Регистрация
Инфодинамика, Обобщённая энтропия и негэнтропия
вернуться

Лийв Э Х

Шрифт:

5. ИНФОРМАЦИЯ И МЕТОДЫ

ЕЁ ИЗМЕРЕНИЯ

Обсуждению различных аспектов сущности, обработки и применения информации посвящено огромное количество работ, в частности [ 24, 25, 27 35, 37 - 44 ]. Несмотря на многочисленность публикации многие основные вопросы ос-тались до настоящего времени невыясненными. Близость мнений достигнута только в том, что полученная информация уменьшает неопределённость, незнание, беспорядок принима-ющей её системы. Почти все авторы обращают внимание на возрастающeе значение информации во всех сферах неорга-нической и живой природы, в деятельности человека и об-щества. Неясных вопросов, однако, имеется намного больше. Из них первоочередного рассмотрения требуют следующие проблемы.

1. Сущность и возможности оценки неопределённости, вероятности, неупорядоченности, энтропии. Их взаимные отношения и влияние между системами.

2. Механизм передачи информации от одной системы (или её элемента) к другой. Как происходит само-произвольное образование каналов связи между сложными системами.

3. Методика определения качества и количества переда-ваемой информации, в т.ч. многомерной, вероятностной, семантической и обобщённой.

ЗАГАДКИ НЕОПРЕДЕЛЁННОСТИ

Поскольку основой информации является уменьшение неопределённости систем, необходимо точнее раскрыть её сущность и связь с такими понятиями как вероятность, разно-образие, беспорядок, хаос, неупорядоченность, энтропия, не-предсказуемость, деструктивность, рассеянность, стохас-тичность, случайность и шум.

Наиболее общим понятием из перечисленных является неопределённость. Меру неопределённости можно рассмат-ривать как функцию от числа возможных исходов и ком-бинаций элементов в системе. То же характеризует их разнообразие. В любой системе её разнообразие зависит от количества различных элементов, числа и комбинаций их возможных состояний и количества возможных связей между ними. Поэтому понятия "неопределённость" и "разнообразие" часто употребляются как синонимы. Мерой неопределённости системы является её энтропия, для сложных многомерных систем - ОЭ. Однако, ряд важных положений, для обосно-вания использования ОЭ выведены на определённых допу-щениях. С помощью классических формул энтропию (не-определённость) можно охарактеризовать совокупностью всех независимых возможных событий. С помощью условных вероятностей и условных энтропий можно описать взаимную зависимость между событиями. Но существующие зави-симости весьма разнообразны. При функциональной, детер-минированной зависимости переходы системы из одного состояния в другое полностью предопределены условиями (ОЭ = 0). Во многих процессах зависимости между собы-тиями носят случайный характер. Среди них есть и такие, в которых событие является сугубо индивидуальным резуль-татом исторически сложившегося стечения случайных об-стоятельств, в цепи которых невозможно обнаружить никаких закономерностей. Однако, при дополнительных допущениях, и такие процессы (т.н.марковские случайные процессы) мож-но характеризовать энтропией (К.Шеннон). Таким образом, применять энтропию как меру неопределённости нужно очень осторожно, проверяя предварительно, насколько исследуемый процесс при условиях данной задачи соответствует принятым допущениям и ограничениям. Последние нужно выбирать в таком количестве, чтобы обеспечить достаточную выполняе-мость расчётов, достоверность данных и точность результа-тов. Понятие неупорядоченности является отношением факти

ческой к максимально возможной энтропии ОЭф ,показывает ОЭм

cтепень уменьшения ОЭм после получения ОНГ и колеблется

в пределах 0 ОЭф 1 ОЭм

Вероятность также характеризует неопределённость, но её прямое применение возможно при конкретных, более уз-ких пределах. Для многих сложных вероятностей много-мерных систем применение условных вероятностей в расчётах связано с большими трудностями. В мире нет чисто слу-чайных или чисто детерминированных систем. Вероятност-ный компонент содержится во всех в первичной реальности существующих системах. Они имеют бесконечно большую размерность, неопределённость в микромире, во времени и пространстве. Их энтропия приближается к бесконечности. В реальном мире нет абсолютно детерминированных систем. Имеются искусственно изолированные во времени и в прост-ранстве системы, в которых детерминированный компонент превалирует. Например, солнечная система. Движение планет подчиняется законам гравитации, предсказуемо по математи-ческим уравнениям. Однако, и эта система (орбита) изменя-ется по космическим масштабам быстро и солнце само тоже не существует вечно (около 5 млрд. лет). Мысленно можно создать модели, которые абсолютно детерминированные, т.е. исключают все случайности. Вероятность результата такой системы 1,0; ОЭ = 0. Например, система состоит из формулы 2 ? 2 = 4. Вероятность достижения целевой критерии 4 сос-тавляет 1,0; ОЭ = 0. Однако, такая система существует только в голове. В реальной жизни нет четырёх абсолютно одинаковых объектов, а при сложении разноценных систем результат становится неопределённым.

Почти во всех системах неопределённость есть некото-рое отношение элемента, входящего в множество, к числу всех элементов в множестве. В каждом отношении сочета-ются случайные и неслучайные факторы. Соответственно с этим для уменьшения неопределённости системы необходимо сочетать статистическую теорию информации с использова-нием априорной информации, теорий, гипотез и других мето-дов эвристического моделирования, в том числе с экспе-риментами.

Стохастичность и случайность можно считать синони-мами, также как и неупорядоченность и беспорядок. Имеются понятия для обозначения неопределённости в отдельных об-ластях: шум - в процессе инфопередачи, непредсказуемость - в прогнозах будущего, деструктивность - в структуре, рассеянность - в пространстве.

СУЩНОСТЬ ИНФОРМАЦИИ

Из огромного числа публикаций по проблеме сущности информации можно выделить два её основных значения.

1. Давно применяемое "обыденное" значение, что сфор-мировал также Н.Винер: "Информация - это обозначение содержания, полученного из внешнего мира в процессе на-шего приспособления к нему и приспосабливания наших чувств [ 21 ]. Здесь информация выступает в роли знания, сообщения.

2. Кибернетическое понятие информации, которое было сформулировано в основополагающих работах Н.Винера, осо-бенно К.Шеннона в 1948 году [ 25 ]. В теории Шеннона под информацией понимают только те передаваемые сообщения, которые уменьшают неопределённость у получателя инфор-мации. Следовательно информация измеряется разностью энтропий (Н) системы до и после получения информации. Если целевые критерии системы-приёмника информации обо-значить В, а событие в системе-передатчике А, то количество передаваемой информации:

J (A, B) = H(B) - H(B / A) > - lg2 P(B) + lg2 P(B / A)

В формуле выражен относительный характер среднего значения информации, как показателя зависимости между двумя событиями. Из формулы следует, что не существует абсолютной информации: есть информация относительно оп-ределённого события (критерия, цели) или объекта, содер-жащаяся в другом событии. Измерение энтропии системы имеет ценность потому, что позволяет оценить влияние собы-тия А на событие В в форме разности

Н(В) - Н(В / А), т.е. по количеству информации. Последнее является мерой отношения, взаимосвязи между системами, явлениями, процессами, а не показателем состо-яния систем.

Концепция Шеннона в принципе не вызывает возраже-ний и нашла широкое применение. Однако, существующие формулы теории информации предназначены для обмена ин-формацией между относительно простыми системами и по ка-налам связи с одно-трех-мерными сигналами. При примене-нии формул для расчёта обмена информацией между сложны-ми системами (обладающими высокими ОЭ и ОНГ), необхо-димо их уточнять и дополнять с учётом следующих факторов.

1. Целевые критерии реальных сложных систем зависят обычно не от одного события или фактора другой системы, а от многих. Последние могут быть зависимыми также между собой. В таком случае приёмник информации получит одно-временно многомерную информацию от многих источников в комплексе.

  • Читать дальше
  • 1
  • ...
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • ...

Ебукер (ebooker) – онлайн-библиотека на русском языке. Книги доступны онлайн, без утомительной регистрации. Огромный выбор и удобный дизайн, позволяющий читать без проблем. Добавляйте сайт в закладки! Все произведения загружаются пользователями: если считаете, что ваши авторские права нарушены – используйте форму обратной связи.

Полезные ссылки

  • Моя полка

Контакты

  • chitat.ebooker@gmail.com

Подпишитесь на рассылку: