Немного теории…
Слово «информация» происходит от латинского – разъяснение,
изложение, осведомленность. В течение многих веков понятие информации
не раз претерпевало изменения, то расширяя, то предельно сужая свои
границы. Сначала под этим словом понимали «представление», «понятие»,
затем – «сведения», «передачу сообщений». В XX в. бурное развитие
получили всевозможные средства связи (телефон, телеграф, радио),
назначение которых заключалось в передаче сообщений. Однако
эксплуатация их выдвинула ряд проблем: как обеспечить надежность связи
при наличии помех, какой способ кодирования сообщения применять в том
или ином случае, как закодировать сообщение, чтобы при минимальной его
длине обеспечить передачу смысла с определенной степенью надежности.
Эти проблемы требовали разработки теории передачи сообщений, иными
словами, теории информации. Одним из основных вопросов этой теории был
вопрос о возможности измерения количества информации.
Попытки количественного измерения информации предпринимались
неоднократно. Первые отчетливые предложения об общих способах измерения
количества информации были сделаны Р. Фишером (1921 г.) в
процессе решения вопросов математической статистики. Проблемами
хранения информации, передачи ее по каналам связи и задачами
определения количества информации занимались Р. Хартли
(1928 г.) и X. Найквист (1924 г.). Р. Хартли заложил
основы теории информации, определив меру количества информации для
некоторых задач. Наиболее убедительно эти вопросы были разработаны и
обобщены американским инженером Клодом Шенноном в 1948 г. С этого
времени началось интенсивное развитие теории информации вообще и
углубленное исследование вопроса об измерении ее количества в частности.
Для того чтобы применить математические средства для изучения
информации, потребовалось отвлечься от смысла, содержания информации.
Этот подход был общим для упомянутых нами исследователей, так как
чистая математика оперирует с количественными соотношениями, не
вдаваясь в физическую природу тех объектов, за которыми стоят
соотношения. Например, если находится сумма двух чисел 5 и 10, то она в
равной мере будет справедлива для любых объектов, определяемых этими
числами. Поэтому, если смысл выхолощен из сообщений, то отправной
точкой для информационной оценки события остается только множество
отличных друг от друга событий и соответственно сообщений о них.
Предположим, нас интересует следующая информация о состоянии
некоторых объектов: в каком из четырех возможных состояний (твердое,
жидкое, газообразное, плазма) находится некоторое вещество? на каком из
четырех курсов техникума учится студент?
Во всех этих случаях имеет место неопределенность интересующего нас
события, характеризующаяся наличием выбора одной из четырех
возможностей. Если в ответах на приведенные вопросы отвлечься от их
смысла, то оба ответа будут нести одинаковое количество информации, так
как каждый из них выделяет одно из четырех возможных состояний объекта
и, следовательно, снимает одну и ту же неопределенность сообщения.
Неопределенность неотъемлема от понятия вероятности. Уменьшение
неопределенности всегда связано с выбором (отбором) одного или
нескольких элементов (альтернатив) из некоторой их совокупности. Такая
взаимная обратимость понятий вероятности и неопределенности послужила
основой для использования понятия вероятности при измерении степени
неопределенности в теории информации. Если предположить, что любой из
четырех ответов на вопросы равновероятен, то его вероятность во всех
вопросах равна 1/4. Одинаковая вероятность ответов в этом примере
обусловливает и равную неопределенность, снимаемую ответом в каждом из
двух вопросов, и, следовательно, каждый ответ несет одинаковую
информацию.
Теперь попробуем сравнить следующие два вопроса: на каком из четырех
курсов техникума учится студент? Как упадет монета при подбрасывании:
вверх «гербом» или «цифрой»? В первом случае возможны четыре
равновероятных ответа, во втором – два. Следовательно, вероятность
какого-то ответа во втором случае больше, чем в первом
(1/2 > 1/4), в то время как неопределенность, снимаемая
ответами, больше в первом случае. Любой из возможных ответов на первый
вопрос снимает большую неопределенность, чем любой ответ на второй
вопрос. Поэтому ответ на первый вопрос несет больше информации!
Следовательно, чем меньше вероятность какого-либо события, тем большую
неопределенность снимает сообщение о его появлении и, следовательно,
тем большую информацию оно несет.
Предположим, что какое-то событие имеет m равновероятных исходов. Таким событием может быть, например, появление любого символа из алфавита, содержащего m
таких символов. Как измерить количество информации, которое может быть
передано при помощи такого алфавита? Это можно сделать, определив число
N возможных сообщений, которые могут быть переданы при помощи этого алфавита. Если сообщение формируется из одного символа, то N = m, если из двух, то N = m · m = m2. Если сообщение содержит n символов (n – длина сообщения), то N = mn.
Казалось бы, искомая мера количества информации найдена. Ее можно
понимать как меру неопределенности исхода опыта, если под опытом
подразумевать случайный выбор какого-либо сообщения из некоторого числа
возможных. Однако эта мера не совсем удобна. При наличии алфавита,
состоящего из одного символа, т.е. когда m = 1, возможно
появление только этого символа. Следовательно, неопределенности в этом
случае не существует, и появление этого символа не несет никакой
информации. Между тем, значение N при m = 1 не обращается в нуль. Для двух независимых источников сообщений (или алфавита) с N1 и N2 числом возможных сообщений общее число возможных сообщений N = N1N2,
в то время как логичнее было бы считать, что количество информации,
получаемое от двух независимых источников, должно быть не
произведением, а суммой составляющих величин.
Выход из положения был найден Р. Хартли, который предложил информацию I, приходящуюся на одно сообщение, определять логарифмом общего числа возможных сообщений N:
I(N) = log N (1)
Если же все множество возможных сообщений состоит из одного (N = m = 1), то I (N) = log 1 = 0, что соответствует отсутствию информации в этом случае. При наличии независимых источников информации с N1 и N2 числом возможных сообщений
I(N) = log N = log N1N2 = log N1 + log N2,
т.е. количество информации, приходящееся на одно сообщение, равно
сумме количеств информации, которые были бы получены от двух
независимых источников, взятых порознь. Формула, предложенная Хартли,
удовлетворяет предъявленным требованиям. Поэтому ее можно использовать
для измерения количества информации.
Если возможность появления любого символа алфавита равновероятна (а
мы до сих пор предполагали, что это именно так), то эта вероятность р = 1/m. Полагая, что N = m,
I = log N = log m = log (1/p) = – log p, (2)
т.е. количество информации на каждый равновероятный сигнал равно минус логарифму вероятности отдельного сигнала.
Полученная формула позволяет для некоторых случаев определить
количество информации. Однако для практических целей необходимо
задаться единицей его измерения. Для этого предположим, что информация
– это устраненная неопределенность. Тогда в простейшем случае
неопределенности выбор будет производиться между двумя
взаимоисключающими друг друга равновероятными сообщениями, например
между двумя качественными признаками: положительным и отрицательным
импульсами, импульсом и паузой и т.п. Количество информации, переданное
в этом простейшем случае, наиболее удобно принять за единицу количества
информации. Именно такое количество информации может быть получено,
если применить формулу (2) и взять логарифм по основанию 2. Тогда
I = – log2 p = – log2 1/2 = log2 2 = 1.
Полученная единица количества информации, представляющая собой выбор
из двух равновероятных событий, получила название двоичной единицы, или
бита. Название bit образовано из двух начальных и последней букв английского выражения binary unit,
что значит двоичная единица. Бит является не только единицей количества
информации, но и единицей измерения степени неопределенности. При этом
имеется в виду неопределенность, которая содержится в одном опыте,
имеющем два равновероятных исхода.
На количество информации, получаемой из сообщения, влияет фактор
неожиданности его для получателя, который зависит от вероятности
получения того или иного сообщения. Чем меньше эта вероятность, тем
сообщение более неожиданно и, следовательно, более информативно.
Сообщение, вероятность которого высока и, соответственно, низка степень
неожиданности, несет немного информации.
Р. Хартли понимал, что сообщения имеют различную вероятность и,
следовательно, неожиданность их появления для получателя неодинакова.
Но, определяя количество информации, он пытался полностью исключить
фактор «неожиданности». Поэтому формула Хартли позволяет определить
количество информации в сообщении только для случая, когда появление
символов равновероятно и они статистически независимы. На практике эти
условия выполняются редко. При определении количества информации
необходимо учитывать не только количество разнообразных сообщений,
которые можно получить от источника, но и вероятность их получения.
Наиболее широкое распространение при определении среднего количества
информации, которое содержится в сообщениях от источников самой разной
природы, получил подход. К Шеннона. Рассмотрим следующую ситуацию.
Источник передает элементарные сигналы k различных типов. Проследим за достаточно длинным отрезком сообщения. Пусть в нем имеется N1 сигналов первого типа, N2 сигналов второго типа, …, Nk сигналов k-го типа, причем N1 + N2 + … + Nk = N – общее число сигналов в наблюдаемом отрезке, f1, f2, …, fk
– частоты соответствующих сигналов. При возрастании длины отрезка
сообщения каждая из частот стремится к фиксированному пределу, т.е.
lim fi = pi, (i = 1, 2, …, k),
где рi можно считать вероятностью сигнала. Предположим, получен сигнал i-го типа с вероятностью рi, содержащий – log pi единиц информации. В рассматриваемом отрезке i-й сигнал встретится примерно Npi раз (будем считать, что N достаточно велико), и общая информация, доставленная сигналами этого типа, будет равна произведению Npi log рi. То же относится к сигналам любого другого типа, поэтому полное количество информации, доставленное отрезком из N сигналов, будет примерно равно
Чтобы определить среднее количество информации, приходящееся на один
сигнал, т.е. удельную информативность источника, нужно это число
разделить на N. При неограниченном росте приблизительное
равенство перейдет в точное. В результате будет получено
асимптотическое соотношение – формула Шеннона
В последнее время она стала не менее распространенной, чем знаменитая формула Эйнштейна Е = mc2.
Оказалось, что формула, предложенная Хартли, представляет собой частный
случай более общей формулы Шеннона. Если в формуле Шеннона принять, что р1 = p2 = … = рi = … =pN = 1/N, то
Знак минус в формуле Шеннона не означает, что количество информации
в сообщении – отрицательная величина. Объясняется это тем, что
вероятность р, согласно определению, меньше единицы, но больше нуля. Так как логарифм числа, меньшего единицы, т.е. log pi – величина отрицательная, то произведение вероятности на логарифм числа будет положительным.
Кроме этой формулы, Шенноном была предложена абстрактная схема
связи, состоящая из пяти элементов (источника информации, передатчика,
линии связи, приемника и адресата), и сформулированы теоремы о
пропускной способности, помехоустойчивости, кодировании и т.д.
В результате развития теории информации и ее приложений идеи Шеннона
быстро распространяли свое влияние на самые различные области знаний.
Было замечено, что формула Шеннона очень похожа на используемую в
физике формулу энтропии, выведенную Больцманом. Энтропия обозначает
степень неупорядоченности статистических форм движения молекул.
Энтропия максимальна при равновероятном распределении параметров
движения молекул (направлении, скорости и пространственном положении).
Значение энтропии уменьшается, если движение молекул упорядочить. По
мере увеличения упорядоченности движения энтропия стремится к нулю
(например, когда возможно только одно значение и направление скорости).
При составлении какого-либо сообщения (текста) с помощью энтропии можно
характеризовать степень неупорядоченности движения (чередования)
символов. Текст с максимальной энтропией – это текст с равновероятным
распределением всех букв алфавита, т.е. с бессмысленным чередованием
букв, например: ЙХЗЦЗЦЩУЩУШК ШГЕНЕЭФЖЫЫДВЛВЛОАРАПАЯЕЯЮЧБ СБСЬМ. Если
при составлении текста учтена реальная вероятность букв, то в
получаемых таким образом «фразах» будет наблюдаться определенная
упорядоченность движения букв, регламентируемая частотой их появления:
ЕЫТ ЦИЯЬА ОКРВ ОДНТ ЬЧЕ МЛОЦК ЗЬЯ ЕНВ ТША.
При учете вероятностей четырехбуквенных сочетаний текст становится
настолько упорядоченным, что по некоторым формальным признакам
приближается к осмысленному: ВЕСЕЛ ВРАТЬСЯ НЕ СУХОМ И НЕПО И КОРКО.
Причиной такой упорядоченности в данном случае является информация о
статистических закономерностях текстов. В осмысленных текстах
упорядоченность, естественно, еще выше. Так, в фразе ПРИШЛ… ВЕСНА мы
имеем еще больше информации о движении (чередовании) букв. Таким
образом, от текста к тексту увеличиваются упорядоченность и информация,
которой мы располагаем о тексте, а энтропия (мера неупорядоченности)
уменьшается.
Используя различие формул количества информации Шеннона и энтропии
Больцмана (разные знаки), Л. Бриллюэн охарактеризовал информацию
как отрицательную энтропию, или негэнтропию. Так как энтропия является мерой неупорядоченности, то информация может быть определена как мера упорядоченности материальных систем.
В связи с тем, что внешний вид формул совпадает, можно предположить,
что понятие информация ничего не добавляет к понятию энтропии. Однако
это не так. Если понятие энтропии применялось ранее только для систем,
стремящихся к термодинамическому равновесию, т.е. к максимальному
беспорядку в движении ее составляющих, к увеличению энтропии, то
понятие информации обратило внимание и на те системы, которые не
увеличивают энтропию, а наоборот, находясь в состоянии с небольшими
значениями энтропии, стремятся к ее дальнейшему уменьшению.
Теория информации «переросла» рамки поставленных первоначально перед
ней задач. Ее начали применять к более широкому кругу явлений.
Увеличение количества информации стали связывать с повышением сложности
системы, с ее прогрессивным развитием. Так, по данным некоторых
исследований, при переходе от атомного уровня к молекулярному
количество информации увеличивается в 103 раза. Количество информации, относящейся к организму человека, примерно в 1011 раз больше информации, содержащейся в одноклеточном организме.
Процесс развития в определенном аспекте можно моделировать,
используя процесс передачи информации. Применение информационной модели
развития дает возможность прояснить механизм прогресса с учетом
усложнения, упорядочения и повышения степени организации материальных
систем.
Трудно переоценить значение идей теории информации в развитии самых разнообразных научных областей.
Однако, по мнению К. Шеннона, все нерешенные проблемы не могут
быть решены при помощи таких магических слов, как «информация»,
«энтропия», «избыточность»
Теория информации основана на вероятностных, статистических
закономерностях явлений. Она дает полезный, но не универсальный
аппарат. Поэтому множество ситуаций не укладываются в информационную
модель Шеннона. Не всегда представляется возможным заранее установить
перечень всех состояний системы и вычислить их вероятности. Кроме того,
в теории информации рассматривается только формальная сторона
сообщения, в то время как смысл его остается в стороне. Например,
система радиолокационных станций ведет наблюдение за воздушным
пространством с целью обнаружения самолета противника Система S, за которой ведется наблюдение, может быть в одном из двух состояний x1 – противник есть, x2
– противника нет. Важность первого сообщения нельзя оценить с помощью
вероятностного подхода. Этот подход и основанная на нем мера количества
информации выражают, прежде всего, «структурно-синтаксическую» сторону
ее передачи, т.е. выражают отношения сигналов. Однако понятия
«вероятность», «неопределенность», с которыми связано понятие
информации, предполагают процесс выбора. Этот процесс может быть
осуществлен только при наличии множества возможностей. Без этого
условия, как можно предположить, передача информации невозможна.
Рассмотрим пример Р. Эшби. Заключенного должна навестить жена
Сторож знает, что она хочет сообщить мужу, пойман ли его сообщник. Ей
не разрешено делать никаких сообщений. Но сторож подозревает, что они
договорились о каком-то условном знаке. Вот она просит послать мужу
чашечку кофе. Как сторож может добиться, чтобы сообщение не было
передано? Он рассуждает так: может быть, она условилась передать ему
сладкий чай или несладкий кофе, тогда я могу помешать им, добавив в
кофе сахару и сказав об этом заключенному. Может быть, она условилась
послать или не послать ему ложку, тогда я могу изъять ложку и сказать
ему, что передача ложек воспрещена. Она может послать ему не кофе, а
чай, но все знают, что в это время выдается только кофе. И сторож,
стремясь пресечь всякую возможность связи, сводит все возможности к
одной – только кофе, только с сахаром, только без ложки. Если все
возможности сведены к одной, связь прерывается, и посылаемый напиток
лишен возможности передать информацию.
Р. Эшби осуществил переход от толкования информации как
«снятой» неопределенности к «снятой» неразличимости. Он считал, что
информация есть там, где имеется (дано или выявляется) разнообразие,
неоднородность. В данном случае единицей измерения информации может
быть элементарное различие, т.е. различие между двумя объектами в
каком-либо одном фиксированном свойстве. Чем больше в некотором объекте
отличных (в строго определенном смысле) друг от друга элементов, тем
больше этот объект содержит информации. Информация есть там, где
имеется различие хотя бы между двумя элементами. Информации нет, если
элементы неразличимы.
В середине 50-х годов, используя материал статистической теории
информации, Р. Эшби изложил концепцию разнообразия, согласно
которой под разнообразием следует подразумевать характеристику
элементов множества, заключающуюся в их несовпадении. Так, множество, в
котором все элементы одинаковы (допустим, это последовательность а, а,
а, и т.д.), по мнению Эшби, не имеет «никакого» разнообразия, ибо все
его элементы одного типа. Если разнообразие его измерить
логарифмически, то получим логарифм единицы (единица означает
однотипность элементов множества) – нуль. Множество с таким
разнообразием соответствует единичной вероятности выбора элемента, т.е.
какой элемент множества не был бы выбран, он будет одного и того же
типа. Суть концепции разнообразия, по Эшби, заключается в утверждении,
что теория информации изучает процессы «передачи разнообразия» по
каналам связи, причем «информация не может передаваться в большем
количестве, чем это позволяет количество разнообразия».
Исходя из идей основоположника кибернетики Н. Винера и
результатов, полученных К. Шенноном, Эшби открыл закон, названный
законом необходимого разнообразия, который так же, как закон Шеннона
для процессов связи, может быть общим для процессов управления. Суть
этого закона состоит в следующем. Для управления состоянием
кибернетической системы нужен регулятор, ограничивающий разнообразие
возмущений, которые могут разрушить систему. При этом регулятор
допускает такое их разнообразие, которое необходимо и полезно для
системы.
При допустимом разнообразии состояний кибернетической системы Рc и разнообразии возмущений Рв количество разнообразия регулятора Рр=Рв/Рc.
Эта формула является одной из количественных форм выражения закона
необходимого разнообразия. В логарифмической форме этот закон имеет вид
log Pp = log Рв/Рc или log Pp = log Рв – log Рc.
Обозначив соответствующие логарифмы разнообразия как информационные содержания систем, получим Iв = Iр + Iс.
Из формулы следует, что сумма информационных содержаний системы и
регулятора равна информационному содержанию внешних возмущений.
Регулирование, возмущения – это термины, связанные с процессом
управления. Поэтому закон необходимого разнообразия является одним из
основных в кибернетике – науке об управлении.
Если в начале книги понятие информации рассматривалось применительно
только к процессам связи, а затем использовалось для характеристики
сложности и упорядоченности материальных систем, то теперь уже речь
идет об управлении ими! Впитывая всевозможные взгляды и концепции,
понятие информации становится более емким и «дорастает» до уровня
философских категорий – самых общих понятий, которыми только можно
оперировать вообще! Если, например, понятие информации связывать с
разнообразием, что вполне правомерно, то причиной существующего в
природе разнообразия, по мнению академика В.М. Глушкова, можно
считать неоднородность в распределении энергии (или вещества) в
пространстве и во времени. Информацию же В.М. Глушков
характеризует как меру этой неоднородности Информация существует
постольку, поскольку существуют сами материальные тела и,
следовательно, созданные ими неоднородности Всякая неоднородность несет
с собой какую-то информацию.
С понятием информации в кибернетике не связано свойство ее
осмысленности в обычном житейском понимании. Многие специалисты
считают, что информация охватывает как сведения, которыми люди
обмениваются между собой, так и сведения, существующие независимо от
людей. Например, звезды существуют независимо от того, имеют люди
информацию о них или нет. Существуя объективно, они создают
неоднородность в распределении вещества и поэтому являются источниками
информации.
В данном случае понятие информации определяется уже на уровне таких
изначальных понятий философии, как материя и энергия. По мнению
В.М. Глушкова, информация независима от нашего сознания. Ее
объективный характер основан на объективности существования ее
источника – разнообразия. Для того чтобы построить строгую теорию
информации, К. Шеннону пришлось отвлечься от ее смысла.
В.М. Глушков развивает этот подход, предлагая очень общее и емкое
понятие информации и подчеркивая при этом ее независимость от
получателя, что оставляет в стороне и смысловую сторону информации.
Очень близка к «разнообразностной» трактовке информации идея
алгоритмического измерения ее количества, выдвинутая в 1965 г.
А.Н. Колмогоровым. Суть ее заключается в том, что количество
информации определяется как минимальная длина программы, позволяющей
преобразовать один объект (множество) в другой (множество). Чем больше
различаются два объекта между собой, тем сложнее (длиннее) программа
перехода от одного объекта к другому. Так, воспроизвести
последовательность букв а, а,…, а можно при помощи очень простой программы. Несколько большей окажется длина программы, восстанавливающей последовательность а, в, с, а, в, с,…
Длина программы при этом измеряется количеством команд (операций),
позволяющих воспроизвести последовательность. Этот подход, в отличие от
подхода Шеннона, не базирующийся на понятии вероятности, позволяет,
например, определить прирост количества информации, содержащейся в
результатах расчета, по сравнению с исходными данными. Вероятностная
теория информации на этот вопрос не может дать удовлетворительного
ответа.
До сих пор мы рассматривали подходы, связанные с количественным
аспектом понятия информации без учета смысловой стороны информации. Эти
подходы позволили привлечь к изучению информации точные математические
методы. В результате были созданы всевозможные кибернетические
устройства (понятие информации является центральным в кибернетике),
вычислительные машины и пр. Все это стало возможным благодаря
достижениям теории информации. Человек научился ее преобразовывать,
кодировать и передавать на огромные расстояния с непостижимой точностью.
Классическая теория информации Шеннона, значительно дополненная и
обогащенная новыми подходами, все же не может охватить всего
многообразия понятия информации и, в первую очередь, ее содержательного
аспекта. Теория информации К. Шеннона также не занимается
определением ценности информации. Количество информации ее интересует
лишь с точки зрения возможности передачи данных сообщении оптимальным
образом.
В нашей стране и за рубежом ведутся интенсивные и серьезные
исследования в области машинного перевода. Однако, если перевод
технических текстов уже стал на сегодняшний день реальностью, то с
переводом художественной литературы, несравненно более богатой
смысловыми оттенками, подтекстом, образными выражениями, компьютеры
справляются пока гораздо хуже.
Попытки оценить не только количественную, но и содержательную
сторону информации дали толчок к развитию семантической (смысловой)
теории информации. Исследования в этой области теснее всего связаны с
семиотикой – теорией знаковых систем. Одним из важнейших свойств
информации, которое мы можем наблюдать, является ее неотделимость от
носителя: во всех случаях, когда мы сталкиваемся с любыми сообщениями,
эти сообщения выражены некоторыми знаками, словами, языками Семиотика
исследует знаки как особый вид носителей информации. При этом знаком
является условное изображение элемента сообщения, словом – совокупность
знаков, имеющих смысловое значение, языком – словарь и правила
пользования им. Таким образом, рассуждая о количестве, содержании и
ценности информации, содержащейся в сообщении, можно исходить из
возможностей соответствующего анализа знаковых структур.
В качестве знаковых систем используются естественные и искусственные
языки, в том числе информационные и языки программирования, различные
системы сигнализации, логические, математические и химические символы.
Они служат средством обмена информацией между высокоорганизованными
системами (способными к обучению и самоорганизации). Примером могут
быть живые организмы, машины с определенными свойствами.
Рассматривая знаковые системы, выделяют три основных аспекта их изучения: синтактику, семантику и прагматику.
Синтактика изучает синтаксис знаковых структур, т.е. способы
сочетаний знаков, правила образования этих сочетаний и их
преобразований безотносительно к их значениям. Отметим в связи с этим,
что рассматриваемые ранее способы определения количества информации
можно отнести к синтаксическим способам.
Семантика изучает знаковые системы как средства выражения смысла,
определенного содержания, т.е. правила интерпретации знаков и их
сочетаний, смысловую сторону языка.
Прагматика рассматривает соотношение между знаковыми системами и их
пользователями, или приемниками-интерпретаторами сообщений. Иными
словами, к прагматике относится изучение практической полезности
знаков, слов и, следовательно, сообщений, т.е. потребительской стороны
языка.
Основная идея семантической концепции информации заключается в
возможности измерения содержания (предметного значения) суждений. Но
содержание всегда связано с формой, поэтому синтаксические и
семантические свойства информации взаимосвязаны, хотя и различны.
Получается, что содержание все-таки можно измерить через форму, т.е.
семантические свойства информации выразить через синтаксические.
Поэтому и исследования семантики базировались на понятии информации как
уменьшении или устранении неопределенности, с которым мы уже знакомы.
Сразу же заметим, что методы точного количественного определения
смыслового содержания информации в настоящее время еще не разработаны,
поэтому мы ограничимся только кратким описанием подходов к решению этой
проблемы.
Первую попытку построения теории семантической информации
предприняли Р. Карнап и И. Бар-Хиллел. Они положили начало
применению идей и методов символической логики и логической семантики к
анализу информационного содержания языка науки. Р. Карнап и
И. Бар-Хиллел предложили определять величину семантической
информации посредством так называемой логической вероятности, которая
представляет собой степень подтверждения той или иной гипотезы. При
этом количество семантической информации, содержащейся в сообщении,
возрастает по мере уменьшения степени подтверждения априорной гипотезы.
Если вся гипотеза построена на эмпирических данных, полностью
подтверждаемых сообщением, то такое сообщение не приносит получателю
никаких новых сведений. Логическая вероятность гипотезы при этом равна
единице, а семантическая информация оказывается равной нулю. Гипотеза
здесь полностью вытекает из данных опыта. И наоборот, по мере
уменьшения степени подтверждения гипотезы, или запаса знаний,
количество семантической информации, доставляемой сообщением,
возрастает. Чем больше логическая вероятность высказывания, тем меньше
должна быть мера его содержания, т.е. чем больше описаний состояния
«разрешает» то или иное высказывание, тем меньше должна быть его
семантическая информативность и, наоборот, чем больше описаний
состояния им исключается, тем больше должна быть его информативность.
Таким образом, семантико-информационное содержание высказывания
определяется не тем, что содержит данное высказывание, а тем, что оно
исключает.
Концепция Карнапа – Бар-Хиллела, получившая впоследствии развитие в
трудах Кемени, является только началом исследований в области измерения
содержания передаваемой информации. Эта концепция позволяет, например,
выявить связь гипотезы с начальным достоверным значением, в частности,
сделать заключение о степени подтверждения гипотезы.
Финский ученый Я. Хинтикка распространил основные идеи
семантической теории информации Карнапа и Бар-Хиллела на логику
высказываний. Для многих ситуаций (наблюдения, измерения, подтверждения
гипотезы, научного предсказания, объяснения) он предложил метод
определения уменьшения неопределенности, которое, например,
претерпевает гипотеза g после получения того или иного эмпирического факта h или вообще изменения информационного содержания высказывания g при получении высказывания h.
Однако, несмотря на определенные достижения, концепция Карнапа –
Бар-Хиллела оказалась малопригодной для анализа содержания
естественного языка. Эта теория, основанная на вероятностной логике,
неприменима к анализу основного массива научного знания – достоверного
знания. С точки зрения указанной теории, например, высказывание «На
Луне есть нефть» содержит информацию, а высказывание «На Земле есть
нефть» лишено информации, поскольку это достоверное знание. Такая
ситуация представлялась довольно парадоксальной!
Подчеркнем еще раз в связи с этим, что семантическая теория
информации еще молода и делает лишь первые шаги. Некоторые
исследователи, например, советский ученый Е.К. Войшвилло,
становятся на путь синтеза статистического (Шеннон) и
логико-семантического (Карнап, Бар-Хиллел) подходов к информации.
Об одной очень интересной модели семантической информации мы
расскажем ниже, а сейчас рассмотрим прагматические концепции информации.
Изучение отношений между знаками и их потребителями с точки зрения
использования получаемой информации и влияния знаков на поведение
систем составляет основу прагматической теории информации. Для всех
подходов здесь характерно стремление связать понятие прагматической
информации с целью, целенаправленным поведением и выдвинуть те или иные
количественные меры ценности информации.
Исходя из этих соображений, А.А. Харкевич предложил связать
меру ценности информации с изменением вероятности достижения цели при
получении этой информации:
I = log (p1/p0) = log p1 – log p0,
где р0 и р1 – вероятность достижения цели соответственно до и после получения информации.
А.А. Харкевич первым подчеркнул фундаментальный характер связи
прагматических свойств информации с категорией цели, понимаемой как
опережающее отражение, модель будущего результата деятельности.
Другой подход к проблеме ценности информации осуществлен
М.М. Бонгардом. Он вводит понятие «полезная информация», связывая
сообщение с тем, какую задачу решает получатель, что он знает до
прихода сообщения и как его истолковывает. Этот подход имеет
вероятностно-алгебраическую сущность и носит более общий характер, чем
подход, предложенный А.А. Харкевичем.
Значительную роль в развитии прагматической теории информации
сыграли работы американского логика Д. Харраха, поставившего перед
собой цель показать, как символическая логика и теория семантической
информации могут быть использованы для анализа некоторых аспектов
человеческой коммуникации. Эту цель он пытается достигнуть путем
создания «модели того, как разумный получатель оценивает
последовательность сообщений на основе определенных семантических и
прагматических свойств». Харрах предлагает обеспечить получателя
«программой обработки сообщений», с помощью которой извлекается из
получаемых сообщений «годная к употреблению сумма сообщений». Именно к
этому результату переработки сообщений, а не к сообщениям в их
первоначальной форме могут быть применены количественные меры
информации. Созданная Харрахом логическая модель коммуникации служит
тем языковым каркасом, в рамках которого программа может быть
образована и применена.
Следует отметить, что прагматические и семантические оценки зачастую
трудно разделить. В некоторых случаях они сливаются. В самом деле,
семантические оценки характеризуют смысл, содержательность сообщений, а
прагматические – их ценность, полезность. Но совершенно очевидно, что
бессодержательные сообщения не могут быть полезными.
Как семантические, так и прагматические теории информации могут быть
практически применены пока только к очень небольшому числу явлений
реальной действительности. Но не следует забывать, что они имеют еще и
теоретическое значение. В борьбе идей, мнений, гипотез и выводов, в их
соперничестве и сотрудничестве рождается истина.
По каждому из перечисленных направлений исследований в теории
информации написано много трудов. Несмотря на это, фронт наступления на
понятие информации широк: его пристально изучают философы, биологи,
физики, математики. Исследования, проводимые в разных направлениях,
способствуют углублению понятия информации, подчеркивая в нем оттенки,
специфичные для той или иной области знаний Огромна практическая
ценность полученных результатов.
Однако, что же такое информация? Можно ли ей дать одно исчерпывающее определение?
Это сложное простое понятие!
Каждое из рассмотренных нами определений информации имеет несколько
аспектов. Каждое из них связано с определенной мерой количества
информации. Для того чтобы объединить их, попытаемся каждое из
определений представить в наиболее общем виде. Рассмотрим понятие
информации как сраженного разнообразия. Источником разнообразия, по
мнению В.М. Глушкова, является неоднородность распределения
материи и энергии в пространстве и во времени. Отсюда и определение,
данное В.М. Глушковым: информация – это мера неоднородности
распределения материи и энергии в пространстве и во времени, показатель
изменений, которыми сопровождаются все происходящие в мире процессы.
Если теперь перейти к более общему определению, то можно считать
информацию свойством материи.
Теперь рассмотрим другое определение информации: «информация – мера
упорядоченности». Это определение также является одним из вариантов
«разнообразностного» ее понимания. Упорядоченность всегда связана с
ограничением разнообразия, которое мы можем понимать как управление.
Действительно, управлять системой – значит ограничивать ее
разнообразие. Ограничение разнообразия связано с получением информации.
Управление невозможно без информационных процессов. Но имеет ли смысл
говорить об управлении, когда речь идет о процессах, происходящих в
неживой природе? Поскольку у объектов неживой природы не может быть
целей, то говорить об управлении и, следовательно, об информации, когда
речь идет о неживой природе, не имеет смысла. Управление и,
следовательно, информационные процессы имеют место только в
кибернетических и биологических системах. Поэтому понятие информации
можно связывать только с объектами живой природы, а также с объектами,
созданными руками человека. Обобщая сказанное, можно сделать вывод, что
информация является свойством только живой материи.
В настоящее время, таким образом, существует довольно сложная и
разветвленная система теорий, методов и идей, связанных с понятием
информации. Однако принцип единства материального мира заставляет
все-таки искать общее определение этого понятия. На основе изучения
высших форм отражения В.И. Ленин выдвинул гипотезу о том, что вся
материя обладает свойством, по существу родственным с ощущением,
свойством отражения, тем самым наметив диалектическую связь между
процессами отражения, имеющими место в неживой природе, и ощущением,
свойственным живому миру. Развивая эту гипотезу, советские философы
обратили внимание на связь понятий информации и отражения. По сути
дела, информация может применительно к живому восприниматься как
«опережающее» отражение действительности, на котором строится
взаимодействие живого организма с окружающим миром и все свойственные
живому процессы управления.
Указывая на различие живой и неживой материи, В.И. Ленин
призывал искать и связь между этими формами ее существования.
«Исследовать и исследовать, каким образом связывается материя, якобы не
ощущающая вовсе, с материей из тех же атомов (или электронов)
составленной и в то же время обладающей ясно выраженной способностью
ощущения. Материализм ясно ставит нерешенный еще вопрос и тем толкает
его к разрешению» – писал В.И. Ленин.
Интенсивными исследованиями представителей самых разнообразных наук
– от математики и физики до биологии и философии – шаг за шагом
собирается воедино образ, пожалуй, самого исключительного феномена в
истории науки – понятия информации.
Николай Николаевич Чурсин.
Популярная информатика. К.: «Техника», 1982.