Информация как основа жизни - [10]

Шрифт
Интервал

Так складывалась теория, объект которой не был определен. В науке впервые возникла ситуация, подобная той, которая характерна для древнееврейской религии: Бог имеет множество имен, но ни одно из них нельзя произносить вслух. В области религии это вполне допустимо. В науке же все идеи и направления постоянно дискутируются. Мы дадим главные идеи из разных областей, где может быть использован этот термин.


Формула Шеннона

Возникновение классической теории информации было индуцировано развитием технических систем связи, призванных служить обмену информацией между людьми. Подчеркнем – технических систем, работа которых определяется законами физики, т. е. законами материального мира. Задача оптимизации работы таких систем требовала, прежде всего, решить вопрос о количестве информации, передаваемой по каналам связи. Поэтому вполне естественно, что первые шаги в этом направлении сделали сотрудники Bell Telephon Companie – X. Найквист, Р. Хартли и К. Шеннон [3].

В 1924 г. X. Найквист предложил измерять количество информации, приходящееся на одну букву текста, передаваемого по каналу связи, величиной Н-1/п, где п – число букв в используемом языке. Спустя четыре года Р. Хартли, исходя из требования аддитивности, в качестве такой меры начал применять логарифм этой величины, т. е. log(1/n). Двадцать лет спустя, в 1948 г., К. Шеннон для этой же цели ввел величину (6)

где H>i – количество информации, связанное с i-ой буквой алфавита, p>i – частота встречаемости этой буквы в данном языке, q - основание логарифмов, а k – коэффициент пропорциональности, величина которого зависит от q и от избранных единиц измерения количества информации; знак "минус" перед k поставлен для того, чтобы величина H>i всегда была положительной. Тогда суммарное количество информации для сообщения, состоящего из М букв, будет (7):

где m>i – число i-х букв в сообщении

К. Шеннон показал, что с увеличением длины сообщения М почти всегда будет иметь "типичный состав": (т>i® р>i). Следовательно, (8)

В случае бинарного кода, когда n = 2, а р>1 = р>2 = 0.5, q=2 и k=1, количество информации Н становится равным М и выражается в так называемых бинарных единицах – битах.

Приведенные формулы послужили К. Шеннону основанием для исчисления пропускной способности каналов связи и энтропии источников сообщений, для улучшения методов кодирования и декодирования сообщений, для выбора помехоустойчивых кодов, а также для решения ряда других задач, связанных с оптимизацией работы технических систем связи. Совокупность этих представлений, названная К. Шенноном "математической теорией связи", и явилась основой классической теории информации.

Теперь обратим внимание на три характерные черты этой работы К. Шеннона. Во-первых, в ней отсутствует определение понятия "информация". Во-вторых, термин "количество информации" здесь используется как синоним статистических характеристик букв, составляющих сообщение. В-третьих, по отношению к источнику сообщений здесь применяется слово "энтропия". Черты эти, несущественные в контексте математической теории связи, оказали значительное влияние на судьбу теории информации.

Отсутствие определения понятия "информация" в работах К. Шеннона и его предшественников, по-видимому, довольно естественно – они в нем просто не нуждались. Ведь работы эти были посвящены не теории информации, а теории связи. То, что по каналам связи передают осмысленные сообщения, т. е. информацию, было очевидно, – ведь для этого их и создавали. Замечательной особенностью каналов связи является то, что по ним можно передавать любую информацию, пользуясь ограниченным числом сигналов или букв. При этом передают по каналам связи именно буквы, сигналы, а не информацию как таковую. Объекты передачи, следовательно, имеют материальную, физическую природу – обычно это модуляции напряженности электрического тока. Ответа требовал не вопрос "Что такое информация?", а вопрос "Какое количество информации можно передать в единицу времени, пользуясь данным набором сигналов?". Предложенное К. Шенноном определение "количества информации" (6) хорошо согласовывалось с дискретной[1] природой сигналов, обычно передаваемых по каналам связи. И в то же время, такая мера "количества информации" создавала ощущение, не встречающее сопротивления на психологическом уровне, что чем реже происходит данное событие – появление данного сигнала на выходе канала связи, тем больше это событие "несет с собой" информации.

Со всем этим можно было бы вполне согласиться, если бы не одно обстоятельство: отдельные сигналы или буквы, передаваемые по каналам связи, сами по себе не несут той информации, для обмена которой существуют системы связи. Информацию содержат лишь сочетания сигналов или букв, причем отнюдь не любые, а лишь осмысленные, наполненные определенным содержанием. Введение единой меры количества информации, содержащейся в сообщениях, меры, не зависящей от их семантики, как будто бы блестяще решало задачу соизмеримости бесконечного количества возможных различающихся по смыслу сообщений. И в то же время введение такой меры создавало видимость дробления, квантируемости информации, видимость возможности оценивать ее количество как сумму элементарных количеств информации, связанных с каждой отдельной буквой содержащего ее сообщения.


Рекомендуем почитать
Революция сострадания. Призыв к людям будущего

Убедительный и настойчивый призыв Далай-ламы к ровесникам XXI века — молодым людям: отринуть национальные, религиозные и социальные различия между людьми и сделать сострадание движущей энергией жизни.


Патафизика: Бесполезный путеводитель

Первая в России книга о патафизике – аномальной научной дисциплине и феномене, находящемся у истоков ключевых явлений искусства и культуры XX века, таких как абсурдизм, дада, футуризм, сюрреализм, ситуационизм и др. Само слово было изобретено школьниками из Ренна и чаще всего ассоциируется с одим из них – поэтом и драматургом Альфредом Жарри (1873–1907). В книге английского писателя, исследователя и композитора рассматриваются основные принципы, символика и предмет патафизики, а также даётся широкий взгляд на развитие патафизических идей в трудах и в жизни А.


Homo scriptor. Сборник статей и материалов в честь 70-летия М. Эпштейна

Михаил Наумович Эпштейн (р. 1950) – один из самых известных философов и  теоретиков культуры постсоветского времени, автор множества публикаций в  области филологии и  лингвистики, заслуженный профессор Университета Эмори (Атланта, США). Еще в  годы перестройки он сформулировал целый ряд новых философских принципов, поставил вопрос о  возможности целенаправленного обогащения языковых систем и  занялся разработкой проективного словаря гуманитарных наук. Всю свою карьеру Эпштейн методично нарушал границы и выходил за рамки существующих академических дисциплин и  моделей мышления.


Хорошо/плохо

Люди странные? О да!А кто не согласен, пусть попробует объяснить что мы из себя представляем инопланетянам.


Только анархизм: Антология анархистских текстов после 1945 года

Антология современной анархистской теории, в которую вошли тексты, отражающие её ключевые позиции с точки зрения американского постлевого анархиста Боба Блэка. Состоит из 11 разделов, а также общего введения и заключения. Составлена специально для издательства «Гилея». Среди авторов: Джордж Вудкок, Джон Зерзан, Мюррей Букчин, Фреди Перлман, Пьер Кластр, Персиваль и Пол Гудманы, Мишель Онфре, сам Боб Блэк, коллективы CrimethInc., Fifth Estate, Green Anarchy и мн. др. В формате PDF A4 сохранен издательский макет книги.


Философский экспресс. Уроки жизни от великих мыслителей

Эрик Вейнер сочетает свое увлечение философией с любовью к кругосветным путешествиям, отправляясь в паломничество, которое поведает об удивительных уроках жизни от великих мыслителей со всего мира — от Руссо до Ницше, от Конфуция до Симоны Вейль. Путешествуя на поезде (способ перемещения, идеально подходящий для раздумий), он преодолевает тысячи километров, делая остановки в Афинах, Дели, Вайоминге, Кони-Айленде, Франкфурте, чтобы открыть для себя изначальное предназначение философии: научить нас вести более мудрую, более осмысленную жизнь.