Популярная информатика - [5]

Шрифт
Интервал

:


I (N) = log N


(1)

Если же все множество возможных сообщений состоит из одного (N = m = 1), то I (N) = log 1 = 0, что соответствует отсутствию информации в этом случае. При наличии независимых источников информации с N>1 и N>2 числом возможных сообщений

I (N) = log N = log N>1N>2 = log N>1 + log N>2,

т. е. количество информации, приходящееся на одно сообщение, равно сумме количеств информации, которые были бы получены от двух независимых источников, взятых порознь. Формула, предложенная Хартли, удовлетворяет предъявленным требованиям. Поэтому ее можно использовать для измерения количества информации.

Если возможность появления любого символа алфавита равновероятна (а мы до сих пор предполагали, что это именно так), то эта вероятность р = 1/m. Полагая, что N = m,


I = log N = log m = log (1/p) = — log p,


(2)

т. е. количество информации на каждый равновероятный сигнал равно минус логарифму вероятности отдельного сигнала.

Полученная формула позволяет для некоторых случаев определить количество информации. Однако для практических целей необходимо задаться единицей его измерения. Для этого предположим, что информация — это устраненная неопределенность. Тогда в простейшем случае неопределенности выбор будет производиться между двумя взаимоисключающими друг друга равновероятными сообщениями, например между двумя качественными признаками: положительным и отрицательным импульсами, импульсом и паузой и т. п. Количество информации, переданное в этом простейшем случае, наиболее удобно принять за единицу количества информации. Именно такое количество информации может быть получено, если применить формулу (2) и взять логарифм по основанию 2. Тогда

I = — log>2p = — log>2 1/2 = log>2 2 = 1.

Полученная единица количества информации, представляющая собой выбор из двух равновероятных событий, получила название двоичной единицы, или бита. Название bit образовано из двух начальных и последней букв английского выражения binary unit, что значит двоичная единица. Бит является не только единицей количества информации, но и единицей измерения степени неопределенности. При этом имеется в виду неопределенность, которая содержится в одном опыте, имеющем два равновероятных исхода.

На количество информации, получаемой из сообщения, влияет фактор неожиданности его для получателя, который зависит от вероятности получения того или иного сообщения. Чем меньше эта вероятность, тем сообщение более неожиданно и, следовательно, более информативно. Сообщение, вероятность которого высока и, соответственно, низка степень неожиданности, несет немного информации.

Р. Хартли понимал, что сообщения имеют различную вероятность и, следовательно, неожиданность их появления для получателя неодинакова. Но, определяя количество информации, он пытался полностью исключить фактор «неожиданности». Поэтому формула Хартли позволяет определить количество информации в сообщении только для случая, когда появление символов равновероятно и они статистически независимы. На практике эти условия выполняются редко. При определении количества информации необходимо учитывать не только количество разнообразных сообщений, которые можно получить от источника, но и вероятность их получения.

Наиболее широкое распространение при определении среднего количества информации, которое содержится в сообщениях от источников самой разной природы, получил подход. К Шеннона. Рассмотрим следующую ситуацию.

Источник передает элементарные сигналы k различных типов. Проследим за достаточно длинным отрезком сообщения. Пусть в нем имеется N>1 сигналов первого типа, N>2 сигналов второго типа…, N>k сигналов k-го типа, причем N>1 + N>2 +… + N>k = N — общее число сигналов в наблюдаемом отрезке, f>1, f>2…, f>k — частоты соответствующих сигналов. При возрастании длины отрезка сообщения каждая из частот стремится к фиксированному пределу, т. е.

lim f>i = p>i, (i = 1, 2…, k),

где р>i можно считать вероятностью сигнала. Предположим, получен сигнал i-го типа с вероятностью р>i, содержащий — log p>i единиц информации. В рассматриваемом отрезке i-й сигнал встретится примерно Np>i раз (будем считать, что N достаточно велико), и общая информация, доставленная сигналами этого типа, будет равна произведению Np>i log р>i. То же относится к сигналам любого другого типа, поэтому полное количество информации, доставленное отрезком из N сигналов, будет примерно равно



Чтобы определить среднее количество информации, приходящееся на один сигнал, т. е. удельную информативность источника, нужно это число разделить на N. При неограниченном росте приблизительное равенство перейдет в точное. В результате будет получено асимптотическое соотношение — формула Шеннона



В последнее время она стала не менее распространенной, чем знаменитая формула Эйнштейна Е = mc>2. Оказалось, что формула, предложенная Хартли, представляет собой частный случай более общей формулы Шеннона. Если в формуле Шеннона принять, что

р>1 = p>2 =… = р>i =… =p>N = 1/N, то



Знак минус в формуле Шеннона не означает, что количество информации в сообщении — отрицательная величина. Объясняется это тем, что вероятность


Рекомендуем почитать
Печатные СМИ Германии в условиях социально расколотого общества

Монография историка-германиста О.Е. Ореховой предлагает читателю полный анализ рынка прессы ФРГ после объединения Германии, раскрывает динамику тиражных тенденций с 1990 по 2007 гг. и освещает специфику редакционных концепций ведущих органов печатных СМИ ФРГ в условиях рекламно-газетного кризиса начала XXI века. Книга рассчитана на студентов-международников, аспирантов, исследователей-германистов, всех интересующихся историей и современным состоянием печатных органов ФРГ.


Правила квалификации преступлений, совершаемых в кредитно-финансовой сфере. Теория и практика применения

Научно-практическое пособие нацелено на развитие системного понимания проблем квалификации преступлений, совершаемых в кредитно-финансовой сфере (финансовых преступлений), на основе действующего уголовного законодательства Российской Федерации, материалов арбитражно-судебной практики, а также трудов ученых в области уголовного, финансового и гражданского права. Для судей, прокуроров, сотрудников правоохранительных органов, преподавателей, аспирантов, студентов экономических и юридических вузов, а также для практиков, интересующихся проблемами экономической безопасности в кредитно-финансовой сфере.


В тайниках тела (Приключения в микромире. Том VI)

В тайниках тела (Приключения в микромире. Том VI). — Б.м.: Salamandra P.V.V., 2014. - 155 c., илл. — (Polaris: Путешествия, приключения, фантастика. Вып. LХI). Гигантские пауки и крошечные люди, кровопролитные битвы муравьев, отчаянные сражения микробов, путешествия внутри человеческого тела и невообразимые вселенные, заключенные в атомах — проникновение в микромир издавна было заветной мечтой фантастов. Публикацию забытых и редких произведений, объединенных общей темой «приключений в микромире», продолжает в серии «Polaris» познавательная книга Г.


Девушка из лаборатории

Деревья, как и люди, упорны, изобретательны и способны адаптироваться к любым условиям. Геобиолог Хоуп Джарен, трижды стипендиат программы Фулбрайта, уже более 20 лет изучает деревья, семена, цветки и почву и не перестает удивляться поразительным возможностям растений. Ее книга «Девушка из лаборатории» — автобиография ученого, влюбленного в свою работу. Личная история автора перемежается с увлекательными рассказами о тайной жизни растений. Остроумно и захватывающе Джарен рассказывает о тернистом пути исследователя: о любопытстве как движущей силе научной мысли, о долгих месяцах неудач в попытке собрать необходимые данные, о трудностях в получении финансирования, о верности тех, с кем вместе работаешь, и о радости научного озарения. Этот мировой бестселлер, переведенный на несколько языков, познакомит вас с удивительными примерами жизнестойкости и позволит по-новому взглянуть на мир растений.


Актуальные уголовно-правовые проблемы борьбы с финансовым мошенничеством

Рассмотрены основные характеристики финансового мошенничества, даны предложения по совершенствованию организационных и правовых мер предупреждения данного вида экономических преступлений, на основе исторического и современного зарубежного и отечественного опыта указаны пути совершенствования таких мер. Для сотрудников государственных органов, правоохранительных органов, работников частного сектора экономики, банковской и финансовой сферы, преподавателей высших учебных заведений, широкого круга читателей, интересующихся вопросами организации системы противодействия мошенничеству в кредитно-финансовой сфере.


На что похоже будущее? Даже ученые не могут предсказать… или могут?

Каждый день в мире совершаются открытия и принимаются решения, влияющие на наше будущее. Но может ли кто-то предвидеть, что ждет человечество? Возможна ли телепортация (спойлер: да), как изменится климат, каким будет транспорт и что получится, если искусственный интеллект возьмет над нами верх? Станут ли люди счастливее с помощью таблеток и здоровее благодаря лечению с учетом индивидуальной ДНК? Каких чудес техники нам ждать? Каких революций в быту? В этой книге ведущие мировые специалисты во главе с Джимом Аль-Халили, пользуясь знаниями передовой науки, дают читателю представление о том, что его ждет впереди.