Реферат: Математическая теория информации
МАТЕМАТИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ
1. Количество информации, и еемера
На вход системы передачи информации (СПИ)от источника информации подается совокупность сообщений, выбранных из ансамблясообщений (рис. 1).
Помехи
/>/>x1 y1
x2 y2
…<sub/>…
xn yn
Рис. 1. Система передачиинформации
Ансамбль сообщений – множество возможных сообщений с их вероятностнымихарактеристиками – {Х, р(х)}. При этом: Х={х1, х2,…,хm} – множество возможных сообщений источника; i = 1, 2,…, m,где m – объем алфавита; p(xi) – вероятности появлениясообщений, причем p(xi) ³0 и поскольку вероятности сообщений представляют собой полнуюгруппу событий, то их суммарная вероятность равна единице
/>.
Каждое сообщение несет в себеопределенное количество информации. Определим количество информации,содержащееся в сообщении xi, выбранном из ансамбля сообщенийисточника {Х, р(х)}. Одним из параметров, характеризующих данноесообщение, является вероятность его появления – p(xi),поэтому естественно предположить, что количество информации I(xi)в сообщении xi является функцией p(xi). Вероятностьпоявления двух независимых сообщений x1<sub/>и x2<sub/>равна произведению вероятностей p(x1,<sub/>x2)= p(x1).p(x2), а содержащаяся в них информация должнаобладать свойством аддитивности, т.е.:
I(x1, x2)= I(x1)+I(x2). (1)
Поэтому для оценки количестваинформации предложена логарифмическая мера:
/>. (2)
При этом наибольшее количествоинформации содержат наименее вероятные сообщения, а количество информации всообщении о достоверном событии равно нулю. Т. к. все логарифмыпропорциональны, то выбор основания определяет единицу информации:logax= logbx/logba.
В зависимости от основаниялогарифма используют следующие единицы информации:
2 – [бит] (bynary digit– двоичная единица), используется при анализе ин-формационных процессов в ЭВМ идр. устройствах, функционирующих на основе двоичной системы счисления;
e – [нит] (natural digit – натуральная единица),используется в математических методах теории связи;
10 – [дит] (decimal digit– десятичная единица), используется при анализе процессов в приборах работающихс десятичной системой счисления.
Битом (двоичной единицей информации) –называется количество информации, которое снимает неопределенность в отношениинаступления одного из двух равновероятных, независимых событий.
Среднее количество информации для всейсовокупности сообщений можно получить путем усреднения по всем событиям:
/>. (3)
Количество информации, в сообщении,состоящем из n не равновероятных его элементов равно (эта мерапредложена в 1948 г. К. Шенноном):
/>. (4)
Для случая независимых равновероятныхсобытий количество информации определяется (эта мера предложена в 1928 г. Р. Хартли):
/>. (5)
2. Свойства количестваинформации
1. Количество информации всообщении обратно – пропорционально вероятности появления данного сообщения.
2. Свойство аддитивности – суммарноеколичество информации двух источников равно сумме информации источников.
3. Для события с одним исходомколичество информации равно нулю.
4. Количество информации вдискретном сообщении растет в зависимости от увеличения объема алфавита – m.
Пример 1. Определить количество информации всообщении из 8 двоичных символов (n = 8, m = 2), если вероятности равны: pi0 = pi1<sub/>= 1/2.
Количество информации равно:
I = n log m = 8log2 2 = 8 бит.
Пример 2. Определить количество информации всообщении из 8 двоичных символов (n = 8, m= 2), если вероятности равны:
pi0 = 3/4; pi1<sub/>=1/4.
Количество информации равно:
/>
3. Энтропия информации
Энтропия– содержательность, мера неопределенности информации.
Энтропия – математическое ожидание H(x)случайной величины I(x) определенной на ансамбле {Х, р(х)}, т.е.она характеризует среднее значение количества информации, приходящееся на одинсимвол.
/>. (6)
Определим максимальноезначение энтропии Hmax(x).<sub/>Воспользуемся методомнеопределенного множителя Лагранжа -l для отыскания условного экстремума функции [6]. Находимвспомогательную функцию:
/> (7)
Представим вспомогательнуюфункцию F в виде:
/>. (8)
Найдем максимум этой функции
/> т. к.
/>.
Как видно из выражения, величинавероятности pi не зависит от i, а это может быть вслучае, если все pi<sub/>равны, т.е. p1=p2 =…=pm =1/m.
При этом выражение дляэнтропии равновероятных, независимых элементов равно:
/>. (9)
Найдем энтропию системы двухальтернативных событий с вероятностями p1 иp2.Энтропия равна
/>
4. Свойства энтропиисообщений
1. Энтропия есть величинавещественная, ограниченная, не отрицательная, непрерывная на интервале 0 £p £1.
2. Энтропия максимальна для равновероятныхсобытий.
3. Энтропия длядетерминированных событий равна нулю.
4. Энтропия системы двухальтернативных событий изменяется от 0 до 1.
Энтропия численно совпадает сосредним количеством информации но принципиально различны, так как:
H(x) – выражает среднюю неопределенностьсостояния источника и является его объективной характеристикой, она может бытьвычислена априорно, т.е. до получения сообщения при наличии статистики сообщений.
I(x) – определяется апостериорно, т.е. послеполучения сообщения. С получением информации о состоянии системы энтропияснижается.
5. Избыточность сообщений
Одной из информационныххарактеристик источника дискретных сообщений является избыточность, котораяопределяет, какая доля максимально-возможной энтропии не используетсяисточником
/>, (10)
где ? – коэффициентсжатия.
Избыточность приводит кувеличению времени передачи сообщений, уменьшению скорости передачи информации,излишней загрузки канала, вместе с тем, избыточность необходима для обеспечениядостоверности передаваемых данных, т.е. надежности СПД, повышения помехоустойчивости.При этом, применяя специальные коды, использующие избыточность в передаваемыхсообщениях, можно обнаружить и исправить ошибки.
Пример 1. Вычислить энтропию источника, выдающегодва символа 0 и 1 с вероятностями p(0) = p(1) = 1/m и определить егоизбыточность.
Решение: Энтропия для случая независимых,равновероятных элементов равна: H(x) = log2m = log22 =1 [дв. ед/симв.]
При этом H(x) = Hmax(x)и избыточность равна R = 0.
Пример 2. Вычислить энтропию источника независимыхсообщений, выдающего два символа 0 и 1 с вероятностями p(0) = 3/4, p(1) =1/4.
Решение: Энтропия для случая независимых, неравновероятных элементов равна:
/>
При этом избыточность равнаR = 1–0,815=0,18
Пример 3. Определить количество информации иэнтропию сообщения из пяти букв, если число букв в алфавите равно 32 и всесообщения равновероятные.
Решение: Общее число пятибуквенных сообщенийравно: N = mn<sup/>= 32
Энтропия для равновероятныхсообщений равна:
H= I= – log21/N= log2325 = 5 log232 = 25 бит./симв.
Литература
1 Гринченко А.Г. Теорияинформации и кодирование: Учебн. пособие. – Харьков: ХПУ, 2000.
2 Цымбал В.П. Теорияинформации и кодирование. – М.: Высш. шк., 1986.
3 Кловский Д.Д. Теория передачисигналов. – М.: Связь, 1984.
4 Кудряшов Б.Д. Теорияинформации. Учебник для вузов Изд-во ПИТЕР, 2008. – 320 с.
5 Цымбал В.П. Теорияинформации и кодирование. – М.: Высш. шк., 1986.
6 Асанов М.О., Баранский В.А.,Расин В.В. Дискретная математика: графы матроиды, алгоритмы. – Ижевск:НИЦ «РХД», 2001, 288 стр.