Реферат: Пропускная способность канала

КазанскийГосударственный технический университет им. А.Н. Туполева

Кафедра Радиоуправления

Пояснительнаязаписка к курсовой

работепо курсу

ТЕОРИЯ ЭЛЕКТРИЧЕСКОЙ СВЯЗИ

натему

                                        

Пропускная способность канала.

Выполнилстудент гр.5313

Алмазов А.И.

Руководитель:_____________

Оценка_____________

Комиссия      ________ ( _______ )

             ________ ( _________ )

             ________ ( _________ )






Казань 2002

<span Times New Roman",«serif»;mso-fareast-font-family:«Times New Roman»; mso-ansi-language:RU;mso-fareast-language:RU;mso-bidi-language:AR-SA">

Оглавление.

1.<span Times New Roman"">    

2.<span Times New Roman"">    

3.<span Times New Roman"">    

4.<span Times New Roman"">    

5.<span Times New Roman"">    

6.<span Times New Roman"">    

<span Times New Roman",«serif»;mso-fareast-font-family:«Times New Roman»; mso-ansi-language:RU;mso-fareast-language:RU;mso-bidi-language:AR-SA">

                                                  Задание.
       В канале  действует аддетивный белый гаусовский шум.Отношение сигнал/шум (Pc/Pш) меняется с25 до 15 дБ, с шагом 1дБ. F=1,5кГц; Vк=8*103 сим/с.

Рассчитать:

1)<span Times New Roman"">   

2)<span Times New Roman"">   

Построитьграфики зависимостей с=f(Pc/Pш) и κ= f(Pc/Pш).

<span Times New Roman",«serif»;mso-fareast-font-family:«Times New Roman»; mso-ansi-language:RU;mso-fareast-language:RU;mso-bidi-language:AR-SA">

Введение.

Поставленная задача интересна тем, что мы сможем проследить изменение пропускнойспособности канала с изменением отношения сигнал/шум. Можно определитьпропускную способность  С канала врасчете на один символ

Ссимвол=maxI(A,B), бит/символ
или в расчете на единицу времени (например, на секунду):

С=maxI’(A,B)=<span Times New Roman";mso-hansi-font-family:«Times New Roman»;mso-ansi-language: EN-US;mso-char-type:symbol;mso-symbol-font-family:Symbol">u

Ссимвол , биит/с.

Вданном случае мы будем рассчитывать относительно времени. Для этого мы воспользуемсяформулой определяющей пропускную способность канала в расчете на единицувремени.

С=Fklog2(1+Pc/Pш),

Адля того чтобы определить избыточность передаваемой информациивоспользуемся  теоремой Шеннона. Приусловии если теорема Шеннона будет выполняться, то  избыточность κ будет равняться 0, значитинформация передаётся без потерь. Если нет, то κ будет больше нуля (κ>0).Т.е. чем меньше величина κ, тем меньше будет вероятность ошибки декодирования.

<span Times New Roman",«serif»;mso-fareast-font-family:«Times New Roman»; mso-ansi-language:RU;mso-fareast-language:RU;mso-bidi-language:AR-SA">

Теоретическаячасть.

Пропускнаяспособность канала связи.

Влюбой системе связи через канал передаётся информация. Её скорость определяетсяпо формуле:

I’(А, В)=H’(А)-H’(А|В)=H’(А)-H’(В|А).                                                       (1)

Величина H(A|B) — это потери информации при передаче ее по каналу. Еетакже называют ненадежностью канала. H(B|A) — энтропияшума; показывает, сколько бит шумовой информации примешивается ксигналу. Передачу сигнала по каналу иллюстрирует рис. 1.

<img src="/cache/referats/13096/image002.gif" v:shapes="_x0000_i1025">

Рис. 1.Передача информации по каналу с помехами

Здесь I’(A,B)=v*I(A,B) — скорость передачи информации поканалу.

Как видно из формулы (1), эта скорость зависит не только от самогоканала, но и от свойств подаваемого на его вход сигнала и поэтому не можетхарактеризовать канал как средство передачи информации.

Рассмотрим дискретный канал, через который передаются в единицу времени <span Times New Roman";mso-hansi-font-family: «Times New Roman»;mso-char-type:symbol;mso-symbol-font-family:Symbol">u

символов из алфавита объёмом m.При передачи каждого символа в среднем по каналу проходит количество информации

I(A,B)=H(A)-H(A|B)=H(B)-H(B|A),                                                                (2)

где А и В- случайные символы на входе и выходе канала. Из четырёхфигурирующих здесь энтропий Н(А)- собственная информация передаваемого символаопределяется источником дискретного сигнала и не зависит от свойств канала. Остальные три энтропии в общем случаезависят как от источника сигнала, так и от канала.

 Величина I(A,B) характеризует не только свойстваканала, но и свойства источника информации. Пусть на вход канала можно подаватьсигналы от различных источников информации с различными распределениями P(A). Для каждого источника I(A,B) приметсвое значение. Максимальное количество информации, взятое по всевозможным Р(А), характеризует толькоканал и называется пропускной способностью (ПС) канала в расчетена один символ:

<img src="/cache/referats/13096/image004.gif" v:shapes="_x0000_i1026">

где максимизация производится по всем многомерным распределениямвероятностей Р(А).

Также определяют пропускную способность С канала в расчете на единицувремени:

<img src="/cache/referats/13096/image006.gif" v:shapes="_x0000_i1027">                                                                       (3)

где v — количество символов,переданное в секунду.

В качестве примера вычислим пропускную способность дискретногосимметричного канала без памяти (рис. 2) с вероятностью ошибочного перехода — p.

<img src="/cache/referats/13096/image008.gif" v:shapes="_x0000_i1028">

Рис. 2. Модельдвоичного симметричного канала без памяти

Согласно свойству взаимной информации 2 можно записать: Ссим=max(H(B)-H(B|A)).Распишем H(B|A). Исходя из условий задачи вероятность правильной передачисимвола по каналу — 1-p,а вероятность ошибочной передачи одного символа p/(1-m), где m — число различныхсимволов, передающихся по каналу. Общее количество верных передач — m; общее количество ошибочных переходов — m*(m-1). Отсюда следует, что:

<img src="/cache/referats/13096/image010.gif" v:shapes="_x0000_i1029">.

Следовательно, Н(В/А) не зависит от распределения  вероятности в ансамбле А,  а определяется только переходнымивероятностями канала. Это свойство сохраняется для всех моделей канала саддитивным шумом.

Максимальное значение Н(В)=log m. Отсюда следует:

<img src="/cache/referats/13096/image012.gif" v:shapes="_x0000_i1030">                                                  (4)

Пропускная способность в двоичных единицах в расчете на единицу времени:

<img src="/cache/referats/13096/image014.gif" v:shapes="_x0000_i1031">                                                 (5)

Длядвоичного симметричного канала (m=2)пропускная способность в двоичных единицах в единицу времени

С=<span Times New Roman";mso-hansi-font-family:«Times New Roman»; mso-char-type:symbol;mso-symbol-font-family:Symbol">u

[1+p*log(p)+(1-p)*log(1-p)]                                                                      (6)

Зависимость  С/<span Times New Roman";mso-hansi-font-family:«Times New Roman»;mso-char-type:symbol; mso-symbol-font-family:Symbol">u

от р согласно (6) показана на рис.3

<img src="/cache/referats/13096/image016.gif" v:shapes="_x0000_i1032">

рис.3 Зависимость  пропускной способности двоичного симметричногоканала без памяти от вероятности ошибочного приёма символа.

Прир=1/2 пропускная способность канала С=0, поскольку при такой вероятности ошибкипоследовательность выходных символов можно получить совсем не передавая сигналапо каналу, а выбирая их наугад, т.е. при р=1/2 последовательности на выходе ивходе канала независимы. Случай С=0 называют обрывом канала.

Пропускная способность непрерывного канала связи.

 

Вычисляется аналогично пропускной способности дискретного канала. Непрерывныйсигнал дискретизируется во времени с помощью отсчетов согласно теоремеКотельникова и информация, проходящая по каналу за время Т, равна сумме количества информации, переданной за один отсчет.Поэтому общая ПС канала равна сумме ПС на один такой отсчет:

<img src="/cache/referats/13096/image018.gif" v:shapes="_x0000_i1033">                                                         (7)

где U — переданный сигнал; Z — сигнал на выходеканала с наложенными на него шумами; N — шум; Z=U+N.

Пусть Uи N — случайные величины с плотностью распределения вероятностиw, распределенной по нормальному (гауссовскому) закону. Длятаких сигнала и шума (см. вывод в [1, с. 114, 117-118]:

<img src="/cache/referats/13096/image020.gif" v:shapes="_x0000_i1034">

Отсюда следует:

<img src="/cache/referats/13096/image022.gif" v:shapes="_x0000_i1035">

ПС в расчете на секунду будет равна:

<img src="/cache/referats/13096/image024.gif" v:shapes="_x0000_i1036">                                                                           (8)

поскольку придискретизации сигнала по теореме Котельникова за одну секунду мы получим 2F отсчетов, где F — верхняя частотаспектра сигнала.

Подчеркнем, что формула (8) имеет такой вид только при условии, чтоплотности распределения вероятностей w(U) и w(N) подчиняются нормальному закону.

Формула (8) имеет важное значение, т.к. указывает на зависимость ПСканала от его технических характеристик — ширины полосы пропускания и отношениямощности сигнала к мощности шума.

Чтобы выяснить как зависит пропускная способность от ширины полосыпропускания выразим мощность шума в канале через его одностороннюю спектральнуюмощность N0.Имеем Рш=N0F;поэтому

С=F*log(1+ Pc/N0*F )=F*loge*ln(1+Pc/N0*F)                                                 (9)

При увеличении Fпропускная способность С, бит/с, сначала быстро возрастает, а затемасимптотически стремится к пределу:

C∞=Lim(Pc/N0)*loge                                                                                       (10)

 Результат (10) получается оченьпросто, если учесть, что при |<span Times New Roman";mso-hansi-font-family:«Times New Roman»;mso-char-type:symbol; mso-symbol-font-family:Symbol">e

|<<1 ln(1+<span Times New Roman"; mso-hansi-font-family:«Times New Roman»;mso-char-type:symbol;mso-symbol-font-family: Symbol">e)<span Times New Roman";mso-hansi-font-family: «Times New Roman»;mso-char-type:symbol;mso-symbol-font-family:Symbol">»<span Times New Roman";mso-hansi-font-family: «Times New Roman»;mso-char-type:symbol;mso-symbol-font-family:Symbol">e.Зависимость С и Fпоказана на рис.4.

<img src="/cache/referats/13096/image026.gif" v:shapes="_x0000_i1037">F N0/Pc

рис.4 Зависимость нормированнойпропускной способности                 гауссовского канала от его полосы пропускания. 

Теорема кодирования для каналас помехами. 

 Это основная теорема кодированияК. Шеннона. Применительно к дискретному источнику информации она формулируетсятак:

Теорема. Еслипроизводительность источника сообщений H’(A) меньшепропускной способности канала С: H’(A)<С, то существует такой способ кодирования (преобразования сообщенияв сигнал на входе канала) и декодирования (преобразования сигнала в сообщениена выходе), при котором вероятность ошибочного декодирования и ненадежностьканала H(A|A*)могут быть сколь угодно малы. Если же H’(A)>С, то таких способов кодирования идекодирования не существует.

Модель:

<div v:shape="_x0000_s1037">

КАНАЛ

<img src="/cache/referats/13096/image027.gif" v:shapes="_x0000_s1034">

КОДЕР

<img src="/cache/referats/13096/image028.gif" align=«left» hspace=«12» v:shapes="_x0000_s1033"><img src="/cache/referats/13096/image029.gif" v:shapes="_x0000_s1032">

ИС

<img src="/cache/referats/13096/image030.gif" align=«left» hspace=«12» v:shapes="_x0000_s1026"> Н(А)                        Н’(В)







Н’(А)<с

Если же Н’(А)>с,то такого кода не существует.

Теорема указываетна возможность создания помехоустойчивых кодов.

Н’(А)< Н’(В)

Н’(В)=VkH

Декодер выдаёт накод каналов Vk символов в секунду.Если в канале потерь нет, то Vk=с.

При Н<1 будет тратитсябольше одного бита на символ, значит появляется избыточность, т.е. не всесимволы несут полезную информацию.

Делаем вывод, что смыслтеоремы Шеннона заключается в том, что при H’(A)>С невозможна безошибочная передачасообщений по данному каналу, если же H’(A)<С, то ошибки могут быть сведены к скольугодно малой величине. Таким образом, величина С — это предельное значение скорости безошибочной передачи информациипо каналу

Практическая часть.

Пропускная способность гауссовского канала определяется [1,стр.118]:

<img src="/cache/referats/13096/image032.gif" v:shapes="_x0000_i1038">.

Отношение сигнал/шум падает по условию задания с 25 до 15дБ. Поэтому С также будет уменьшаться. Необходимо уменьшать С/Ш с 25 до 15 дБ сшагом 1 дБ и вычислить по формуле 11 значений С. При этом надо учесть, что вформуле отношение С/Ш — Pc/Pш — дано в разах, поэтому данные в дБ необходимо пересчитать в разы: <img src="/cache/referats/13096/image034.gif" v:shapes="_x0000_i1039">; отсюда <img src="/cache/referats/13096/image036.gif" v:shapes="_x0000_i1040">.

С помощью программы MathCAD получили результаты подсчётов:

С1=1,246*104  бит/с

С2=1,197*104бит/с

С3=1,147*104бит/с

С4=1,098*104бит/с

С5=1,048*104бит/с

С6=9,987*103бит/с

С7=9,495*103бит/с

С8=9,003*103бит/с

С9=8,514*103бит/с

С10=8,026*103бит/с

С11=7,542*103бит/с

Производительность кодера H’(B)=vк*H(B) должна быть меньше пропускной способности канала С, иначенеизбежны потери информации в канале. Максимальное значение энтропии двоичногокодера Hmax=H(B)=log2=1 бит. Если С уменьшается, то дляизбежания потерь информации можно уменьшать H(B) так,чтобы H’(B) оставалась все время меньше С.Если же H(B)<1,это означает, что кодовые символы не равновероятны и зависимы друг от друга,т.е. используется избыточный (помехоустойчивый) код. Избыточность этого кодавычисляется по формуле:

                <img src="/cache/referats/13096/image038.gif" v:shapes="_x0000_i1041">                                                              (11)

Итак, пропускная способность канала С определяетпредельное значение производительности кодера H’(B): H’(B)<C. Отсюда находим предельноезначение энтропии кодера:

<img src="/cache/referats/13096/image040.gif" v:shapes="_x0000_i1042">

По условию Vk=8*103 сим/с

В численном виде это выглядит так:

         С/Vk1=1,558 бит/сим

С/Vk2=1,496 бит/сим

С/Vk3=1,434 бит/сим

С/Vk4=1,372 бит/сим

С/Vk5=1,31 бит/сим

С/Vk6=1,248 бит/сим

С/Vk7=1,187 бит/сим

С/Vk8=1,125 бит/сим

С/Vk9=1,064 бит/сим

С/Vk10=1,003 бит/сим

В этих случаях энтропию Н(В) можно брать любой, вплоть до максимальной (Hmax=1бит/сим).

С/Vk11=0,943 бит/сим

Т.к. в 11-омслучае условие H’(B)<C не выполняется, то теоремаШеннона так же не выполняется. Для того чтобы избежать потерь информации,вводим избыточные символы.

Следующим шагомбудет вычисление избыточности κ кода, по формуле (11):

 κ=0,057

Чтобы былоболее наглядно, построим графики зависимостей с=f(Pc/Pш) и κ= f(Pc/Pш).

Графикзависимости с=f(Pc/Pш) :

<img src="/cache/referats/13096/image041.gif" v:shapes="_x0000_s1046"><img src="/cache/referats/13096/image042.gif" v:shapes="_x0000_s1043"><img src="/cache/referats/13096/image044.gif" v:shapes="_x0000_i1043"> 

График зависимости κ=f(Pc/Pш).

<img src="/cache/referats/13096/image045.gif" v:shapes="_x0000_s1048"><img src="/cache/referats/13096/image046.gif" v:shapes="_x0000_s1047"><img src="/cache/referats/13096/image048.gif" v:shapes="_x0000_i1044">

<span Times New Roman",«serif»;mso-fareast-font-family:«Times New Roman»; mso-ansi-language:RU;mso-fareast-language:RU;mso-bidi-language:AR-SA">

Заключение.

Врезультате проведённой работы, мы можем сделать вывод, что с уменьшениемотношения сигнал/шум пропускная способность канала также уменьшается, чтоприводит к потери информации. Для того чтобы избежать возникновение ошибок, мывводили избыточные символы. Избыточность этого кода κ=0,057.

Сделаем вывод, что в результате проведенного расчетапоставленная задача была полностью решена.

<span Times New Roman",«serif»;mso-fareast-font-family:«Times New Roman»; mso-ansi-language:RU;mso-fareast-language:RU;mso-bidi-language:AR-SA">

Литература.

1.<span Times New Roman"">                     

2.<span Times New Roman"">                     

3.<span Times New Roman"">                     

еще рефераты
Еще работы по радиоэлектронике