Реферат: Пропускная способность канала

КазанскийГосударственный технический университет им. А.Н. Туполева

Кафедра Радиоуправления

Пояснительная запискак курсовой

работе по курсу

ТЕОРИЯЭЛЕКТРИЧЕСКОЙ СВЯЗИ

на тему

                                        

Пропускнаяспособность канала.

Выполнил студент гр.5313

Алмазов А.И.

Руководитель: _____________

Оценка _____________

Комиссия      ________ (_______ )

             ________ (_________ )

             ________ (_________ )






Казань 2002


Оглавление.

1.   Задание…………………………………………………………………..3стр.

2.   Введение…………………………………………...……………………4стр.

3.   Теоретическаячасть…………...……………………………………….5стр.

4.   Практическаячасть………………………………..…………………..11стр.

5.   Заключение………………………………………………..…………...14стр.

6.   Литература…………………………………………….………………15стр.


                                                 Задание.
       В канале  действует аддетивный белый гаусовский шум. Отношениесигнал/шум (Pc/Pш) меняется с 25 до 15 дБ, с шагом 1дБ. F=1,5кГц; Vк=8*103 сим/с.

Рассчитать:

1)   Изменениепропускной способности канала.

2)   Изменениеизбыточности κ двоичного кода, необходимой для сведения ошибкидекодирования к сколь угодно малой величине.

Построить графикизависимостей с=f(Pc/Pш) и κ= f(Pc/Pш).


Введение.

Поставленная задача интересна тем, что мы сможем проследить изменение пропускнойспособности канала с изменением отношения сигнал/шум. Можно определитьпропускную способность  С канала в расчете на один символ

Ссимвол=maxI(A,B), бит/символ
или в расчете на единицу времени (например, на секунду):

С=maxI’(A,B)=u Ссимвол, биит/с.

В данном случаемы будем рассчитывать относительно времени. Для этого мы воспользуемся формулойопределяющей пропускную способность канала в расчете на единицу времени.

С=Fklog2(1+Pc/Pш),

А для того чтобыопределить избыточность передаваемой информации воспользуемся  теоремойШеннона. При условии если теорема Шеннона будет выполняться, то  избыточностьκ будет равняться 0, значит информация передаётся без потерь. Если нет, тоκ будет больше нуля (κ>0). Т.е. чем меньше величина κ, темменьше будет вероятность ошибки декодирования.


Теоретическаячасть.

Пропускнаяспособность канала связи.

В любой системесвязи через канал передаётся информация. Её скорость определяется по формуле:

I’(А, В)=H’(А)-H’(А|В)=H’(А)-H’(В|А).                                                       (1)

Величина H(A|B) — это потери информации при передаче ее по каналу. Еетакже называют ненадежностью канала. H(B|A) — энтропияшума;показывает, сколько бит шумовой информации примешивается к сигналу. Передачусигнала по каналу иллюстрирует рис. 1.

/>

Рис. 1. Передача информации по каналус помехами

Здесь I’(A,B)=v*I(A,B) — скорость передачиинформации по каналу.

Как видно из формулы (1), эта скорость зависит не только от самогоканала, но и от свойств подаваемого на его вход сигнала и поэтому не можетхарактеризовать канал как средство передачи информации.

Рассмотрим дискретный канал, через который передаются в единицу времени u символов из алфавита объёмом m. При передачи каждого символа в среднем по каналу проходитколичество информации

I(A,B)=H(A)-H(A|B)=H(B)-H(B|A),                                                                (2)

где А и В- случайные символы на входе и выходе канала. Из четырёхфигурирующих здесь энтропий Н(А)- собственная информация передаваемого символаопределяется источником дискретного сигнала  и не зависит от свойств канала.Остальные три энтропии в общем случае зависят как от источника сигнала, так иот канала.

 Величина I(A,B) характеризует не только свойства канала, но и свойстваисточника информации. Пусть на вход канала можно подавать сигналы от различныхисточников информации с различными распределениями P(A). Для каждого источника I(A,B) примет свое значение.Максимальноеколичествоинформации, взятое по всевозможнымР(А), характеризует только канал и называется пропускнойспособностью(ПС) канала в расчете на один символ:

/>бит/символ,

где максимизация производится по всем многомерным распределениямвероятностей Р(А).

Также определяют пропускную способность С канала в расчете на единицувремени:

/>бит/с,                                                                       (3)

где v — количество символов, переданное в секунду.

В качестве примера вычислим пропускную способность дискретногосимметричного канала без памяти (рис. 2) с вероятностью ошибочного перехода -p.

/>

Рис. 2. Модель двоичногосимметричного канала без памяти

Согласно свойству взаимной информации 2 можно записать: Ссим=max(H(B)-H(B|A)).Распишем H(B|A). Исходя из условий задачи вероятность правильнойпередачи символа по каналу — 1-p, а вероятностьошибочной передачи одного символа p/(1-m), где m — числоразличных символов, передающихся по каналу. Общее количество верных передач — m; общее количество ошибочных переходов — m*(m-1). Отсюда следует,что:

/>.

Следовательно, Н(В/А) не зависит от распределения  вероятности в ансамблеА,  а определяется только переходными вероятностями канала. Это свойствосохраняется для всех моделей канала с аддитивным шумом.

Максимальное значение Н(В)=log m. Отсюда следует:

/>.                                                  (4)

Пропускная способность в двоичных единицах в расчете на единицу времени:

/>.                                                  (5)

Для двоичногосимметричного канала (m=2) пропускная способность вдвоичных единицах в единицу времени

С=u[1+p*log(p)+(1-p)*log(1-p)]                                                                      (6)

Зависимость  С/u от р согласно (6) показана на рис.3

/>

рис.3 Зависимость  пропускнойспособности двоичного симметричного канала без памяти от вероятности ошибочногоприёма символа.

При р=1/2пропускная способность канала С=0, поскольку при такой вероятности ошибкипоследовательность выходных символов можно получить совсем не передавая сигналапо каналу, а выбирая их наугад, т.е. при р=1/2 последовательности на выходе ивходе канала независимы. Случай С=0 называют обрывом канала.

Пропускная способность непрерывного канала связи.

 

Вычисляется аналогично пропускной способности дискретного канала. Непрерывныйсигнал дискретизируется во времени с помощью отсчетов согласно теоремеКотельникова и информация, проходящая по каналу за время Т, равна суммеколичества информации, переданной за один отсчет. Поэтому общая ПС канала равнасумме ПС на один такой отсчет:

/>,                                                         (7)

где U — переданный сигнал; Z — сигнал на выходе канала с наложенными на него шумами; N — шум; Z=U+N.

Пусть U и N — случайные величины с плотностью распределения вероятностиw, распределенной по нормальному (гауссовскому)закону. Для таких сигнала и шума (см. вывод в [1, с. 114, 117-118]:

/>.

Отсюда следует:

/>.

ПС в расчете на секунду будет равна:

/>,                                                                           (8)

поскольку придискретизации сигнала по теореме Котельникова за одну секунду мы получим 2F отсчетов, где F — верхняя частота спектра сигнала.

Подчеркнем, что формула (8) имеет такой вид только при условии, чтоплотности распределения вероятностей w(U) и w(N) подчиняются нормальному закону.

Формула (8) имеет важное значение, т.к. указывает на зависимость ПСканала от его технических характеристик — ширины полосы пропускания и отношениямощности сигнала к мощности шума.

Чтобы выяснить как зависит пропускная способность от ширины полосыпропускания выразим мощность шума в канале через его одностороннюю спектральнуюмощность N. Имеем Рш=N0F;поэтому

С=F*log(1+ Pc/N0*F )=F*loge*ln(1+Pc/N0*F)                                                 (9)

При увеличении F пропускная способность С, бит/с,сначала быстро возрастает, а затем асимптотически стремится к пределу:

C∞=Lim(Pc/N0)*loge                                                                                       (10)

 Результат (10) получается очень просто, если учесть, что при |e|<<1 ln(1+e)»e. Зависимость С и Fпоказана на рис.4.

/>F N0/Pc

рис.4 Зависимость нормированнойпропускной способности                  гауссовского канала от его полосыпропускания. 

Теорема кодирования для каналас помехами. 

 Это основная теорема кодирования К. Шеннона. Применительно к дискретномуисточнику информации она формулируется так:

Теорема. Если производительность источника сообщений H’(A) меньше пропускнойспособности канала С: H’(A)<С, то существует такой способ кодирования(преобразования сообщения в сигнал на входе канала) и декодирования(преобразования сигнала в сообщение на выходе), при котором вероятностьошибочного декодирования и ненадежность канала H(A|A*) могутбыть сколь угодно малы. Если же H’(A)>С, то таких способов кодирования идекодирования не существует.

Модель:

КАНАЛ

  />/>/>/> Н(А)                        Н’(В)







Н’(А)<с

Если же Н’(А)>с,то такого кода не существует.

Теорема указываетна возможность создания помехоустойчивых кодов.

Н’(А)< Н’(В)

Н’(В)=VkH

Декодер выдаёт накод каналов Vk<sub/> символов в секунду. Если в канале потерь нет, то Vk=с.

При Н<1 будет тратится больше одного бита насимвол, значит появляется избыточность, т.е. не все символы несут полезнуюинформацию.

Делаем вывод, что смысл теоремы Шенноназаключается в том, что при H’(A)>С невозможна безошибочная передача сообщенийпо данному каналу, если же H’(A)<С, то ошибки могут быть сведены к скольугодно малой величине. Таким образом, величина С — это предельноезначение скорости безошибочной передачи информации по каналу

Практическая часть.

Пропускная способность гауссовского канала определяется [1, стр.118]:

/>.

Отношение сигнал/шум падает по условию задания с 25 до 15 дБ. Поэтому Стакже будет уменьшаться. Необходимо уменьшать С/Ш с 25 до 15 дБ с шагом 1 дБ ивычислить по формуле 11 значений С. При этом надо учесть, что в формулеотношение С/Ш — Pc/Pш — дано в разах, поэтому данные в дБ необходимопересчитать в разы: />; отсюда/>.

С помощью программы MathCAD получили результатыподсчётов:

С1=1,246*104  бит/с

С2=1,197*104 бит/с

С3=1,147*104 бит/с

С4=1,098*104 бит/с

С5=1,048*104 бит/с

С6=9,987*103 бит/с

С7=9,495*103 бит/с

С8=9,003*103 бит/с

С9=8,514*103 бит/с

С10=8,026*103 бит/с

С11=7,542*103 бит/с

Производительность кодера H’(B)=vк*H(B) должна быть меньшепропускной способности канала С, иначе неизбежны потери информации в канале.Максимальное значение энтропии двоичного кодера Hmax=H(B)=log2=1 бит. Если Суменьшается, то для избежания потерь информации можно уменьшать H(B) так, чтобы H’(B) оставалась все времяменьше С. Если же H(B)<1,это означает, что кодовые символы не равновероятны и зависимы друг от друга,т.е. используется избыточный (помехоустойчивый) код. Избыточность этого кодавычисляется по формуле:

               />.                                                              (11)

Итак, пропускная способность канала С определяет предельное значениепроизводительности кодера H’(B): H’(B)<C. Отсюда находимпредельное значение энтропии кодера:

/>

По условию Vk=8*103 сим/с

В численном виде это выглядит так:

         С/Vk1=1,558 бит/сим

С/Vk 2=1,496 бит/сим

С/Vk 3=1,434 бит/сим

С/Vk 4=1,372 бит/сим

С/Vk 5=1,31 бит/сим

С/Vk 6=1,248 бит/сим

С/Vk 7=1,187 бит/сим

С/Vk 8=1,125 бит/сим

С/Vk 9=1,064 бит/сим

С/Vk 10=1,003 бит/сим

В этих случаях энтропию Н(В) можно брать любой, вплоть до максимальной (Hmax=1бит/сим).

С/Vk 11=0,943 бит/сим

Т.к. в 11-омслучае условие H’(B)<C не выполняется, то теорема Шеннона так же не выполняется. Длятого чтобы избежать потерь информации, вводим избыточные символы.

Следующим шагомбудет вычисление избыточности κ кода, по формуле (11):

 κ=0,057

Чтобы былоболее наглядно, построим графики зависимостей с=f(Pc/Pш) и κ= f(Pc/Pш).

Графикзависимости с=f(Pc/Pш) :

/>/>/> 

График зависимости κ= f(Pc/Pш).

/>/>/>


Заключение.

В результатепроведённой работы, мы можем сделать вывод, что с уменьшением отношениясигнал/шум пропускная способность канала также уменьшается, что приводит к потериинформации. Для того чтобы избежать возникновение ошибок, мы вводили избыточныесимволы. Избыточность этого кода κ=0,057.

Сделаем вывод, что в результате проведенного расчета поставленная задачабыла полностью решена.


Литература.

1.           Зюко А.Г., Кловский Д.Д. и др. Теория передачи сигналов. -М.: Радио иСвязь, 1986.

2.           Кловский Д.Д., Шилкин В.А. Теория электрической связи. -М.: Радио исвязь, 1990.

3.           Методическое пособие по курсовой работе ТЭС.

еще рефераты
Еще работы по радиоэлектронике