Реферат: Каналы связи


КАНАЛЫ СВЯЗИ

 


1. Классификация ихарактеристики канала связи

 

Каналсвязи –это совокупность средств, предназначенных для передачи сигналов (сообщений).

Для анализаинформационных процессов в канале связи можно использовать его обобщеннуюсхему, приведенную на рис. 1.

/>


На рис. 1приняты следующие обозначения: X, Y, Z, W – сигналы, сообщения; f –помеха;ЛС – линия связи; ИИ, ПИ – источник и приемник информации;П – преобразователи (кодирование, модуляция, декодирование, демодуляция).

Существуютразличные типы каналов, которые можно классифицировать по различным признакам:

1. По типу линий связи: проводные; кабельные;оптико-волоконные;

линииэлектропередачи; радиоканалы и т.д.

2. Похарактеру сигналов: непрерывные; дискретные; дискретно-непрерывные(сигналы на входе системы дискретные, а на выходе непрерывные, и наоборот).

3. Попомехозащищенности: каналы без помех; с помехами.

Каналысвязи характеризуются:

1. Емкостьканала определяется как произведениевремени использованияканала Tк, ширины спектра частот, пропускаемых каналоми динамического диапазона., которыйхарактеризует способность канала передавать различные уровни сигналов


Vк= Tк Fк Dк. (1)

Условиесогласования сигнала с каналом:

Vc£Vk; Tc£Tk; Fc£Fk; Vc£Vk; Dc£Dk.

 

2.Скоростьпередачи информации – среднее количество информации, передаваемое вединицу времени.

3. Пропускная способностьканала связи – наибольшая теоретически достижимая скорость передачи информациипри условии, что погрешность не превосходит заданной величины.

4. Избыточность– обеспечивает достоверность передаваемой информации (R = 0¸1).

Одной иззадач теории информации является определение зависимости скорости передачиинформации и пропускной способности канала связи от параметров канала ихарактеристик сигналов и помех.

Канал связи образно можно сравнивать сдорогами. Узкие дороги – малая пропускная способность, но дешево. Широкиедороги – хорошая пропускная способность, но дорого. Пропускная способностьопределяется самым «узким» местом.

Скоростьпередачи данных в значительной мере зависит от передающей среды в каналахсвязи, в качестве которых используются различные типы линий связи.

Проводные:

1. Проводные– витая пара (что частично подавляет электромагнитное излучение другихисточников). Скорость передачи до 1 Мбит/с. Используется в телефонных сетях идля передачи данных.

2. Коаксиальныйкабель. Скорость передачи 10–100 Мбит/с – используется в локальных сетях,кабельном телевидении и т.д.

3.Оптико-волоконная. Скорость передачи 1 Гбит/с.

В средах 1–3 затухание в дБ линейнозависит от расстояния, т.е. мощность падает по экспоненте. Поэтому черезопределенное расстояние необходимо ставить регенераторы (усилители).

Радиолинии:

1. Радиоканал. Скорость передачи 100–400Кбит/с. Использует радиочастоты до 1000 МГц. До 30 МГц за счет отражения отионосферы возможно распространение электромагнитных волн за пределы прямойвидимости. Но этот диапазон сильно зашумлен (например, любительской радиосвязью).От 30 до 1000 МГц – ионосфера прозрачна и необходима прямая видимость. Антенныустанавливаются на высоте (иногда устанавливаются регенераторы). Используются врадио и телевидении.

2. Микроволновые линии. Скорости передачи до 1Гбит/с. Используют радиочастоты выше 1000 МГц. При этом необходима прямая видимостьи остронаправленные параболические антенны. Расстояние между регенераторами 10–200 км.Используются для телефонной связи, телевидения и передачи данных.

3. Спутниковаясвязь. Используются микроволновые частоты, а спутник служит регенератором(причем для многих станций). Характеристики те же, что у микроволновых линий.



2. Пропускнаяспособность дискретного канала связи

 

Дискретныйканал представляет собой совокупность средств, предназначенных для передачидискретных сигналов [5].

Пропускнаяспособность канала связи – наибольшая теоретически достижимая скоростьпередачи информации при условии, что погрешность не превосходит заданнойвеличины.Скорость передачи информации – среднее количествоинформации, передаваемое в единицу времени. Определим выражения для расчетаскорости передачи информации и пропускной способности дискретного канала связи.

При передачекаждого символа в среднем по каналу связи проходит количество информации,определяемое по формуле

I(Y, X) = I (X, Y) = H(X) – H (X/Y) = H(Y) – H (Y/X), (2)

где: I (Y,X) – взаимная информация, т.е.количество информации, содержащееся вY относительно X;H(X) – энтропия источника сообщений; H(X/Y) – условная энтропия, определяющая потерю информации на один символ,связанную с наличием помех и искажений.

При передачесообщения XTдлительности T, состоящего из nэлементарных символов, среднее количество передаваемой информации с учетомсимметрии взаимного количества информации равно:

I(YT, XT)= H(XT) – H(XT/YT) = H(YT) –H(YT/XT) = n [H(X) – H (X/Y), (3)

гдеT = n />;/> – среднее времяпередачи одного символа; n‑число символов в сообщении длительностьюТ.

Для символовравной длительности /> = t, в случаенеравновероятных символов неравной длительности


/>.

При этомскорость передачи информации

/> [бит/с]. (4)

 

Скоростьпередачи информации зависит от статистических свойств источника, методакодирования и свойств канала.

Пропускнаяспособность дискретного канала связи

/>. (5)

Максимально-возможноезначение, т.е. максимум функционала ищется на всем множестве функцийраспределения вероятности p(x).

Пропускнаяспособность зависит от технических характеристик канала (быстродействияаппаратуры, вида модуляции, уровня помех и искажений и т.д.). Единицами измеренияпропускной способности канала являются: [bit/s], [Kbit/s], [Mbit/s], [Gbit/s].

2.1 Дискретныйканал связи без помех

Если помехи вканале связи отсутствуют, то входные и выходные сигналы канала связаныоднозначной, функциональной зависимостью.

При этомусловная энтропия равна нулю, а безусловные энтропии источника и приемникаравны, т.е. среднее количество информации в принятом символе относительнопереданного равно


I(X, Y) = H(X) = H(Y); H (X/Y) = 0.

Если ХТ– количество символов за время T, то скорость передачи информации длядискретного канала связи без помех равна

/> (6)

где V= 1//> – средняя скоростьпередачи одного символа.

Пропускнаяспособность для дискретного канала связи без помех

/> (7)

Т.к. максимальная энтропия соответствуетдля равновероятных символов, то пропускная способность для равномерногораспределения и статистической независимости передаваемых символов равна:

/>. (8)

Перваятеорема Шеннона для канала:Если поток информации, вырабатываемыйисточником, достаточно близок к пропускной способности канала связи, т.е.

 

/>, где /> — сколь угодно малаявеличина,

 

товсегда можно найти такой способ кодирования, который обеспечит передачу всехсообщений источника, причем скорость передачи информации будет весьма близкой кпропускной способности канала.

Теорема неотвечает на вопрос, каким образом осуществлять кодирование.

Пример 1. Источник вырабатывает 3сообщения с вероятностями:

p1 = 0,1; p2 = 0,2 и p3 = 0,7.

Сообщениянезависимы и передаются равномерным двоичным кодом (m= 2) с длительностьюсимволов, равной 1 мс. Определить скорость передачи информации по каналу связибез помех.

Решение: Энтропия источника равна

/>

/>[бит/с].

 

Для передачи 3 сообщений равномерным кодомнеобходимо два разряда, при этом длительность кодовой комбинации равна 2t.

Средняяскорость передачи сигнала

 

V=1/2t= 500 [1/c].

Скоростьпередачи информации

 

C= vH= 500×1,16 = 580 [бит/с].

 

2.2 Дискретныйканал связи с помехами

Мы будемрассматривать дискретные каналы связи без памяти.

Каналомбез памяти называется канал, в котором на каждый передаваемый символсигнала, помехи воздействуют, не зависимо от того, какие сигналы передавалисьранее. То есть помехи не создают дополнительные коррелятивные связи междусимволами. Название «без памяти» означает, что при очередной передаче канал какбы не помнит результатов предыдущих передач.

При наличиипомехи среднее количество информации в принятом символе сообщении Y, относительнопереданного – X равно:

/>.

Для символасообщения XT<sub/>длительности<sub/>T, состоящегоиз n элементарных символовсреднее количество информации в принятом символе сообщении – YT относительно переданного– XT равно:

I(YT,XT) = H(XT) – H(XT/YT) = H(YT) –H(YT/XT) = n [H(Y) – H (Y/X). (9)

Дляопределения потерь в дискретном канале связи используется канальная матрица(матрица переходных вероятностей), позволяющая определить условную энтропиюхарактеризующую потерю информации на символ сообщения.

Скорость передачи информации по дискретномуканалу с помехами

равна:

/> (10)

Пропускнаяспособность дискретного канала при наличии помех равна максимально допустимойскорости передачи информации, причем максимум разыскивается по всемраспределениям вероятностей p(x) на X и, поскольку, энтропиямаксимальна для равномерного распределения (для равновероятных символовсообщения), то выражение для пропускной способности имеет вид:

/>. (11)

Как видно из формулы, наличие помех уменьшаетпропускную способность канала связи.

Пример. По каналу связи передаются сообщения, вероятности которыхсоответственно равны:

 

p(x1)=0,1; p(x2)=0,2; p(x3)=0,3; p(x4)=0,4.

 

Канальнаяматрица, определяющая потери информации в канале связи имеет вид:

/> <td/>

/>

 

/>.

 

Определить:

1. Энтропию источника информации – H(X).

2. Безусловную энтропию приемника информации– H(Y).

3. Общуюусловную энтропию – H(Y/X).

4. Скорость передачи информации, если времяпередачи одного символа первичного алфавита t= 0,1 мс.

5. Определить потери информации в каналесвязи при передаче 500 символов алфавита.

6. Среднееколичество принятой информации.

7. Пропускнуюспособность канала связи.

Решение:

1. Энтропияисточника сообщений равна

/>

2. Вероятности появления символов на входеприемника

/>

/>

Проверка:

/>

Энтропияприемника информации равна

/>

3. Общая условнаяэнтропия равна


/>

4.Скорость передачи информации равна:

/>

=(1,85–0,132)/0,0001=17,18Кбит/с./>

 

5. Потери информации в канале связи припередаче 500 символов алфавита равны:

/>500×0,132=66 бит.

 

6. Среднее количество принятой информацииравно:

/>

=500×(1,85–0,132)=859 бит.

 

7. Пропускнаяспособность канала связи

/>(2–0,132)/0,0001=18,68Кбит/с.

 


2.3 Пропускнаяспособность бинарного, симметричного канала

 

Бинарнымдискретным каналом называется канал, по которому передается только дваэлементарных дискретных символа (т.е. используется двоичный код).

Симметричнымдискретным каналом называется канал, в котором. вероятности не зависят отпередаваемых символов, т.е. вероятности правильной передачи одинаковы (p(x1)= p(x2)) и вероятности ошибочнойпередачи одинаковы (p(y1 /x2)= p(y2/x1)).

Рассмотримдвоичный дискретный канал, по которому передаются дискретные символы «0» и «1»(m=2). Если передаваемые символы независимы и равновероятны (p(x1)= p(x2)=1/2), то сигнал имеетмаксимальную энтропию (Hmax(X)=1), при этом p(1/0) = p(0/1).

Если Pош– вероятность ошибки то1‑Рош – вероятность правильного приема. Диаграмма передачидвоичных сигналов по симметричному калу приведена на рис. 2.

 

p(y1/ x1)<sub/>= 1‑Рош

x1не искаженy1

 

/> 


искаженp(y1/x2) =Pош

искаженp(y2/x1) =Pош

 

 

x2не искаженy2

p(y2 / x2)= 1‑Рош

 

Рис. 2.Диаграмма переходных вероятностей симметричного канала


Условнаяэнтропия для симметричного канала равна

/>

Пропускнаяспособность для двоичного, симметричного канала

/> (12)

Это уравнение Шеннона для симметричного двоичногоканала.

Наличиеошибки приводит к уменьшению пропускной способности.

Так при pош = 0,01 пропускная способностьравна C= 0,9/t= 0,9Cmax.

Основнаятеорема Шеннона о кодировании для дискретного канала с помехами:Длядискретного канала с помехами существует такой способ кодирования, которыйпозволяет осуществлять безошибочную передачу информации, если производительностьисточника ниже пропускной способности

Пример. Определить скорость передачи по двоичному,симметричному каналу связи />, еслишумы в канале вносят ошибки, таким образом, что в среднем 4 символа из 100принимаются неверно (т.е. «1» вместо «0» и наоборот).

 

Решение:

Составим таблицу вероятностей:

p(x) = 0,5; p(y/ x) = 0,96;

p(x1)= 0,5; p(y1/ x0) = 0,04;

p(y0)= 0,5; p(y0/ x1) = 0,04;

p(y1) = 0,5; p(y1/ x1) = 0,96.

 

Пропускнаяспособность для двоичного, симметричного канала

/>

 


3. Пропускнаяспособность непрерывного канала связи

 

Непрерывный канал передачи информации содержитсовокупность средств для передачи непрерывных сигналов, при этом вместо кодирующихи декодирующих устройств используются различного рода преобразователи(модуляция и т.д.). Входные и выходные сигналы в непрерывном канале связипредставляют ансамбли непрерывных функций с соответствующими плотностямираспределений вероятности.

Если на входнепрерывного канала связи поступает непрерывный сигнал X(t) длительностью T, то вследствиевоздействия помех f(t) выходной сигнал Y(t) будет отличаться отвходного. При этом количество информации в сигнале Y(t) о сигнале X(t) равно:

/>. (13)

Непрерывныйсигнал, можно рассматривать как дискретный при/>.Он может быть представлен в виде решетчатой функции, при этом на приемнойстороне по отдельным взятым отсчетам через интервал Dt может быть восстановленисходный непрерывный сигнал.

Шагквантования Dt= T/n, где n – число точек отсчета. Всоответствии с теоремой Котельникова Dt= 1/2fc, гдеfc<sub/>частота среза а n= 2Tfc – база сигнала.

При этом ввыражении (13) для взаимной информации вместо разности энтропии можно записатьразности соответствующих дифференциальных энтропий отдельных отсчетов

/>.


Пропускнаяспособность непрерывного канала связи

/> (14)

Для дискретного канала связи максимальное значениескорости передачи соответствует равновероятным символам алфавита. Для непрерывногоканала связи, когда заданной является средняя мощность сигнала, максимальнаяскорость обеспечивается при использовании нормальных центрированных случайныхсигнала.

Если сигналцентрированный (mx<sub/>= 0) т.е. без постояннойсоставляющей при этом мощность покоя равна нулю (P0 = 0). Условие центрированностиобеспечивает максимум дисперсии при заданной средней мощности сигнала/>

Если сигнал имеет нормальное распределение, тоаприорная дифференциальная энтропия каждого отсчета максимальна.

Поэтому прирасчете пропускной способности непрерывного канала считаем, что по каналупередается непрерывный сигнал с ограниченной средней мощностью – Pc и аддитивная помеха (y= x+f) также с ограниченнойсредней мощностью – Pn типа белого (гауссова) шума.

Так какпомеха аддитивна, то дисперсия выходного сигнала равна

/>.

Для того,чтобы энтропия была максимальна для сигнала с ограниченной мощностью, он долженбыть гауссовым, при этом


/>.

Для тогочтобы помеха была максимальна, она тоже должна быть гауссова

/>.

При этомпропускная способность непрерывного канала должна быть равна пропускной способностисигнала

/>. (15)

Такимобразом, скорость передачи информации с ограниченной средней мощностьюмаксимальна, если и сигнал, и помеха являются гауссовыми, случайнымипроцессами.

Пропускнуюспособность канала можно изменять, меняя ширину спектра сигнала – fc его мощностьPc. Но увеличение шириныспектра увеличивает<sub/>мощность помехиPn, поэтому соотношениемежду полосой пропускания канала и уровнем помех выбирается компромиссным путем.

Еслираспределение f(x) источника непрерывных сообщений отличается отнормального, то скорость передачи информации – С будет меньше. Используя,функциональный преобразователь, можно получать сигнал с нормальным закономраспределения.

Обычно pc/pп>>1, при этом пропускнаяспособность непрерывного канала равна Сп = FкDк. Связь между емкостью ипропускной способностью канала связи имеет вид Vк= Tк Fк Dк = Tк Сп.

Теорема Шеннона для непрерывного канала с шумом.Если энтропия источника непрерывных сообщений сколь угодно близка к пропускнойспособности канала, то существует метод передачи, при котором все сообщенияисточника будут переданы со сколь угодно высокой верностью воспроизведения.

Пример. По непрерывному каналусвязи, имеющим полосу пропускания Fk= 1 кГц, передается полезныйсигнал X(t), представляющий собой нормальный случайныйпроцесс с нулевым математическим ожиданием и дисперсией />=4 мВ. В каналедействует независимый от сигнала гауссов шум F(t) с нулевым математическиможиданием и дисперсией />= 1 мВ.

Определить:

– дифференциальнуюэнтропию входного сигнала;

– дифференциальнуюэнтропию выходного сигнала;

– условнуюдифференциальную энтропию;

– количествоинформации в одном непрерывном отсчете процесса Y(t) относительно отсчетаX(t);

– скоростьпередачи информации по непрерывному каналу с дискретным временем;

– пропускнуюспособность непрерывного канала связи;

– определитьемкость канала связи, если время его работы T= 10 м;

– определитьколичество информации, которое может быть передано за 10 минут работы канала;

– показать, что информационная емкостьнепрерывного канала без памяти с аддитивным гауссовым шумом при ограничении на пиковуюмощность не больше информационной емкости такого же канала при той же величинеограничения на среднюю мощность.

 


Решение:

Дифференциальнаяэнтропия входного сигнала

/>

/>= 3,05 бит/отсчет.

Дифференциальнаяэнтропия выходного сигнала

 

/>=3,21 бит/отсчет.

Условнаядифференциальная энтропия

 

/>= 2,05 бит/отсчет.

Количествоинформации в одном непрерывном отсчете процесса Y(t) относительно отсчета X(t) определяется по формуле

 

I(X, Y) = h(x) – h(x/y) = h(y) – h(y/x) = 3,21–2,05 = 1,16бит/отсчет.

Скоростьпередачи информации по непрерывному каналу с дискретным временем определяетсяпо формуле/>

 

/>=

= 2×103×[3,21–2,05] = 2320 бит/с

Пропускная способность непрерывного канала спомехами определяется по формуле


/>

=2322бит/с.

Докажем, чтоинформационная емкость непрерывного канала без памяти с аддитивным гауссовымшумом при ограничении на пиковую мощность не больше информационной емкоститакого же канала при той же величине ограничения на среднюю мощность.

Математическоеожидание для симметричного равномерного распределения/>

/>

Среднийквадрат для симметричного равномерного распределения

/>

Дисперсия длясимметричного равномерного распределения/>

/>

При этом, дляравномерно-распределенного процесса />.

Дифференциальнаяэнтропия сигнала с равномерным распределением


/>.

Разностьдифференциальных энтропий нормального и равномерно распределенного процесса независит от величины дисперсии

/> = 0,3 бит/отсч.

 

Такимобразом, пропускная способность и емкость канала связи для процесса снормальным распределением выше, чем для равномерного.

Определимемкость (объем) канала связи

 

Vk<sub/>= TkCk<sub/>= 10×60×2322 = 1,3932 Мбит.

Определимколичество информации, которое может быть передано за 10 минут работы канала

/>10×60×2322=1,3932 Мбит.


Задачи

1. В каналсвязи передаются сообщения, составленные из алфавита x1,x2<sub/>и x3 с вероятностями p(x1)=0,2; p(x2)=0,3<sub/>и p(x3)=0,5.

Канальнаяматрица имеет вид:

/> при этом />.

 

Вычислить:

1. Энтропию источника информации H(X) и приемника H(Y).

2. Общую иусловную энтропию H(Y/X).

3. Потериинформации в канале при передаче к символов (к = 100).

4.Количествопринятой информации при передаче к символов.

5. Скоростьпередачи информации, если время передачи одного символаt= 0,01 мс.

2. По каналусвязи передаются символы алфавита x1, x2, x3и x4 с вероятностями />. Определить количествоинформации принятой при передаче 300 символов, если влияние помех описываетсяканальной матрицей:

/>.

3. Определитьпотери информации в канале связи при передаче равновероятных символов алфавита,если канальная матрица имеет вид


/>.

Определитьскорость передачи информации, если время передачи одного символа t= 0,001 сек.

4.Определитьпотери информации при передаче 1000 символов алфавита источникаx1, x2 и x3 с вероятностями p/>=0,2; p/>=0,1 и p(/>)=0,7, если влияние помех вканале описывается канальной матрицей:

/>.

5. Определитьколичество принятой информации при передаче 600 символов, если вероятностипоявления символов на выходе источника X равны: /> а влияние помех при передачеописывается канальной матрицей:

/>.

6. В каналсвязи передаются сообщения, состоящие из символов алфавита />, при этом вероятностипоявления символов алфавита равны: />

Канал связиописан следующей канальной матрицей:


/>.

Определитьскорость передачи информации, если время передачи одного символа /> мс.

7.Поканалу связи передаются сигналы x1, x2 и x3 с вероятностями p/>=0,2; p/>=0,1 и p(/>)=0,7. Влияние помех в каналеописывается канальной матрицей:

/>.

Определитьобщую условную энтропию и долю потерь информации, которая приходится на сигнал x1 (частную условнуюэнтропию).

8. По каналусвязи передаются символы алфавита x1, x2, x3и x4 с вероятностями />.

Помехи вканале заданы канальной матрицей

/>.

Определитьпропускную способность канала связи, если время передачи одного символа t= 0,01 сек.

Определитьколичество принятой информации при передаче 500 символов, если вероятностипоявления символов на входе приемника Y равны: />, а влияние помех припередаче описывается канальной матрицей:


/>.



Списоклитературы

 

1    Гринченко А.Г. Теорияинформации и кодирование: Учебн. пособие. – Харьков: ХПУ, 2000.

2    Куприянов М.С., Матюшкин Б.Д.– Цифровая обработка сигналов: процессоры, алгоритмы, средства проектирования. –СПб: Политехника, 1999.

3    Хемминг Р.В. Цифровыефильтры: Пер. с англ. / Под ред. А.М. Трахтмана. – М.: Сов. радио, 1980.

4    Сиберт У.М. Цепи,сигналы, системы: В 2-х ч. / Пер. с англ. – М.: Мир, 1988.

5    Скляр Б. Цифровая связь.Теоретические основы и практическое применение: Пер. с англ. – М.: Издательскийдом «Вильямс», 2003. – 1104 с.

6   Kalinin, V.I. Microwave & TelecommunicationTechnology, 2007. CriMiCo 2007. 17th International Crimean ConferenceVolume,Issue, 10–14 Sept. 2007 Page(s):233 – 234

7   ФеерК. Беспроводная цифровая связь. Методы модуляции и расширения спектра. Пер. с англ. –М.: Радио и связь, 2000.

8   Игнатов В.А. Теория информации ипередачи сигналов: Учебник для вузов. – 2-е изд., перераб. и доп. – М.: Радио исвязь, 1991;

еще рефераты
Еще работы по информатике, программированию