Реферат: Представление информации в ЭВМ

Содержание

Введение

1. Представлениеинформации в ЭВМ

1.1 Непрерывная и дискретная информация

1.2 Кодирование информации

1.3. Представление информации в двоичном коде

Заключение

Список использованной литературы


Введение

Теоретической основойинформатики является группа фундаментальных наук таких как: теория информации,теория алгоритмов, математическая логика, теория формальных языков и грамматик,комбинаторный анализ и т.д. Кроме них информатика включает такие разделы, какархитектура ЭВМ, операционные системы, теория баз данных, технологияпрограммирования и многие другие. Важным в определении информатики как наукиявляется то, что с одной стороны, она занимается изучением устройств ипринципов действия средств вычислительной техники, а с другой – систематизациейприемов и методов работы с программами, управляющими этой техникой.

Информационная технология– это совокупность конкретных технических и программных средств, с помощьюкоторых выполняются разнообразные операции по обработке информации во всехсферах нашей жизни и деятельности. Иногда информационную технологию называют компьютернойтехнологией или прикладной информатикой.

/>Информацияаналоговая и цифровая. Термин «информация»восходит к латинскомуinformatio, разъяснение, изложение, осведомленность.

Информацию можноклассифицировать разными способами, и разные науки это делают по-разному.Например, в философии различают информацию объективную и субъективную.Объективная информация отражает явления природы и человеческого общества.Субъективная информация создается людьми и отражает их взгляд на объективныеявления.

В информатике отдельнорассматривается аналоговая информация и цифровая. Это важно, поскольку человекблагодаря своим органам чувств, привык иметь дело с аналоговой информацией, авычислительная техника, наоборот, в основном, работает с цифровой информацией.


1. Представление информации в ЭВМ

 

1.1Непрерывная и дискретная информация

Человек воспринимаетинформацию с помощью органов чувств. Свет, звук, тепло – это энергетическиесигналы, а вкус и запах – это результат воздействия химических соединений, воснове которого тоже энергетическая природа. Человек испытывает энергетическиевоздействия непрерывно и может никогда не встретиться с одной и той же ихкомбинацией дважды. Нет двух одинаковых зеленых листьев на одном дереве и двух абсолютноодинаковых звуков – это информация аналоговая. Если же разным цветам датьномера, а разным звукам – ноты, то аналоговую информацию можно превратить вцифровую.

/>/>/>/>Чтобы сообщение было передано отисточника к получателю, необходима некоторая материальная субстанция – носительинформации. Сообщение, передаваемое с помощью носителя, назовем сигналом. Вобщем случае сигнал – это изменяющийся во времени физический процесс. Такойпроцесс может содержать различные характеристики (например, при передачеэлектрических сигналов могут изменяться напряжение и сила тока). Та изхарактеристик, которая используется для представления сообщений, называетсяпараметром сигнала.

В случае когда параметрсигнала принимает последовательное во времени конечное число значений (при этомвсе они могут быть пронумерованы), сигнал называется дискретным, а сообщение,передаваемое с помощью таких сигналов -дискретным сообщением. Информация,передаваемая источником, в этом случае также называется дискретной. Если жеисточник вырабатывает непрерывное сообщение (соответственно параметр сигнала –непрерывная функция от времени), соответствующая информация называетсянепрерывной. Пример дискретного сообщения – процесс чтения книги, информация вкоторой представлена текстом, т.е. дискретной последовательностью отдельныхзначков (букв). Примером непрерывного сообщения служит человеческая речь,передаваемая модулированной звуковой волной; параметром сигнала в этом случаеявляется давление, создаваемое этой волной в точке нахождения приемника –человеческого уха.

Непрерывное сообщениеможет быть представлено непрерывной функцией, заданной на некотором отрезке [а,Ь] (см. рис. 2). Непрерывное сообщение можно преобразовать в дискретное (такаяпроцедура называется дискретизацией). Для этого из бесконечного множествазначений этой функции (параметра сигнала) выбирается их определенное число,которое приближенно может характеризовать остальные значения. Один из способовтакого выбора состоит в следующем. Область определения функции разбиваетсяточками x1, x2,… хn, наотрезки равной длины и на каждом из этих отрезков значение функции принимаетсяпостоянным и равным, например, среднему значению на этом отрезке; полученная наэтом этапе функция называется в математике ступенчатой. Следующий шаг –проецирование значений “ступенек” на ось значений функции (ось ординат).Полученная таким образом последовательность значений функции у12,… уn. является дискретным представлениемнепрерывной функции, точность которого можно неограниченно улучшать путемуменьшения длин отрезков разбиения области значений аргумента.

/>

Рис. 1. Процедурадискретизации непрерывного сообщения


Ось значений функцииможно разбить на отрезки с заданным шагом и отобразить каждый из выделенныхотрезков из области определения функции в соответствующий отрезок из множествазначений (рис. 2). В итоге получим конечное множество чисел, определяемых,например, по середине или одной из границ таких отрезков.

Таким образом, любоесообщение может быть представлено как дискретное, иначе говоряпоследовательностью знаков некоторого алфавита.

Возможность дискретизациинепрерывного сигнала с любой желаемой точностью (для возрастания точностидостаточно уменьшить шаг) принципиально важна с точки зрения информатики.Компьютер – цифровая машина, т.е. внутреннее представление информации в немдискретно. Дискретизация входной информации (если она непрерывна) позволяетсделать ее пригодной для компьютерной обработки. Существуют и другиевычислительные машины – аналоговые ЭВМ. Они используются обычно для решениязадач специального характера и широкой публике практически не известны. Эти ЭВМв принципе не нуждаются в дискретизации входной информации, так как еевнутреннее представление у них непрерывно. В этом случае все наоборот – есливнешняя информация дискретна, то ее “перед употреблением” необходимопреобразовать в непрерывную.

/>/>/>/>Единицы количества информации:/> вероятностный и объемный подходы

Определить понятие“количество информации” довольно сложно. В решении этой проблемы существуют дваосновных подхода. Исторически они возникли почти одновременно. В конце 40-хгодов XX века один из основоположников кибернетики американский математик КлодШеннон развил вероятностный подход к измерению количества информации, а работыпо созданию ЭВМ привели к “объемному” подходу.

Вероятностный подход

Рассмотрим в качествепримера опыт, связанный с бросанием правильной игральной.кости, имеющей Nграней (наиболее распространенным является случай шестигранной кости: N = 6).Результаты данного опыта могут быть следующие: выпадение грани с одним изследующих знаков: 1,2,… N.

Введем в рассмотрениечисленную величину, измеряющую неопределенность -энтропию (обозначим ее Н).Величины N и Н связаны между собой некоторой функциональной зависимостью:

 

H = f (N), (1.1)

а сама функция fявляется возрастающей, неотрицательной и определенной (в рассматриваемом намипримере) для N = 1, 2,… 6.

Рассмотрим процедурубросания кости более подробно:

1) готовимся броситькость; исход опыта неизвестен, т.е. имеется некоторая неопределенность;обозначим ее H1;

2) кость брошена;информация об исходе данного опыта получена; обозначим количество этойинформации через I;

3) обозначимнеопределенность данного опыта после его осуществления через H2.За количество информации, которое получено в ходе осуществления опыта, примемразность неопределенностей “до” и “после” опыта:

 

I = H1 – H2 (1.2)

Очевидно, что в случае,когда получен конкретный результат, имевшаяся неопределенность снята (Н2= 0), и, таким образом, количество полученной информации совпадает спервоначальной энтропией. Иначе говоря, неопределенность, заключенная в опыте,совпадает с информацией об исходе этого опыта. Заметим, что значение Н2могло быть и не равным нулю, например, в случае, когда в ходе опыта следующейвыпала грань со значением, большим “З”.

Следующим важным моментомявляется определение вида функции f в формуле (1.1). Если варьироватьчисло граней N и число бросаний кости (обозначим эту величину через М),общее число исходов (векторов длины М, состоящих из знаков 1,2,… N)будет равно N в степени М:

 

X=NM. (1.3)

Так, в случае двухбросаний кости с шестью гранями имеем: Х=62=36. Фактическикаждый исход Х есть некоторая пара (X1, X2),где X1 и X2 – соответственно исходы первогои второго бросаний (общее число таких пар – X).

Ситуацию с бросанием Мраз кости можно рассматривать как некую сложную систему, состоящую изнезависимых друг от друга подсистем – “однократных бросаний кости”. Энтропиятакой системы в М раз больше, чем энтропия одной системы (так называемый“принцип аддитивности энтропии”):

 

f(6M) = M ∙f(6)

Данную формулу можнораспространить и на случай любого N:

 

F(NM) = M ∙ f(N)(1.4)

Прологарифмируем левую иправую части формулы (1.3):

lnX=M ∙lnN,М=lnX/1nM.

Подставляем полученноедля M значение в формулу (1.4):


/>

Обозначив через Кположительную константу, получим: f(X) =К ∙ lnХ, или, с учетом(1.1), H=K ∙ lnN. Обычно принимают К = 1 / ln 2.Таким образом

 

H = log2 N.(1.5)

Это – формула Хартли.

Важным при введениекакой-либо величины является вопрос о том, что принимать за единицу ееизмерения. Очевидно, Н будет равно единице при N=2. Иначе говоря,в качестве единицы принимается количество информации, связанное с проведениемопыта, состоящего в получении одного из двух равновероятных исходов (примеромтакого опыта может служить бросание монеты при котором возможны два исхода:“орел”, “решка”). Такая единица количества информации называется “бит”.

Все N исходоврассмотренного выше опыта являются равновероятными и поэтому можно считать, чтона “долю” каждого исхода приходится одна N-я часть общейнеопределенности опыта: (log2N)1N. При этомвероятность i-го исхода Рiравняется, очевидно, 1/N.

Таким образом,

/>(1.6)

Та же формула (1.6)принимается за меру энтропии в случае, когда вероятности различных исходовопыта неравно вероятны (т.е. Рi могут быть различны). Формула(1.6) называется формулой Шеннона.

В качестве примераопределим количество информации, связанное с появлением каждого символа всообщениях, записанных на русском языке. Будем считать, что русский алфавитсостоит из 33 букв и знака “пробел” для разделения слов. По формуле (1.5)

 

Н = log2 34 ≈ 5 бит.

Однако, в словах русскогоязыка (равно как и в словах других языков) различные буквы встречаютсянеодинаково часто. Ниже приведена табл. 1 вероятностей частоты употребленияразличных знаков русского алфавита, полученная на основе анализа очень большихпо объему текстов.

В двоичной системесчисления знаки 0 и 1 будем называть битами (от английского выражения BinarydigiTs – двоичные цифры). Отметим, что создатели компьютеров отдаютпредпочтение именно двоичной системе счисления потому, что в техническомустройстве наиболее просто реализовать два противоположных физическихсостояния: некоторый физический элемент, имеющий два различных состояния:намагниченность в двух противоположных направлениях; прибор, пропускающий илинет электрический ток; конденсатор, заряженный или незаряженный и т.п. Вкомпьютере бит является наименьшей возможной единицей информации. Объеминформации, записанной двоичными знаками в памяти компьютера или на внешнемносителе информации подсчитывается просто по количеству требуемых для такойзаписи двоичных символов. При этом, в частности, невозможно нецелое число битов(в отличие от вероятностного подхода).

Для удобстваиспользования введены и более крупные, чем бит, единицы количества информации.Так, двоичное слово из восьми знаков содержит один, байт информации, 1024 байтаобразуют килобайт (кбайт), 1024 килобайта – мегабайт (Мбайт), а 1024 мегабайта– гигабайт (Гбайт).

Между вероятностным иобъемным количеством информации соотношение неоднозначное. Далеко не всякийтекст, записанный двоичными символами, допускает измерение объема информации вкибернетическом смысле, но заведомо допускает его в объемном. Далее, еслинекоторое сообщение допускает измеримость количества информации в обоихсмыслах, то они не обязательно совпадают, при этом кибернетическое количествоинформации не может быть больше объемного.

В дальнейшем практическивсегда количество информации понимается в объемном смысле.

/>/>/>/>4. Информация: более широкий взгляд

Подробнее>>

/>/>/>/>5. Свойства информации

Свойства информации:

• запоминаемость;

• передаваемость;

• преобразуемость;

• воспроизводимость;

• стираемость.

Свойство запоминаемости –одно из самых важных. Запоминаемую информацию будем называть макроскопической(имея ввиду пространственные масштабы запоминающей ячейки и время запоминания).Именно с макроскопической информацией мы имеем дело в реальной практике.

Передаваемость информациис помощью каналов связи (в том числе с помехами) хорошо исследована в рамкахтеории информации К. Шеннона. В данном случае имеется ввиду несколько инойаспект – способность информации к копированию, т.е. к тому, что она может быть“запомнена” другой макроскопической системой и при этом останется тождественнойсамой себе. Очевидно, что количество информации не должно возрастать прикопировании.

Воспроизводимостьинформации тесно связана с ее передаваемостью и не является ее независимымбазовым свойством. Если передаваемость означает, что не следует считатьсущественными пространственные отношения между частями системы, между которымипередается информация, то воспроизводимость характеризует неиссякаемость инеистощимость информации, т.е. что при копировании информация остаетсятождественной самой себе.

Фундаментальное свойствоинформации – преобразуемость. Оно означает, что информация может менять способи форму своего существования. Копируемость есть разновидность преобразованияинформации, при котором ее количество не меняется. В общем случае количествоинформации в процессах преобразования меняется, но возрастать не может.Свойство стираемости информации также не является независимым. Оно связано стаким преобразованием информации (передачей), при котором ее количествоуменьшается и становится равным нулю.

Подводя итог сказанному,отметим, что предпринимаются (но отнюдь не завершены) попытки ученых,представляющих самые разные области знания, построить единую теорию, котораяпризвана формализовать понятие информации и информационного процесса, описатьпревращения информации в процессах самой разной природы. Движение информацииесть сущность процессов управления, которые суть проявление имманентнойактивности материи, ее способности к самодвижению. С момента возникновениякибернетики управление рассматривается применительно ко всем формам движенияматерии, а не только к высшим (биологической и социальной). Многие проявлениядвижения в неживых – искусственных (технических) и естественных (природных) –системах также обладают общими признаками управления, хотя их исследуют вхимии, физике, механике в энергетической, а не в информационной системепредставлений. Информационные аспекты в таких системах составляют предмет новоймеждисциплинарной науки – синергетики.

Высшей формой информации,проявляющейся в управлении в социальных системах, являются знания. Этонаддисциплинарное понятие, широко используемое в педагогике и исследованиях поискусственному интеллекту, также претендует на роль важнейшей философскойкатегории. В философском плане познание следует рассматривать как один изфункциональных аспектов управления. Такой подход открывает путь к системномупониманию генезиса процессов познания, его основ и перспектив./>/>/>

1.2Кодирование информации

Представление информации происходитв различных формах в процессе восприятия окружающей среды живыми организмами ичеловеком, в процессах обмена информацией между человеком и человеком,человеком и компьютером, компьютером и компьютером и так далее. Преобразованиеинформации из одной формы представления (знаковой системы) в другую называетсякодированием.

Средством кодированияслужит таблица соответствия знаковых систем, которая устанавливает взаимнооднозначное соответствие между знаками или группами знаков двух различныхзнаковых систем.

В процессе обменаинформацией часто приходится производить операции кодирования и декодированияинформации. При вводе знака алфавита в компьютер путем нажатия соответствующейклавиши на клавиатуре происходит кодирование знака, то есть преобразованиекомпьютерный код. При выводе знака на экран монитора или принтер происходитобратный процесс — декодирование, когда из компьютерного кода знакпреобразуется в его графическое изображение.

С появлением языка, азатем и знаковых систем расширились возможности общения между людьми. Этопозволило хранить идеи, полученные знания и любые данные, передавать ихразличными способами на расстояние и в другие времена — не только своимсовременникам, но и будущим поколениям. До наших дней дошли творения предков,которые с помощью различных символов увековечили себя и свои деяния впамятниках и надписях. Наскальные рисунки (петроглифы) до сих пор служатзагадкой для ученых. Возможно, таким способом древние люди хотели вступить вконтакт с нами, будущими жителями планеты и сообщить о событиях их жизни.

Каждый народ имеет свойязык, состоящий из набора символов (букв): русский, английский, японский имногие другие. Вы уже познакомились с языком математики, физики, химии.

Представление информациис помощью какого-либо языка часто называют кодированием.

Код — набор символов (условныхобозначений) дли представления информации. Кодирование— процесспредставления информации в виде кода.

Водитель передает сигналс помощью гудка или миганием фар. Кодом является наличие или отсутствие гудка,а в случае световой сигнализации — мигание фар или его отсутствие.

Вы встречаетесь скодированием информации при переходе дороги по сигналам светофора. Кодопределяют цвета светофора — красный, желтый, зеленый.

В основу естественногоязыка, на котором общаются люди, тоже положен код. Только в этом случае онназывается алфавитом. При разговоре этот код передается звуками, при письме —буквами. Одну и ту же информацию можно представить с помощью различных кодов.Например, запись разговора можно зафиксировать посредством русских букв илиспециальных стенографических значков.

По мере развития техникипоявлялись разные способы кодирования информации. Во второй половине XIX векаамериканский изобретатель Сэмюэль Морзе изобрел удивительный код, который служитчеловечеству до сих пор. Информация кодируется тремя «буквами»: длинный сигнал(тире), короткий сигнал (точка) и отсутствие сигнала (пауза) для разделениябукв. Таким образом, кодирование сводится к использованию набора символов,расположенных в строго определенном порядке.

1.3Представление информации в двоичном коде

Люди всегда искалиспособы быстрого обмена сообщениями. Для этого посылали гонцов, использовалипочтовых голубей. У народов существовали различные способы оповещения онадвигающейся опасности: барабанный бой, дым костров, флаги и т. д. Однакоиспользование такого представления информации требует предварительнойдоговоренности о понимании принимаемого сообщения.

Знаменитый немецкийученый Готфрид Вильгельм Лейбниц предложил еще в XVII веке уникальную и простуюсистему представления чисел. «Вычисление с помощью двоек… является для наукиосновным и порождает новые открытия… при сведении чисел к простейшим началам,каковы 0 и 1, везде появляется чудесный порядок».

Сегодня такой способ представленияинформации с помощью языка, содержащего всего два символа алфавита — 0 и 1,широко используется в технических устройствах, в том числе ив компьютере. Этидва символа 0 и 1 принято называть двоичными цифрами или битами (от англ. bit —BinaryDigit — двоичный знак).

Вся информация, которуюобрабатывает компьютер должна быть представлена двоичным кодом с помощью двухцифр 0 и 1. Эти два символа принято называть двоичными цифрами или битами. Спомощью двух цифр 0 и 1 можно закодировать любое сообщение. Это явилосьпричиной того, что в компьютере обязательно должно быть организованно дваважных процесса: кодирование и декодирование.

Кодирование преобразование входной информации вформу, воспринимаемую компьютером, т.е. двоичный код.

Декодирование – преобразование данных из двоичногокода в форму, понятную человеку.

С точки зрениятехнической реализации использование двоичной системы счисления для кодированияинформации оказалось намного более простым, чем применение других способов.Действительно, удобно кодировать информацию в виде последовательности нулей иединиц, если представить эти значения как два возможных устойчивых состоянияэлектронного элемента:

-отсутствиеэлектрического сигнала;

— наличие электрическогосигнала.

Эти состояния легкоразличать. Недостаток двоичного кодирования — длинные коды. Но в технике легчеиметь дело с большим количеством простых элементов, чем с небольшим числомсложных.

Вам приходится постоянносталкиваться с устройством, которое может находится только в двух устойчивыхсостояниях: включено/выключено. Конечно же, это хорошо знакомый всемвыключатель. А вот придумать выключатель, который мог бы устойчиво и быстро переключатьсяв любое из 10 состояний, оказалось невозможным. В результате после ряданеудачных попыток разработчики пришли к выводу о невозможности построениякомпьютера на основе десятичной системы счисления. И в основу представлениячисел в компьютере была положена именно двоичная система счисления.

Способы кодирования идекодирования информации в компьютере, в первую очередь, зависит от вид;,информации, а именно, что должно кодироваться: числа, текст, графическиеизображения или звук.

Представление(кодирование)чисел

Для записи информации околичестве объектов используются числа. Числа записываются с помощью набораспециальных символов.

Система счисления — способ записи чисел с помощьюнабора специальных знаков, называемых цифрами.

Системы счисленияподразделяются на позиционные и непозиционные.

В позиционных системахсчисления величина, обозначаемая цифрой в записи числа, зависит от её положенияв числе (позиции).

Цветные изображенияформируются в соответствии с двоичным кодом цвета каждой точки, хранящимся ввидеопамяти. Цветные изображения могут иметь различную глубину цвета, котораязадается количеством битов, используемым для кодирования цвета точки. Наиболеераспространенными значениями глубины цвета являются 8,16, 24 или 32 бита.

Цветное изображение наэкране монитора формируется за счет смешивания трех базовых цветов: красного,зеленого и синего. Такая цветовая модель называется RGB-моделью по первымбуквам английских названий цветов (Red, Green, Blue).


Заключение

Информацию можноклассифицировать разными способами, и разные науки это делают по-разному.Например, в философии различают информацию объективную и субъективную.Объективная информация отражает явления природы и человеческого общества.Субъективная информация создается людьми и отражает их взгляд на объективныеявления.

В информатике отдельнорассматривается аналоговая информация и цифровая. Это важно, поскольку человекблагодаря своим органам чувств, привык иметь дело с аналоговой информацией, авычислительная техника, наоборот, в основном, работает с цифровой информацией.

Человек воспринимаетинформацию с помощью органов чувств. Свет, звук, тепло – это энергетическиесигналы, а вкус и запах – это результат воздействия химических соединений, воснове которого тоже энергетическая природа. Человек испытывает энергетическиевоздействия непрерывно и может никогда не встретиться с одной и той же их комбинациейдважды. Нет двух одинаковых зеленых листьев на одном дереве и двух абсолютноодинаковых звуков – это информация аналоговая. Если же разным цветам датьномера, а разным звукам – ноты, то аналоговую информацию можно превратить вцифровую.

/>Кодированиеинформации. Кодирование информации – это процесс формирования определенногопредставления информации.

В более узком смысле подтермином «кодирование» часто понимают переход от одной формы представленияинформации к другой, более удобной для хранения, передачи или обработки.

Компьютер можетобрабатывать только информацию, представленную в числовой форме. Вся другаяинформация (звуки, изображения, показания приборов и т. д.) для обработки накомпьютере должна быть преобразована в числовую форму. Например, чтобыперевести в числовую форму музыкальный звук, можно через небольшие промежуткивремени измерять интенсивность звука на определенных частотах, представляярезультаты каждого измерения в числовой форме. С помощью компьютерных программможно преобразовывать полученную информацию, например «наложить» друг на другазвуки от разных источников.

Аналогично на компьютереможно обрабатывать текстовую информацию. При вводе в компьютер каждая буквакодируется определенным числом, а при выводе на внешние устройства (экран илипечать) для восприятия человеком по этим числам строятся изображения букв.Соответствие между набором букв и числами называется кодировкой символов.

Как правило, все числа вкомпьютере представляются с помощью нулей и единиц (а не десяти цифр, как этопривычно для людей). Иными словами, компьютеры обычно работают в двоичнойсистемесчисления, поскольку при этом устройства для их обработки получаютсязначительно более простыми.


Списокиспользованной литературы

1. Агальцов В.П., Титов В.М. Информатика дляэкономистов: Учебник. – М.: ИД «ФОРУМ»: ИНФРА-М, 2006. – 448 с.

2. Информатика для экономистов: Учебник / Под общ. ред.В.М. Матюшка. – М.: ИНФРА-М, 2007. – 880с.

3. Информатика. Общий курс: Учебник / Под ред. В.И.Колесникова. – М.: Издательско-торговая корпорация «Дашков и К◦»;Ростов н/Д: Наука-Пресс, 2008. – 400 с.

4. Информатика: Практикум по технологии работы накомпьютере / Под ред. Н.В. Макаровой. – М.: Финансы и статистика, 2005. – 256с.

5. Информатика: Учебник / Под общ. ред. А.Н. Данчула. –М.: Изд-во РАГС, 2004. – 528 с.

6. Соболь Б.В. Информатика: Учебник / Соболь Б.В., ГалинА.Б., Панов Ю.В., Рашидова Е.В., Садовой Н.Н. – М.: Ростов н/Д: Феникс, 2005. –448 с.

еще рефераты
Еще работы по информатике, программированию