Реферат: Особенности проведения уроков информатики по теме "информация"

Оглавление

Введение...................................................................................................3

ГлаваI. Информация, ее виды исвойства.............................................4-18

        1.1. Различные уровни представления об информации..............5

        1.2. Непрерывная и дискретная информация...............................6-7

        1.3. Единицы количества информации: вероятностный и объемныйподходы............................................................................................................8-12

        1.4. Информация: более широкийвзгляд.....................................13-15

        1.5. Информация и физическиймир.............................................16-18

ГлаваII.особенности введения темы«информация» на уроках информатики в школе............19-26

        2.1. Методические проблемы определения информации...........20-22

        2.2. Подходы к измерениюинформации......................................23-26

        2.3.методика решения задач по темам раздела «информация»

        2.4. информационные процессы

               а) процесс хранения информации

               б) процесс обработки информации

               в) процесс передачи информации

ГлаваIIIСпособы введения темраздела «информация» на уроках информатики…………………………………………………………………27-52

3.1.Уроки информатики по теме раздела «информация»………27-32

3.2.Проверка эффективности восприятия учебного материала по темам раздела«информация» на уроках информатики в 7 классе……….33-49

3.3.

Заключение...............................................................................................52

Списоклитературы..................................................................................53

Приложение

Введение.

Официально предмет «информатика» в России был введен1 сентября 1985 года. До этого существовали лишь внеклассные уроки или кружкипо совместимости с математическими предметами. Теперь появились уже специалистыв этой относительно молодой области технологий. По ходу развития информатикипоявились новые понятия, такие как: информация, информационные процессы,подходы к изучению и измерению информации в целом. Информатика в наше времяпревратилась в самостоятельную науку. В связи с этим мы посчитали актуальнымвопрос рассмотрения темы «особенности преподавания урока информатики по теме«информация», так как она позволяет расширять информационный кругозор икультуру учащихся школы. Способствует эффективному усвоению учебного материала поданному предмету в целом.

В этой выпускной квалификационной работе мы подробноописываем особенности проведения уроков информатики по теме «информация». Ипоставили перед собой следующую цель:выявлять наиболее эффективные  методы изучения данной темы, определитьзначение необходимости изучения данной темы для соблюдения целостности изученияматериала на уроках информатики, выявлять факторы, влияющие на повышениекачества ЗУНов по этой теме.

В соответствии споставленной целью мы определили следующие задачи:

1.<span Times New Roman"">     

2.<span Times New Roman"">     

3.<span Times New Roman"">     

В соответствии с целями и задачами мы определилиобъект и предмет нашего исследования. Объектомявляется учебно-воспитательный процесс изучения темы «Информация» в школьномкурсе информатики. Предметом  является методика эффективного изученияданной темы в школьном курсе.

В нашей работе мы сделали следующее предположение:. Безизучения данной темы в курсе информатики невозможно осмысленное и комплексноеизучение следующих тем курса.

.  

I. Информация, её виды исвойства.

1.1. Различные уровни представленияоб информации.

Понятие «Информация» является одним из фундаментальных в современнойнауке вообще  и базовым для изучаемойнами информатики. Информацию наряду с веществом и энергией рассматривают вкачестве важнейшей сущности мира, в котором мы живем. Однако, если задатьсяцелью формально определить понятие «информация», то сделать это будетчрезвычайно сложно. Аналогичными неопределяемыми понятиями, например, вматематике являются «точка» и «прямая». Так можно сделать некоторыеутверждения, связанные с этими математическими понятиями, но сами они не могутбыть определены с помощью более элементарных понятий.

В простейшем бытовом помещении с термином «информация» обычноассоциируются некоторые сведения, данные, знания. Информация передается в виде сообщений,определяющих форму и представление передаваемой информации. Примерами сообщенийявляются музыкальные произведения; телепередачи; команды регулировщика наперекрёстке; текст, распечатанный на принтере; данные, полученные в результатеработы сопоставленной вами программы и т.д. При этом предполагается, чтоимеются «источник информации» и «получатель информации».

Сообщение от источника к получателю передается посредством какой – нибудьсреды, являющейся в таком случае «каналом связи» (рис. 1.1). Так при передачеречевого сообщения в качестве такого канала связи можно рассматривать воздух, вкотором распространяются звуковые волны, а в случае передачи письменногосообщения (например, текста, распечатанного на принтере) каналом сообщенияможно считать лист бумаги, на котором напечатан текст.

Рис. 1.1. Схема передачиинформации. 

<img src="/cache/referats/25720/image002.jpg" v:shapes="_x0000_i1025">

Человеку свойственно субъективное восприятие информации через некоторыйнабор её свойств: важность, достоверность, своевременность, доступность и т. д.В этом смысле одно и тоже сообщение, передаваемое от источника к получателю,может предавать информацию в разной степени. Так, например, вы хотите сообщитьо неисправности компьютера. Для инженера из группы технического обслуживаниявахтера. Но, в свою очередь, для инженера сообщение «не включается дисплей»содержит информации больше, чем первое, поскольку в большей степени снимаетнеопределенность, связанную с причиной неисправности компьютера. Как видно,одно и тоже сообщение для различных пользователей несет различную информацию.

Использование терминов «больше информации» или «меньше информации»подразумевает некую возможность ее измерения (или, хотя бы,количественного сообщения). При субъективном восприятии измерения информациивозможно лишь в виде установления некой порядковой шкалы для оценки «больше» — «меньше», да и то субъективной, поскольку на свете немало людей, для которых,например, оба сообщения, использованных выше в качестве примера, вообще ненесут никакой информации. Такое становится невозможным при введении объективныххарактеристик, из которых для информации важнейшей является количество. Однакопри объективном измерении количества информации следует заведомо отрешиться отвосприятия ее с точки зрения субъективных свойств, примеры которых перечисленывыше. Более того, не исключено, что и всякая информация будет иметь объективноизмеряемое количество – все зависит от того, как будут введены единицыизмерения. Не исключено и то, что при разных способах введения единиц измеренияинформация, содержащаяся в двух допускающих измерение сообщениях, будут по-разномусоотноситься.

1.2. Непрерывная и дискретнаяинформация.

Чтобы сообщение было передано от источника к получателю, необходиманекоторая материальная субстанция – носитель информации. Сообщение, передаваемое с помощьюносителя, назовем сигналом. В общем случае сигнал – это изменяющийся вовремени физический процесс. Такой процесс может содержать различныехарактеристики (например, при передаче электрических сигналов могут изменятьсянапряжение и сила тока). Та из характеристик, которая используется дляпредставления сообщений, называется параметром сигнала.

В случае, когда параметр сигнала принимает последовательное во времениконечное число значений (при этом все они могут быть пронумерованы), сигналназывается дискретным, а сообщение, передаваемое с помощью такихсигналов – дискретным сообщением. Информация, передаваемая источником, вэтом случае также называется дискретной. Если же источник вырабатываетнепрерывное сообщение (соответственно параметр сигнала – непрерывная функция отвремени), соответствующая информация называется непрерывной. Примердискретного сообщения – процесс чтения книги, информация в которой представленатекстом, т. е. дискретной последовательностью отдельных значков (букв).Примером непрерывного сообщения служит человеческая речь, передаваемаямодулированной звуковой волной; параметром сигнала в этом случае служитдавление, создаваемое этой волной в точке нахождения приемника – человеческогоуха.

Непрерывное сообщение может быть представлено непрерывной функцией, заданнойна некотором отрезке [a,b] (рис. 1.2). Непрерывноесообщение можно преобразовать в дискретное (такая процедура называется дискретизацией).Для этого из бесконечного множества значений этой функцией (параметр сигнала)выбирается их определенное число, которое приближенно может характеризоватьостальные значения. Один из способов такого выбора состоит в следующем: областьопределения функции разбивается точками Х1, Х2 … Х на отрезке равной длинны ина каждом из этих отрезков значение функции принимается постоянным и равным,например, среднему значению на этом отрезке; полученная на этом этапе функцияназывается в математике ступенчатой. Следующий шаг – проецирование значений«ступеней» на ось значений функции (ось координат). Полученная таким образомпоследовательность значений функции Y1, Y2 … Y является дискретнымпредставлением непрерывной функции, точность которого можно неограниченноулучшать путем уменьшения длин отрезков разбиения области значений аргумента.

Рис. 1.2. Процедура дискретизации непрерывногосообщения.

<img src="/cache/referats/25720/image004.jpg" v:shapes="_x0000_i1026">

Ось значений функции можно разбить на отрезки с данным шагом и отобразитькаждый из выделенных отрезков из области определения функции в соответствующийотрезок из множества значений. В итоге получим конечное множество чисел,определяемых, например, по середине или одной из границ таких отрезков.

Таким образом, любое сообщение может быть представлено как дискретное,иначе говоря, последовательностью знаков некоторого алфавита.

Возможность дискретизации непрерывного сигнала с любой желаемой точностью(для возрастания точности достаточно уменьшить шаг) принципиально важна с точкизрения информатики. Компьютер – цифровая машина, т.е. внутреннее представлениеинформации в нем дискретно. Дискретизация входной информации (если онанепрерывна) позволяет сделать ее пригодной для компьютерной обработки.

Существуют и другие вычислительные машины – аналоговые ЭВМ. Онииспользуются обычно для решения задач специального характера и мировой публикепрактически неизвестны. Эти ЭВМ в принципе не нуждаются в дискретизации входнойинформации, т.к. ее внутреннее представление у них непрерывно. В этом случаевсе наоборот – если внешняя информация дискретна, то ее «перед употреблением»необходимо преобразовать в непрерывную.

1.3. Единицы количества информации:вероятностный и объемный подходы.

Определить понятие «количество информации» довольно сложно. В решенииэтой проблемы существуют 2 основных подхода. Исторически они возникли почтиодновременно. В конце 40-ых гг. ХХ века один из основоположников кибернетикиамериканский математик Клод Шеннон развил вероятностный подход к измерениюколичества информации, а работы по созданию ЭВМ привели к «объемному» подходу.

Вероятностный подход.

Рассмотрим в качестве примера опыт, связанный с бросанием правильнойигральной кости, имеющей Nграней (наиболее распространенным является случай 6-тигранной кости: N=6). Результаты данногоопыта могут быть следующие: выпали грани с одним из следующих знаков: 1, 2, …, N.

Введем в рассмотрение численную величину, измеряющую неопределенность – энтропию(обозначим ее Н). Величины Nи H связаны между собойнекоторой функциональной зависимостью:

 SHAPE * MERGEFORMAT

H=f(N)

<img src="/cache/referats/25720/image005.gif" v:shapes="_x0000_s1033 _x0000_s1032 _x0000_s1034">

                                          (1.1)

А сама функция fявляется возрастающей, неотрицательной и определенной (в рассматриваемом намипримере) для N=1, 2, …,6.

Рассмотрим процедуру бросания кости более подробно:

1)<span Times New Roman"">                         

H1;

2)<span Times New Roman"">                         

I;

3)<span Times New Roman"">                         

H2;

За количество информации, которое получено в ходе осуществления опыта,примем разность неопределенностей «до» и «после» опыта:

 SHAPE * MERGEFORMAT

I=H1-H2

<img src="/cache/referats/25720/image006.gif" v:shapes="_x0000_s1036 _x0000_s1035 _x0000_s1037"> 

                                             (1.2)

Очевидно, что в случае, когда получен конкретный результат, имевшаясянеопределенность снята (Н2=0), и, таким образом, количество полученнойинформации совпадает первоначальной энтропией. Иначе говоря, неопределенность,заключенная в опыте, совпадает с информацией об исходе этого опыта.

Следующим важным моментом является определение вида функции f в формуле (1.1). Есливарьировать число граней Nи число бросаний кости (обозначим эту величину через М), общее число исходов(векторов длины М, состоящих из знаков 1, 2, …, М) будет равно N в степени М:

 SHAPE * MERGEFORMAT

X=Nm

<img src="/cache/referats/25720/image007.gif" v:shapes="_x0000_s1039 _x0000_s1038 _x0000_s1040"> 

                                     (1.3)

Так в случае двух бросаний кости с шестью гранями имеем: Х=62=36.Фактически каждый исход Х есть некоторая пара (Х1; Х2), где Х1 и Х2 –соответственно исходы первого и второго бросаний (общее число таких пар – Х).

Ситуацию с бросанием М раз кости можно рассматривать как некоторуюсложную систему, состоящую из независимых друг от друга подсистем –«однократных бросаний кости». Энтропия такой системы в М раз больше, чемэнтропия одной системы (так называемый «принцип дитивности энтропии»):

                                      f(6m) = M*f(6)

Данную формулу можно распространить и на случай любого N:

                                     f(Nm) = M*f(N)                          (1.4)

Прологарифмируем левую и правую части формулы (1.3): lnX=M*lnN, M=lnX/lnN.

Подставляем полученное для М значение в формулу (1.4):

                                   f(X) = lnX/lnM*f(N)

Обозначив через К положительнуюконстанту, получим: f(x) = k*lnX, или, с учетом (1.1), H = k*lnX. Обычно принимают k=1/ln2. Таким образом

                                       H =log2N

Это – формула Хартли.

Важным при введении какой – либо величины является вопрос о том, чтопринимать за единицу ее измерения. Очевидно, Н будет равно единице при N=2. Иначе говоря, в качествеединицы принимается количество информации, связанное с проведением опыта,состоящего в получении одного из двух равновероятных исходов (примером такогоопыта может служить бросание монеты, при котором возможны 2 исхода «орел»,«решка»). Такая единица количества информации называется «бит».

Все N исходоврассмотренного выше опыта являются равновероятными и поэтому можно считать, чтона «долю» каждого исхода приходится одна N-я часть общей неопределенности опыта: (log2N)/N. При этом вероятность 1-го исхода Pi является, очевидно, 1/N.

Таким образом;

                               H=∑*Pi*log2 (1/Pi)

                                                                           (1.6)

Так же формула (1.6) принимается за меру энтропии в случае, когдавероятности различных исходов опыта неравновероятны (т.е. Pi могут быть различны).Формула (1.6) называется формулой Шеннона.

В качестве примера определим количество информации, связанное споявлением каждого символа в сообщениях, записанных на русском языке. Будемсчитать, что русский алфавит состоит из 33 букв и знака «пробел» для разделенияслов. По формуле (1.5)

                             H = log234 ≈ 5 бит

Однако, в словах русского языка (равно как и в словах других языков)различные буквы встречаются неодинаково часто. Ниже приведена таблица 1.1вероятностей частоты употребления различных знаков русского алфавита,полученная на основе анализа очень больших по объему текстов.

Воспользуемся для подсчета Н формулой (1.6): Н ≈ 4,72 бит.Полученное значение Н, как и можно было предположить, меньше вычисленногоранее. Величина Н, вычисляемая по формуле (1.5), является максимальнымколичеством информации, которое могло бы приходиться на один знак.

i

Символ

P(i)

i

Символ

P(i)

i

Символ

P(i)

1

пробел

0,175

13

К

0,028

24

Г

0,012

2

О

0,090

14

М

0,026

25

Ч

0,012

3

Е

0,072

15

Д

0,025

26

Й

0,010

4

Ё

0,072

16

П

0,023

27

Х

0,009

5

А

0,062

17

У

0,021

28

Ж

0,007

6

И

0,062

18

Я

0,018

29

Ю

0,006

7

Т

0,053

19

Ы

0,016

30

Ш

0,006

8

Н

0,053

20

З

0,016

31

Ц

0,004

9

С

0,045

21

Ь

0,014

32

Щ

0,003

10

Р

0,040

22

Ъ

0,014

33

Э

0,003

11

В

0,038

23

Б

0,014

34

Ф

0,002

12

Л

0,035

Аналогичные подсчеты Н можно провести и для других языков, напримериспользующих латинский алфавит, — английского, немецкого, французского и др.(26различных букв и «пробел») по формуле (1.5) получим

                             H = log227 ≈ 4,76 бит

Как и в случае русского языка, частота появления тех или иных знаковнеодинакова.

Если расположить все буквы данных языков в порядке убывания вероятностей,то получим следующие последовательности:

Английский язык        «пробел» Е, Т, А, О, N, R,…

Немецкий язык            «пробел»Е, N, I, S, T, R,…

Французский язык      «пробел» E, S, A, N, I, T,…

Рассмотрим алфавит, состоящий из двух знаков 0 и 1. Если считать, что сознаками 0 и 1 в двоичном алфавите связаны одинаковые вероятности их появления(Р(О) = Р(i) = 0,5), токоличество информации на один знак при двоичном кодировании будет равно

                        H = log22 = 1 бит

Таким образом, количество информации (в битах), заключенное в двоичномслове, равно числу двоичных знаков в нем.

Объемный подход.

В двоичной системе счисления знаки 0 и 1 будем называть битами (отанглийского выражения Binarydigits– двоичные цифры). Отметим, что создатели компьютеров отдают предпочтениеименно двоичной системе счисления потому, что в техническом устройстве наиболеепросто реализовать два противоположных физических состояния: некоторыйфизический элемент, имеющий 2 различных состояния: намагниченность в двухпротивоположных направлениях; прибор, пропускающий или нет электрический ток;конденсатор, заряженный или незаряженный и т. п. В компьютере бит являетсянаименьшей возможной единицей информации. Объем информации, записаннойдвоичными знаками в памяти компьютера или на внешнем носителе информацииподсчитывается просто по количеству требуемых для такой записи двоичныхсимволов. При этом, в частности, невозможно нецелое число битов (в отличии отвероятностного подхода).

Для удобства использования введены более крупные, чем бит, единицыколичества информации. Так, двоичное слово из восьми знаков содержит один байтинформации, 1024 бита образуют килобайт (Кбайт), 1024 килобайта – мегабайт(Мбайт), а 1024 мегабайта – гигабайт (Гбайт).

Между вероятностным и объемным количеством информации соотношение неоднозначное. Далеко не всякий текст, записанный двоичными символами, допускаетизмерение объема информации в кибернетическом смысле, но заведомо допускают егов объемном. Далее, если некоторое сообщение допускает измеримость количестваинформации в обоих смыслах, то они не обязательно совпадают, при этомкибернетическое количество информации не может быть больше объемного.

В дальнейшем тексте данного учебника практически всегда количествоинформации помещается в объемном смысле.

1.4.Информация: более широкий взгляд.

Как ни важно измерение информации, нельзя сводить к нему все связанные сэтим понятием проблемы. При анализе информации социального (в широком смысле)происхождения на первый план могут выступать такие её свойства как истинность,своевременность, ценность и т. д. Их невозможно оценить в терминах «уменьшениенеопределенности» (вероятностный подход) или числа символов (объемный подход).Обращение к качественной стороне информации породило иные подходы к ее оценке.При аксиологическом подходе стремятся исходить из ценности, практическойзначимости информации, т.е. качественных характеристик, значимых в социальнойсистеме. При семантическом подходе информация рассматривается с точкизрения как формы, так и содержания. При этом информацию связывают с тезаурусом,т.е. полнотой систематизированного набора данных о предмете информации.Отметим, что эти подходы исключают количественного анализа, но он становитсясущественно сложнее и должен базироваться на современных методах математическойстатистики.

Понятие информации нельзя считать лишь техническим, междисциплинарным идаже недисциплинарным термином. Информация – это фундаментальная философскаякатегория. Дискуссии ученых о философских аспектах информации надежно показалинесводимость информации  ни к одной изэтих категорий. Концепции и толкования, возникающие на пути догматическихподходов, оказываются слишком частными, однообразными, не схватывающими всегообъема этого понятия.

Попытки рассмотреть категорию информации с позиции основного вопросафилософии привели к возникновению двух противостоящих концепций – такназываемых, функциональной и атрибутивной. «Атрибутиеты»квалифицируют информацию как свойство всех материальных объектов, т.е. какатрибут материи. «Функционалисты» связывают информацию лишь с функционированиемсложных, самоорганизирующихся систем. Оба подхода, скоре всего, не полны. Делов том, что природа сознания духа по сути своей является информационной, т.е.сознание суть менее общего понятия по отношению к категории «информация».Нельзя признать конкретными попытки сведения более общего понятия к менееобщему. Таким образом, информация и информационные процессы, если иметь в видурешения основного вопроса философии, опосредуют материальное и духовное, т.е. вместо классической постановки этого вопроса получаются два новых: о соотношенииматерии и информации и о соотношении информации и сознания (духа).

Можно попытаться дать философское определение информации с помощьюуказания на связь определяемого понятия с категориями отражения и активности.Информация есть содержание образа, формируемого в процессе отражения.Активность входит в это определение в виде представления о формировании некоегообраза в процессе отражения некоторого субъект – объектного отношения. При этомне требуется указание на связь информации с материей, поскольку как субъект,так и объект процесса отражения могут принадлежать как к материальной, так и кдуховной сфере социальной жизни. Однако существенно подчеркнуть, чтоматериалистическое решение основного вопроса философии требует признаниенеобходимости существования материальной среды – носителя информации в процессетакого отражения. И так, информацию следует трактовать неотъемлемо присущийатрибут материи, необходимый момент ее самодвижения и саморазвития. Этакатегория приобретает особое значение применительно к высшим формам движенияматерии биологической и социальной.

Данное выше определение охватывает важнейшие характеристики информации.Оно не противоречит тем знаниям, которые накоплены по этой проблематике, анаоборот, является выражением наиболее значимых.

Современная практика психологии, социологии, информатики диктуетнеобходимость перехода к информационной трактовке сознания. Такая трактовкаоказывается чрезвычайно плодотворной и позволяет, например, рассмотреть с общихпозиций индивидуальное и общественное сознание. Генетически индивидуальное иобщественное сознания не равны и в тоже время общественное сознание ни естьпростая сумма индивидуальных, поскольку оно включает информационные потоки ипроцессы между индивидуальными сознаниями.

В социальном плане человеческая деятельность предстает как взаимодействиереальных человеческих коммуникаций с предметами материального мира. Поступившаяиз вне к человеку информация является отпечатком, снимком сущностных силприроды или другого человека. Таким образом, с единых методологических позицийможет быть рассмотрена деятельность индивидуального и общественного сознания,экономическая, политическая, образовательная деятельность различных субъектовсоциальной системы.

Данное выше определение информации как философской категории не толькозатрагивает физические аспекты существования информации, но и фиксирует еесоциальную значимость.

Одной из важных черт функционирования современного общества выступает ееинформационная оснащенность. Входе своего развития человеческое общество прошлочерез пять информационных революций. Первая из них была связана с введениемязыка, вторая – письменности, третья – книгопечатания, четвертая – телесвязи,и, наконец, пятая – компьютеров (а так же магнитных и оптических носителейхранения информации). Каждый раз новые информационные технологии поднималиинформированность общества на несколько порядков, радикально меняя объем иглубину знания, а вместе с этим и уровень культуры в целом.

Одна из целей философского анализа понятия информации – указать местоинформационных технологий в развитии форм движения материи, в прогрессечеловечества и, в том числе, в развитии разума как высшей отражательнойспособности материи. На протяжении десятков тысяч лет сфера разума развиваласьисключительно через общественную форму сознания. С появлением компьютеровначались разработки систем искусственного интеллекта, идущих по путимоделирования общих интеллектуальных функций индивидуального сознания.

1.5.Информация и физический мир.

Известно большое количество работ, посвященных физической трактовкеинформации. Эти работы в значительной мере построены на основе аналогии формулыБольцмана, описывающей энтропию статистической системы материальных частиц, и формулы Хартли.

Заметим, что при всех выводах формулы Больцмана явно или неявнопредполагается, что макроскопическое состояние системы, к которому относитсяфункция энтропии, реализуется на микроскопическом уровне как сочетаниемеханических состояний очень большого числа частиц, образующих систему(молекул). Задачи же кодирования  ипередачи информации, для решения которых Хартли и Шенноном была развитавероятностная мера информация, имели ввиду очень узкое техническое пониманиеинформации, почти не имеющая отношения к полному объему этого понятия. Такимобразом, большинство рассуждений, использующих термодинамические свойстваэнтропии применительно к информации нашей реальности, носит специальныйхарактер. В частности, является необоснованными использование понятия«энтропия» для систем с конечными небольшими числами состояний, а так жепопытки расширительного методологического толкования результатов теории внедовольно примитивных механических моделей, для которых они были получены.Энтропия и ниэнтропия интегральные характеристики протекания стохастическихпроцессов – линии параллельны информации и превращаются в нее в частном случае.

Информацию следует считать особым видом ресурса, при этом имеется в видутолкование «ресурса» как запаса неких знаний материальных предметов илиэнергетических, структурных или каких – либо других характеристик предмета. Вотличие от ресурсов, связанных с материальными предметами, информационныересурсы являются неистощимыми и предполагают существенные методы воспроизведенияи обновления, чем материальные ресурсы.

Рассмотрим некоторый набор свойств информации:

— запоминаемость;

— передаваемость;

— преобразуемость;

— воспроизводимость;

— стираемость.

Свойства запоминаемости – одно из самых важных. Запоминаемуюинформацию будем называть макроскопической (имея в виду пространственныемасштабы запоминающей ячейки и время запоминания). Именно с макроскопическойинформацией мы имеем дело в реальной практике.

Передаваемость информации с помощью каналов связи (в том числе спомехами) хорошо исследовано в рамках теории информации К. Шеннона. В данномслучае имеется в виду несколько иной аспект – способность информации ккопированию, т.е. к тому, что она может быть «запомнена» другоймакроскопической системой и при этом остается тождественной самой себе.Очевидно, что количество информации не должно возрастать при копировании.

Воспроизводимость информации тесно связана с ее передаваемостью ине является ее независимым базовым свойством. Если передаваемость означает, чтоне следует считать существенными пространственные отношения между частямисистемы, между которыми передается информация, то воспроизводимостьхарактеризует неиссякаемость и неистощимость, т.е., что при копированииинформация остается тождественной самой себе.

Фундаментальное свойство информации – преобразуемость. Оноозначает, что информация может менять способ и форму своего существования.Копируемость есть разновидность преобразования информации, при котором егоколичество не меняется. В общем случае количество информации в процессахпреобразования меняется, но возрастать не может. Свойство стираемостиинформации также не является независимым. Оно связано с таким преобразованиеминформации (передачей), при котором ее количество уменьшается и становитсяравным нулю.

Данных свойств информации недостаточно для формирования ее меры, так какони относятся к физическому уровню информационных процессов.

Подводя итог сказанному в п. 1.4 – 1.5, отметим, что предпринимаютсяусилия ученых, представляющих самые разные области знаний, построить единуютеорию, которая призвана формализовать понятие информации и информационногопроцесса, описать превращение информации в процессах самой разной природы.Движение информации есть сущность процессов управления, которые  ………, ее

еще рефераты
Еще работы по компьютерным сетям. педагогике