Информация как снятая неопределенность

Разделы: Информатика


План-конспект.

Время: 40 минут (продолжительность лекции 25 минут).

Класс: 10.

Форма организации учебного занятия: лекция.

Задачи:

Образовательные:

  • познакомить с несколькими способами измерения информации (объемный, алгоритмический и вероятностный);
  • продолжить формирование представления о понятиях неопределенность и вероятность;
  • установить связь между количеством информации в сообщении о некотором событии и вероятностью этого события (в приближении равной вероятности и в общем случае);
  • сформировать представление об определении единицы измерения неопределенности - бит.
  • повторить двоичную систему счисления;
  • повторить единицы измерения информации (бит, байт, кбайт и т.д);
  • продолжить формирование понятия “информация”;
  • повторить понятие фундаментальной величины;
  • повторить субъективный и кибернетический подходы к определению информации;
  • рассмотреть выделяемые по функциональному назначению виды информации;
  • повторить понятие информационного процесса;
  • раскрыть роль информационной технологии и вычислительной техники в развитии современного общества;
  • осуществление меж.предметных связей информатики с физикой, биологией и геометрией в процессе рассмотрения фундаментальных понятий этих наук.

Воспитательные:

  • продолжить знакомство с вузовскими формами организации учебных занятий;
  • продолжить формирование умения конспектировать лекцию;
  • раскрыть значение накопления фактов и их уточнения при познаваемости явлений;
  • показать, что моделирование и описание выступают как методы изучения фактов при обобщении явлений на разных уровнях;
  • продолжить формировать у учащихся аккуратность при работе с записями в тетради;
  • продолжить воспитывать у ребят уважение друг к другу;
  • продолжить воспитывать у учащихся умение слушать ответ товарища;
  • продолжить воспитывать уважительное отношение к труду;
  • продолжить формировать у учащихся пунктуальность.

Развивающие:

  • формирование представление об информации как одном из трех основополагающих понятий науки: веществе, энергии и информации, лежащих в основе строения современной научной картины мира;
  • вычислять количество информации в сообщении о событии с известной вероятностью (в приближении равной вероятности и в общем случае);
  • формирование умения приводить примеры информации и информационных процессов из области человеческой деятельности, живой природы и техники;
  • формирование умения приводить примеры сообщений несущих 1 бит информации;
  • продолжить формирование умения решать задачи;
  • формирование умения решать задачи по нахождению минимального количества бит для кодировки той или иной информации;
  • продолжить формирование умения высказывать умозаключения;
  • продолжить развитие самостоятельности в суждениях и в работе;
  • продолжить формирование умений делать логические заключения на основе имеющихся знаний;
  • продолжить формирование умения работать сосредоточенно;
  • продолжить развивать у учеников память, внимание, логическое мышление.

Оборудование: компьютер; проектор + экран.

Программное обеспечение: Microsoft PowerPoint.

Дидактический материал: файл презентации – Приложение1.

Ход учебного занятия

I. Организационный момент

Время: 1 мин.

Приветствие, установление дисциплины. Объявление темы и плана учебного занятия, а так же его цели для учащихся.

План.

  1. Понятие информации.
  2. Единицы измерения информации.
  3. Как компьютер хранит информацию.
  4. Способы измерения информации.
  5. Виды информации, выделяемые чисто по функциональному назначению.

II. Подготовка к активному и осознанному изложению нового учебного материала

Этап постановки доминирующей цели учебного занятия.

Время: 1 мин.

Постановка доминирующей цели урока и организацию учащихся на ее принятие.

Учитель дает учащимся задание на урок:

  • Законспектировать лекцию.
  • Дать ответы на вопросы:
    Что такое информация?
    Является ли бит минимальной порцией информации или нет?

III. Усвоение новых знаний

1. Понятие информации.

Метод: Беседа. Время: 5 мин.

Учитель. Ребята, что вы понимаете под словом “информация”?

Учащийся (1). Слово информация мы обычно понимаем как какое-то сообщение, сведения, которые мы откуда-то получаем.

Учащийся (2). Информацию помещают в газетах, передают по радио и телевидению.

Учитель. А как человек воспринимает информацию?

Учащийся. Человек воспринимает информацию об окружающем мире с помощью органов чувств (зрения, слуха, обоняния, осязания, вкуса).

Учитель. Действительно, под словом “информация” мы обычно понимаем какое-то сообщение, сведения, которые мы откуда-то получаем. Информацию помещают в газетах, передают по радио и телевидению. Но это — очень узкое понимание. Информация содержится в любом тексте, изображение, звуке, но не только в них. Информация, например, содержится в структуре сложной биологической молекулы. Эта информация позволяет живой клетке производить определенные белки для новых тканей или для уничтожения попавших в организм микробов. Таким образом, информация — это знания, сведения, которыми обладает человек, которые он получает из окружающего мира.

Такой подход к определению информации называют субъективным.

Существует, однако, и другой подход — кибернетический. Именно этот подход позволяет создавать машины, работающие с информацией. С этой точки зрения информация — это содержание последовательности символов, сигналов из некоторого алфавита.

Так что же такое “информация”? Информатика изучает свойства информации, но строгого, единого, и универсального определения этого понятия не дает.

Такое положение не стоит считать чем-то необычным. Например, в геометрии не дается определения точки, — это понятие является первичным, неопределяемым понятием или, как его называют в науке — фундаментальным.

Попробуйте привести примеры фундаментальных понятий, с которыми вы знакомились ранее.

Учащийся (1). В физике понятие электрического заряда является фундаментальным, так как четкого его определения не существует; электрический заряд принято характеризовать перечислением его свойств.

Учащиеся приводят другие примеры…

Учитель. Таким образом, информация – это первичное, неопределяемое понятие информатики. А теперь подумаем вот о чем: что человек делает с информацией, то есть со своими знаниями?

Учащийся (1). Человек хранит информацию в своей памяти или на каких-либо внешних носителях.

Учащийся (2). Человеку непрерывно приходится заниматься обработкой информации…

Учащийся (3). Человеку постоянно приходится участвовать в процессе передачи информации.

Учитель. Таким образом, информацию можно хранить, передавать и обрабатывать.

2. Единицы измерения информации.

Метод: Беседа. Время: 8 мин.

Учитель. Можно ли измерить информацию? Например, как измерить информацию, получаемую при ответе на тот или иной вопрос? Существуют различные определения количества информации. В некотором смысле информация может рассматривается как мера разрешения неопределенности. Рассмотрим несколько примеров.

Пример №1. Пусть у нас имеется монета, которую мы бросаем на ровную поверхность. С равной вероятностью произойдет одно из двух возможных событий — монета окажется в одном из двух положений: “орел” или “решка”.

Перед броском существует неопределенность наших знаний (возможны два события), и, как упадет монета, предсказать невозможно. После броска наступает полная определенность, так как мы видим (получаем зрительное сообщение), что монета в данный момент находится в определенном положении. Это сообщение приводит к уменьшению неопределенности наших знаний в два раза.

Пример №2. Предположим, что мы имеем восемь игральных карт, пронумерованных в возрастающем порядке от 1 до 8. Положим карты на стол и перемешаем их. Я случайным образом вытяну одну из карт. Для вас номер карты будет являться неопределенной величиной. Попробуйте определить ее номер. Вы можете задавать мне вопросы, но я буду отвечать на них только утверждениями “Да” или “Нет”. Постарайтесь выяснить номер карты за наименьшее число вопросов.

Играем…

Таким образом, определить номер карты можно было бы, задав всего три вопроса, подразумевающие всего два варианта ответа либо “да”, либо “нет”.

Для измерения неопределенности системы используется специальная единица, называемая бит. Бит является мерой неопределенности (или информации), связанной с наличием всего двух возможных равновероятных состояний, таких, как, например, “истинно – ложно”, “да – нет” и т.д. Таким образом, если задается вопрос: “У Пети есть черная ручка”, то неопределенность, связанная с цветом ручки, может быть устранена правильным ответом “да” или “нет”. А так как речь идет только о двух возможных ответах, то устраняемая неопределенность равна 1 биту.

Вернемся к картам. Для определения номера карты потребовалось всего три вопроса, следовательно, узнав ответы на них, вы получили ровно 3 бита информации.

3. Как компьютер хранит информацию?

Метод: Объяснение с элементами беседы. Время: 2 мин.

Учитель. Как же компьютер хранит информацию?

Учащийся. Информация в компьютере хранится в виде двоичных кодов.

Учитель. Действительно, память компьютера можно упрощенно представить в виде очень большого количества маленьких переключателей, каждый из которых может находиться в одном из двух состояний. Физически эти состояния могут быть реализованы различными способами: намагничено или не намагничено, высокое или низкое напряжение и т.д. Принято обозначать одно состояние 0, а другое — 1. Каждый такой переключатель и есть — бит.

Оказывается, что с помощью последовательностей битов можно представить самую разнообразную информацию. Это представление называется двоичным кодированием.

Предположим, что у нас есть 4 бита. Меняя их состояния, мы можем получить 16 различных комбинаций, которые легко перечислить и перенумеровать. Можно договориться, что данные комбинации соответствуют указанным числам.

0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
0 0 0 0 1 0 0 1 1 0 1 0 1 1 1 1
0 0 0 1 0 0 1 1 0 1 0 1 1 0 1 1
0 0 1 0 0 1 1 0 1 0 0 1 1 1 0 1
0 1 0 0 0 1 0 0 0 1 1 1 0 1 1 1

Таким образом, N бит позволяет закодировать 2N различных чисел.

На практике используют и более крупные единицы информации, нежели 1 бит. Часто пользуются байтом.1 байт = 8 бит. Для измерения больших количеств информации используют приставки:
1Кбайт = 1024 байта; 1 Мбайт = 1024 Кбайт = 10242 байт = 1048576 байт.

IV. Изложение материала учителем (лекция)

4. Способы измерения информации

Метод: Объяснение. Время: 12 мин.

Существует несколько способов измерения информации.

Объемный (технический). Каждый символ языка кодируется определенной последовательностью бит, и затем подсчитывается полное количество бит в сообщении. Смысловое содержание сообщения в этом случае не играет никакой роли. Так, если мы запишем дважды одно и то же сообщение, то информационный объем увеличится вдвое, смысловое же содержание сообщения не изменится. Попытки учесть смысл в определении количества информации приводят к иным результатам и иным способам подсчета количества информации.

Алгоритмическое измерение информации. Рассмотрим некоторую последовательность из нулей и единиц и постараемся определить, какое количество информации содержится в этой последовательности. Поставим в соответствие этой последовательности алгоритм, с помощью которого мы запишем и передадим данные и инструкции, руководствуясь которыми получатель воспроизведет ту же последовательность. Здесь необходимо сказать о таком понятии как “алгоритмическая сложность”, предложенному А.Н. Колмогоровым в 1965 г. Алгоритмическая сложность некоторой последовательности данных определяется, как минимальная длина вычислительного алгоритма, который мог бы воспроизвести заданную последовательность. Длина алгоритма может быть измерена в тех же битах. Если последовательность периодична, то ее не составит труда существенно сжать.

Случайные последовательности несжимаемы, и для измерения содержащегося в них количества информации подходит объемный способ измерения. Ценность информации, содержащейся в случайной последовательности цифр, по отношению к получателю этой информации — самая большая, но при одном условии: он должен быть в состоянии извлечь из сообщения что-либо полезное для себя, должен понять сообщение. Практически определить количество информации по способу А.Н. Колмогорова трудно, поскольку этот способ предполагает выбор оптимального способа кодировки, поиск оптимального алгоритма который воспроизвел заданную закодированную последовательность, и определение того, о чем надо предварительно сообщить получателю сообщения для декодирования последнего.

Вероятностный способ. Предположим, что в результате проведения опыта может наступить одно из N возможных событий. Все события равновероятны, независимы, наступление одного из них исключает наступление других. Неопределенность I результатов эксперимента принято характеризовать логарифмом числа возможных равновероятных исходов:

I = log2N (формула Хартли)

После проведения опыта наступившее событие оказывается достоверным, число N становится равным 1. Разность двух неопределенностей до и после проведения опыта — это и есть полученная информация. Если N = 2 (выбор из двух возможностей), то

I = log22 – log21 = 1 – 0 = 1

По этой формуле, так же, можно легко определить количество возможных событий, если известно количество информации. Например, если мы получили 4 бита информации, то количество возможных событий составило: N = 24 = 16.

Согласно определению вероятности P = 1/N, следовательно I = – log2P.

В более общем случае, при вычислении количества информации приходится иметь дело с сообщением об одном из N, но уже не равновероятных событий.

Количество информации, связанное с осуществлением того или иного k– го события равно:

Ik = – log2Pk

Пусть имеется строка текста, содержащая тысячу букв. Буква “о” в тексте встречается примерно 90 раз, буква “р” — 40 раз, буква “ф” — 2 раза, а буква “а” — 200 раз. Найдем среднюю частоту, с которой в рассматриваемом тексте встречается буква “а”: 200/1000 = 0,2. Вероятность P(a) появления буквы “а” в тексте можем считать приблизительно равной 0,2. Аналогично P(р) = 0,04; P(ф) = 0,002 и так далее. Количество информации, переносимой одной буквой: “а” равно Ik = – log20,2; буквой “р” — Ik = – log20,04; “ф” — Ik = – log20,002; “о” — Ik = -log20,09.

Удобнее в качестве меры количества информации пользоваться не значением Ik,, а средним значением количества информации, приходящейся на одно событие:

I = a Pk Ik = – a Pklog2Pk (формула Шеннона)

Например, при бросании несимметричной четырехгранной пирамидки вероятности отдельных событий будут равны: P1 = 1/2, P2 = 1/4, P3 = 1/8, P4 = 1/8. Тогда количество информации, которое мы получим после реализации одного из них, можно рассчитать по формуле.

I = – (1/2 log21/2+1/4 log21/4+1/8 log21/8)[бит] = (1/2+2/4+3/8+3/8)[бит] = 14/8[бит] = 1,75[бит].

Ошибочным является мнение, согласно которому 1 бит — это минимальная порция информации, своего рода “информационный квант”. Предположим, что бит действительно минимальная (несжимаемая) порция информации. Пусть нами получен текстовый файл некоторого объема. Воспользуемся каким-либо архиватором и сожмем файл до меньшей длины. Сообщение не стало нести меньше информации. Но как быть с тем, что исходный файл уже сконструирован из несжимаемых битов информации? Приходим к очевидному противоречию.

Рассмотрим частный случай, когда число возможных исходов некоторого события N = 2, а вероятности исходов неодинаковы, например P1 = 0.1 и P2 = 0.9. Подсчет по формуле Шеннона дает величину информации о результате опыта, равную всего 0,48 бит. Этот простой пример показывает, что ни о какой минимальности информации в один бит речи быть не может. Причина того, что некоторые символы двоичной последовательности могут нести информацию, меньше одного бита, в неравной вероятности исходов заключается в следующем: с одной стороны одни символы встречаются чаще, а другие реже; с другой стороны смысловую нагрузку несут не отдельные символы бинарной последовательности, а их комбинации, язык обладает свойством избыточности, и если в слове пропустить какую-нибудь букву, то не составит труда догадаться и восстановить потерянное.

5. Виды информации (по функциональному назначению)

Метод: Объяснение. Время: 4 мин.

По чисто функциональному назначению выделяют: текстовую, графическую и звуковую информацию.

Текстовая информация, как и любая другая, хранится в памяти компьютера в двоичном виде. Каждому символу сопоставляется его код – последовательность из фиксированного количества нулей и единиц. В большинстве современных ЭВМ каждому символу соответствует последовательность из 8 нулей и единиц называемая байтом. Всего существует 28 = 256 разных последовательностей – это позволяет закодировать 256 различных символов. Соответствие байтов и символов задается с помощью таблицы (кодовая таблица или кодировка), в которой для каждого кода указывается соответствующий символ.

Графическая информация. В графическом режиме экран разделяется на отдельные светящиеся точки (пиксели), количество которых определяет разрешающую способность монитора и зависит от его типа и режима. Любое графическое изображение хранится в памяти в виде информации о каждом пикселе на экране. Состояние каждого пикселя описывается последовательностью нулей и единиц, соответствующих кодировке его цвета. Такую форму представления информации называют растровой. В зависимости от того, сколькими цветами вы можете высветить каждый пиксель, рассчитывается отводимый под нее объем памяти. Если монитор может работать с 256 цветами, то под каждый пиксель отводится 8 бит, или 1 байт (28 = 256).

Звуковая информация. Звук представляет собой звуковую волну с непрерывно меняющейся амплитудой и частотой. Чем больше амплитуда сигнала, тем он громче для человека. На компьютере можно воспроизводить и записывать музыку и человеческую речь. Существует два способа звукозаписи:

  • Цифровая — когда реальные звуковые волны преобразуются в цифровую информацию путем измерения звука тысячи раз в секунду. Этот процесс называется дискретизацией, и, например, частота дискретизации 44 кГц означает, что измерения производятся 44 тысячи раз в секунду. Ее можно реализовать, если в компьютере есть звуковая плата. Звук представляет собой изменяющееся с течением времени давление, которое может быть преобразовано в изменяющийся во времени электриче6ский сигнал с помощью микрофона. Звуковая плата преобразует электрический сигнал на входе в цифровую информацию путем измерения величины электрического сигнала тысячи раз в секунду. Получившиеся значения записываются в виде нулей и единиц в память компьютера (расширение wav). При воспроизведении звука специальное устройство звуковой карты преобразует цифры обратно в аналоговый сигнал, подающийся на самые обычные звуковые усилители, а оттуда — на колонки. Для получения высококачественного цифрового представления звукового сигнала требуется высокая частота дискретизации.
  • MIDI — запись, которая, вообще говоря, является не реальным звуком, а записью определенных команд указаний синтезатору. Электронный эквивалент нотной записи. MIDI команды гораздо удобнее для хранения музыкальной информации, чем цифровая запись. Однако, таким способом можно записать только те звуки, которые может воспроизводить MIDI синтезатор.

V. Проверка понимания учащимися нового материала

Время: 5 мин.

Задания:

  1. Сколько бит потребуется для того, чтобы закодировать 54 игральных карты?
  2. Какое количество информации получит второй игрок в игре “Угадай число” при оптимальной стратегии, если первый игрок загадал число от 1 до 32?

VI. Подведение итогов лекции

Время: 1 мин.

Учитель называет отличившихся, выставляет оценки. Собирает тетради.

Сегодня на занятии мы продолжили знакомство с таким важным понятием, как “информация”, повторили понятие фундаментальной величины, познакомились с единицами измерения информации, формулами Шеннона и Хартли, повторили понятия неопределенность и вероятность, вспомнили про двоичную систему счисления, познакомились с несколькими способами измерения информации (объемный и алгоритмический).

VII. Информация учителя о домашнем задании

Время: 1 мин.

Домашнее задание направлено на дальнейшее развитие знаний и подготовку к последующему обучению.

Человек способен различать 100 градаций яркости. Сколько бит необходимо, чтобы закодировать конкретное значение яркости?

Вероятность первого события 0,4, а второго и третьего – 0,3. Какое количество информации мы получим после реализации одного из них.

Литература

  1. Патрушев Г.О. Основы программирования: учебное пособие. Часть I – Красноярск: РИО КГПУ, 2001. – 260 с.
  2. Лапчик М. П. Методика преподавания информатики: Учебное пособие для студ. Пед. Вузов -М.:Издательский центр “Академия”, 2001.-624 с.
  3. Угринович. Н. Д. Информатика и информационные технологии. Учебник для 10-11 классов -512 с.: ил.