Цели урока:
- сформировать у учащихся понимание вероятности, равновероятных событий, неравновероятных событий; учить находить количество информации;
- воспитание информационной культуры учащихся, внимательности, аккуратности, дисциплинированности, усидчивости;
- развитие познавательных интересов, самоконтроля, умения конспектировать.
Оборудование:
доска, компьютер, мультимедийный проектор, компьютерная презентация – Приложение 1, карточки с заданиями – Приложение 2, справочный материал – Приложение 3.
План урока:
- Организационный момент.
- Проверка и актуализация знаний.
- Теоретическая часть.
- Практическая часть (решение задач).
- Д/з.
- Вопросы учеников.
- .Итог урока.
ХОД УРОКА
I. Организацонный. момент.
Приветствие, проверка присутствующих. Объяснение хода урока.
II. Проверка и актуализация знаний.
- Что такое информация?
- Как может быть представлена информация? Приведите примеры.
- Зависит ли смысл, содержание информации от способа представления?
- Какие формы представления информации вы знаете?
- Какие свойства информации вы знаете?
- Представьте информацию о погоде в различной форме.
Мы с вами говорили, что основным понятием в информатике является “информация”. А можно ли измерить количество информации и как это сделать? (Полного и правильного ответа на этот вопрос учащиеся вряд ли дадут.)
Как и любую величину, информацию можно измерять и находить ее количество.
III. Теоретическая часть.
Существует два подхода к измерению информации:
- алфавитный (т.е. количество информации зависит от последовательности знаков);
- содержательный или вероятностный (т.е. количество информации зависит от ее содержания).
1) Рассмотрим первый подход к измерению информации. При определении количества информации на основе уменьшения неопределенности наших знаний мы рассматриваем информацию с точки зрения содержания., ее понятности и новизны для человека. С этой точки зрения в опыте по бросанию монеты одинаковое количество информации содержится и в зрительном образе упавшей монеты, и в коротком сообщении “Орел”, и в длинной фразе “Монета упала на поверхность земли той стороной вверх, на которой изображен орел”.
Однако при хранении и передаче информации с помощью технических устройств целесообразно отвлечься от содержания информации и рассматривать ее как последовательность знаков (букв, цифр, кодов цветов точек изображения и так далее).
Множество используемых в тексте символов называется алфавитом.
У алфавита есть размер (полное количество его символов), который называется мощностью алфавита.
Набор символов знаковой системы (алфавит) можно рассматривать как различные возможные состояния (события). Тогда, если считать, что появление символов в сообщении равновероятно, по формуле (2.1) можно рассчитать, какое количество информации несет каждый символ.
Так, в русском алфавите, если не использовать букву ё, количество событий (букв) будет равно 32. Тогда: 32=2I, откуда I = 5 битов.
Каждый символ несет 5 битов информации (его информационная емкость равна 5 битов). Количество информации в сообщении можно подсчитать, умножив количество информации, которое несет 1 символ, на количество символов:
(1)
Количество информации, которое содержит сообщение, закодированное с помощью знаковой системы, равно количеству информации, которое несет один знак, умноженному на количество знаков.
2) Рассмотрим второй подход к измерению информации. Существует множество ситуаций, когда возможные события имеют различные вероятности реализации.
Например:
- Когда сообщают прогноз погоды, то сведения о том, что будет дождь, более вероятно летом, а сообщение о снеге – зимой.
- Если вы – лучший ученик в классе, то вероятность сообщения о том, что за контрольную работу вы получили 5, больше, чем вероятность получения двойки.
- Если на озере живет 500 уток и 100 гусей, то вероятность подстрелить на охоте утку больше, чем вероятность подстрелить гуся.
- Если в мешке лежат 10 белых шаров и 3 черных, то вероятность достать черный шар меньше, чем вероятность вытаскивания белого.
- Если монета несимметрична (одна сторона тяжелее другой), то при ее бросании вероятности выпадения “орла” и “решки” будут различаться.
(2)
Американский инженер и математик Клод Элвуд Шеннон в 1948 г. предложил формулу для вычисления количества информации в случае различных вероятностей событий:
где I – количество информации;
N – количество возможных событий;
pi – вероятность i-го события. Вероятность события выражается в долях единицы и вычисляется по формуле: (3)
где k – количество конкретных событий, т.е. величина, показывающая, сколько раз произошло интересующее нас событие.
Знак минус в формуле Шеннона не означает, что количество информации в сообщении – отрицательная величина. Объясняется это тем, что вероятность р, согласно определению, меньше единицы, но больше нуля. Так как логарифм числа, меньшего единицы, т.е. log pi – величина отрицательная, то произведение вероятности на логарифм числа будет положительным.
Например:
пусть при бросании несимметричной 4-х гранной пирамидки вероятности отдельных событий будут равны:
Тогда,
Этот подход к определению количества информации называется вероятностным.
Если , следовательно исходы равновероятны, то вероятность каждого исхода – это число , то
Формула (4) – формула Хартли (американский инженер – связист) – предложена в 1928 г.
Например. Определим количество информации, которое мы получим при бросании симметричной и однородной 4-х гранной пирамидки:
Таким образом, при бросании симметричной пирамидки, когда события равновероятны, получим большее количество информации (2 бита), чем при бросании несимметричной (1,75 бита), когда события неравновероятны.
Как измерить количество информации?
Ясно, что ликвидировать неопределенность – это и значит получить информацию. Следовательно, формула (2) показывает, какое количество информации можно получить для любой конкретной системы.
Или: формула (2) показывает, каким количеством информации нужно располагать, чтобы полностью снять неопределенность.
Итак, если информация понимается как отражение разнообразия, то мерой для ее количества выступает мера неопределенности, которой обладает рассматриваемая в этот момент ситуация. Описывая неопределенность на языке вероятностей, мы приходим к формуле Шеннона.
Вероятностный подход к измерению информации для конкретного события:
Количество информации, которое мы получаем, достигает максимального значения, если события равновероятны.
Если количество возможных вариантов информации не является целой степенью числа 2, т.е. если количество информации число вещественное, то необходимо воспользоваться калькулятором или следующей таблицей:
N |
I |
N |
I |
N |
I |
N |
I |
1 |
0,00000 |
17 |
4,08746 |
33 |
5,04439 |
49 |
5,61471 |
2 |
1,00000 |
18 |
4,16993 |
34 |
5,08746 |
50 |
5,64386 |
3 |
1,58496 |
19 |
4,24793 |
35 |
5,12928 |
51 |
5,67243 |
4 |
2,00000 |
20 |
4,32193 |
36 |
5,16993 |
52 |
5,70044 |
5 |
2,32193 |
21 |
4,39232 |
37 |
5,20945 |
53 |
5,72792 |
6 |
2,58496 |
22 |
4,45943 |
38 |
5,24793 |
54 |
5,75489 |
7 |
2,80735 |
23 |
4,52356 |
39 |
5,28540 |
55 |
5,78136 |
8 |
3,00000 |
24 |
4,58496 |
40 |
5,32193 |
56 |
5,80735 |
9 |
3,16993 |
25 |
4,64386 |
41 |
5,35755 |
57 |
5,83289 |
10 |
3,32193 |
26 |
4,70044 |
42 |
5,39232 |
58 |
5,85798 |
11 |
3,45943 |
27 |
4,75489 |
43 |
5,42626 |
59 |
5,88264 |
12 |
3,58496 |
28 |
4,80735 |
44 |
5,45943 |
60 |
5,90689 |
13 |
3,70044 |
29 |
4,85798 |
45 |
5,49185 |
61 |
5,93074 |
14 |
3,80735 |
30 |
4,90689 |
46 |
5,52356 |
62 |
5,95420 |
15 |
3,90689 |
31 |
4,95420 |
47 |
5,55459 |
63 |
5,97728 |
16 |
4,00000 |
32 |
5,00000 |
48 |
5,58496 |
64 |
6,00000 |
Вопросы:
- Какие существуют два подхода к измерению информации?
- Что такое алфавит?
- Какой величиной характеризуется алфавит?
- Каким образом можно подсчитать количество информации в сообщении?
- Одинаковую ли вероятность реализации имеют события?
- Приведите примеры событий с одинаковой вероятностью, с разной вероятностью.
- Как определить количество информации при равновероятных событиях?
- Как определить количество информации при неравновероятных событиях?
- По какой формуле вычисляется вероятность?
- Как при вероятностном подходе можно измерить информацию для конкретного события?
III. Решение задач.
- Вероятность первого события составляет 0,5, а второго и третьего – 0,25. Какое количество информации мы получим после реализации одного из них? (Ответ: 1,5 бита)
- В мешке находятся 20 шаров. Из них 15 белых и 5 красных. Какое количество информации несет сообщение о том, что достали: а) белый шар; б) красный шар. Сравните ответы. (Ответ: количество информации в сообщении о том, что достали белый шар, равно 1,1547 бит. Количество информации в сообщении о том, что достали красный шар, равно 2 бит. При сравнении ответов получается следующая ситуация: вероятность вытаскивания белого шара была больше, чем вероятность вытаскивания красного шара, а информации при этом получилось меньше. Это не случайность, а закономерная, качественная связь между вероятностью события и количеством информации в сообщении об этом событии.)
- В коробке лежат кубики: 10 красных, 8 зеленых, 5 желтых, 12 синих. Вычислите вероятность доставания кубика каждого цвета и количество информации, которое при этом будет получено.
Вопросы к учащимся:
- Являются ли события равновероятными? Почему? (Нет, т.к. количество кубиков разное.)
- Какую формулу будем использовать для решения задачи? ()
Если позволяет время, то можно решить и другие задачи из карточки с заданиями – Приложение 2.
IV. Д/з
V. Вопросы учеников.
Ответы на вопросы учащихся.
VI. Итог урока.
Подведение итога урока. Выставление оценок.
На уроке мы познакомились с двумя подходами к измерению информации: алфавитному и вероятностному; научились различать равновероятные и неравновероятные события, вычислять вероятность событий, определять количество информации.
Литература:
- Информатика и информационные технологии. Учебник для 10–11-й классов / Н.Д. Угринович. – М.: Бином. Лаборатория Знаний. 2006.
- Соколова О.Л. Универсальные поурочные разработки по информатике. 10-й класс. – М.: ВАКО, 2006.
- Задачник по теоретической информатике. Школьный курс. / Сост. Лапшева Е.Е. – Саратов, 2004.