Цели урока:
Оборудование: компьютер, видеопроектор, экран.
План занятия
- История развития "науки о случае".
- Случайные события. Случайный эксперимент. Элементарные исходы.
- Классическое определение вероятности. Примеры.
- Вероятность и информация.
История развития "науки о случае" [4]
Вопрос к классу: приходилось ли вам встречаться со словом "вероятно"? Где, при каких обстоятельствах? Вероятность относится к числу понятий, которыми мы охотно пользуемся в повседневной жизни, совсем не задумываясь об этом. Например, на вопрос "Завтра пойдем на хоккей?" мы отвечаем "Вероятно, да". В этой короткой реплике имеется попытка оценить возможность появления данного события.
Если сравнивать с тысячелетней историей математики, теория вероятностей - наука совсем молодая, первые научные трактаты появляются только в XVI в. Но то, что случайность подчиняется каким-то своим законам, люди заметили еще в глубокой древности. Можно считать установленным, что во время игры или гадания кости животных подбрасывали и следили за тем, как они упадут. Было хорошо известно, что некоторые грани кости выпадают чаще, но никаких количественных оценок случайности люди не знали. Игры, основанные на случайности, вызывали огромное возбуждение, азарт у всех участников. Игроки старались как-то обобщить накопленный опыт и найти надежные правила, увеличивающие шансы в игре. Как вы считаете, подчиняется ли вероятность некоторым законам? Оказывается, да.
<Презентация (слайды 1 - 4)>
Давайте и мы попробуем посмотреть, как проявляются законы, которым подчиняется случай. Проведем такой эксперимент. Возьмите любую монету и подбросьте ее 10 раз. Подсчитайте, сколько раз она упадет на "орла" и сколько раз на "решку"? При единичном подбрасывании выпадение "орла" и "решки" происходит совершенно случайно. Но если подбросить монету 100 раз, то почти наверняка можно утверждать, что примерно половину раз она упадет на "орла". Знаменитый французский естествоиспытатель Бюффон (1707 - 1788) проделал этот опыт 4040 раз, при этом выпадение "орла" равнялось 2048. Английский математик Пирсон (1857 - 1936) повторил опыт 12 тысяч раз, число выпадений герба составило 6019. Из этих опытов видно, что доля появления герба явно стремится к 0,5.
Как вы думаете, с какой частотой будет выпадать шестерка при подбрасывании игрального кубика? А если подбрасывать канцелярскую кнопку, то как чаще всего она будет падать? Почему? (Кнопка несимметрична, поэтому нельзя считать равновозможными исходы двух событий - кнопка падает или острием, или шляпкой).
Начиная со второй половины ХХ века количественное измерение явлений, математическое моделирование различных процессов стали непременным условием научного творчества. Особое значение приобрели вероятностно-статистические методы. Во всем мире настолько усилился интерес к "науке о случае", что теория вероятностей стала модной в самом лучшем смысле этого слова.
В России первые исследования по теории вероятностей были выполнены к середине XIX столетия. Они связаны с именами замечательных ученых-математиков Н.И.Лобачевского, М.В.Остроградского, В.Я.Буняковского. В.Я.Буняковский впервые дал на русском языке терминологию новой науки, которая не изменялась до сих пор. Во второй половине XIX века блестящие открытия были сделаны П.Л.Чебышевым, А.М.Ляпуновым и А.А.Марковым, с тех пор теорию вероятностей стали называть "русской наукой". С.Н.Бернштейн, А.Я.Хинчин, А.Н Колмогоров продолжили традиции своих учителей.
Сейчас нет области знания, в которой бы не использовались методы теории вероятностей. Это физика, геодезия, теория измерений, медицина, биология, космонавтика, теория стихосложения, лингвистика, психология, теория информации, теория надежности, статистический контроль качества, планирование эксперимента и другие.
Нельзя не отметить, что теория вероятностей является математической основой одной из новых наук ХХ века - кибернетики. Существенный отпечаток на развитие теории вероятностей наложило еще одно детище научно-технической революции - компьютеры, возможности которых, образно говоря, открыли шлюзы, сквозь которые вероятностно-статистические методы хлынули в практику.
<Презентация (слайды 5 - 7)>
Случайные события. Случайный эксперимент. Элементарные исходы. [6]
Рассмотрим еще раз пример с подбрасыванием монеты. Этот эксперимент можно считать простейшим случайным опытом. В результате такого опыта монета может с равными шансами упасть на одну из двух своих сторон.
Определение. Событие называется случайным, если при одних и тех же условиях оно может как произойти, так и не произойти.
Говоря о случайном событии, мы всегда имеем в виду наличие определенных условий, без которых об этом событии не имеет смысла говорить (в примере с монетой есть возможность неоднократно воспроизводить одни и те же условия, в которых наблюдается данное событие). Этот комплекс условий называется случайным опытом или случайным экспериментом. До эксперимента, как правило, невозможно сказать, произойдет данное событие или нет, - это выясняется лишь после его завершения. Но в теории вероятностей принято считать случайными и события невозможные (которые никогда не могут произойти), и события достоверные (которые происходят при каждом таком эксперименте). Например, при подбрасывании игрального кубика появление 7 очков - невозможное событие. Кроме случайного события, с опытом связано еще одно важное понятие - элементарного исхода.
Определение. Элементарным исходом называется один из взаимоисключающих друг друга вариантов, которыми может завершиться случайный эксперимент.
Определение. Элементарным событием называется исход, неделимый на более мелкие исходы.
А любое неэлементарное событие будет состоять из некоторого множества исходов, которые называются благоприятными для этого события. Благоприятны они в том смысле, что приводят к наступлению данного события. Если обозначить множество всех возможных исходов опыта буквой А, то каждый исход есть элемент а этого множества, а любое случайное событие В - это подмножество А.
Невозможному событию соответствует пустое множество благоприятных исходов, а достоверному - множество всех исходов В.
Мы ввели три важнейших понятия, лежащие в основе теории вероятностей: случайный эксперимент, случайное событие, элементарный исход.
Определения вероятности
Как видно из примеров, многие явления нам кажутся случайными только при первом (поверхностном) взгляде на них. При более углубленном изучении обнаруживается, что сквозь нагромождение случайностей пробивает себе дорогу закономерность. Так, в первом примере доля выпадения "решки" колеблется вокруг числа 0,5; во втором примере (игральный кубик) выпадение любого числа от 1 до 6 приблизительно равняется 1/6. Закономерности такого рода привлекли внимание ученых. Для того чтобы численно выразить эту закономерность, были введены различные определения понятия вероятности. Рассмотрим те из них, которые получили наибольшую известность.
<Презентация (слайд 8)>
Классическое определение вероятности
Исторически первым определением понятия вероятности является классическое определение (начало XIX века). Всякое событие мы будем рассматривать как исход некоторого испытания. Например, событие "цель поражена" является случайным исходом испытания, состоящего в том, что по цели был выпущен снаряд. Классическое определение вероятности тесно связано с некоторыми свойствами событий. Во-первых, события должны быть несовместными, т.е. появление одного из событий в единичном испытании исключает появление другого события в этом же испытании. Во-вторых, при рассмотрении группы этих событий не может произойти никакое другое событие, не входящее в эту группу (события единственно возможные). В-третьих, события должны быть равновозможными, т.е. ни у одного из событий нет каких-либо преимуществ перед другими.
Определение. Вероятностью случайного события А называется отношение числа благоприятных исходов к общему числу несовместных единственно возможных и равновозможных исходов.
Используя математические символы, данное определение можно записать так: Р(А) = , где Р(А) - вероятность события А, m - число исходов, благоприятных для события А, n - общее число несовместных единственно возможных и равновозможных исходов.
Используя это определение, можно вывести, что вероятность достоверного события равна 1, вероятность невозможного события равна 0, вероятность случайного события заключена между 0 и 1.
<Презентация (слайд 9)>
Пример 1. Одной из первых задач, для решения которых были использованы методы классической теории вероятностей, является следующей: вычислить вероятности всех возможных значений суммы очков, выпадающих при подбрасывании двух игральных костей. Очевидно, самым маленьким значением суммы является число 2, самым большим - число 12. Будем последовательно вычислять вероятности всех значений от 2 до 12. Сначала вычислим общее число возможных исходов. Их будет 36 (каждая цифра, выпадающая на первой игральной кости, может складываться с шестью различными цифрами, выпадающими на второй игральной кости). Эти исходы отвечают трем требованиям, предъявляемым классической вероятности. Они несовместны, т.к. появление одного исхода исключает появление других в единичном испытании. Они единственно возможны, т.к. при одном подбрасывании двух игральных костей возможен один и только один из этих исходов. Они равновозможны, т.к. в силу случайного падения игральных костей нет никаких оснований считать какой-либо исход более возможным, чем другие. Выполнение трех перечисленных требований позволяет использовать классическое определение для подсчета вероятности. Появлению числа 2 (как и числа 12) благоприятствует всего один исход, появлению числа 3 благоприятствуют уже два исхода (1+2, 2+1). Продолжая вычисления аналогичным образом, все полученные результаты представим в следующем виде:
Значения суммы очков | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 |
Вероятности этих значений | 1/36 | 2/36 | 3/36 | 4/36 | 5/36 | 6/36 | 5/36 | 4/36 | 3/36 | 2/36 | 1/36 |
Пример 2. Подбрасываем две одинаковые монеты. Какова вероятность того, что она упадут на одну и ту же сторону?
Опыт имеет четыре равновозможных исхода: обе монеты упадут на "орла", обе монеты упадут на "решку", первая монета упадет на "орла", вторая - на "решку", вторая монета упадет на "орла", первая - на "решку". Благоприятных для нашего события будут два исхода, поэтому искомая вероятность равна ?.
Пример 3. Из коробки, в которой 2 белых и два черных шара, вытаскивают два шара. Какова вероятность того, что они окажутся одного цвета? Ответ: Р(А) = 2/3.
Пример 4. Брошены две игральные кости. Найти вероятность того, что сумма очков на выпавших гранях равна семи. Ответ: Р = 1/6.
Пример 5. Монета брошена два раза. Найти вероятность того, что хотя бы один раз появится "герб". Ответ: Р = ?.
Вероятность и информация.
Выясним, какая связь существует между теорией информации и теорией вероятностей.
К числу основных понятий теории вероятностей относится понятие информации. В последние годы на границе между точными и гуманитарными науками создан целый ряд новых дисциплин, синтезировавших абстрактно-математический метод точных наук и описательный метод наук гуманитарных. К числу этих наук относится и теория информации. Первые работы по статистической теории информации опубликовал американский математик и инженер К.Шеннон в 1948 году. Как вы уже знаете, понятие информации тесно связано с понятием неопределенности. Информация о состоянии системы имеет смысл только при наличии некоторой неопределенности (энтропии) относительно состояния этой системы (если состояние системы заранее известно, то информативность сообщения равна нулю).
Можно ли измерить степень неопределенности системы? Чтобы ответить на этот вопрос, рассмотрим три примера: А - подбрасывание монеты, В - подбрасывание игральной кости, С - изготовление детали. В третьем примере предположим, что брак составляет 1% всех деталей. Будем называть каждый из этих примеров системой. Система характеризуется двумя параметрами: количеством возможных состояний и вероятностями этих состояний. Выясним, как зависит неопределенность системы от этих двух параметров. Первая система (монета) может принимать всего два возможных состояния - выпадение "орла" (событие А1) или выпадение "решки" (событие А2). Вторая система (игральная кость) может принимать шесть возможных состояний - выпадение одного очка (событие В1), двух очков (событие В2) и т.д., значит, неопределенность какой системы больше? (второй). Какой вывод вы можете сделать? (Из этого можно сделать первый вывод: неопределенность системы зависит от числа возможных состояний системы).
Но если сравнивать между собой первую и третью системы, то для третьей системы почти наверняка можно предсказать, что (?): (изготовленная деталь окажется годной). Рассмотрим вероятности всех этих событий: Р(А1) = 0,5 и Р(А2) = 0,5; Р(В1), Р(В2) и т.д. приблизительно равны 0,167. Вероятность того, что изготовленная деталь окажется годной составит 0,99. Напрашивается второй вывод (какой?): неопределенность системы зависит от вероятности возможных состояний системы.
Формула, в которой учитываются оба параметра системы, была открыта К. Шенноном и записывается таким образом: энтропией системы Х называется величина
Н(Х) = - , в качестве основания логарифма удобнее принять число 2. В качестве единицы измерения энтропии Шеннон предложил принять энтропию, заключенную в системе, находящейся в двух равновозможных состояниях (пример с монетой), эта единица измерения получила название "бит", что означает двоичный знак.
Вероятностные исследования, какими бы абстрактными они не показались, всегда нацелены на практику. Проведем эксперимент. Выберите любую страницу текста в ваших конспектах, подсчитайте общее количество символов на ней (знаки препинания не учитывайте, а пробелы между словами надо учитывать), а затем подсчитайте количество букв "а", разделите второе число на первое и запишите ответ в тетрадях. Какие у вас получились числа? (Близкие к 0,06). А если проделать те же вычисления для буквы "о", то получится примерно 0,09. Это значит, что частота буквы обладает статистической устойчивостью, эти частоты приняты за приближенные значения вероятностей, например, частота появления буквы "а" равна 0,062; буквы "ф" - 0,002; знака "пробел" - 0,175.
Учитываются частоты букв при изготовлении клавиатур компьютеров: часто встречающиеся буквы расположены на самых удобных местах, встречающиеся редко - на менее удобных. В 1963 году в науке появилось понятие речевой вероятности (математическая лингвистика). Получение статистических характеристик речи необходимо для развития техники телефонной связи. Работа современных технических устройств в той или иной мере связана с переработкой и передачей информации. Расшифровывая символы, всегда используют частоту появления букв в том или ином языке. При передаче информации коды шифруются различными способами, возникает задача отыскания оптимального способа кодирования.
Домашнее задание
Задача 1. В ящике имеется 15 деталей, среди которых 10 окрашенных. Сборщик наудачу извлекают 3 детали. Найти вероятность того, что извлеченные детали окажутся окрашенными. (Отв. 24/91)
Задача 2. В ящике 100 деталей, из них 10 бракованных. Наудачу извлечены 4 детали. Найти вероятность того, что среди извлеченных деталей нет бракованных. (Отв.0,65)
Список литературы
- Коваленко И.Н., Филиппова А.А. Теория вероятностей и математическая статистика. Учебное пособие для втузов. М., Высшая школа, 1973, 368 с.
- Гмурман В.Е. Теория вероятностей и математическая статистика. Учебное пособие для вузов. Изд.6-е, стер. - М., Высшая школа, 1998. - 479 с.
- Гмурман В.Е. Руководство к решению задач по теории вероятностей и математическая статистике. Учебное пособие для втузов. Изд.2-е, доп. - М., Высшая школа, 1975. - 333 с.
- Гнеденко Б.В., Хинчин А.Я. Элементарное введение в теорию вероятностей. Изд.8-е, испр. - М., Наука, 1976. - 168 с.
- Чубарев А.М., Холодный В.С. Невероятная вероятность. М., Знание, 1976. - 128 с.
- Бунимович Е., Булычев В. Вероятность и статистика в курсе математики основной школы. Учебно-методическая газета Математика №№ 17 - 24.2007