Большую вероятность чего либо как. Определение вероятности

Что такое вероятность?

Столкнувшись с этим термином первый раз, я бы не понял, что это такое. Поэтому попытаюсь объяснить доступно.

Вероятность - это шанс того, что произойдет нужное нам событие.

Например, ты решил зайти к знакомому, помнишь подъезд и даже этаж на котором он живет. А вот номер и расположение квартиры забыл. И вот стоишь ты на лестничной клетке, а перед тобой двери на выбор.

Каков шанс (вероятность) того, что если ты позвонишь в первую дверь, тебе откроет твой друг? Всего квартиры, а друг живет только за одной из них. С равным шансом мы можем выбрать любую дверь.

Но каков этот шанс?

Дверей, нужная дверь. Вероятность угадать, позвонив в первую дверь: . То есть один раз из трех ты точно угадаешь.

Мы хотим узнать, позвонив раз, как часто мы будем угадывать дверь? Давай рассмотри все варианты:

  1. Ты позвонил в дверь
  2. Ты позвонил в дверь
  3. Ты позвонил в дверь

А теперь рассмотрим все варианты, где может находиться друг:

а. За 1ой дверью
б. За 2ой дверью
в. За 3ей дверью

Сопоставим все варианты в виде таблицы. Галочкой обозначены варианты, когда твой выбор совпадает с местоположением друга, крестиком - когда не совпадает.

Как видишь всего возможно вариантов местоположения друга и твоего выбора, в какую дверь звонить.

А благоприятных исходов всего . То есть раза из ты угадаешь, позвонив в дверь раз, т.е. .

Это и есть вероятность - отношение благоприятного исхода (когда твой выбор совпал с местоположение друга) к количеству возможных событий.

Определение - это и есть формула. Вероятность принято обозначать p, поэтому:

Такую формулу писать не очень удобно, поэтому примем за - количество благоприятных исходов, а за - общее количество исходов.

Вероятность можно записывать в процентах, для этого нужно умножить получившийся результат на:

Наверное, тебе бросилось в глаза слово «исходы». Поскольку математики называют различные действия (у нас такое действие - это звонок в дверь) экспериментами, то результатом таких экспериментов принято называть исход.

Ну а исходы бывают благоприятные и неблагоприятные.

Давай вернемся к нашему примеру. Допустим, мы позвонили в одну из дверей, но нам открыл незнакомый человек. Мы не угадали. Какова вероятность, что если позвоним в одну из оставшихся дверей, нам откроет наш друг?

Если ты подумал, что, то это ошибка. Давай разбираться.

У нас осталось две двери. Таким образом, у нас есть возможные шаги:

1) Позвонить в 1-ую дверь
2) Позвонить во 2-ую дверь

Друг, при всем этом, точно находится за одной из них (ведь за той, в которую мы звонили, его не оказалось):

а) Друг за 1-ой дверью
б) Друг за 2-ой дверью

Давай снова нарисуем таблицу:

Как видишь, всего есть варианта, из которых - благоприятны. То есть вероятность равна.

А почему не?

Рассмотренная нами ситуация - пример зависимых событий. Первое событие - это первый звонок в дверь, второе событие - это второй звонок в дверь.

А зависимыми они называются потому что влияют на следующие действия. Ведь если бы после первого звонка в дверь нам открыл друг, то какова была бы вероятность того, что он находится за одной из двух других? Правильно, .

Но если есть зависимые события, то должны быть и независимые ? Верно, бывают.

Хрестоматийный пример - бросание монетки.

  1. Бросаем монетку раз. Какова вероятность того, что выпадет, например, орел? Правильно - , ведь вариантов всего (либо орел, либо решка, пренебрежем вероятностью монетки встать на ребро), а устраивает нас только.
  2. Но выпала решка. Ладно, бросаем еще раз. Какова сейчас вероятность выпадения орла? Ничего не изменилось, все так же. Сколько вариантов? Два. А сколько нас устраивает? Один.

И пусть хоть тысячу раз подряд будет выпадать решка. Вероятность выпадения орла на раз будет все также. Вариантов всегда, а благоприятных - .

Отличить зависимые события от независимых легко:

  1. Если эксперимент проводится раз (раз бросают монетку, 1 раз звонят в дверь и т.д.), то события всегда независимые.
  2. Если эксперимент проводится несколько раз (монетку бросают раз, в дверь звонят несколько раз), то первое событие всегда независимое. А дальше, если количество благоприятных или количество всех исходов меняется, то события зависимые, а если нет - независимые.

Давай немного потренируемся определять вероятность.

Пример 1.

Монетку бросают два раза. Какова вероятность того, что два раза подряд выпадет орел?

Решение:

Рассмотрим все возможные варианты:

  1. Орел-орел
  2. Орел-решка
  3. Решка-орел
  4. Решка-решка

Как видишь, всего варианта. Из них нас устраивает только. То есть вероятность:

Если в условии просят просто найти вероятность, то ответ нужно давать в виде десятичной дроби. Если было бы указано, что ответ нужно дать в процентах, тогда мы умножили бы на.

Ответ:

Пример 2.

В коробке конфет все конфеты упакованы в одинаковую обертку. Однако из конфет - с орехами, с коньяком, с вишней, с карамелью и с нугой.

Какова вероятность, взяв одну конфету, достать конфету с орехами. Ответ дайте в процентах.

Решение:

Сколько всего возможных исходов? .

То есть, взяв одну конфету, она будет одной из, имеющихся в коробке.

А сколько благоприятных исходов?

Потому что в коробке только конфет с орехами.

Ответ:

Пример 3.

В коробке шаров. из них белые, - черные.

  1. Какова вероятность вытащить белый шар?
  2. Мы добавили в коробку еще черных шаров. Какова теперь вероятность вытащить белый шар?

Решение:

а) В коробке всего шаров. Из них белых.

Вероятность равна:

б) Теперь шаров в коробке стало. А белых осталось столько же - .

Ответ:

Полная вероятность

Вероятность всех возможных событий равна ().

Допустим, в ящике красных и зеленых шаров. Какова вероятность вытащить красный шар? Зеленый шар? Красный или зеленый шар?

Вероятность вытащить красный шар

Зеленый шар:

Красный или зеленый шар:

Как видишь, сумма всех возможных событий равна (). Понимание этого момента поможет тебе решить многие задачи.

Пример 4.

В ящике лежит фломастеров: зеленых, красных, синих, желтых, черный.

Какова вероятность вытащить НЕ красный фломастер?

Решение:

Давай посчитаем количество благоприятных исходов.

НЕ красный фломастер, это значит зеленый, синий, желтый или черный.

Вероятность того, что событие не произойдет, равна минус вероятность того, что событие произойдет.

Правило умножения вероятностей независимых событий

Что такое независимые события ты уже знаешь.

А если нужно найти вероятность того, что два (или больше) независимых события произойдут подряд?

Допустим мы хотим знать, какова вероятность того, что бросая монетку раза, мы два раза увидим орла?

Мы уже считали - .

А если бросаем монетку раза? Какова вероятность увидеть орла раза подряд?

Всего возможных вариантов:

  1. Орел-орел-орел
  2. Орел-орел-решка
  3. Орел-решка-орел
  4. Орел-решка-решка
  5. Решка-орел-орел
  6. Решка-орел-решка
  7. Решка-решка-орел
  8. Решка-решка-решка

Не знаю как ты, но я раза ошибся, составляя этот список. Ух! А подходит нам только вариант (первый).

Для 5 бросков можешь составить список возможных исходов сам. Но математики не столь трудолюбивы, как ты.

Поэтому они сначала заметили, а потом доказали, что вероятность определенной последовательности независимых событий каждый раз уменьшается на вероятность одного события.

Другими словами,

Рассмотрим на примере все той же, злосчастной, монетки.

Вероятность выпадения орла в испытании? . Теперь мы бросаем монетку раз.

Какова вероятность выпадения раз подряд орла?

Это правило работает не только, если нас просят найти вероятность того, что произойдет одно и то же событие несколько раз подряд.

Если бы мы хотели найти последовательность РЕШКА-ОРЕЛ-РЕШКА, при бросках подряд, мы поступили бы также.

Вероятность выпадения решка - , орла - .

Вероятность выпадения последовательности РЕШКА-ОРЕЛ-РЕШКА-РЕШКА:

Можешь проверить сам, составив таблицу.

Правило сложения вероятностей несовместных событий.

Так стоп! Новое определение.

Давай разбираться. Возьмем нашу изношенную монетку и бросим её раза.
Возможные варианты:

  1. Орел-орел-орел
  2. Орел-орел-решка
  3. Орел-решка-орел
  4. Орел-решка-решка
  5. Решка-орел-орел
  6. Решка-орел-решка
  7. Решка-решка-орел
  8. Решка-решка-решка

Так вот несовместные события, это определенная, заданная последовательность событий. - это несовместные события.

Если мы хотим определить, какова вероятность двух (или больше) несовместных событий то мы складываем вероятности этих событий.

Нужно понять, что выпадение орла или решки - это два независимых события.

Если мы хотим определить, какова вероятность выпадения последовательности) (или любой другой), то мы пользуемся правилом умножения вероятностей.
Какова вероятность выпадения при первом броске орла, а при втором и третьем решки?

Но если мы хотим узнать, какова вероятность выпадения одной из нескольких последовательностей, например, когда орел выпадет ровно раз, т.е. варианты и, то мы должны сложить вероятности этих последовательностей.

Всего вариантов, нам подходит.

То же самое мы можем получить, сложив вероятности появления каждой последовательности:

Таким образом, мы складываем вероятности, когда хотим определить вероятность некоторых, несовместных, последовательностей событий.

Есть отличное правило, помогающее не запутаться, когда умножать, а когда складывать:

Возвратимся к примеру, когда мы подбросили монетку раза, и хотим узнать вероятность увидеть орла раз.
Что должно произойти?

Должны выпасть:
(орел И решка И решка) ИЛИ (решка И орел И решка) ИЛИ (решка И решка И орел).
Вот и получается:

Давай рассмотрим несколько примеров.

Пример 5.

В коробке лежит карандашей. красных, зеленых, оранжевых и желтых и черных. Какова вероятность вытащить красный или зеленый карандаши?

Решение:

Пример 6.

Игральную кость бросают дважды, какова вероятность того, что в сумме выпадет 8 очков?

Решение.

Как мы можем получить очков?

(и) или (и) или (и) или (и) или (и).

Вероятность выпадения одной (любой) грани - .

Считаем вероятность:

Тренировка.

Думаю, теперь тебе стало понятно, когда нужно как считать вероятности, когда их складывать, а когда умножать. Не так ли? Давай немного потренируемся.

Задачи:

Возьмем карточную колоду, в которой карты, из них пик, червей, 13 треф и 13 бубен. От до туза каждой масти.

  1. Какова вероятность вытащить трефы подряд (первую вытащенную карту мы кладем обратно в колоду и перемешиваем)?
  2. Какова вероятность вытащить черную карту (пики или трефы)?
  3. Какова вероятность вытащить картинку (вальта, даму, короля или туза)?
  4. Какова вероятность вытащить две картинки подряд (первую вытащенную карту мы убираем из колоды)?
  5. Какова вероятность, взяв две карты, собрать комбинацию - (валет, дама или король) и туз Последовательность, в которой будут вытащены карты, не имеет значения.

Ответы:

Если ты смог сам решить все задачи, то ты большой молодец! Теперь задачи на теорию вероятностей в ЕГЭ ты будешь щелкать как орешки!

ТЕОРИЯ ВЕРОЯТНОСТЕЙ. СРЕДНИЙ УРОВЕНЬ

Рассмотрим пример. Допустим, мы бросаем игральную кость. Что это за кость такая, знаешь? Так называют кубик с цифрами на гранях. Сколько граней, столько и цифр: от до скольки? До.

Итак, мы бросаем кость и хотим, чтобы выпало или. И нам выпадает.

В теории вероятностей говорят, что произошло благоприятное событие (не путай с благополучным).

Если бы выпало, событие тоже было бы благоприятным. Итого может произойти всего два благоприятных события.

А сколько неблагоприятных? Раз всего возможных событий, значит, неблагоприятных из них события (это если выпадет или).

Определение:

Вероятностью называется отношение количества благоприятных событий к количеству всех возможных событий . То есть вероятность показывает, какая доля из всех возможных событий приходится на благоприятные.

Обозначают вероятность латинской буквой (видимо, от английского слова probability - вероятность).

Принято измерять вероятность в процентах (см. тему , ) . Для этого значение вероятности нужно умножать на. В примере с игральной костью вероятность.

А в процентах: .

Примеры (реши сам):

  1. С какой вероятностью при бросании монетки выпадет орел? А с какой вероятностью выпадет решка?
  2. С какой вероятностью при бросании игральной кости выпадет четное число? А с какой - нечетное?
  3. В ящике простых, синих и красных карандашей. Наугад тянем один карандаш. Какова вероятность вытащить простой?

Решения:

  1. Сколько всего вариантов? Орел и решка - всего два. А сколько из них благоприятных? Только один - орел. Значит, вероятность

    С решкой то же самое: .

  2. Всего вариантов: (сколько сторон у кубика, столько и различных вариантов). Благоприятных из них: (это все четные числа:).
    Вероятность. С нечетными, естественно, то же самое.
  3. Всего: . Благоприятных: . Вероятность: .

Полная вероятность

Все карандаши в ящике зеленые. Какова вероятность вытащить красный карандаш? Шансов нет: вероятность (ведь благоприятных событий -).

Такое событие называется невозможным .

А какова вероятность вытащить зеленый карандаш? Благоприятных событий ровно столько же, сколько событий всего (все события - благоприятные). Значит, вероятность равна или.

Такое событие называется достоверным .

Если в ящике зеленых и красных карандашей, какова вероятность вытащить зеленый или красный? Опять же. Заметим такую вещь: вероятность вытащить зеленый равна, а красный - .

В сумме эти вероятности равны ровно. То есть, сумма вероятностей всех возможных событий равна или.

Пример:

В коробке карандашей, среди них синих, красных, зеленых, простых, желтый, а остальные - оранжевые. Какова вероятность не вытащить зеленый?

Решение:

Помним, что все вероятности в сумме дают. А вероятность вытащить зеленый равна. Значит, вероятность не вытащить зеленый равна.

Запомни этот прием: вероятность того, что событие не произойдет равна минус вероятность того, что событие произойдет.

Независимые события и правило умножения

Ты кидаешь монетку раза, и хочешь, чтобы оба раза выпал орел. Какова вероятность этого?

Давай переберем все возможные варианты и определим, сколько их:

Орел-Орел, Решка-Орел, Орел-Решка, Решка-Решка. Какие еще?

Всего варианта. Из них нам подходит только один: Орел-Орел. Итого, вероятность равна.

Хорошо. А теперь кидаем монетку раза. Посчитай сам. Получилось? (ответ).

Ты мог заметить, что с добавлением каждого следующего броска вероятность уменьшается в раза. Общее правило называется правилом умножения :

Вероятности независимых событий переменожаются.

Что такое независимые события? Все логично: это те, которые не зависят друг от друга. Например, когда мы бросаем монетку несколько раз, каждый раз производится новый бросок, результат которого не зависит от всех предыдущих бросков. С таким же успехом мы можем бросать одновременно две разные монетки.

Еще примеры:

  1. Игральную кость бросают дважды. Какова вероятность, что оба раза выпадет?
  2. Монетку бросают раза. Какова вероятность, что в первый раз выпадет орел, а потом два раза решка?
  3. Игрок бросает две кости. Какова вероятность, что сумма чисел на них будет равна?

Ответы:

  1. События независимы, значит, работает правило умножения: .
  2. Вероятность орла равна. Вероятность решки - тоже. Перемножаем:
  3. 12 может получиться только, если выпадут две -ки: .

Несовместные события и правило сложения

Несовместными называются события, которые дополняют друг друга до полной вероятности. Из названия видно, что они не могут произойти одновременно. Например, если бросаем монетку, может выпасть либо орел, либо решка.

Пример.

В коробке карандашей, среди них синих, красных, зеленых, простых, желтый, а остальные - оранжевые. Какова вероятность вытащить зеленый или красный?

Решение .

Вероятность вытащить зеленый карандаш равна. Красный - .

Благоприятных событий всего: зеленых + красных. Значит, вероятность вытащить зеленый или красный равна.

Эту же вероятность можно представить в таком виде: .

Это и есть правило сложения: вероятности несовместных событий складываются.

Задачи смешанного типа

Пример.

Монетку бросают два раза. Какова вероятность того, что результат бросков будет разный?

Решение .

Имеется в виду, что если первым выпал орел, второй должна быть решка, и наоборот. Получается, что здесь две пары независимых событий, и эти пары друг с другом несовместны. Как бы не запутаться, где умножать, а где складывать.

Есть простое правило для таких ситуаций. Попробуй описать, что должно произойти, соединяя события союзами «И» или «ИЛИ». Например, в данном случае:

Должны выпасть (орел и решка) или (решка и орел).

Там где стоит союз «и», будет умножение, а там где «или» - сложение:

Попробуй сам:

  1. С какой вероятностью при двух бросаниях монетки оба раза выпадет одно и та же сторона?
  2. Игральную кость бросают дважды. Какова вероятность, что в сумме выпадет очков?

Решения:

Еще пример:

Бросаем монетку раза. Какова вероятность, что хотя-бы один раз выпадет орел?

Решение:

ТЕОРИЯ ВЕРОЯТНОСТЕЙ. КОРОТКО О ГЛАВНОМ

Вероятность - это отношение количества благоприятных событий к количеству всех возможных событий.

Независимые события

Два события независимы если при наступлении одного вероятность наступления другого не изменяется.

Полная вероятность

Вероятность всех возможных событий равна ().

Вероятность того, что событие не произойдет, равна минус вероятность того, что событие произойдет.

Правило умножения вероятностей независимых событий

Вероятность определенной последовательности независимых событий, равна произведению вероятностей каждого из событий

Несовместные события

Несовместными называются события, которые никак не могут произойти одновременно в результате эксперимента. Ряд несовместных событий образуют полную группу событий.

Вероятности несовместных событий складываются.

Описав что должно произойти, используя союзы «И» или «ИЛИ», вместо «И» ставим знак умножения, а вместо «ИЛИ» — сложения.

Ну вот, тема закончена. Если ты читаешь эти строки, значит ты очень крут.

Потому что только 5% людей способны освоить что-то самостоятельно. И если ты дочитал до конца, значит ты попал в эти 5%!

Теперь самое главное.

Ты разобрался с теорией по этой теме. И, повторюсь, это… это просто супер! Ты уже лучше, чем абсолютное большинство твоих сверстников.

Проблема в том, что этого может не хватить…

Для чего?

Для успешной сдачи ЕГЭ, для поступления в институт на бюджет и, САМОЕ ГЛАВНОЕ, для жизни.

Я не буду тебя ни в чем убеждать, просто скажу одну вещь…

Люди, получившие хорошее образование, зарабатывают намного больше, чем те, кто его не получил. Это статистика.

Но и это - не главное.

Главное то, что они БОЛЕЕ СЧАСТЛИВЫ (есть такие исследования). Возможно потому, что перед ними открывается гораздо больше возможностей и жизнь становится ярче? Не знаю...

Но, думай сам...

Что нужно, чтобы быть наверняка лучше других на ЕГЭ и быть в конечном итоге… более счастливым?

НАБИТЬ РУКУ, РЕШАЯ ЗАДАЧИ ПО ЭТОЙ ТЕМЕ.

На экзамене у тебя не будут спрашивать теорию.

Тебе нужно будет решать задачи на время .

И, если ты не решал их (МНОГО!), ты обязательно где-нибудь глупо ошибешься или просто не успеешь.

Это как в спорте - нужно много раз повторить, чтобы выиграть наверняка.

Найди где хочешь сборник, обязательно с решениями, подробным разбором и решай, решай, решай!

Можно воспользоваться нашими задачами (не обязательно) и мы их, конечно, рекомендуем.

Для того, чтобы набить руку с помощью наших задач нужно помочь продлить жизнь учебнику YouClever, который ты сейчас читаешь.

Как? Есть два варианта:

  1. Открой доступ ко всем скрытым задачам в этой статье - 299 руб.
  2. Открой доступ ко всем скрытым задачам во всех 99-ти статьях учебника - 499 руб.

Да, у нас в учебнике 99 таких статей и доступ для всех задач и всех скрытых текстов в них можно открыть сразу.

Доступ ко всем скрытым задачам предоставляется на ВСЕ время существования сайта.

И в заключение...

Если наши задачи тебе не нравятся, найди другие. Только не останавливайся на теории.

“Понял” и “Умею решать” - это совершенно разные навыки. Тебе нужны оба.

Найди задачи и решай!

Нравится нам это или нет, но наша жизнь полна всевозможных случайностей, как приятных так и не очень. Поэтому каждому из нас не помешало бы знать, как найти вероятность того или иного события. Это поможет принимать верные решения при любых обстоятельствах, которые связаны с неопределенностью. К примеру, такие знания окажутся весьма кстати при выборе вариантов инвестирования, оценке возможности выигрыша в акции или лотерее, определении реальности достижения личных целей и т. д., и т. п.

Формула теории вероятности

В принципе, изучение данной темы не занимает слишком много времени. Для того чтобы получить ответ на вопрос: "Как найти вероятность какого-либо явления?", нужно разобраться с ключевыми понятиями и запомнить основные принципы, на которых базируется расчёт. Итак, согласно статистике, исследуемые события обозначаются через A1, А2,..., An. У каждого из них есть как благоприятствующие исходы (m), так и общее количество элементарных исходов. К примеру, нас интересует, как найти вероятность того, что на верхней грани кубика окажется четное число очков. Тогда А - это бросок m - выпадение 2, 4 или 6 очков (три благоприятствующих варианта), а n - это все шесть возможных вариантов.

Сама же формула расчета выглядит следующим образом:

С одним исходом все предельно легко. А вот как найти вероятность, если события идут одно за другим? Рассмотрим такой пример: из карточной колоды (36 шт.) показывается одна карта, затем она прячется снова в колоду, и после перемешивания вытаскивается следующая. Как найти вероятность того, что хоть в одном случае была вытащена дама пик? Существует следующее правило: если рассматривается сложное событие, которое можно разделить на несколько несовместимых простых событий, то можно сначала рассчитать результат для каждого из них, а затем сложить их между собой. В нашем случае это будет выглядеть так: 1 / 36 + 1 / 36 = 1 / 18 . А как же быть тогда, когда несколько происходят одновременно? Тогда результаты умножаем! Например, вероятность того, что при одновременном подбрасывании сразу двух монет выпадут две решки, будет равна: ½ * ½ = 0.25.

Теперь возьмем еще более сложный пример. Предположим, мы попали на книжную лотерею, в которой из тридцати билетов десять являются выигрышными. Требуется определить:

  1. Вероятность того, что оба окажутся выигрышными.
  2. Хотя бы один из них принесет приз.
  3. Оба окажутся проигрышными.

Итак, рассмотрим первый случай. Его можно разбить на два события: первый билет будет счастливым, и второй также окажется счастливым. Учтем, что события зависимы, поскольку после каждого вытаскивания общее количество вариантов уменьшается. Получаем:

10 / 30 * 9 / 29 = 0,1034.

Во втором случае понадобится определить вероятность проигрышного билета и учесть, что он может быть как первым по счету, так и вторым: 10 / 30 * 20 / 29 + 20 / 29 * 10 / 30 = 0,4598.

Наконец, третий случай, когда по разыгранной лотерее даже одной книжки получить не получится: 20 / 30 * 19 / 29 = 0,4368.

Ясно, что каждое событие обладает той или иной степенью возможности своего наступления (своей реализации). Чтобы количественно сравнивать между собой события по степени их возможности, очевидно, нужно с каждым событием связать определенное число, которое тем больше, чем более возможно событие. Такое число называется вероятностью события.

Вероятность события – есть численная мера степени объективной возможности наступления этого события.

Рассмотрим стохастический эксперимент и случайное событие А, наблюдаемое в этом эксперименте. Повторим этот эксперимент n раз и пусть m(A) – число экспериментов, в которых событие А произошло.

Отношение (1.1)

называется относительной частотой события А в проведенной серии экспериментов.

Легко убедиться в справедливости свойств:

если А и В несовместны (АВ= ), то ν(А+В) = ν(А) + ν(В) (1.2)

Относительная частота определяется только после проведения серии экспериментов и, вообще говоря, может меняться от серии к серии. Однако опыт показывает, что во многих случаях при увеличении числа опытов относительная частота приближается к некоторому числу. Этот факт устойчивости относительной частоты неоднократно проверялся и может считаться экспериментально установленным.

Пример 1.19. . Если бросить одну монету, никто не сможет предсказать, какой стороной она упадет кверху. Но если бросить две тонны монет, то каждый скажет, что примерно одна тонна упадет кверху гербом, то есть относительная частота выпадения герба примерно равна 0,5.

Если при увеличении числа опытов относительная частота события ν(А) стремится к некоторому фиксированному числу, то говорят, что событие А статистически устойчиво , а это число называют вероятностью события А.

Вероятностью события А называется некоторое фиксированное число Р(А), к которому стремится относительная частота ν(А) этого события при увеличении числа опытов, то есть,

Это определение называют статистическим определением вероятности .

Рассмотрим некий стохастический эксперимент и пусть пространство его элементарных событий состоит из конечного или бесконечного (но счетного) множества элементарных событий ω 1 , ω 2 , …, ω i , … . предположим, что каждому элементарному событию ω i прописан некоторое число - р i , характеризующее степень возможности появления данного элементарного события и удовлетворяющее следующим свойствам:

Такое число p i называется вероятностью элементарного события ω i .

Пусть теперь А- случайное событие, наблюдаемое в этом опыте, и ему соответствует некоторое множество

В такой постановке вероятностью события А называют сумму вероятностей элементарных событий, благоприятствующих А (входящих в соответствующее множество А):


(1.4)

Введенная таким образом вероятность обладает теми же свойствами, что и относительная частота, а именно:

И если АВ= (А и В несовместны),

то P(А+В) = P(А) + P(В)

Действительно, согласно (1.4)

В последнем соотношении мы воспользовались тем, что ни одно элементарное событие не может благоприятствовать одновременно двум несовместным событиям.

Особо отметим, что теория вероятностей не указывает способов определения р i , их надо искать из соображений практического характера или получать из соответствующего статистического эксперимента.

В качестве примера рассмотрим классическую схему теории вероятностей. Для этого рассмотрим стохастический эксперимент, пространство элементарных событий которого состоит из конечного (n) числа элементов. Предположим дополнительно, что все эти элементарные события равновозможны, то есть вероятности элементарных событий равны p(ω i)=p i =p. Отсюда следует, что

Пример 1.20 . При бросании симметричной монеты выпадение герба и «решки» равновозможны, их вероятности равны 0,5.

Пример 1.21 . При бросании симметричного кубика все грани равновозможны, их вероятности равны 1/6.

Пусть теперь событию А благоприятствует m элементарных событий, их обычно называют исходами, благоприятствующими событию А . Тогда

Получили классическое определение вероятности : вероятность Р(А) события А равна отношению числа исходов, благоприятствующих событию А, к общему числу исходов

Пример 1.22 . В урне лежит m белых шаров и n черных. Чему равна вероятность вытащить белый шар?

Решение . Всего элементарных событий m+n. Они все равновероятны. Благоприятствующих событию А из них m. Следовательно, .

Из определения вероятности вытекают следующие ее свойства:

Свойство 1 . Вероятность достоверного события равна единице.

Действительно, если событие достоверно, то каждый элементарный исход испытания благоприятствует собы­тию. В этом случае т=п, следовательно,

P(A)=m/n=n/n=1. (1.6)

Свойство 2. Вероятность невозможного события равна нулю.

Действительно, если событие невозможно, то ни один из элементарных исходов испытания не благоприятствует событию. В этом случае т = 0, следовательно, P(A)=m/n=0/n=0. (1.7)

Свойство 3. Вероятность случайного события есть положительное число, заключенное между нулем и единицей.

Действительно, случайному событию благоприятствует лишь часть из общего числа элементарных исходов испы­тания. То есть, 0≤m≤n, значит, 0≤m/n≤1, следовательно, вероятность любого события удовлетворяет двойному неравенству 0≤P(A) 1. (1.8)

Сопоставляя определения вероятности (1.5) и относительной частоты (1.1), заключаем: определение вероятности не требует, чтобы испытания производились в действительности; определение же относительной частоты предполагает, что испытания были произведены фактически . Другими словами, вероятность вычисляют до опыта, а относительную частоту - после опыта.

Однако, вычисление вероятности требует наличия предварительной информации о количестве или вероятностях благоприятствующих данному событию элементарных исходов. В случае отсутствия такой предварительной информации для определения вероятности прибегают к эмпирическим данным, то есть, по результатам стохастического эксперимента определяют относительную частоту события.

Пример 1.23 . Отдел технического контроля обнаружил 3 нестандартных детали в партии из 80 случайно отобранных деталей. Относительная частота появления нестандартных деталей r (А) = 3/80.

Пример 1.24 . По цели.произвели 24 выстрела, причем было зарегистрировано 19 попаданий. Относительная частота поражения цели. r (А) =19/24.

Длительные наблюдения показали, что если в одинаковых условиях производят опыты, в каждом из которых число испытаний достаточно велико, то относительная частота обнаруживает свойство устойчивости. Это свойство состоит в том, что в различных опытах относительная частота изменяется мало (тем меньше, чем больше произведено испытаний), колеблясь около некоторого постоянного числа. Оказалось, что это постоянное число можно принять за приближенное значение вероятности.

Подробнее и точнее связь между относительной частотой и вероятностью будет изложена далее. Теперь же проиллюстрируем свойство устойчивости на примерах.

Пример 1.25 . По данным шведской статистики, относительная частота рождения девочек за 1935 г. по месяцам характеризуется сле­дующими числами (числа расположены в порядке следования месяцев, начиная с января): 0,486; 0,489; 0,490; 0.471; 0,478; 0,482; 0.462; 0,484; 0,485; 0,491; 0,482; 0,473

Относительная частота колеблется около числа 0,481, которое можно принять за приближеннее значение вероятности рождения девочек.

Заметим, что статистические данные различных стран дают примерно то же значение относительной частоты.

Пример 1.26. Многократно проводились опыты бросания монеты, в которых подсчитывали число появление «герба». Результаты нескольких опытов приведены в таблице.

При оценки вероятности наступления какого-либо случайного события очень важно предварительно хорошо представлять, зависит ли вероятность () наступления интересующего нас события от того, как развиваются остальные события.

В случае классической схемы, когда все исходы равновероятны, мы уже можем оценить значения вероятности интересующего нас отдельного события самостоятельно. Мы можем сделать это даже в том случае, если событие является сложной совокупностью нескольких элементарных исходов. А если несколько случайных событий происходит одновременно или последовательно? Как это влияет на вероятность реализации интересующего нас события?

Если я несколько раз кидаю игральную кость, и хочу, чтобы выпала "шестерка", а мне все время не везет, значит ли это, что надо увеличивать ставку, потому что, согласно теории вероятностей, мне вот-вот должно повезти? Увы, теория вероятности не утверждает ничего подобного. Ни кости, ни карты, ни монетки не умеют запоминать, что они продемонстрировали нам в прошлый раз. Им совершенно не важно, в первый раз или в десятый раз сегодня я испытываю свою судьбу. Каждый раз, когда я повторяю бросок, я знаю только одно: и на этот раз вероятность выпадения "шестерки" снова равна одной шестой. Конечно, это не значит, что нужная мне цифра не выпадет никогда. Это означает лишь то, что мой проигрыш после первого броска и после любого другого броска - независимые события.

События А и В называются независимыми , если реализация одного из них никак не влияет на вероятность другого события. Например, вероятности поражения цели первым из двух орудий не зависят от того, поразило ли цель другое орудие, поэтому события "первое орудие поразило цель" и "второе орудие поразило цель" независимы.

Если два события А и В независимы, и вероятность каждого из них известна, то вероятность одновременного наступления и события А, и события В (обозначается АВ) можно посчитать, воспользовавшись следующей теоремой.

Теорема умножения вероятностей для независимых событий

P(AB) = P(A)*P(B) - вероятность одновременного наступления двух независимых событий равна произведению вероятностей этих событий.

Пример. Вероятности попадания в цель при стрельбе первого и второго орудий соответственно равны: р 1 =0,7; р 2 =0,8. Найти вероятность попадания при одном залпе обоими орудиями одновременно.

Решение: как мы уже видели события А (попадание первого орудия) и В (попадание второго орудия) независимы, т.е. Р(АВ)=Р(А)*Р(В)=р 1 *р 2 =0,56.


Что произойдет, с нашими оценками, если исходные события не являются независимыми? Давайте немного изменим предыдущий пример.

Пример. Два стрелка на соревнованиях стреляют по мишеням, причем, если один из них стреляет метко, то соперник начинает нервничать, и его результаты ухудшаются. Как превратить эту житейскую ситуацию в математическую задачу и наметить пути ее решения? Интуитивно понятно, что надо каким-то образом разделить два варианта развития событий, составить по сути дела два сценария, две разные задачи. В первом случае, если соперник промахнулся, сценарий будет благоприятный для нервного спортсмена и его меткость будет выше. Во втором случае, если соперник прилично реализовал свой шанс, вероятность поразить мишень для второго спортсмена снижается.


Для разделения возможных сценариев (их часто называют гипотезами) развития событий мы будем часто использовать схему "дерева вероятностей". Эта схема похожа по смыслу на дерево решений, с которым Вам, наверное, уже приходилось иметь дело. Каждая ветка представляет собой отдельный сценарий развития событий, только теперь она имеет собственное значение так называемой условной вероятности (q 1 , q 2 , q 1 -1, q 2 -1).


Эта схема очень удобна для анализа последовательных случайных событий.

Остается выяснить еще один немаловажный вопрос: откуда берутся исходные значения вероятностей в реальных ситуациях ? Ведь не с одними же монетами и игральными костями работает теория вероятностей? Обычно эти оценки берутся из статистики, а когда статистические сведения отсутствуют, мы проводим собственное исследование. И начинать его нам часто приходится не со сбора данных, а с вопроса, какие сведения нам вообще нужны.

Пример. Допустим, нам надо оценить в городе с населением в сто тысяч жителей объем рынка для нового товара, который не является предметом первой необходимости, например, для бальзама по уходу за окрашенными волосами. Рассмотрим схему "дерева вероятностей". При этом значение вероятности на каждой "ветке" нам надо приблизительно оценить. Итак, наши оценки емкости рынка:

1) из всех жителей города женщин 50%,

2) из всех женщин только 30% красят волосы часто,

3) из них только 10% пользуются бальзамами для окрашенных волос,

4) из них только 10% могут набраться смелости попробовать новый товар,

5) из них 70% обычно покупает все не у нас, а у наших конкурентов.




Решение: По закону перемножения вероятностей, определяем вероятность интересующего нас события А ={житель города покупает у нас этот новый бальзам}=0,00045.

Умножим это значение вероятности на число жителей города. В результате имеем всего 45 потенциальных покупательниц, а если учесть, что одного пузырька этого средства хватает на несколько месяцев, не слишком оживленная получается торговля.

И все-таки польза от наших оценок есть.

Во-первых, мы можем сравнивать прогнозы разных бизнес-идей, на схемах у них будут разные "развилки", и, конечно, значения вероятности тоже будут разные.

Во-вторых, как мы уже говорили, случайная величина не потому называется случайной, что она совсем ни от чего не зависит. Просто ее точное значение заранее не известно. Мы знаем, что среднее количество покупателей может быть увеличено (например, с помощью рекламы нового товара). Так что имеет смысл сосредоточить усилия на тех "развилках", где распределение вероятностей нас особенно не устраивает, на тех факторах, на которые мы в состоянии повлиять.

Рассмотрим еще один количественный пример исследования покупательского поведения.

Пример. За день продовольственный рынок посещает в среднем 10000 человек. Вероятность того, что посетитель рынка заходит в павильон молочных продуктов, равна 1/2. Известно, что в этом павильоне в среднем продается в день 500 кг различных продуктов.

Можно ли утверждать, что средняя покупка в павильоне весит всего 100 г?

Обсуждение. Конечно, нельзя. Понятно, что не каждый, кто заходил в павильон, в результате что-то там купил.




Как показано на схеме, чтобы ответить на вопрос о среднем весе покупки, мы должны найти ответ на вопрос, какова вероятность того, что человек, зашедший в павильон, что-нибудь там купит. Если таких данных в нашем распоряжении не имеется, а нам они нужны, придется их получить самим, понаблюдав некоторое время за посетителями павильона. Допустим, наши наблюдения показали, что только пятая часть посетителей павильона что-то покупает.

Как только эти оценки нами получены, задача становится уже простой. Из 10000 человек, пришедших на рынок, 5000 зайдут в павильон молочных продуктов, покупок будет только 1000. Средний вес покупки равен 500 грамм. Интересно отметить, что для построения полной картины происходящего, логика условных "ветвлений" должна быть определена на каждом этапе нашего рассуждения так же четко, как если бы мы работали с "конкретной" ситуацией, а не с вероятностями.

Задачи для самопроверки

1. Пусть есть электрическая цепь, состоящая из n последовательно соединенных элементов, каждый из которых работает независимо от остальных.




Известна вероятность p невыхода из строя каждого элемента. Определите вероятность исправной работы всего участка цепи (событие А).

2. Студент знает 20 из 25 экзаменационных вопросов. Найдите вероятность того, что студент знает предложенные ему экзаменатором три вопроса.

3. Производство состоит из четырех последовательных этапов, на каждом из которых работает оборудование, для которого вероятности выхода из строя в течение ближайшего месяца равны соответственно р 1 , р 2 , р 3 и р 4 . Найдите вероятность того, что за месяц не случится ни одной остановки производства из-за неисправности оборудования.

Профессиональный беттер должен хорошо ориентироваться в коэффициентах, быстро и правильно оценивать вероятность события по коэффициенту и при необходимости уметь перевести коэффициенты из одного формата в другой . В данном мануале мы расскажем о том, какие бывают виды коэффициентов, а так же на примерах разберём, как можно высчитывать вероятность по известному коэффициенту и наоборот.

Какие бывают типы коэффициентов?

Существует три основных вида коэффициентов, которые предлагают игрокам букмекеры: десятичные коэффициенты , дробные коэффициенты (английские) и американские коэффициенты . Наиболее распространённые коэффициенты в Европе - десятичные. В Северной Америке популярны американские коэффициенты. Дробные коэффициенты - наиболее традиционный вид, они сразу же отражают информацию о том сколько нужно поставить, чтобы получить определённую сумму.

Десятичные коэффициенты

Десятичные или еще их называют европейские коэффициенты - это привычный формат числа, представленный десятичной дробью с точностью до сотых, а иногда даже до тысячных. Пример десятичного коэффициента - 1.91. Рассчитать прибыль в случае с десятичными коэффициентами очень просто, достаточно лишь умножить сумму вашей ставки на этот коэффициент. Например, в матче "Манчестер Юнайтед" - "Арсенал" победа "МЮ" выставлена с коэффициентом - 2.05, ничья оценена коэффициентом - 3.9, а победа "Арсенала" равняется - 2.95. Предположим, что мы уверены в победе "Юнайтед" и ставим на них 1000 долларов. Тогда наш возможный доход рассчитывается следующим образом:

2.05 * $1000 = $2050;

Правда ведь ничего сложного?! Точно так же рассчитывается возможный доход при ставке на ничью и победу "Арсенала".

Ничья: 3.9 * $1000 = $3900;
Победа "Арсенала": 2.95 * $1000 = $2950;

Как рассчитать вероятность события по десятичным коэффициентам?

Представим теперь что нам нужно определить вероятность события по десятичным коэффициентам, которые выставил букмекер. Делается это так же очень просто. Для этого мы единицу делим на этот коэффициент.

Возьмем уже имеющиеся данные и посчитаем вероятность каждого события:

Победа "Манчестер Юнайтед": 1 / 2.05 = 0,487 = 48,7%;
Ничья: 1 / 3.9 = 0,256 = 25,6%;
Победа "Арсенала": 1 / 2.95 = 0,338 = 33,8%;

Дробные коэффициенты (Английские)

Как понятно из названия дробный коэффициент представлен обыкновенной дробью. Пример английского коэффициента - 5/2. В числителе дроби находиться число, являющееся потенциальной суммой чистого выигрыша, а в знаменателе расположено число обозначающее сумму которую нужно поставить, чтобы этот выигрыш получить. Проще говоря, мы должны поставить $2 доллара, чтобы выиграть $5. Коэффициент 3/2 означает что для того чтобы получить $3 чистого выигрыша нам придётся сделать ставку в размере $2.

Как рассчитать вероятность события по дробным коэффициентам?

Вероятность события по дробным коэффициентам рассчитать так же не сложно, нужно всего на всего разделить знаменатель на сумму числителя и знаменателя.

Для дроби 5/2 рассчитаем вероятность: 2 / (5+2) = 2 / 7 = 0,28 = 28%;
Для дроби 3/2 рассчитаем вероятность:

Американские коэффициенты

Американские коэффициенты в Европе непопулярны, зато в Северной Америке очень даже. Пожалуй, данный вид коэффициентов самый сложный, но это только на первый взгляд. На самом деле и в этом типе коэффициентов ничего сложного нет. Сейчас во всем разберёмся по порядку.

Главной особенностью американских коэффициентов является то, что они могут быть как положительными , так и отрицательными . Пример американских коэффициентов - (+150), (-120). Американский коэффициент (+150) означает, что для того чтобы заработать $150 нам нужно поставить $100. Иными словами положительный американский коэффициент отражает потенциальный чистый заработок при ставке в $100. Отрицательный же американский коэффициент отражает сумму ставки, которую необходимо сделать для того чтобы получить чистый выигрыш в $100. Например коэффициент (- 120) нам говорит о том, что поставив $120 мы выиграем $100.

Как рассчитать вероятность события по американским коэффициентам?

Вероятность события по американскому коэффициенту считается по следующим формулам:

(-(M)) / ((-(M)) + 100) , где M - отрицательный американский коэффициент;
100 / (P + 100) , где P - положительный американский коэффициент;

Например, мы имеем коэффициент (-120), тогда вероятность рассчитывается так:

(-(M)) / ((-(M)) + 100); подставляем вместо "M" значение (-120);
(-(-120)) / ((-(-120)) + 100 = 120 / (120 + 100) = 120 / 220 = 0,545 = 54,5%;

Таким образом, вероятность события с американским коэффициентом (-120) равна 54,5%.

Например, мы имеем коэффициент (+150), тогда вероятность рассчитывается так:

100 / (P + 100); подставляем вместо "P" значение (+150);
100 / (150 + 100) = 100 / 250 = 0,4 = 40%;

Таким образом, вероятность события с американским коэффициентом (+150) равна 40%.

Как зная процент вероятности перевести его в десятичный коэффициент?

Для того чтобы рассчитать десятичный коэффициент по известному проценту вероятности нужно 100 разделить на вероятность события в процентах. Например, вероятность события составляет 55%, тогда десятичный коэффициент этой вероятности будет равен 1,81.

100 / 55% = 1,81

Как зная процент вероятности перевести его в дробный коэффициент?

Для того чтобы рассчитать дробный коэффициент по известному проценту вероятности нужно от деления 100 на вероятность события в процентах отнять единицу. Например, имеем процент вероятности 40%, тогда дробный коэффициент этой вероятности будет равен 3/2.

(100 / 40%) - 1 = 2,5 - 1 = 1,5;
Дробный коэффициент равен 1,5/1 или 3/2.

Как зная процент вероятности перевести его в американский коэффициент?

Если вероятность события больше 50%, то расчёт производится по формуле:

- ((V) / (100 - V)) * 100, где V - вероятность;

Например, имеем вероятность события 80%, тогда американский коэффициент этой вероятности будет равен (-400).

- (80 / (100 - 80)) * 100 = - (80 / 20) * 100 = - 4 * 100 = (-400);

В случае если вероятность события меньше 50%, то расчёт производиться по формуле:

((100 - V) / V) * 100 , где V - вероятность;

Например, имеем процент вероятности события 20%, тогда американский коэффициент этой вероятности будет равен (+400).

((100 - 20) / 20) * 100 = (80 / 20) * 100 = 4 * 100 = 400;

Как перевести коэффициент в другой формат?

Бывают случаи, когда необходимо перевести коэффициенты из одного формата в другой. Например, у нас есть дробный коэффициент 3/2 и нам нужно перевести его в десятичный. Для перевода дробного коэффициента в десятичный мы сначала определяем вероятность события с дробным коэффициентом, а затем эту вероятность переводим в десятичный коэффициент.

Вероятность события с дробным коэффициентом 3/2 равна 40%.

2 / (3+2) = 2 / 5 = 0,4 = 40%;

Теперь переведём вероятность события в десятичный коэффициент, для этого 100 делим на вероятность события в процентах:

100 / 40% = 2.5;

Таким образом, дробный коэффициент 3/2 равен десятичному коэффициенту 2.5. Аналогичным образом переводятся, например, американские коэффициенты в дробные, десятичные в американские и т.д. Самое сложное во всём этом лишь расчёты.