Вероятностью Р события А при этих условиях будем считать отношение числа случаев m, в пределах которого происходит событие А, к числу N равновозможных событий.
Рассмотрим следующие случаи.
1. m = N, тогда Р(А) = 1. В таком случае событие считают достоверным.
2. т = 0, то есть Р(А) = 0. Не произошло ни одного события, оно является невозможным.
Очевидно, что
0 < Р(А) < 1,
где Р(А) – вероятность появления события А. По мере увеличения количества испытаний (или количества событий)
Р (А) → 1,
то есть вероятность появления событий А возрастает и наоборот.
Над вероятностью можно производить сложение и умножение, как и над числами. Например, для того, чтобы определить вероятность появления одного из трех событии, слагают вероятность каждого из них. Пусть эт־, ими событиями будут события Б, в и С. Тогда вероятность того, что произойдет событие А или В, или С, определяется следующей формулой:
Р(А н Вн С)=Р(А) +Р(В) + Р(С),
где н– логический знак «или», P(A), P(B), P(C) – вероятность каждого из событий А, В или С.
Различают события противоположные: если некоторое событие Д может произойти при непоявлении события А, то события А и Д являются противоположными. Если сложить их вероятности P>А и P>д, то P>А + P>д = 1,
то есть в любом случае произойдет событие А или событие Д.
Событие называется независимым, если его появление не зависит от появления любого другого события. Иначе событие называется зависимым.
4. Условная и полная вероятности
Условная вероятность – такая вероятность события А, которая вычислена при предположении, что событие Д произошло: при этом события А и В являются зависимыми, они обозначаются как Р(А /В) или Р(А)В.
Совместное (одновременное или последовательное) появление нескольких независимых событий А, В, С, Fназывается сложным событием. Вероятность сложного события определяется путем умножения вероятностей составляющих его событий.
Р (АиВиСи…иF)= Р(А) × Р(В)>А × Р (С>АВ) ×… × Р(F)>АВС.
В случае независимости событий (8) выглядит следующим образом.
Р (АиВиСи…иF)= Р (А) × Р (В) × Р (С) × … × Р (f).
Формула, которую привели выше, справедлива, если события А или В или С несовместимы. В случае их совместимости формула выглядит следующим образом:
Р(А ν В ν С)=Р(А) + Р(В) + Р(С) – Р(АиВиС).
Р (АиВиС)= Р (А) × Р(В) × Р (С)
С учетом этого получим
Р (А ν В ν С)=Р (А) + Р (В) + Р (С) – Р (А) × Р (В) × Р (С).
Теперь, после некоторого ознакомления с арифметическими операциями над вероятностями, можно привести формулу полной вероятности
В формуле предполагается, что событие А может произойти только с одним из n несовместимых событий B>1….,B>n, то есть группа событий А и B>1, или А и B>2 и т. д. Любая группа из этого ряда равносильна появлению события А.
Пример 2. Пусть события D, Е, F независимые. Какова будет вероятность событий трех извлечений подряд небракованных деталей при условии, что выборка повторная.
Решение. При данном условии после извлечения каждый раз бракованной детали, а больше одной детали нельзя извлечь, количество бракованных деталей с каждым разом уменьшается на единицу. В третий раз будет извлечена последняя бракованная деталь.
5. Распределение случайных величин
Затрагивая вопрос о вероятности некоторого события, нельзя не говорить о закономерностях появления случайных величин.
Чтобы упростить ситуацию, эти величины делят на:
1) прерывные (дискретные) – например, количество некоторой продукции, не отвечающее установленным стандартам;
2) непрерывные – например, единицы той же продукции, которые имеют неодинаковые параметры, но эти параметры находятся в пределах границ предельно допустимого.
Зависимость между возможными значениями случайных величин и их вероятностями, выраженными конкретным способом, называется законом распределения случайных величин.
Для того, чтобы установить математическую форму этого закона, предположим, что дискретная случайная величина х может принимать значения х>1, x>2, x>3…, х>i…., x>k, и пусть каждому из этих значений соответствует вероятность P>x. Тогда ряд вероятностей, соответствующих значениям случайной величины х, будет иметь следующий вид P>x,P>x1,P>x2,…,P>xi,…,P>xk.
Очевидно, что вероятность P>x является некоторой функцией от переменной х и имеет вид: P>x = f(х), где x = x>i, i = 1, 2…, k.
Рассмотрим поведение этой функции для вышеприведенных двух видов случайных величин.
1. Случайная величина – дискретная (прерывная).
Случайная величина х < х', где х < х' задано, может выражаться следующим образом:
Функция F(х)=F(х') называется функцией распределения случайной прерывной величины ч. 2. Случайная величина – непрерывна. Плотностью вероятности P>x в точке X = х называется предел вида
Следовательно, функцию F(х') можно дифференцировать, тогда
F (х)=f (х)
Основные свойства функции распределения следующие:
1) х = ∞;F(∞)= 1;
2) х = —∞;F(∞) = 0;
3) если аргумент x возрастает, т. е. если рассмотреть случай х>2 > х>1, то F(x>2) > F(x>1).
Если рассмотреть ΔF(х)=F(х>2)-F (х>1) то
6. Статистика распределения случайных величин
Основные характеристики случайных величин.
1. Меры положения.
Таковыми называют (считают) точки, вокруг которых происходит колебание характеристики величин.