Зависимые случайные величины. Зависимые и независимые случайные величины

Понятия зависимости и независимости случайных событий. Условная вероятность. Формулы сложения и умножения вероятностей для зависимых и независимых случайных событий. Формула полной вероятности и формула Байеса.

Теоремы сложения вероятностей

Найдем вероятность суммы событий A и B (в предположении их совместности либо несовместности).

Теорема 2.1. Вероятность суммы конечного числа несовместных событий равна сумме их вероятностей:

P\{A+B+\ldots+N\}=P\{A\}+P\{B\}+\ldots+P\{N\}.

Пример 1. Вероятность того, что в магазине будет продана пара мужской обуви 44-го размера, равна 0,12; 45-го - 0,04; 46-го и большего - 0,01. Найти вероятность того, что будет продана пара мужской обуви не меньше 44-го размера.

Решение. Искомое событие D произойдет, если будет продана пара обуви 44-го размера (событие A ) или 45-го (событие B ), или не меньше 46-го (событие C ), т. е. событие D есть сумма событий A,B,C . События A , B и C несовместны. Поэтому согласно теореме о сумме вероятностей получаем

P\{D\}=P\{A+B+C\}=P\{A\}+P\{B\}+P\{C\}=0,\!12+0,\!04+0,\!01 =0,\!17.

Пример 2. При условиях примера 1 найти вероятность того, что очередной будет продана пара обуви меньше 44-го размера.

Решение. События "очередной будет продана пара обуви меньше 44-го размера" и "будет продана пара обуви размера не меньше 44-го" противоположные. Поэтому по формуле (1.2) вероятность наступления искомого события

P\{\overline{D}\}=1-P\{D\}=1-0,\!17=0,\!83.

поскольку P\{D\}=0,\!17 , как это было найдено в примере 1.

Теорема 2.1 сложения вероятностей справедлива только для несовместных событий. Использование ее для нахождения вероятности совместных событий может привести к неправильным, а иногда и абсурдным выводам, что наглядно видно на следующем примере. Пусть выполнение заказа в срок фирмой "Electra Ltd" оценивается вероятностью 0,7. Какова вероятность того, что из трех заказов фирма выполнит в срок хотя бы какой-нибудь один? События, состоящие в том, что фирма выполнит в срок первый, второй, третий заказы обозначим соответственно A,B,C . Если для отыскания искомой вероятности применить теорему 2.1 сложения вероятностей, то получим P\{A+B+C\}=0,\!7+0,\!7+0,\!7=2,\!1 . Вероятность события оказалась больше единицы, что невозможно. Это объясняется тем, что события A,B,C являются совместными. Действительно, выполнение в срок первого заказа не исключает выполнения в срок двух других.

Сформулируем теорему сложения вероятностей в случае двух совместных событий (будет учитываться вероятность их совместного появления).

Теорема 2.2. Вероятность суммы двух совместных событий равна сумме вероятностей этих двух событий без вероятности их совместного появления:

P\{A+B\}=P\{A\}+P\{B\}-P\{AB\}.

Зависимые и независимые события. Условная вероятность

Различают события зависимые и независимые. Два события называются независимыми, если появление одного из них не изменяет вероятность появления другого. Например, если в цехе работают две автоматические линии, по условиям производства не взаимосвязанные, то остановки этих линий являются независимыми событиями.

Пример 3. Монета брошена два раза. Вероятность появления "герба" в первом испытании (событие A ) не зависит от появления или не появления "герба" во втором испытании (событие B ). В свою очередь, вероятность появления "герба" во втором испытании не зависит от результата первого испытания. Таким образом, события A и B независимые.

Несколько событий называются независимыми в совокупности , если любое из них не зависит от любого другого события и от любой комбинации остальных.

События называются зависимыми , если одно из них влияет на вероятность появления другого. Например, две производственные установки связаны единым технологическим циклом. Тогда вероятность выхода из строя одной из них зависит от того, в каком состоянии находится другая. Вероятность одного события B , вычисленная в предположении осуществления другого события A , называется условной вероятностью события B и обозначается P\{B|A\} .

Условие независимости события B от события A записывают в виде P\{B|A\}=P\{B\} , а условие его зависимости - в виде P\{B|A\}\ne{P\{B\}} . Рассмотрим пример вычисления условной вероятности события.

Пример 4. В ящике находятся 5 резцов: два изношенных и три новых. Производится два последовательных извлечения резцов. Определить условную вероятность появления изношенного резца при втором извлечении при условии, что извлеченный в первый раз резец в ящик не возвращается.

Решение. Обозначим A извлечение изношенного резца в первом случае, а \overline{A} - извлечение нового. Тогда P\{A\}=\frac{2}{5},~P\{\overline{A}\}=1-\frac{2}{5}=\frac{3}{5} . Поскольку извлеченный резец в ящик не возвращается, то изменяется соотношение между количествами изношенных и новых резцов. Следовательно, вероятность извлечения изношенного резца во втором случае зависит от того, какое событие осуществилось перед этим.

Обозначим B событие, означающее извлечение изношенного резца во втором случае. Вероятности этого события могут быть такими:

P\{B|A\}=\frac{1}{4},~~~P\{B|\overline{A}\}=\frac{2}{4}=\frac{1}{2}.

Следовательно, вероятность события B зависит от того, произошло или нет событие A .

Формулы умножения вероятностей

Пусть события A и B независимые, причем вероятности этих событий известны. Найдем вероятность совмещения событий A и B .

Теорема 2.3. Вероятность совместного появления двух независимых событий равна произведению вероятностей этих событий:

P\{AB\}=P\{A\}\cdot P\{B\}.

Следствие 2.1. Вероятность совместного появления нескольких событий, независимых в совокупности, равна произведению вероятностей этих событий:

P\{A_1A_2\ldots{A_n}\}=P\{A_1\}P\{A_2\}\ldots{P\{A_n\}}.

Пример 5. Три ящика содержат по 10 деталей. В первом ящике - 8 стандартных деталей, во втором - 7, в третьем - 9. Из каждого ящика наудачу вынимают по одной детали. Найти вероятность того, что все три вынутые детали окажутся стандартными.

Решение. Вероятность того, что из первого ящика взята стандартная деталь (событие A ), P\{A\}=\frac{8}{10}=\frac{4}{5} . Вероятность того, что из второго ящика взята стандартная деталь (событие B ), P\{B\}=\frac{7}{10} . Вероятность того, что из третьего ящика взята стандартная деталь (событие C ), P\{C\}=\frac{9}{10} . Так как события A , B и C независимые в совокупности, то искомая вероятность (по теореме умножения)

P\{ABC\}=P\{A\}P\{B\}P\{C\}=\frac{4}{5}\frac{7}{10}\frac{9}{10}=0,\!504.

Пусть события A и B зависимые, причем вероятности P\{A\} и P\{B|A\} известны. Найдем вероятность произведения этих событий, т. е. вероятность того, что появится и событие A , и событие B .

Теорема 2.4. Вероятность совместного появления двух зависимых событий равна произведению вероятности одного из них на условную вероятность другого, вычисленную в предположении, что первое событие уже наступило:

P\{AB\}=P\{A\}\cdot P\{B|A\};\qquad P\{AB\}=P\{B\}\cdot P\{A|B\}

Следствие 2.2. Вероятность совместного появления нескольких зависимых событий равна произведению вероятности одного из них на условные вероятности всех остальных, причем вероятность каждого последующего события вычисляется в предположении, что все предыдущие события уже появились.

Пример 6. В урне находятся 5 белых шаров, 4 черных и 3 синих. Каждое испытание состоит в том, что наудачу извлекают один шар, не возвращая его в урну. Найти вероятность того, что при первом испытании появится белый шар (событие A ), при втором - черный (событие B ) и при третьем - синий (событие C ).

Решение. Вероятность появления белого шара при первом испытании P\{A\}=\frac{5}{12} . Вероятность появления черного шара при втором испытании, вычисленная в предположении, что при первом испытании появился белый шар, т. е. условная вероятность P\{B|A\}=\frac{4}{11} . Вероятность появления синего шара при третьем испытании, вычисленная в предположении, что при первом испытании появился белый шар, а при втором - черный, P\{C|AB\}=\frac{3}{10} . Искомая вероятность

P\{ABC\}=P\{A\}P\{B|A\}P\{C|AB\}=\frac{5}{12}\frac{4}{11}\frac{3}{10}.

Формула полной вероятности

Теорема 2.5. Если событие A наступает только при условии появления одного из событий , образующих полную группу несовместных событий, то вероятность события A равна сумме произведений вероятностей каждого из событий B_1,B_2,\ldots{B_n} на соответствующую условную вероятность события B_1,B_2,\ldots{B_n} :

P\{A\}=\sum\limits_{i=1}^{n}P\{B_i\}P\{A|B_i\}.

При этом события B_i,~i=1,\ldots,n называются гипотезами, а вероятности P\{B_i\} - априорными. Эта формула называется формулой полной вероятности.

Пример 7. На сборочный конвейер поступают детали с трех станков. Производительность станков не одинакова. На первом станке изготовляют 50% всех деталей, на втором - 30%, на третьем - 20%. Вероятность качественной сборки при использовании детали, изготовленной на первом, втором и третьем станке, соответственно 0,98, 0,95 и 0,8, Определить вероятность того, что узел, сходящий с конвейера, качественный.

Решение. Обозначим A событие, означающее годность собранного узла; B_1 , B_2 и B_3 - события, означающие, что детали сделаны соответственно на первом, втором и третьем станке. Тогда

P\{B_1\}=0,\!5;~~~~~P\{B_2\}=0,\!3;~~~~~P\{B_3\}=0,\!2;
P\{A|B_1\}=0,\!98;~~~P\{A|B_2\}=0,\!95;~~~P\{A|B_3\}=0,\!8.

Искомая вероятность

Формула Байеса

Эта формула применяется при решении практических задач, когда событие A , появляющееся совместно с каким-либо из событий B_1,B_2,\ldots{B_n} , образующих полную группу событий, произошло и требуется провести количественную переоценку вероятностей гипотез B_1,B_2,\ldots{B_n} . Априорные (до опыта) вероятности P\{B_1\},P\{B_2\},\ldots{P\{B_n\}} известны. Требуется вычислить апостериорные (после опыта) вероятности, т. е., по существу, нужно найти условные вероятности P\{B_1|A\},P\{B_2|A\},\ldots{P\{B_n|A\}} . Для гипотезы B_j формула Байеса выглядит так:

P\{B_j|A\}=\frac{P\{B_j\} P\{A|B_j\}}{P\{A\}}.

Раскрывая в этом равенстве P\{A\} по формуле полной вероятности (2.1), получаем

P\{B_j|A\}=\dfrac{P\{B_j\}P\{A|B_j\}}{\sum\limits_{i=1}^{n}P\{B_i\}P\{A|B_i\}}.

Пример 8. При условиях примера 7 рассчитать вероятности того, что в сборку попала деталь, изготовленная соответственно на первом, втором и третьем станке, если узел, сходящий с конвейера, качественный.

Источник

Случайные величины называются независимыми, если закон распределения одной из них не зависит от того какое значение принимает другая случайная величина. Понятие зависимости случайных величин является очень важным в теории вероятностей. Условные распределения независимых случайных величин равны их безусловным распределениям. Определим необходимые и достаточные условия независимости случайных величин.

Теорема. Для того, чтобы случайные величины Х и Y были независимы, необходимо и достаточно, чтобы функция распределения системы (X, Y) была равна произведению функций распределения составляющих.

Аналогичную теорему можно сформулировать и для плотности распределения:

Теорема. Для того, чтобы случайные величины Х и Y были независимы, необходимо и достаточно, чтобы плотность совместного распределения системы (X, Y) была равна произведению плотностей распределения составляющих.

Корреляционным моментом mxy случайных величин Х и Y называется математическое ожидание произведения отклонений этих величин.

Практически используются формулы:

Для дискретных случайных величин:

Для непрерывных случайных величин:

Корреляционный момент служит для того, чтобы охарактеризовать связь между случайными величинами. Если случайные величины независимы, то их корреляционный момент равен нулю.

Корреляционный момент имеет размерность, равную произведению размерностей случайных величин Х и Y. Этот факт является недостатком этой числовой характеристики, т.к. при различных единицах измерения получаются различные корреляционные моменты, что затрудняет сравнение корреляционных моментов различных случайных величин.

Для того, чтобы устранить этот недостаток применятся другая характеристика - коэффициент корреляции.

Коэффициентом корреляции rxy случайных величин Х и Y называется отношение корреляционного момента к произведению средних квадратических отклонений этих величин.

Коэффициент корреляции является безразмерной величиной. Коэффициент корреляции независимых случайных величин равен нулю.

Свойство: Абсолютная величина корреляционного момента двух случайных величин Х и Y не превышает среднего геометрического их дисперсий.

Свойство: Абсолютная величина коэффициента корреляции не превышает единицы.

Случайные величины называются коррелированными, если их корреляционный момент отличен от нуля, и некоррелированными, если их корреляционный момент равен нулю.

Если случайные величины независимы, то они и некоррелированы, но из некоррелированности нельзя сделать вывод о их независимости.

Если две величины зависимы, то они могут быть как коррелированными, так и некоррелированными.

Часто по заданной плотности распределения системы случайных величин можно определить зависимость или независимость этих величин.

Наряду с коэффициентом корреляции степень зависимости случайных величин можно охарактеризовать и другой величиной, которая называется коэффициентом ковариации. Коэффициент ковариации определяется формулой:

Пример. Задана плотность распределения системы случайных величин Х и Y.

Выяснить являются ли независимыми случайные величины Х и Y.

Для решения этой задачи преобразуем плотность распределения:

Таким образом, плотность распределения удалось представить в виде произведения двух функций, одна из которых зависит только от х, а другая - только от у. Т.е. случайные величины Х и Y независимы. Разумеется, они также будут и некоррелированы.

откуда заключаем, что m1 , m2 - математические ожидания компонент X, Y двумерной нормальной случайной величины (X, Y), σ1 , σ2 - средние квадратические отклонения их компонент.

Графиком двумерной нормальной плотности в пространстве является холмообразная поверхность, располагающаяся над всей плоскостью xOy, асимптотически приближающаяся к ней при удалении на бесконечность, симметричная относительно вертикальной оси, проходящей через центр (m1 , m2 ), и с вершиной в этой точке. Любое сечение поверхностиграфика нормальной плотности плоскостью, перпендикулярной xOy, является кривой Гаусса.

6.5 Зависимость и независимость двух случайных величин

Определение. Случайные величины X, Y называютсянезависимыми , если независимыми являются события X < x и Y < y для любых вещественных x, y. В противном случае случайные величины (X, Y) называются зависимыми.

Теорема. Общее необходимое и достаточное условие независимости двух случайных величин:

FXY (x, y) = FX (x) · FY (y)

для любых вещественных x и y.

Это условие есть иначе записанное необходимое и достаточное условие независимости двух событий: P (AB) = P (A)P (B) для случая событий A = (X < x), B = (Y < y).

Теорема. Необходимое и достаточное условие независимости двух непрерывных случайных величин:

fXY (x, y) = fX (x) · fY (y), x, y.

Теорема. Необходимое и достаточное условие независимости двух дискретных случайных величин:

p ik= p i · p k

для любых i = 1, 2, . . . , m; k = 1, 2, . . . , n.

Замечание. Равенство нулю коэффициента корреляции ρ является необходимым и достаточным условием независимости компонент X, Y двумерной нормальной случайной величины (X, Y).

6.6 Условные законы распределения. Числовые характеристики двумерной случайной величины. Связь между случайными величинами

6.6.1 Условные законы распределения

Определение. Условным законом распределения одной из одномерных составляющих двумерной случайной величины (X, Y) называется ее закон распределения, вычисленный при условии, что другая составляющая приняла определенное значение (или попала в какой-то интервал).

В случае дискретных случайных величин формулы для нахождения условных вероятностей имеют вид:

pj (xi ) =

P [(X = xi )(Y = yj )]

Pi (yj ) =

P [(X = xi )(Y = yj )]

P (Y = yj )

P (X = xi )

В случае непрерывных случайных величин эти формулы примут вид

fY (x) =

fXY (x, y)

FX (y) =

fXY (x, y)

fY (y)

fX (x)

т.е. условная плотность вероятности одной из одномерных составляющих двумерной случайной величины равна отношению ее совместной плотности к плотности вероятности ее другой составляющей.

Данные соотношения, записанные в виде

fXY (x, y) = fX (x)fX (y) = fX (y)fY (x),

называются теоремой (правило) умножения плотностей распределений.

Используя формулы для получения одномерных составляющих непрерывной случайной величины запишем формулы для условных составляющих:

fY (x) =

fXY (x, y)

FX (y) =

fXY (x, y)

fXY (x, y)dx

fXY (x, y)dy

6.6.2 Числовые характеристики

Рассмотрим случайную величину ϕ(X, Y), являющуюся функцией компонент X, Y двумерной случайной величины (X, Y). Справедливы общие формулы:

для дискретного случая.

Здесь fXY (x, y) - плотность вероятности случайной величины (X, Y), а pik = P (X = xi , Y = yk ) (i = 1, . . . , m; k = 1, . . . , n) - закон распределения дискретной двумерной случайной вели-

С помощью этих формул можно записать формулы для математического ожидания и дисперсии одномерных компонент дискретной случайной величины.

Формулы для нахождения математического ожидания имеют вид:

M(X) = Z Z

xfXY (x, y)dxdy;

M(Y) = yfXY (x, y)dxdy

для непрерывных случайных величин;

M(X) = xi pik ;

M(Y) = yk pik

для дискретного случая.

Формулы для вычисления дисперсии одномерных компонент двумерной случайной величины имеют вид:

D(Y) = M[(Y − M(Y))2 ] = (yk − M(Y))pik

для дискретного случая.

6.6.3 Корреляционные момент и коэффициент корреляции

Выше были сформулированы функциональные характеристики зависимости двух случайных величин. Рассмотрим теперь числовые характеристики связи между случайными величинами.

Определение. Корреляционным моментом K XY , иначе - ковариацией, двух случайных величин X, Y называется математическое ожидание произведения отклонений этих случайных величин от их математических ожиданий:

KXY = M[(X − mX )(Y − mY )].

Очевидно, что KXY = KY X .

Формулы для вычисления KXY имеют вид:

KXY =Z Z

(x − mX )(y − mY )fXY (x, y)dxdyXY = ρY X .

Корреляционный момент и коэффициент корреляции - это числовые характеристики двумерной случайной величины, причем ρXY - безразмерная характеристика. Из их свойств следует, что они характеризуют связь между случайными величинами.

Свойства корреляционного момента и коэффициента корреляции. Свойство 1.

KXY = M − mX mY .

Эту формулу удобно применять для вычисления ковариации.

Свойство 2.

−1 ≤ ρ ≤ 1.

Это свойство означает, что коэффициент корреляции - нормированная характеристика. Свойство 3. Для независимых случайных величин X, Y их корреляционный момент,

а следовательно, и коэффициент корреляции, равны нулю.

Замечание. Обратное предложение в общем случае неверно, т.е. существуют независимые случайные величины (X, Y), для которых KXY = 0.

Определение. Две случайные величины X, Y называютсянекоррелированными , если их корреляционный момент равен нулю. Если KXY 6= 0, то говорят, что X, Y коррелируют между собой.

Замечание. Если KXY 6= 0, то случайные величины X, Y зависимы.

Свойство 4. Для случайных величин X, Y = aX + b, связанных линейной зависимостью, коэффициент корреляции равен 1, если a > 0, и −1, если a < 0.

Свойство 5. Если |ρXY | = 1, то случайные величины X, Y связаны линейной зависимостью с вероятностью единица.

Замечание. Величина M = α 1,1 называется вторым смешанным начальным моментомдвумерной случайной величины (X, Y), а ее корреляционный момент K XY -

вторым смешанным центральным моментом.

Две случайные величины $X$ и $Y$ называются независимыми, если закон распределения одной случайной величины не изменяется от того, какие возможные значения приняла другая случайная величина. То есть, для любых $x$ и $y$ события $X=x$ и $Y=y$ являются независимыми. Поскольку события $X=x$ и $Y=y$ независимые, то по теореме произведения вероятностей независимых событий $P\left(\left(X=x\right)\left(Y=y\right)\right)=P\left(X=x\right)P\left(Y=y\right)$.

Пример 1 . Пусть случайная величина $X$ выражает денежный выигрыш по билетам одной лотереи «Русское лото», а случайная величина $Y$ выражает денежный выигрыш по билетам другой лотереи «Золотой ключ». Очевидно, что случайные величины $X,\ Y$ будут независимыми, так как выигрыш по билетам одной лотереи не зависит от закона распределения выигрышей по билетам другой лотереи. В том случае, когда случайные величины $X,\ Y$ выражали бы выигрыш по одной и той же лотереи, то, очевидно, данные случайные величины были бы зависимыми.

Пример 2 . Двое рабочих трудятся в разных цехах и изготавливают различные изделия, несвязанные между собой технологиями изготовления и используемым сырьем. Закон распределения числа бракованных изделий, изготовленных первым рабочим за смену, имеет следующий вид:

$\begin{array}{|c|c|}
\hline
Число \ бракованных \ изделий \ x & 0 & 1 \\
\hline
Вероятность & 0,8 & 0,2 \\
\hline
\end{array}$

Число бракованных изделий, изготовленных вторым рабочим за смену, подчиняется следующими закону распределения.

$\begin{array}{|c|c|}
\hline
Число \ бракованных \ изделий \ y & 0 & 1 \\
\hline
Вероятность & 0,7 & 0,3 \\
\hline
\end{array}$

Найдем закон распределения числа бракованных изделий, изготовленных двумя рабочими за смену.

Пусть случайная величина $X$ - число бракованных изделий, изготовленных первым рабочим за смену, а $Y$ - число бракованных изделий, изготовленных вторым рабочим за смену. По условию, случайные величины $X,\ Y$ независимы.

Число бракованных изделий, изготовленных двумя рабочими за смену, есть случайная величина $X+Y$. Ее возможные значения равны $0,\ 1$ и $2$. Найдем вероятности, с которыми случайная величина $X+Y$ принимает свои значения.

$P\left(X+Y=0\right)=P\left(X=0,\ Y=0\right)=P\left(X=0\right)P\left(Y=0\right)=0,8\cdot 0,7=0,56.$

$P\left(X+Y=1\right)=P\left(X=0,\ Y=1\ или\ X=1,\ Y=0\right)=P\left(X=0\right)P\left(Y=1\right)+P\left(X=1\right)P\left(Y=0\right)=0,8\cdot 0,3+0,2\cdot 0,7=0,38.$

$P\left(X+Y=2\right)=P\left(X=1,\ Y=1\right)=P\left(X=1\right)P\left(Y=1\right)=0,2\cdot 0,3=0,06.$

Тогда закон распределения числа бракованных изделий, изготовленных двумя рабочими за смену:

$\begin{array}{|c|c|}
\hline
Число \ бракованных \ изделий & 0 & 1 & 2 \\
\hline
Вероятность & 0,56 & 0,38 & 0,06 \\
\hline
\end{array}$

В предыдущем примере мы выполняли операцию над случайными величинами $X,\ Y$, а именно находили их сумму $X+Y$. Дадим теперь более строгое определение операций (сложение, разность, умножение) над случайными величинами и приведем примеры решений.

Определение 1 . Произведением $kX$ случайной величины $X$ на постоянную величину $k$ называется случайная величина, которая принимает значения $kx_i$ с теми же вероятностями $p_i$ $\left(i=1,\ 2,\ \dots ,\ n\right)$.

Определение 2 . Суммой (разностью или произведением) случайных величин $X$ и $Y$ называется случайная величина, которая принимает все возможные значения вида $x_i+y_j$ ($x_i-y_i$ или $x_i\cdot y_i$), где $i=1,\ 2,\dots ,\ n$, с вероятностями $p_{ij}$ того, что случайная величина $X$ примет значение $x_i$, а $Y$ значение $y_j$:

$$p_{ij}=P\left[\left(X=x_i\right)\left(Y=y_j\right)\right].$$

Так как случайные величины $X,\ Y$ независимые, то по теореме умножения вероятностей для независимых событий: $p_{ij}=P\left(X=x_i\right)\cdot P\left(Y=y_j\right)=p_i\cdot p_j$.

Пример 3 . Независимые случайные величины $X,\ Y$ заданы своими законами распределения вероятностей.

$\begin{array}{|c|c|}
\hline
x_i & -8 & 2 & 3 \\
\hline
p_i & 0,4 & 0,1 & 0,5 \\
\hline
\end{array}$

$\begin{array}{|c|c|}
\hline
y_i & 2 & 8 \\
\hline
p_i & 0,3 & 0,7 \\
\hline
\end{array}$

Составим закон распределения случайной величины $Z=2X+Y$. Суммой случайных величин $X$ и $Y$, то есть $X+Y$, называется случайная величина, которая принимает все возможные значения вида $x_i+y_j$, где $i=1,\ 2,\dots ,\ n$, с вероятностями $p_{ij}$ того, что случайная величина $X$ примет значение $x_i$, а $Y$ значение $y_j$: $p_{ij}=P\left[\left(X=x_i\right)\left(Y=y_j\right)\right]$. Так как случайные величины $X,\ Y$ независимые, то по теореме умножения вероятностей для независимых событий: $p_{ij}=P\left(X=x_i\right)\cdot P\left(Y=y_j\right)=p_i\cdot p_j$.

Итак, имеет законы распределения случайных величины $2X$ и $Y$ соответственно.

$\begin{array}{|c|c|}
\hline
x_i & -16 & 4 & 6 \\
\hline
p_i & 0,4 & 0,1 & 0,5 \\
\hline
\end{array}$

$\begin{array}{|c|c|}
\hline
y_i & 2 & 8 \\
\hline
p_i & 0,3 & 0,7 \\
\hline
\end{array}$

Для удобства нахождения всех значений суммы $Z=2X+Y$ и их вероятностей составим вспомогательную таблицу, в каждой клетке которой поместим в левом углу значения суммы $Z=2X+Y$, а в правом углу - вероятности этих значений, полученные в результате перемножения вероятностей соответствующих значений случайных величин $2X$ и $Y$.

В результате получим распределение $Z=2X+Y$:

$\begin{array}{|c|c|}
\hline
z_i & -14 & -8 & 6 & 12 & 10 & 16 \\
\hline
p_i & 0,12 & 0,28 & 0,03 & 0,07 & 0,15 & 0,35 \\
\hline
\end{array}$

При изучении систем случайных величин всегда следует обращать внимание на степень и характер их зависимости. Эта зависимость может быть более или менее ярко выраженной, более или менее тесной. В некоторых случаях зависимость между случайными величинами может быть настолько тесной, что, зная значение одной случайной величины, можно в точности указать значение другой. В другом крайнем случае зависимость между случайными величинами является настолько слабой и отдаленной, что их можно практически считать независимыми.

Понятие о независимых случайных величинах – одно их важных понятий теории вероятностей.

Случайная величина называется независимой от случайной величины , если закон распределения величины не зависит от того, какое значение приняла величина .

Для непрерывных случайных величин условие независимости от может быть записано в виде:

при любом .

Напротив, в случае, если зависит от , то

.

Докажем, что зависимость или независимость случайных величин всегда взаимны: если величина не зависит от .

Действительно, пусть не зависит от :

. (8.5.1)

Из формул (8.4.4) и (8.4.5) имеем:

откуда, принимая во внимание (8.5.1), получим:

что и требовалось доказать.

Так как зависимость и независимость случайных величин всегда взаимны, можно дать новое определение независимых случайных величин.

Случайные величины и называются независимыми, если закон распределения каждой из них не зависит от того, какое значение приняла другая. В противном случае величины и называются зависимыми.

Для независимых непрерывных случайных величин теорема умножения законов распределения принимает вид:

, (8.5.2)

т. е. плотность распределения системы независимых случайных величин равна произведению плотностей распределения отдельных величин, входящих в систему.

Условие (8.5.2) может рассматриваться как необходимое и достаточное условие независимости случайных величин.

Часто по самому виду функции можно заключить, что случайные величины , являются независимыми, а именно, если плотность распределения распадается на произведение двух функций, из которых одна зависит только от , другая - только от , то случайные величины независимы.

Пример. Плотность распределения системы имеет вид:

.

Определить, зависимы или независимы случайные величины и .

Решение. Разлагая знаменатель на множители, имеем:

.

Из того, что функция распалась на произведение двух функций, из которых одна зависима только от , а другая - только от , заключаем, что величины и должны быть независимы. Действительно, применяя формулы (8.4.2) и (8.4.3), имеем:

;

аналогично

откуда убеждаемся, что

и, следовательно, величины и независимы.

Вышеизложенный критерий суждения о зависимости или независимости случайных величин исходит из предположения, что закон распределения системы нам известен. На практике чаще бывает наоборот: закон распределения системы не известен; известны только законы распределения отдельных величин, входящих в систему, и имеются основания считать, что величины и независимы. Тогда можно написать плотность распределения системы как произведение плотностей распределения отдельных величин, входящих в систему.

Остановимся несколько подробнее на важных понятиях о «зависимости» и «независимости» случайных величин.

Понятие «независимости» случайных величин, которым мы пользуемся в теории вероятностей, несколько отличается от обычного понятия «зависимости» величин, которым мы оперируем в математике. Действительно, обычно под «зависимостью» величин подразумевают только один тип зависимости - полную, жесткую, так называемую - функциональную зависимость. Две величины и называются функционально зависимыми, если, зная значение одной из них, можно точно указать значение другой.

В теории вероятностей мы встречаемся с другим, более общим, типом зависимости - с вероятностной или «стохастической» зависимостью. Если величина связана с величиной вероятностной зависимостью, то, зная значение , нельзя указать точно значение , а можно указать только ее закон распределения, зависящий от того, какое значение приняла величина .

Вероятностная зависимость может быть более или менее тесной; по мере увеличения тесноты вероятностной зависимости она все более приближается к функциональной. Таким образом, функциональную зависимость можно рассматривать как крайний, предельный случай наиболее тесной вероятностной зависимости. Другой крайний случай - полная независимость случайных величин. Между этими двумя крайними случаями лежат все градации вероятностной зависимости - от самой сильной до самой слабой. Те физические величины, которые на практике мы считаем функционально зависимыми, в действительности связаны весьма тесной вероятностной зависимостью: при заданном значении одной из этих величин другая колеблется в столь узких пределах, что ее практически можно считать вполне определенной. С другой стороны, те величины, которые мы на практике считаем независимыми, и действительности часто находятся в некоторой взаимной зависимости, но эта зависимость настолько слаба, что ею для практических целей можно пренебречь.

Вероятностная зависимость между случайными величинами очень часто встречается на практике. Если случайные величины и находятся в вероятностной зависимости, это не означает, что с изменением величины величина изменяется вполне определенным образом; это лишь означает, что с изменением величины величина имеет тенденцию также изменяться (например, возрастать или убывать при возрастании ). Эта тенденция соблюдается лишь «в среднем», в общих чертах, и в каждом отдельном случае от нее возможны отступлении.

Рассмотрим, например, две такие случайные величины: - рост наугад взятого человека, - его вес. Очевидно, величины и находятся в определенной вероятностной зависимости; она выражается в том, что в общем люди с большим ростом имеют больший вес. Можно даже составить эмпирическую формулу, приближенно заменяющую эту вероятностную зависимость функциональной. Такова, например, общеизвестная формула, приближенно выражающая зависимость между ростом и весом.