Закон распределения суммы двух случайных величин. Совместное распределение двух случайных величин

  • 2.2. Обобщенная теорема о повторении опытов.
  • Раздел 3. Понятие случайной величины. Функция распределения и ее основные свойства.
  • 3.1. Понятие случайной величины и функции распределения.
  • 3.2. Свойства функции распределения.
  • 3.3. Дискретные и непрерывные случайные величины.
  • 3.4. Числовые характеристики случайных величин.
  • Раздел 4. Примеры распределений случайных величин.
  • 4.1. Биномиальное распределение.
  • 4.2. Теорема Пуассона
  • 4.3. Закон Пуассона.
  • 4.4. Равномерное распределение.
  • 4.5. Показательное распределение.
  • 4.6.Нормальный закон распределения.
  • Раздел 5. Системы случайных величин (случайные векторы).
  • 5.1. Понятие о системе случайных величин.
  • 5.2. Функция распределения системы двух случайных величин.
  • 5.3. Плотность распределения системы двух случайных величин.
  • 5.4. Законы распределения отдельных компонент, входящих в систему. Условные законы распределения.
  • 5.5. Зависимые и независимые случайные величины.
  • 5.6. Числовые характеристики системы двух случайных величин.
  • 5.7. Система произвольного числа случайных величин (случайные вектора).
  • 5.8. Числовые характеристики системы нескольких случайных величин.
  • Раздел 6. Законы распределения функций случайных аргументов.
  • 6.1. Закон распределения функции одного случайного аргумента.
  • 6.2. Закон распределения функции двух случайных величин.
  • 6.3. Закон распределения суммы двух случайных величин. Композиция законов распределения.
  • 6.4. Распределение произведения.
  • 6.5. Распределение квадрата случайной величины.
  • 6.6. Распределение частного.
  • 6.7. Числовые характеристики функций случайных величин.
  • Раздел 7. Теоремы о числовых характеристиках.
  • 7.1. Основные теоремы о математическом ожидании.
  • 7.2. Теоремы о дисперсии случайной величины.
  • 7.3. Теорема о линейной зависимости случайных величин.
  • Раздел 8. Характеристические функции.
  • 8.1. Определение и простейшие свойства характеристических функций.
  • 8.2. Предельные теоремы для характеристических функций.
  • Раздел 9. Предельные теоремы для случайных величин.
  • 9.1. Сходимость последовательностей случайных величин.
  • 9.2. Закон больших чисел.
  • 9.3. Следствия закона больших чисел.
  • Раздел 10. Предельные теоремы теории вероятностей.
  • 10.1. Центральная предельная теорема.
  • 10.2. Теорема Ляпунова.
  • 10.3. Теорема Лапласа.
  • 2. Практические занятия, тесты, самостоятельная работа. Занятие 1. Непосредственный подсчет вероятности с использованием классического определения вероятности.
  • 1.1. Краткая теоретическая часть.
  • 1.2. Тест.
  • 1.3. Решение типовых задач.
  • 1.4. Задачи для самостоятельной работы.
  • Занятие 2. Геометрическое определение вероятности.
  • 2.1. Краткая теоретическая часть.
  • 2.2. Тест
  • 2.3. Решение типовых задач
  • 2.4. Задачи для самостоятельной работы
  • Занятие 3. Условная вероятность. Теорема умножения вероятностей.
  • 3.1. Краткая теоретическая часть
  • 3.2. Тест
  • 3.3. Решение типовых задач
  • 3.4. Задачи для самостоятельной работы
  • Занятие 4. Теорема сложения вероятностей.
  • 4.1. Краткая теоретическая часть
  • 4.2. Тест
  • 4.3. Решение типовых задач
  • 4.4. Задачи для самостоятельной работы
  • Занятие 5. Формула полной вероятности.
  • 5.1. Краткая теоретическая часть
  • 5.2. Тест.
  • 5.3. Решение типовых задач
  • 5.4. Задачи для самостоятельной работы
  • Занятие 6. Формула Бейеса.
  • 6.1. Краткая теоретическая часть
  • 6.2.Тест
  • 6.3. Решение типовых задач
  • 6.4. Задачи для самостоятельной работы
  • Занятие 7. Последовательные независимые испытания.
  • 7.1. Краткая теоретическая часть
  • 7.2. Тест
  • 7.3. Решение типовых задач
  • 7.4. Задачи для самостоятельной работы
  • Занятие 8. Дискретные и непрерывные случайные величины.
  • 8.1. Краткая теоретическая часть а) Ряд, многоугольник и функция распределения случайной дискретной величины
  • 8.2. Тест
  • А) только к дискретным случайным величинам
  • 8.3. Решение типовых задач а) Ряд, многоугольник и функция распределения случайной дискретной величины
  • Б) Функция распределения и плотность вероятности непрерывной случайной величины
  • 8.4. Задачи для самостоятельной работы а) Ряд, многоугольник и функция распределения случайной дискретной величины
  • Занятие 9. Числовые характеристики дискретных случайных величин.
  • 9.1. Краткая теоретическая часть
  • 9.2. Тест
  • 9.3. Решение типовых задач
  • 9.4. Задачи для самостоятельной работы
  • Занятие 10. Дискретные и непрерывные случайные величины.
  • 10.1. Краткая теоретическая часть
  • 10.2. Тест
  • 10.3. Решение типовых задач
  • 10.4. Задачи для самостоятельной работы
  • Занятие 11. Закон Пуассона.
  • 11.1. Краткая теоретическая часть
  • 11.2. Тест
  • 11.3. Решение типовых задач
  • 11.4. Задачи для самостоятельной работы
  • Занятие 12. Закон нормального распределения.
  • 12.1. Краткая теоретическая часть
  • 12.2. Тест
  • 12.3. Решение типовых задач
  • 12.4. Задачи для самостоятельной работы
  • Литература
  • 6.2. Закон распределения функции двух случайных величин.

    Изложим общий метод решения задачи для наиболее простого случая функции двух аргументов.

    Имеется система двух непрерывных случайных ве­личин (X , Y ) с плотностью распределения f (x , y ) . Слу­чайная величина Z связана с X и Y функциональной зависимостью:

    Требуется найти закон распределения величины Z.

    Для решения задачи вос­пользуемся геометрической интерпретацией. Функия
    изобразится уже не кривой, а поверхностью (рис. 6.2.1).

    Найдем функцию распределения величины Z:

    Проведем плоскость Q, параллельную плоскости хОу , на расстоя­нии z от нее. Эта плоскость пересечет поверхность
    по некоторой кривойК . Спроектируем кривую К на плоскость хОу . Эта проекция, уравнение которой
    , разделит плоскостьхОу на две области; для одной из них высота поверхности над пло­скостью хОу будет меньше, а для другой - больше z . Обозначим D ту область, для которой эта высота меньше z . Чтобы выполнялось неравенство (6.2.1), случайная точка (X , Y ) очевидно, должна по­пасть в область D ; следовательно,

    Зная конкретный вид функции
    , можно выразить пре­делы интегрирования черезz и написать выражение g (z ) в явном виде.

    6.3. Закон распределения суммы двух случайных величин. Композиция законов распределения.

    Воспользуемся изложенным выше общим методом для решения одной задачи, а именно для нахождения закона распределения суммы двух случайных величин. Имеется система двух случайных величин (X , Y ) с плотностью распределения f (x ,у) . Рассмотрим сумму случайных величин X и Y :
    и найдем закон распределения величины Z . Для этого построим на плоскости хОу линию, уравнение которой
    (рис. 6.3.1). Это - прямая, отсекающая на осях отрезки, равныеz . Прямая
    делит плоскость хОу на две части; правее и выше ее
    ; левее и ниже

    Область D в данном случае - левая нижняя часть пло­скости хОу , заштрихованная на рис. 6.3.1. Согласно формуле (6.3.2) имеем:

    Это - общая формула для плотности распределения суммы двух случайных величин.

    Из соображений симметричности задачи относительно X и Y можно написать другой вариант той же формулы:

    Требуется произвести композицию этих законов, т. е. найти закон распределения величины:
    .

    Применим общую формулу для композиции законов рас­пределения:

    Подставляя эти выражения в уже встречавшуюся нам формулу

    а это есть не что иное, как нормальный закон с центром рассеи­вания

    К тому же выводу можно прийти значительно проще с помощью следующих качественных рассуждений.

    Не раскрывая скобок и не производя преобразований в подынте­гральной функции (6.3.3), сразу приходим к выводу, что показатель степени есть квадратный трехчлен относительно х вида

    где в коэффициент А величина z не входит совсем, в коэффициент В входит в первой степени, а в коэффициент С - в квадрате. Имея это в виду и применяя формулу(6.3.4), приходим к заключению, что g (z ) есть показательная функция, показатель степени которой - квадратный трехчлен относительно z , а плотность аспределения; такого вида соответствует нормальному закону. Таким образом, мы; приходим к чисто качественному выводу: закон распределения вели­чины z должен быть нормальным. Чтобы найти параметры этого закона -
    и
    - воспользуемся теоремой сложения математических ожиданий и теоремой сложения дисперсий. По теореме сложения математических ожиданий
    . По теореме сложения дисперсий
    или
    откуда следует формула (6.3.7).

    Переходя от среднеквадратических отклонений к пропорциональным им вероятным отклонениям, получим:
    .

    Таким образом, мы пришли к следующему правилу: при компо­зиции нормальных законов получается снова нормальный за­кон, причем математические ожидания и дисперсии (или квад­раты вероятных отклонений) суммируются.

    Правило композиции нормальных законов может быть обобщено на случай произвольного числа независимых случайных величин.

    Если имеется n независимых случайных величин:
    подчиненных нормальным законам с центрами рассеивания
    и среднеквадратическими отклонениями
    ,то величина
    также подчинена нормальному закону с параметрами

    Если система случайных величин (X , Y ) распределена по нормальному закону, но величины X , Y зависимы, то нетрудно доказать, так же как раньше, исходя из общей формулы (6.3.1), что закон распределения величины
    есть тоже нормальный закон. Центры рассеивания по-прежнему складываются алгебраически, но для среднеквадратических отклонений правило становится более сложным: , где, r - коэффициент корреляции величин X и Y .

    При сложении нескольких зависимых случайных величин, подчиненных в своей совокупности нормальному закону, закон распределения суммы также оказывается нормальным с параметрами

    где - коэффициент корреляции величинX i , X j , а суммирование распространяется на все различные попарные комбинации величин
    .

    Мы убедились в весьма важном свойстве нормального закона: при композиции нормальных законов получается снова нормальный закон. Это - так называемое «свойство устойчивости». Закон распределения называется устойчивым, если при композиции двух законов этого типа получается снова закон того же типа. Выше мы показали, что нормальный закон является устойчивым. Свойством устойчивости обладают весьма немногие законы распределения. Закон равномерной плотности неустойчив: при композиции двух законов равномерной плотности на участках от 0 до 1 мы получили закон Симпсона.

    Устойчивость нормального закона - одно из существенных условий его широкого распространения на практике. Однако свойством устойчивости, кроме нормального, обладают и некоторые другие законы распределения. Особенностью нор­мального закона является то, что при композиции достаточно боль­шого числа практически произвольных законов распределения суммарный закон оказывается сколь угодно близок к нормальному вне зависимости от того, каковы были законы распределения слагаемых. Это можно проиллюстрировать, например, составляя композицию трех законов равномерной плотности на уча­стках от 0 до 1. Получающийся при этом закон распределения g (z ) изображен на рис. 6.3.1. Как видно из чертежа, график функции g (z ) весьма напоминает график нормального закона.

    Воспользуемся изложенным выше общим методом для решения одной задачи, а именно для нахождения закона распределения суммы двух случайных величин. Имеется система двух случайных величин (X,Y) с плотностью распределения f(x,у).

    Рассмотрим сумму случайных величин X и Y: и найдем закон распределения величины Z. Для этого построим на плоскости хОу линию, уравнение которой (рис. 6.3.1). Это - прямая, отсекающая на осях отрезки, равные z. Прямая делит плоскость хОу на две части; правее и выше ее ; левее и ниже

    Область D в данном случае - левая нижняя часть пло­скости хОу, заштрихованная на рис. 6.3.1. Согласно формуле (6.3.2) имеем:

    Это - общая формула для плотности распределения суммы двух случайных величин.

    Из соображений симметричности задачи относительно X и Y можно написать другой вариант той же формулы:

    Требуется произвести композицию этих законов, т. е. найти закон распределения величины: .

    Применим общую формулу для композиции законов рас­пределения:

    Подставляя эти выражения в уже встречавшуюся нам формулу

    а это есть не что иное, как нормальный закон с центром рассеи­вания

    К тому же выводу можно прийти значительно проще с помощью следующих качественных рассуждений.

    Не раскрывая скобок и не производя преобразований в подынте­гральной функции (6.3.3), сразу приходим к выводу, что показатель степени есть квадратный трехчлен относительно х вида

    где в коэффициент А величина z не входит совсем, в коэффициент В входит в первой степени, а в коэффициент С - в квадрате. Имея это в виду и применяя формулу(6.3.4), приходим к заключению, что g(z) есть показательная функция, показатель степени которой - квадратный трехчлен относительно z, а плотность аспределения; такого вида соответствует нормальному закону. Таким образом, мы; приходим к чисто качественному выводу: закон распределения вели­чины z должен быть нормальным. Чтобы найти параметры этого закона - и - воспользуемся теоремой сложения математических ожиданий и теоремой сложения дисперсий.

    По теореме сложения математических ожиданий . По теореме сложения дисперсий или откуда следует формула (6.3.7).

    Переходя от среднеквадратических отклонений к пропорциональным им вероятным отклонениям, получим:
    .

    Таким образом, мы пришли к следующему правилу: при компо­зиции нормальных законов получается снова нормальный за­кон, причем математические ожидания и дисперсии (или квад­раты вероятных отклонений) суммируются.

    Правило композиции нормальных законов может быть обобщено на случай произвольного числа независимых случайных величин.

    Если имеется n независимых случайных величин: подчиненных нормальным законам с центрами рассеивания и среднеквадратическими отклонениями ,то величина также подчинена нормальному закону с параметрами

    Если система случайных величин (X, Y) распределена по нормальному закону, но величины X, Y зависимы, то нетрудно доказать, так же как раньше, исходя из общей формулы (6.3.1), что закон распределения величины есть тоже нормальный закон. Центры рассеивания по-прежнему складываются алгебраически, но для среднеквадратических отклонений правило становится более сложным: , где, r - коэффициент корреляции величин X и Y.

    При сложении нескольких зависимых случайных величин, подчиненных в своей совокупности нормальному закону, закон распределения суммы также оказывается нормальным с параметрами

    где - коэффициент корреляции величин X i , X j , а суммирование распространяется на все различные попарные комбинации величин .

    Мы убедились в весьма важном свойстве нормального закона: при композиции нормальных законов получается снова нормальный закон. Это - так называемое «свойство устойчивости». Закон распределения называется устойчивым, если при композиции двух законов этого типа получается снова закон того же типа. Выше мы показали, что нормальный закон является устойчивым. Свойством устойчивости обладают весьма немногие законы распределения. Закон равномерной плотности неустойчив: при композиции двух законов равномерной плотности на участках от 0 до 1 мы получили закон Симпсона.

    Устойчивость нормального закона - одно из существенных условий его широкого распространения на практике. Однако свойством устойчивости, кроме нормального, обладают и некоторые другие законы распределения. Особенностью нор­мального закона является то, что при композиции достаточно боль­шого числа практически произвольных законов распределения суммарный закон оказывается сколь угодно близок к нормальному вне зависимости от того, каковы были законы распределения слагаемых. Это можно проиллюстрировать, например, составляя композицию трех законов равномерной плотности на уча­стках от 0 до 1. Получающийся при этом закон распределения g(z) изображен на рис. 6.3.1. Как видно из чертежа, график функции g(z) весьма напоминает график нормального закона.

    На практике часто возникает надобность находить закон распределения суммы случайных величин.

    Пусть имеются система (Х ь Х 2) двух непрерывных с. в. и их сумма

    Найдем плотность распределения с. в. У. В соответствии с общим решением предыдущего пункта, находим область плоскости где х+ х 2 (рис. 9.4.1):

    Дифференцируя это выражение по у, получим п. р. случайной величины У= Х + Х 2:

    Так как функция ф (х ь х 2) = Xj + х 2 симметрична относительно своих аргументов, то

    Если с. в. Х и Х 2 независимы, то формулы (9.4.2) и (9.4.3) примут вид:


    В случае, когда складываются независимые с. в. Х х и Х 2 , говорят о композиции законов распределения. Произвести композицию двух законов распределения - это значит найти закон распределения суммы двух независимых с. в., распределенных по этим законам. Для обозначения композиции законов распределения применяется символическая запись

    которой по существу обозначаются формулы (9.4.4) или (9.4.5).

    Пример 1. Рассматривается работа двух технических устройств (ТУ). Сначала работает ТУь после его выхода из строя (отказа) включается в работу ТУ 2 . Времена безотказной работы ТУ Ь ТУ 2 - Х х и Х 2 - независимы и распределены по показательным законам с параметрами А,1 и Х 2 . Следовательно, время Y безотказной работы ТУ, состоящего из ТУ! и ТУ 2 , будет определяться по формуле

    Требуется найти п. р. случайной величины Y, т. е. композицию двух показательных законов с параметрами и Х 2 .

    Решение. По формуле (9.4.4) получим (у > 0)


    Если находится композиция двух показательных законов с одинаковыми параметрами (?ц = Х 2 = У), то в выражении (9.4.8) получается неопределенность типа 0/0, раскрывая которую, получим:

    Сравнивая это выражение с выражением (6.4.8), убеждаемся в том, что композиция двух одинаковых показательных законов (?ц = Х 2 = X) представляет собой закон Эрланга второго порядка (9.4.9). При композиции двух показательных законов с различными параметрами Х х и А-2 получают обобщенный закон Эрланга второго порядка (9.4.8). ?

    Задача 1. Закон распределения разности двух с. в. Система с. в. (Х и Х 2) имеет совместную п. р./(х ь х 2). Найти п. р. их разности У= Х - Х 2 .

    Решение. Для системы с. в. (Х ь - Х 2) п. р. будет/(х ь - х 2), т. е. мы разность заменили суммой. Следовательно, п. р. случайной величины Убудет иметь вид (см. (9.4.2), (9.4.3)):

    Если с. в. Х х иХ 2 независимы, то

    Пример 2. Найти п. р. разности двух независимых показательно распределенных с. в. с параметрами Х х и Х 2 .

    Решение. По формуле (9.4.11) получим

    Рис. 9.4.2 Рис. 9.4.3

    На рисунке 9.4.2 изображена п. р. g (у). Если рассматривается разность двух независимых показательно распределенных с. в. с одинаковыми параметрами (A-i = Х 2 = А,), то g (у) = /2 - уже знакомый

    закон Лапласа (рис. 9.4.3). ?

    Пример 3. Найти закон распределения суммы двух независимых с. в. Х и Х 2 , распределенных по закону Пуассона с параметрами а х и а 2 .

    Решение. Найдем вероятность события (Х х + Х 2 = т) (т = 0, 1,



    Следовательно, с. в. У= Х х + Х 2 распределена по закону Пуассона с параметром а х2) - а х + а 2 . ?

    Пример 4. Найти закон распределения суммы двух независимых с. в. Х х и Х 2 , распределенных по биномиальным законам с параметрами п х ри п 2 , р соответственно.

    Решение. Представим с. в. Х х в виде:

    где Х 1) - индикатор события А ву"-м опыте:

    Ряд распределения с. в. X,- имеет вид


    Аналогичное представление сделаем и для с. в. Х 2: где Х] 2) - индикатор события А в у"-м опыте:


    Следовательно,

    где Х? 1)+(2) если индикатор события А:

    Таким образом, мы показали, что с. в. Тесть сумма (щ + п 2) индикаторов события А , откуда следует, что с. в. ^распределена по биномиальному закону с параметрами (п х + п 2), р.

    Заметим, что если вероятности р в различных сериях опытов различны, то в результате сложения двух независимых с. в., распределенных по биномиальным законам, получится с. в., распределенная не по биномиальному закону. ?

    Примеры 3 и 4 легко обобщаются на произвольное число слагаемых. При композиции законов Пуассона с параметрами а ъ а 2 , ..., а т снова получается закон Пуассона с параметром а (т) = а х + а 2 + ... + а т.

    При композиции биномиальных законов с параметрами (п ь р ); (я 2 , р) , (п т, р) снова получается биномиальный закон с параметрами («(«), Р), где п (т) = щ+ п 2 + ... + п т.

    Мы доказали важные свойства закона Пуассона и биномиального закона: «свойство устойчивости». Закон распределения называется устойчивым, если при композиции двух законов одинакового типа получается закон того же типа (различаются только параметры этого закона). В подразделе 9.7 мы покажем, что таким же свойством устойчивости обладает нормальный закон.

    Пусть пространство элементарных исходов случайного эксперимента таково, что каждому исходу i j ставиться в соответствие значение случайной величины, равное x i и значение случайной величины, равное y j .

    • 1. Представим себе большую совокупность деталей, имеющих вид стержня. Эксперимент заключается в случайном выборе одного стержня. Этот стержень имеет длину, которую будем обозначать и толщину- (можно указать другие параметры-объем, вес, чистота обработки, выраженная в стандартных единицах).
    • 2. Если рассмотреть акции двух различных корпораций, то в данный день биржевых торгов они каждая из них характеризуется определённой доходностью. Случайные величины и - это доходности акций этих корпораций.

    В этих случаях мы можем говорить о совместном распределении случайных величин и или о "двумерной" случайной величине.

    Если и дискретны и принимают конечное число значений (- n значений, а - k значений), то закон совместного распределения случайных величин и можно задать, если каждой паре чисел x i , y j (где x i принадлежит множеству значений, а y j -множеству значений) поставить в соответствие вероятность p i j , равную вероятности события, объединяющего все исходы i j (и состоящего лишь из этих исходов), которые приводят к значениям = xi ; = y j .

    Такой закон распределения можно задать в виде таблицы:

    Очевидно:

    Если просуммировать все р i j в i -й строке, то получим:

    Вероятность того, что случайная величина примет значение x i . Аналогично, если просуммировать все р i j в j -м столбце, то получим:

    вероятность того, что принимает значение y j .

    Соответствие x i P i (i = 1,2,n ) определяет закон распределения, также как соответствие y j P j (j = 1,2,k ) определяет закон распределения случайной величины.

    Очевидно:

    Раньше мы говорили, что случайные величины и независимы, если:

    pij=PiP j (i= 1,2,,n ; j= 1,2,k).

    Если это не выполняется, то и зависимы.

    В чем проявляется зависимость случайных величин и и как ее выявить из таблицы?

    Рассмотрим столбец y 1 . Каждому числу x i поставим в соответствие число:

    p i/ 1 = (1)

    которое будем называть условной вероятностью = x i при =y 1 . Обратите внимание на то, что это не вероятность P i события = x i , и сравните формулу (1) с уже известной формулой условной вероятности:

    Соответствие x i р i / 1 , (i =1,2,n ) будем называть условным распределением случайной величины при =y 1 . Очевидно:

    Аналогичные условные законы распределения случайной величины можно построить при всех остальных значениях, равных y 2 ; y 3 , y n , ставя в соответствие числу x i условную вероятность:

    p i/j = ().

    В таблице приведён условный закон распределения случайной величины при =y j

    Можно ввести понятие условного математического ожидания при = y j

    Заметим, что и равноценны. Можно ввести условное распределение при =x i соответствием

    (j = 1,2,k ).

    Также можно ввести понятие условного математического ожидания случайной величины при =x i :

    Из определения следует, что если и независимы, то все условные законы распределения одинаковы и совпадают с законом распределения (напоминаем, что закон распределения определяется в таблице (*) первым и последним столбцом). При этом очевидно, совпадают все условные математические ожидания М:

    / = y j ,

    при j = 1,2,k , которые равны М.

    Если условные законы распределения при различных значениях различны, то говорят, что между и имеет место статистическая зависимость.

    Пример I. Пусть закон совместного распределения двух случайных величин и задан следующей таблицей. Здесь, как говорилось ранее, первый и последний столбцы определяют закон распределения случайной величины, а первая и последняя строки - закон распределения случайной величины.

    Найдем законы распределений случайных величин:

    Чтобы получить =2 и =0, нужно чтобы приняла значение 0, а приняла значение 2. Так как и независимы, то

    Р(=2; =0)= Р(=0; =2)=Р(=0)Р(=2)=1/12.

    Очевидно также Р(=3; =0)=0.

    Построим полигоны условных распределений. Здесь зависимость от довольно близка к функциональной: значению =1 соответствует единственное =2, значению =2 соответствует единственное =3, но при =0 мы можем говорить лишь, что с вероятностью 3/4 принимает значение 1 и с вероятностью 1/4 - значение 2.

    Пример III. Рассмотрим закон совместного распределения и, заданный таблицей

    Законы условных распределений не отличаются друг от друга при =1,2,3 и совпадают с законом распределения случайной величины. В данном случае и независимы.

    Характеристикой зависимости между случайными величинами и служит математическое ожидание произведения отклонений и от их центров распределений (так иногда называют математическое ожидание случайной величины), которое называется коэффициентом ковариации или просто ковариацией.

    cov(;) = M ((- M )(- M ))

    Пусть = x 1 , x 2 , x 3 , x n , = y 1 , y 2 , y 3 ,y k .

    Эту формулу можно интерпретировать так. Если при больших значениях более вероятны большие значения, а при малых значениях более вероятны малые значения, то в правой части формулы (2) положительные слагаемые доминируют, и ковариация принимает положительные значения.

    Если же более вероятны произведения (x i - M )(y j - M ), состоящие из сомножителей разного знака, то есть исходы случайного эксперимента, приводящие к большим значениям в основном приводят к малым значениям и наоборот, то ковариация принимает большие по модулю отрицательные значения.

    В первом случае принято говорить о прямой связи: с ростом случайная величина имеет тенденцию к возрастанию.

    Во втором случае говорят об обратной связи: с ростом случайная величина имеет тенденцию к уменьшению или падению. Если примерно одинаковый вклад в сумму дают и положительные и отрицательные произведения (x i - M )(y j - M )p i j , то можно сказать, что в сумме они будут "гасить" друг друга и ковариация будет близка к нулю. В этом случае не просматривается зависимость одной случайной величины от другой.

    Легко показать, что если:

    P ((= x i )(= y j )) = P (= x i )P (= y j ) (i = 1,2,n ; j = 1,2,k ),

    Действительно из (2) следует:

    Здесь использовано очень важное свойство математического ожидания: математическое ожидание отклонения случайной величины от ее математического ожидания равно нулю .

    Доказательство (для дискретных случайных величин с конечным числом значений).

    Ковариацию удобно представлять в виде

    cov(;)=M (- M - M +MM )=M ()- M (M )- M (M )+M (MM )= M ()- MM - MM +MM =M ()- MM

    Ковариация двух случайных величин равна математическому ожиданию их произведения минус произведение математических ожиданий.

    Легко доказывается следующее свойство математического ожидания: если и -независимые случайные величины, то:

    М ()=ММ .

    (Доказать самим, используя формулу:

    Таким образом, для независимых случайных величин и cov(;)=0.

    • 1. Монету подбрасывают 5 раз. Случайная величина - число выпавших гербов, случайная величина - число выпавших гербов в последних двух бросках. Построить совместный закон распределения случайных величин, построить условные законы распределения при различных значениях. Найти условные математические ожидания и ковариацию и.
    • 2. Две карты наудачу извлекаются из колоды в 32 листа. Случайная величина - число тузов в выборке, случайная величина - число королей в выборке. Построить совместный закон распределения и, построить условные законы распределения при различных значениях. Найти условные математические ожидания и ковариацию и.


    Понравилась статья? Поделитесь с друзьями!