Каким свойством обладает дисперсия

Каким свойством обладает дисперсия thumbnail

Дисперсией (рассеянием) дискретной случайной величиныD(X) называют математическое ожидание квадрата отклонения случайной величины от ее математического ожидания

1 свойство. Дисперсия постоянной величины C равна нулю; D(C) = 0.

Доказательство. По определению дисперсии, D(C) = M{[C – M(C)]2}.

Из первого свойства математического ожидания D(C) = M[(C – C)2] = M(0) = 0.

2 свойство. Постоянный множитель можно выносить за знак дисперсии, возводя его в квадрат:

D(CX) = C2 D(X)

Доказательство. По определению дисперсии, D(CX) = M{[CX – M(CX)]2}

Из второго свойства математического ожидания D(CX)=M{[CX – CM(X)]2}= C2M{[X – M(X)]2}=C2D(X)

3 свойство. Дисперсия суммы двух независимых случайных величин равна сумме дисперсий этих величин:

D[X + Y ] = D[X] + D[Y ].

Доказательство. По формуле для вычисления дисперсии имеем

D(X + Y) = M[(X + Y )2] − [M(X + Y)]2

Раскрыв скобки и пользуясь свойствами математического ожидания суммы нескольких величин и произведения двух независимых случайных величин, получим

D(X + Y) = M[X2+ 2XY + Y2] − [M(X) + M(Y )]2 = M(X2) + 2M(X)M(Y) + M(Y2) − M2(X) − 2M(X)M(Y) − M2(Y) = {M(X2) − [M(X)]2}+{M(Y2) − [M(Y)]2} = D(X) + D(Y). Итак, D(X + Y) = D(X) + D(Y)

4 свойство. Дисперсия разности двух независимых случайных величин равна сумме их дисперсий:

D(X − Y) = D(X) + D(Y)

Доказательство. В силу третьего свойства D(X − Y) = D(X) + D(–Y). По второму свойству

D(X − Y) = D(X) + (–1)2 D(Y) или D(X − Y) = D(X) + D(Y)

Числовые характеристики систем случайных величин. Коэффициент корреляции, свойства коэффициента корреляции.

Корреляционный момент.Характеристикой зависимости между случайными величинами и служит математическое ожидание произведения отклонений и от их центров распределений (так иногда называют математическое ожидание случайной величины), которое называется корреляционным моментом или ковариацией:

Для вычисления корреляционного момента дискретных величин используют формулу:

а для непрерывных величин – формулу:

Коэффициентом корреляции rxy случайных величин X и Y называют отношение корреляционного момента к произведению среднеквадратичных отклонений величин:
— коэффициент корреляции;

Свойства коэффициента корреляции:

1. Если Х и У независимые случайные величины, то r =0;

2. -1≤ r ≤1 .При этом, если |r| =1, то между Х и У функциональная, а именно линейная зависимость;

3. r характеризует относительную величину отклонения М(ХУ) от М(Х)М(У), и т.к. отклонение имеет место только для зависимых величин, то rхарактеризует тесноту зависимости.

Линейная функция регрессии.

Рассмотрим двумерную случайную величину (X, Y), где X и У — зависимые случайные величины. Представим одну из величин как функцию другой. Ограничимся приближенным представлением (точное приближение, вообще говоря, невозможно) величины Y в виде линейной функции величины X:

где α и β — параметры, подлежащие определению.

Теорема. Линейная средняя квадратическая регрессия Y на X имеет вид

где mx=M(X), my=M(Y), σx=√D(X), σy=√D(Y), r=µxy/(σxσy)—коэффициент корреляции величин X и Y.

Коэффициент β=rσy/σx называют коэффициентом регрессии Y на X, а прямую

называют прямой среднеквадратической регрессии Y на X.

Неравенство Маркова.

Формулировка неравенства Маркова

Если среди значений случайной величины Х нет отрицательных, то вероятность того, что она примет какое-нибудь значение, превосходящее положительное число А, не больше дроби , т.е.

,

а вероятность того, что она примет какое-нибудь значение, не превосходящее положительного числа А, не меньше , т.е.

.

Неравенство Чебышева.

Неравенство Чебышева. Вероятность того, что отклонение случайной величины X от ее математического ожидания по абсолютной величине меньше положительного числа ε, не меньше, чем 1 −D[X]ε2

P(|X – M(X)| < ε) ≥ 1 –D(X)ε2

Доказательство. Так как события, состоящие в осуществлении неравенств

P(|X−M(X)| < ε) и P(|X – M(X)| ≥ε) противоположны, то сумма их вероятностей равна единице, т. е.

P(|X – M(X)| < ε) + P(|X – M(X)| ≥ ε) = 1.

Отсюда интересующая нас вероятность

P(|X – M(X)| < ε) = 1 − P(|X – M(X)| > ε).

Таким образом, задача сводится к вычислению вероятности P(|X –M(X)| ≥ ε).

Напишем выражение для дисперсии случайной величины X

D(X) = [x1 – M(x)]2p1 + [x2 – M(x)]2p2 + . . . + [xn – M(x)]2pn

Все слагаемые этой суммы неотрицательны. Отбросим те слагаемые, у которых |xi – M(X)| < ε (для оставшихся слагаемых |xj – M(X)| ≥ ε), вследствие чего сумма может только уменьшиться. Условимся считать для определенности, что отброшено k первых слагаемых (не нарушая общности, можно считать, что в таблице распределения возможные значения занумерованы именно в таком порядке). Таким образом,

D(X) ≥ [xk+1 – M(x)]2pk+1 + [xk+2 – M(x)]2pk+2 + . . . + [xn – M(x)]2pn

Обе части неравенства |xj –M(X)| ≥ ε (j = k+1, k+2, . . ., n) положительны, поэтому, возведя их в квадрат, получим равносильное неравенство |xj – M(X)|2 ≥ε2.Заменяя в оставшейся сумме каждый из множителей

|xj – M(X)|2числом ε2(при этом неравенство может лишь усилиться), получим

D(X) ≥ ε2(pk+1 + pk+2 + . . . + pn)

По теореме сложения, сумма вероятностей pk+1+pk+2+. . .+pn есть вероятность того, что X примет одно, безразлично какое, из значений xk+1 +xk+2 +. . .+xn, а при любом из них отклонение удовлетворяет неравенству |xj – M(X)| ≥ ε. Отсюда следует, что сумма pk+1 + pk+2 + . . . + pn выражает вероятность

P(|X – M(X)| ≥ ε).

Это позволяет переписать неравенство для D(X) так

D(X) ≥ ε2P(|X – M(X)| ≥ ε)

или

P(|X – M(X)|≥ ε) ≤D(X)/ε2

Окончательно получим

P(|X – M(X)| < ε) ≥D(X)/ε2

Теорема Чебышева.

Теорема Чебышева. Если — попарно независимые случайные величины, причем дисперсии их равномерно ограничены (не превышают постоянного числа С), то, как бы мало ни было положительное число ε, вероятность неравенства

будет как угодно близка к единице, если число случайных величин достаточно велико.

Другими словами, в условиях теоремы

Доказательство. Введем в рассмотрение новую случайную величину — среднее арифметическое случайных величин

Найдем математическое ожидание Х. Пользуясь свойствами математического ожидания (постоянный множитель можно вынести за знак математического ожидания, математическое ожидание суммы равно сумме математических ожиданий слагаемых), получим

(1) 

Применяя к величине Х неравенство Чебышева, имеем

или, учитывая соотношение (1)

Пользуясь свойствами дисперсии (постоянный множитель можно вынести за знак дисперсии, возведя его в квадрат; дисперсия суммы независимых случайных величин равна сумме дисперсий слагаемых), получим

По условию дисперсии всех случайных величин ограничены постоянным числом С, т.е. имеют место неравенства:

поэтому

Итак,

(2) 

Подставляя правую часть (2) в неравенство (1) (отчего последнее может быть лишь усилено), имеем

Отсюда, переходя к пределу при n→∞, получим

Наконец, учитывая, что вероятность не может превышать единицу, окончательно можем написать

Теорема доказана.

Теорема Бернулли.

Теорема Бернулли. Если в каждом из n независимых испытаний вероятность p появления события A постоянна, то как угодно близка к единице вероятность того, что отклонение относительной частоты от вероятности p по абсолютной величине будет сколь угодно малым, если число испытаний достаточно велико.

Другими словами, если ε — сколь угодно малое положительное число, то при соблюдении условий теоремы имеет место равенство

Доказательство. Обозначим через X1 дискретную случайную величину — число появлений события в первом испытании, через X2 — во втором, …, Xn — в n-м испытании. Ясно, что каждая из величин может принять лишь два значения: 1 (событие A наступило) с вероятностью p и 0 (событие не появилось) с вероятностью .

Можно ли применить к рассматриваемым величинам теорему Чебышева? Можно, если случайные величины попарно независимы и дисперсии их ограничены. Оба условия выполняются Действительно, попарная независимость величин следует из того, что испытания независимы. Дисперсия любой величины равна произведению ; так как , то произведение не превышает 1/4и, следовательно, дисперсии всех величин ограничены, например, числом .

Применяя теорему Чебышева (частный случай) к рассматриваемым величинам, имеем

Приняв во внимание, что математическое ожидание a каждой из величин (т.е. математическое ожидание числа появлений события в одном испытании) равно вероятности p наступления события, получим

Остается показать, что дробь

равна относительной частоте появлений события A в испытаниях. Действительно, каждая из величин при появлении события в соответствующем испытании принимает значение, равное единице; следовательно, сумма равна числу появлений события в испытаниях, а значит,

Учитывая это равенство, окончательно получим



Источник

У этого термина существуют и другие значения, см. Дисперсия.

Диспе́рсия случа́йной величины́ — мера разброса значений случайной величины относительно её математического ожидания. Обозначается в русской литературе и (англ. variance) в зарубежной. В статистике часто употребляется обозначение или .

Квадратный корень из дисперсии, равный , называется среднеквадратическим отклонением, стандартным отклонением или стандартным разбросом. Стандартное отклонение измеряется в тех же единицах, что и сама случайная величина, а дисперсия измеряется в квадратах этой единицы измерения.

Из неравенства Чебышёва следует, что вероятность того, что значения случайной величины отстоят от математического ожидания этой случайной величины более чем на стандартных отклонений, составляет менее . В специальных случаях оценка может быть усилена. Так, например, как минимум в 95 % случаев значения случайной величины, имеющей нормальное распределение, удалены от её среднего не более чем на два стандартных отклонения, а в примерно 99,7 % — не более чем на три.

Определение[править | править код]

Дисперсией случайной величины называют математическое ожидание квадрата отклонения случайной величины от её математического ожидания.

Пусть  — случайная величина, определённая на некотором вероятностном пространстве. Тогда дисперсией называется

где символ обозначает математическое ожидание[1][2].

Замечания[править | править код]

где  — -ое значение случайной величины,  — вероятность того, что случайная величина принимает значение ,  — количество значений, которые принимает случайная величина.

где  — плотность вероятности случайной величины.

Для получения несмещённой оценки дисперсии случайной величины значение необходимо умножить на . Несмещённая оценка имеет вид:

Свойства[править | править код]

Условная дисперсия[править | править код]

Наряду с условным математическим ожиданием в теории случайных процессов используется условная дисперсия случайных величин .

Условной дисперсией случайной величины относительно случайной величины называется случайная величина

Её свойства:

откуда, в частности, следует, что дисперсия условного математического ожидания всегда меньше или равна дисперсии исходной случайной величины .

Пример[править | править код]

Пусть случайная величина имеет стандартное непрерывное равномерное распределение на , то есть её плотность вероятности задана равенством

Тогда математическое ожидание квадрата случайной величины равно

,

и математическое ожидание случайной величины равно

Дисперсия случайной величины равна

См. также[править | править код]

  • Среднеквадратическое отклонение
  • Моменты случайной величины
  • Ковариация
  • Выборочная дисперсия
  • Независимость (теория вероятностей)
  • Скедастичность
  • Абсолютное отклонение

Примечания[править | править код]

  1. Колмогоров А. Н. Глава IV. Математические ожидания; §3. Неравенство Чебышева // Основные понятия теории вероятностей. — 2-е изд. — М.: Наука, 1974. — С. 63—65. — 120 с.
  2. Боровков А. А. Глава 4. Числовые характеристики случайных величин; §5. Дисперсия // Теория вероятностей. — 5-е изд. — М.: Либроком, 2009. — С. 93—94. — 656 с.

Литература[править | править код]

  • Гурский Д., Турбина Е. Mathcad для студентов и школьников. Популярный самоучитель. — СПб.: Питер, 2005. — С. 340. — ISBN 5469005259.
  • Орлов А. И. Дисперсия случайной величины // Математика случая: Вероятность и статистика — основные факты. — М.: МЗ-Пресс, 2004.

Источник

Важное значение
для характеристики случайных величин
имеет дисперсия.

Определение.
Дисперсией
случайной
величины называется математическое
ожидание квадрата отклонения случайной
величины от ее математического ожидания

Каким свойством обладает дисперсия.

Слово «дисперсия»
означает «рассеяние», т.е. дисперсия
характеризует рассеяние (разбросанность)
значений случайной величины около ее
математического ожидания.

Из определения
следует, что дисперсия – это постоянная
величина, т.е. числовая характеристика
случайной величины, которая имеет
размерность квадрата случайной величины.

С
вероятной точки зрения,
дисперсия является мерой рассеяния
значений случайной величины около ее
математического ожидания.

Действительно,
рассмотрим дискретную случайную
величину, которая имеет конечное
множество значений. Тогда, согласно
определению, дисперсия вычисляется по
формуле

Каким свойством обладает дисперсия. (2)

Если
дисперсия
Каким свойством обладает дисперсиямала, то из формулы (2) следует, что малы
слагаемыеКаким свойством обладает дисперсия.
Поэтому, если не рассматривать значенияКаким свойством обладает дисперсия,
которым соответствует малая вероятность
(такие значения практически невозможны),
то все остальные значенияКаким свойством обладает дисперсиямало отклоняются от математического
ожиданияКаким свойством обладает дисперсия.
Следовательно,при
малой дисперсии возможные значения
случайной величины концентрируются
около ее математического ожидания (за
исключением, может быть, сравнительно
малого числа отдельных значений). Если
дисперсия
Каким свойством обладает дисперсиявелика, то это означает большой разброс
значений случайной величины, концентрация
значений случайной величины около
какого-нибудь центра исключается.

Пример.Пусть
случайные величины
Каким свойством обладает дисперсияиКаким свойством обладает дисперсияимеют следующее законы распределения

Таблица
9.
Таблица 10.

Каким свойством обладает дисперсия

-0,1

0,1

0,4

Каким свойством обладает дисперсия

-10

0,5

10

Каким свойством обладает дисперсия

0,3

0,15

0,3

0,25

Каким свойством обладает дисперсия

0,4

0,2

0,4

Найти математические
ожидания и дисперсии этих случайных
величин.

Решение.
Воспользовавшись
формулой для вычисления математических
ожиданий, находим

Каким свойством обладает дисперсия.

Каким свойством обладает дисперсия.

С помощью формулы
(2) вычислим дисперсии заданных случайных
величин

Каким свойством обладает дисперсияКаким свойством обладает дисперсия.

Из
полученных результатов делаем вывод:
математические ожидания случайных
величин
Каким свойством обладает дисперсияиКаким свойством обладает дисперсияодинаковы, однако дисперсии различны.
Дисперсия случайной величиныКаким свойством обладает дисперсиямала и мы видим, что ее значение
сконцентрированы около ее математического
ожиданияКаким свойством обладает дисперсия.
Напротив, значения случайной величиныКаким свойством обладает дисперсиязначительно рассеяны относительноКаким свойством обладает дисперсия,
а поэтому дисперсияКаким свойством обладает дисперсияимеет большое значение. ●

Свойства дисперсии

Свойство
1.

Дисперсия постоянной величины равна
нулю

Каким свойством обладает дисперсия.

Доказательство.

Свойство
2
.
Постоянный множитель можно выносить
за знак дисперсии, возводя его в квадрат

Каким свойством обладает дисперсия.

Доказательство.

Свойство
3.

Дисперсия
суммы двух независимых случайных величин
равна сумме их дисперсий

Каким свойством обладает дисперсия.

Доказательство.Воспользуемся
определением дисперсии и свойствами
3, 2 математического ожидания, имеем

Каким свойством обладает дисперсия

Каким свойством обладает дисперсия(3)

Определение.Математическое
ожидание произведения отклонений
случайных величин

Каким свойством обладает дисперсияи
Каким свойством обладает дисперсия
от их математических ожиданий называется
корреляционным
моментом
этих
величин

Каким свойством обладает дисперсия.

Если
случайные величины, величины
Каким свойством обладает дисперсияиКаким свойством обладает дисперсиянезависимы, то, воспользовавшись
свойствами 6 и 7 математических ожиданий,
находим

Каким свойством обладает дисперсия.

Поэтому из формулы
3 имеем

Каким свойством обладает дисперсия,

откуда окончательно
следует

Каким свойством обладает дисперсия.

С помощью метода
математической индукции это свойство
может быть распространено на случай
любого конечного числа независимых
случайных величин.

Свойство
4.
Дисперсия
суммы независимых случайных величин
Каким свойством обладает дисперсияравна сумме их дисперсий

Каким свойством обладает дисперсия.

Свойство
5.

Дисперсия
разности двух случайных независимых
величин равна сумме дисперсий этих
величин

Каким свойством обладает дисперсия.

Доказательство.

Свойство
6.
Дисперсия
случайной величины равна математическому
ожиданию

квадрата этой
величины минус квадрат ее математического
ожидания

Каким свойством обладает дисперсия.

(Эта формула
применяется для вычисления дисперсии)

Доказательство.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]

  • #
  • #
  • #

    28.02.2016185.86 Кб54.doc

  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #

Источник

В заметке рассмотрены основные свойства математического ожидания и дисперсии с доказательствами.

В статье приняты следующие обозначения:

(a ) — неслучайная величина (константа)

(X, Y ) — случайные величины

(M[X]) — Математическое ожидание X

(D[X]) — Дисперсия X

Математическое ожидание

Математическое ожидание неслучайной величины

[ M[a] = a]

Доказательство:

Доказать, это достаточно очевидное, свойство можно, рассматривая неслучайную величину как частный вид случайной, при одном возможном значении с вероятностью единица; тогда по общей формуле для математического ожидания:

[ M[a] = a * 1 = a ]

Математическое ожидание линейно

[ M[aX + bY] = aM[X] + bM[Y]]

Доказательство вынесения неслучайной величины за знак математического ожидания

[ M[aX] = a M[X] ]

Доказательство прямо следует из линейности суммы и интеграла.

Следует специально отметить, что теорема сложения математических ожиданий справедлива для любых случайных величин — как зависимых, так и независимых.

Теорема сложения математических ожиданий обобщается на произвольное число слагаемых.

Для дискретных величин

[ M[aX] = sum_{i} a x_i p _i  = a  sum_{i} x_i p_i = a M[X]]

Для непрерывных величин

[ M[aX] = intop_{ infty }^{infty} a  x f(x) dx  = a  intop_{ infty }^{infty} x f(x) dx = a M[X]]

Доказательство математического ожидания суммы случайных величин

а) Пусть ((X, Y) ) — система дискретных случайных величин. Применим к сумме случайных величин общую формулу для математического ожидания функции двух аргументов:

[ M[X + Y] = sum_{i} sum_{j} (x_i + y_i) p_{ij}  \
= sum_{i}sum_{j} x_i p_{ij} + sum_{i}sum_{j} y_i p_{ij} \
= sum_{i} x_isum_{j} p_{ij} + sum_{j} y_jsum_{i} p_{ij} ]

Но (sum_{j} p_{ij} ) представляет собой не что иное, как полную вероятность того, что величина (X ) примет значение (x_i ):

[ sum_{j} p_{ij} = P(X = x_i) = p_i ]

следовательно,

[  sum_{i} x_isum_{j} p_{ij} = sum_{i} x_i p_i = M[X] ]

Аналогично докажем, что

[ sum_{j} y_jsum_{i} p_{ij} = M[Y] ]

б) Пусть ((X, Y) ) — система непрерывных случайных величин.

[ M[X + Y] = int intop_{ infty }^{infty } (x+y) f(x,y) dx dy = int intop_{ infty }^{infty } x f(x,y) dx dy + int intop_{ infty }^{infty } y f(x,y) dx dy ]

Преобразуем первый из интегралов:

[ int intop_{ infty }^{infty } x f(x,y) dx dy = intop_{ infty }^{infty } x (intop_{ infty }^{infty } f(x,y)dy) dx = intop_{ infty }^{infty } x f_1(x) dx = M[X] ]

аналогично второй:

[ int intop_{ infty }^{infty } y f(x,y) dx dy = M[X] ]

Математическое ожидание произведения

Математическое ожидание произведения двух случайных величин равно произведению их математических ожиданий плюс корреляционный момент:

[ M[XY] = M[X] M[Y] + cov(XY)]

для независимых величин:

[ M[XY] = M[X] M[Y] ]

Доказательство

Будем исходить из определения корреляционного момента:

[ cov(X,Y) = M[ stackrel{ circ }{X} stackrel{ circ }{Y} ] = M[(X- M[X])(Y-M[Y])] ]

Преобразуем это выражение, пользуясь свойствами математического ожидания:

[ cov(X,Y) = M[(X- M[X])(Y-M[Y])] = \
M[XY] — M[X] M[Y] — M[Y]M[X] + M[X]M[Y] = \
M[X Y] — M[X] M[Y] ]

что, очевидно, равносильно доказываемому соотношению

Дисперсия

Дисперсия случайной величины есть характеристика рассеивания, разбросанности значений случайной величины около её математического ожидания.

[ D[X] = M[X^2] — (M[X])^2 ]

Дисперсия не зависит от знака

[ D[-X] = D[X] ]

Дисперсия суммы случайной и постоянной величин

[ D[X+b] = D[X] ]

Дисперсия неслучайной величины

[ D[a] = 0 ]

Доказательство:

По определению дисперсии:

[ D[a] = M[stackrel{ circ }{a^2}]  = M[a — M[a]^2 ] = M[(a-a)^2] = M[0] = 0]

Дисперсия суммы случайных величин

[ D[X+Y] = D[X] + D[Y] + 2*cov(X,Y) ]

Доказательство:

Обозначим (XY = Z ).

По теореме сложения математических ожиданий:

[ M[Z] = M[X] + M[Y] ]

Перейдем от случайных величин (X, Y, Z ).  к соответствующим центрированным величинам (stackrel{ circ }{X}, stackrel{ circ }{Y}, stackrel{ circ }{Z} ), имеем:

[  stackrel{ circ }{Z} =  stackrel{ circ }{X} + stackrel{ circ }{Y} ]

По определению дисперсии

[ D[X+Y] = D[Z] = M[stackrel{ circ }{Z}^2] = M[stackrel{ circ }{X}^2] + 2M[stackrel{ circ }{X} stackrel{ circ }{Y}] + M[stackrel{ circ }{Y}^2] \
= D[X] + 2 cov(X,Y) + D[Y] ]

Дисперсия произведения неслучайной величины на случайную

[ D[aX] = a^2 D[X]]

Доказательство:

По определению дисперсии

[ D[aX] = M[(a X — M[a X])^2] = M[(a X — a M[X])^2] = a^2 M[(X — M[X])^2] = c^2 D[X] ]

Дисперсия произведения независимых величин

[ D[XY] = D[X] D[Y] + (M[X])^2 D[Y] +  (M[Y])^2 D[X]]

Доказательство:

Обозначим (XY = Z ). По определению дисперсии

[ D[XY] = D[Z] = M[Z^2] = M[Z-M[Z]]^2]

Так как величины (XY) независимы, то (M[Z] = M[X]M[Y]) и

[ D[XY] = M[(XY — M[X]M[Y])^2] \

= M[X^2 Y^2] — 2M[X]M[Y]M[XY]+ M[X]^2M[Y]^2 ]

При независимых  (XY) величины  (X^2Y^2) также независимы, следовательно:

[ M[X^2 Y^2]  = M[X^2] M[Y^2], M[XY] = M[X]M[Y]]

и

[ D[XY] = M[X^2]M[Y^2] — M[X]^2M[Y]^2 ]

но (M[X]^2) есть не что иное, как второй начальный момент величины (X) , и, следовательно, выражается через дисперсию:

[ M[X^2] = D[X]+M[X]^2 ]

аналогично

[ M[Y^2] = D[Y]+M[Y]^2 ]

Подставляя эти выражения и приводя подобные члены, приходим к формуле

[ D[XY] = D[X] D[Y] + (M[X])^2 D[Y] +  (M[Y])^2 D[X]]

Источник