Создано : вторник 10 марта, 2015;pdf

1. Информация из ФГОС, относящаяся к дисциплине “ Теория вероятностей и математическая статистика”
1.1. Вид деятельности выпускника
Дисциплина охватывает круг вопросов, относящихся к экспериментальноисследовательской деятельности выпускника.
1.2. Задачи профессиональной деятельности выпускника
В дисциплине рассматриваются указанные в ФГОС задачи профессиональной деятельности выпускника:
- проведение экспериментов по заданной методике и анализ результатов.
- математическое моделирование инфокоммуникационных процессов и объектов на
базе как стандартных пакетов автоматизированного проектирования и исследований, так
и самостоятельно создаваемых оригинальных программ.
1.3. Перечень компетенций, установленных ФГОС
Освоение программы настоящей дисциплины позволит сформировать у обучающегося следующие общекультурные компетенции:
- использовать естественнонаучные дисциплины в профессиональной деятельности,
применять методы математического анализа и моделирования, теоретического и экспериментального исследования (ОК-9);
и профессиональные компетенции:
- иметь навыки самостоятельной работы на компьютере и в компьютерных сетях;
осуществлять компьютерное моделирование устройств, систем и процессов с использованием универсальных пакетов прикладных компьютерных программ (ПК-2);
- способность применять современные теоретические и экспериментальные методы
исследования с целью создания новых перспективных средств электросвязи и информатики; организовывать и проводить их испытания с целью оценки соответствия требованиям технических регламентов, международных и национальных стандартов и иных нормативных документов (ПК-17).
1.4. Перечень умений и знаний, установленных ФГОС
Студент после освоения программы настоящей дисциплины должен:
- знать основные понятия и методы теории вероятностей и математической статистики;
- уметь строить вероятностные модели для конкретных процессов; использовать
возможности вычислительной техники и программного обеспечения;
- владеть методами теории вероятностей; основными методами работы на компьютере с использованием универсальных прикладных программ; иметь опыт аналитического и
численного решения вероятностных и статистических задач.
2. Цели и задачи освоения программы дисциплины
Целью дисциплины является обучение студентов решению задач, связанных с анализом данных при наличии случайных и непредсказуемых воздействий, познакомить с методами, позволяющими выявлять закономерности на фоне случайностей, делать обоснованными выводы и прогнозы, давать оценки вероятностей их выполнения или невыполнения.
Задачи дисциплины - приобретение студентами необходимых для работы навыков в
использовании статистических методов, в повышении эффективности работы путем применения математической статистики, овладение наиболее существенными способами об2
работки результатов исследований.
3. Место дисциплины в структурно-логической схеме
Курсу «Теория вероятностей и математическая статистика» предшествуют дисциплины: информатика, математический анализ, методы программирования в МаtLab.
Знания и умения, приобретаемые студентами после освоения содержания дисциплины, будут использоваться при изучении дисциплины «Методы и средства измерений в телекоммуникационных системах».
4. Компетенции обучающегося, формируемые в результате освоения
дисциплины (результаты освоения дисциплины)
В результате освоения дисциплины обучающийся должен:
уметь: применять изученные теоремы теории вероятности для решения конкретных
задач с целью создания новых перспективных средств электросвязи и информатики; проводить статистическую обработку экспериментальных данных; подбирать законы распределения и проверять выдвинутые гипотезы; пользоваться справочной литературой.
знать: основные законы и теоремы теории вероятностей; вероятностные распределения и их характеристики; статистические критерии; характеристики случайных процессов;
владеть: основными методами работы на компьютере с использованием универсальных прикладных программ.
5. Основная структура дисциплины
Таблица 1 – Структура дисциплины
Вид учебной работы
Трудоемкость,часов
Семестр
Всего
№4
180 (5 ЗЕТ)
180(5 ЗЕТ)
72
72
36
36
36
36
Общая трудоемкость дисциплины
Аудиторные занятия, в том числе:
лекции
практические/семинарские занятия
Самостоятельная работа
Вид промежуточной аттестации (итогового контроля по дисциплине)
63
45
63
экзамен
6. Содержание дисциплины
6.1 Перечень основных разделов и тем дисциплины:
1.Случайные события
Случайные события и операции над ними. Классическое определение вероятности,
свойства. Относительная частота наступления события. События совместные и несовместные, зависимые и независимые. Теоремы сложения и умножения вероятностей. Формулы полной вероятности, Бейеса, Бернулли и Пуассона.
2. Случайные величины
Дискретные и непрерывные случайные величины. Законы распределения случай3
ных величин. Функция и плотность распределения случайной величины, свойства. Числовые характеристики дискретных и непрерывных случайных величин, свойства. Основные распределения вероятностей. Система двух случайных величин. Функция и
плотность совместного распределения двумерной случайной величины, свойства. Условные законы распределения случайных величин. Система произвольного числа случайных
величин. Числовые характеристики двух случайных величин, свойства. Предельные теоремы вероятностей.
3. Математическая статистика
Элементы математической статистики. Эмпирическая функция распределения. Эмпирическая функция плотности вероятности. Числовые характеристики статистического
распределения. Статистические оценки параметров распределения. Доверительный интервал. Доверительная вероятность. Точечные оценки для числовых характеристик системы случайных величин.
Основы проверки статистических гипотез. Основы корреляционного анализа. Основы регрессионного анализа.
4. Случайные процессы
Классификация случайных процессов. Стационарные случайные процессы. Спектральное разложение стационарного случайного процесса. Спектральная плотность. Процесс Пуассона. Цепи Маркова.
6.2 Краткое содержание теоретической части разделов и тем дисциплины
Раздел 1. СЛУЧАЙНЫЕ СОБЫТИЯ
Случайные события и операции над ними.
Наблюдаемые события можно разделить на достоверные, невозможные и случайные.
Достоверным называется событие, которое обязательно произойдет, если будет
осуществлена определенная совокупность условий.
Невозможным называют событие, которое заведомо не произойдет, если будет
осуществлена определенная совокупность условий.
Случайным называют событие, которое может произойти, либо не произойти, если
будет осуществлена определенная совокупность условий.
События называют несовместными, если появление одного из них исключает появление других событий в одном и том же испытании.
Система событий образует полную группу для данного испытания, если любым исходом его является одно или только одно событие этой группы.
Возможные, исключающие друг друга, результаты одного испытания называются
элементарными исходами испытания.
Исход испытания называется благоприятствующими некоторому событию, если в
результате этого исхода появляется указанное событие.
События называются равновозможными, если нет оснований считать одно из них
более или менее возможным, чем остальные.
Суммой А + В событий называется событие, состоящее в том, что в результате опыта
наступит или событие А, или событие В, или оба вместе.
Если события А и В несовместны, то А + В – это событие А, или событие В.
Суммой нескольких событий называется событие, состоящее в появлении хотя бы
одного из этих событий.
4
Произведением АВ событий А и В называется событие, состоящее в совместном появлении и события А, и события В.
Произведением нескольких событий называется событие, состоящее в их совместном появлении.
Событием, противоположным событию А, называется событие, обозначаемое A и
состоящее в том, что в результате опыта событие А не наступит.
Классическое определение вероятности.
Вероятностью Р(А) события А называют отношение числа благоприятствующих
этому событию исходов m к общему числу n всех возможных элементарных исходов испытания, образующих полную группу
Р(А) =
m
n
Свойства вероятности:
1. Вероятность достоверного события равна единице.
2. Вероятность невозможного события равна нулю.
3. Вероятность случайного события есть число, заключенное между нулем и единицей 0 ≤
P(A) ≤ 1.
Классическое определение вероятности при переходе от простейших примеров к
сложным задачам наталкивается на трудности принципиального характера. Во-первых,
число элементарных исходов испытания не всегда конечно, во-вторых, очень часто невозможно представить результат в виде совокупности элементарных исходов, в-третьих,
трудно указать основания, позволяющие считать элементарные исходы равновозможными. Поэтому используют также статистическое определение вероятности.
Относительная частота наступления события.
Относительной частотой события А называют отношение числа испытаний m, в которых событие А появилось, к общему числу n фактически проведенных испытаний,
W (A) =
m
.
n
Свойство устойчивость относительной частоты события состоит в том, что в различных опытах относительная частота изменяется мало (тем меньше, чем больше произведено испытаний), колеблясь около некоторого постоянного числа. Это число называется
вероятностью события А в статистическом смысле.
Теоремы сложения и умножения вероятностей.
Теорема сложения вероятностей несовместных событий. Вероятность суммы двух
несовместных событий равна сумме вероятностей этих событий:
P(A + B) = P(A) + P(B)
Следствие1. Вероятность появления одного из нескольких попарно несовместных
событий, безразлично какого, равна сумме вероятностей этих событий:
Р(А1 + А2+ …+ Аn) = P(A1) + P(A2) + P(A3) + …+ P(An).
Следствие 2. Если события А1, A2, A3, …An образуют полную группу событий, то
сумма их вероятностей равна единице: P(A1) + P(A2) + P(A3) + …+ P(An) = 1.
Следствие 3. Сумма вероятностей противоположных событий равна единице:
P(A) + P( A ) = 1.
Событие А называется независимым от события В, если вероятность события А не
зависит от того, произошло событие В или нет.
Несколько событий называются независимыми в совокупности, если любое из них не зависит от любой совокупности остальных.
5
Событие А называется зависимым от события В, если вероятность события А меняется в зависимости от того, произошло это событие В или нет.
Вероятность события А, вычисляемая при условии, что событие В произошло, называется условной вероятностью события а и обозначается PB(A)
Теорема умножения вероятностей. Вероятность произведения двух событий равна
произведению одного из них на условную вероятность другого, вычисленную при условии, что первое из них произошло:
P(AB) = P(A)PA(B) = P(B)PB(A).
Следствие 1. Если событие А не зависит от события В, то и событие В не зависит от
события А.
Следствие 2. Вероятность произведения двух независимых событий равна произведению вероятностей этих событий:
P(AB) = P(A)P(B).
Для вычисления вероятности совместного появления большего числа событий, например, четырех, используют формулу:
P(ABCD) = P(A)PA(B)PAB(C)PABC(D).
Для нескольких независимых в совокупности событий вероятность их произведения
равна произведению их вероятностей:
P(A1A2…A3) = P(A1)P(A2)…P(An).
Следствие 3. Вероятность появления хотя бы одного из событий А1,A2…An., независимых в совокупности, равна разности единицы и произведения вероятностей противоположных событий A 1, A 2,… A n:
P(A1 + A 2 + …An) = 1 – P( A 1) P( A 2)… P( A n)
Два события называются совместными, если появление одного из них не исключает
появления другого в одном и том же испытании.
Теорема сложения вероятностей совместных событий. Вероятность появления хотя
бы одного из двух совместных событий равна сумме вероятностей этих событий без вероятности их совместного появления:
P(A + B) = P(A) + P(B) – P(AB).
Формула полной вероятности
Пусть событие А может произойти в результате осуществления одного события из
некоторой полной группы событий H1, H2, …Hn. События этой группы обычно называют
гипотезами. Тогда
P(A) = P(H1)PH1(A) + P(H2) PH2 +…+ P(Hn)PHn(A)
(формула полной вероятности), причем
P(H1) +P(H2) +…+ P(Hn) = 1.
Пусть в результате испытания произошло событие А, которое могло наступить
только вместе с одним из событий H1, H2,…Hn, образующих полную группу событий
(они называются гипотезами). Требуется найти вероятность событий H1, H2,… Hn после
испытания, когда событие А имело место, т.е. PA(Hi), i = 1,2,…n. Для нахождения этих
вероятностей используют формулы Байеса (формулы гипотез):
PA (Hi) =
P( H i ) PH i ( A)
P( H 1 ) PH 1 ( A) + P( H 2 ) PH 2 ( A) + ... + P( Hn ) PHn ( A)
Вероятности PA(H1) называются послеопытными (апостериорными) вероятностями
гипотез Hi, а вероятности P(Hi) - доопытными (априорными) вероятностями гипотез Hi.
Формула Бернулли
6
Пусть проводится серия из n испытаний, в результате каждого из которых событие
А может произойти или не произойти. Предполагаем, что вероятность p наступления события А в каждом испытании постоянна, т.е. не зависит ни от номера испытания, ни от
результатов предыдущих испытаний.
Последовательность испытаний, удовлетворяющих указанному условию, называется
последовательностью независимых испытаний (или схемой Бернулли).
Вероятность Pn(k) того, что в серии из n испытаний в схеме Бернулли событие А наступит ровно k раз (безразлично, в какой последовательности), определяется формулой
Бернулли
Pn (k) = C kn p k q n − k , где
C kn =
n!
k!( n − k )!
Количество n испытаний, которое необходимо произвести для того, чтобы с вероятностью, не менее Р, можно было утверждать, что событие А произойдет хотя бы один раз,
определяем по формуле:
n ≥ ln(1 − P )
ln(1 − p )
Локальная теорема Лапласа
Формула Бернулли становится трудно применимой при больших n. Существует
практически удобный способ вычисления вероятностей Pn(k) -приближенный, но достаточно точный при больших значениях n.
Теорема Лапласа. Пусть p - вероятность появления события А в одном испытании,
причем 0 < p < 1. Тогда вероятность того, что в условиях схемы Бернулли в n испытаниях
событие А наступит ровно k раз, приближенно выражается равенством
Pn (k) ≈
1
k − np
, ϕ (x) =
ϕ (x), где x =
npq
npq
1
2π
e
−
x2
2
,q=1–p
Формула дает тем более точный результат, чем больше n.
Для функции ϕ (x) cоставлены таблицы для x ≥0, так как ϕ (x) - четная функция, т. е.
ϕ (-x) = ϕ (x).
Интегральная теорема Лапласа
Во многих задачах требуется вычислить Pn(k1,k2) того, что в серии из n испытаний
событие А произойдет не менее k1 и не более k2 раз. Удобный приближенный способ вычисления вероятностей Pn(k1, k2) в схеме Бернулли дает интегральная теорема Лапласа.
Если вероятность наступления события А в каждом из n независимых испытаний постоянна и равна p (0 < p < 1), то имеет место приближенное неравенство
Pn (k1, k2) ≈
1
2π
x2
∫e
−
t2
2
dt , где где x1 =
x1
k1 − np
npq
, x2 =
k 2 − np
npq
(1)
Для вычисления вероятности Pn (k1, k2) формулу (1) представляют в виде:
Pn (k1, k2) = Ф(x1) – Ф(x2),
где Ф(х) ≈
1
2π
x
∫e
−
t2
2
dt , функция Лапласа, для которой составлены таблицы значений. Так
0
как Ф(х) функция нечетная, т.е. Ф(-х) = -Ф(х).
Теорема Пуассона
Рассмотрим схему Бернулли с малой вероятностью p появления события А в одном
испытании и с большим количеством n испытаний. Пусть при большом n малая вероятность p такова, что pn = λ , где λ - некоторое число. Вероятность Pn(k) в такой схеме
7
λ
n
Бернулли описывается теоремой Пуассона. Пусть n→∞, λ >0 постоянно и p = . Тогда в
схеме Бернулли из n независимых испытаний, в каждом из которых вероятность наступления события А равна p, имеет место приближенное равенство:
λk e − λ
Pn (k) ≈
(формула Пуассона).
k!
РАЗДЕЛ 2. СЛУЧАЙНЫЕ ВЕЛИЧИНЫ
Дискретные и непрерывные случайные величины
Случайной величиной называется величина, которая в результате испытания приобретает то или иное числовое значение из некоторого множества.
Случайная величина называется дискретной, если все ее возможные значения изолированы друг от друга и их можно пронумеровать.
Случайную величину называют непрерывной, если она может принимать любые
значения из некоторого промежутка (конечного или бесконечного).
Случайные величины будем обозначать заглавными буквами, например, X, Y, а их
возможные значения соответствующими малыми буквами x1, x2, … xn; y1, y2,…., ym. Вероятность того, что случайная величина примет значение, равное xi, обозначают
P(X = xi) = pi.
Законы распределения случайных величин.
Законом распределения случайной величины называется соответствие между ее возможными значениями и вероятностями, с которыми эти значения принимаются.
Простейшей формой задания этого закона для дискретных случайных величин является таблица, первая строка которой содержит все возможные значения случайной величины, а вторая – их вероятности:
x2
…
xn
Х
x1
р
p1
p2
…
pn
Отметим, что p1 + p2 +…+ pn = 1.
Для того, чтобы придать закону более наглядный вид, прибегают к его графическому
изображению: по оси абсцисс откладывают возможные значения случайной величины, а
по оси ординат – их вероятности. Точки (xi pi ), i =1, 2,…n, соединяют отрезками прямых.
Полученную фигуру называют многоугольником распределения.
Функция распределения и плотность вероятности
Закон распределения, рассмотренный выше (в виде таблицы ), пригоден только для
дискретных случайных величин. Для характеристики непрерывных случайных величин
вводят функцию распределения F(x) = P (X < x), называемую также интегральной
функцией распределения или интегральным законом распределения случайной величины
X (x-произвольное действительное число).
Функция распределения имеет смысл и для дискретных случайных величин и может
быть записана в виде: F(x) = ∑ p к
х к ≤х
Свойства функции распределения:
1. Пределы изменения 0 ≤ F(x) ≤ 1
2. F(x) – неубывающая функция, т.е., если x1 >x2 то F(x1) ≥ F(x2)
3. Р( a ≤ X ≤ b) = F(b) - F(a)
4. lim F ( x ) = 1, lim F ( x) = 0, График функции распределения показан на рис2.
x → +∞
x → −∞
Для непрерывных случайных величин нередко вместо функции F(x) бывает удобнее ис8
пользовать функцию f(x), определяемую равенством f(x) = F’(x) и называемую плотностью вероятности или дифференциальным законом непрерывной случайной величины Х.
Свойства плотности вероятности
1. f(x) ≥ 0,
+∞
2.
∫ f ( x)dx = 1 ,
−∞
Числовые характеристики дискретных и непрерывных случайных величин,
свойства.
Математическим ожиданием дискретной случайной величины называется сумма
произведений возможных значений случайной величины на их вероятности
M(X) = x1p1 + x2p2 + …+ xnpn.
При большом числе опытов среднее арифметическое наблюдавшихся значений случайной величины приближается к ее математическому ожиданию.
Математическое ожидание M(X) непрерывной случайной величины X, возможные
значения которой принадлежат отрезку [a, b] , определяется формулой
b
M(X) =
∫ xf ( x)dx ,
a
где f(x) - плотность вероятности случайной величины X.
Свойства математического ожидания:
1.Математическое ожидание постоянной величины равно самой постоянной, если С
= const, то M(С) = С.
2. Постоянный множитель можно выносить за знак математического ожидания, т.е
M(CX) = CM(X).
3. Математическое ожидание суммы двух случайных величин равно сумме математических ожиданий этих величин, т.е. M(X+Y) = M(X) +M (Y)
4. Математическое ожидание произведения двух независимых случайных величин
равно произведению их математических ожиданий, т.е. M(XY) = M(X) M(Y), где X и Yнезависимые случайные величины.
5.Если производится n независимых испытаний, в каждом из которых вероятность
появления события А постоянна и равна р, то математическое ожидание М(Х) числа появления события А в n независимых испытаниях М(Х) = np.
Дисперсией (рассеянием) случайной величины называют математическое ожидание
квадрата отклонения случайной величины от ее математического ожидания, т.е. D (X) =
M((X - M(X)))2.
Дисперсия характеризует меру рассеяния возможных значений случайной величины
по отношению к ее математическому ожиданию.
Нередко в вычислениях используют другую формулу для вычисления дисперсии
D (X) = M(X2) – (M(X))2
Аналогично дисперсии дискретной случайной величины определяется дисперсия непрерывной случайной величины:
b
D (X) = ∫ ( x − M ( x)) 2 dx (*)
a
Если возможные значения случайной величины принадлежат всей числовой оси, то D(X)
9
+∞
=
∫ ( x − M ( x))
2
dx (**)
−∞
Практически вместо формул (*) и (**) бывает удобнее использовать соответственно формулы:
+∞
b
D (X) = ∫ x 2 f ( x)dx − (M ( x)) 2 ;
D(X) =
∫x
2
f ( x)dx − ( M ( x )) 2
−∞
a
Свойства дисперсии:
1. Дисперсия постоянной величины равна нулю, т.е. D(С) =0
2. Постоянный множитель можно выносить за знак дисперсии, возводя его в квадрат,
т.е. D(CX) =C2D(X).
3. Дисперсия суммы или разности двух независимых случайных величин равна сумме их дисперсий D(X ± Y) = D(X) ± D(Y).
4. Дисперсия числа появления события А в n независимых испытаниях, в каждом из
которых вероятность события А постоянна, равна произведению числа испытаний на вероятности появления и не появления события в одном испытании: D(X) = npq.
Замечание. Дисперсия D(X) имеет размерность квадрата единицы размерности случайной величины X. Это создает определенные неудобства, поэтому вводят показатель
рассеяния случайной величины, имеющей ту же размерность, что и случайная величина.
Для этого извлекают квадратный корень из дисперсии. Полученную величину называют
средним квадратическим отклонением σ(X),
σ(X) = D(X)
Начальным моментом порядка k случайной величины Х называют математическое
ожидание величины Хk: ν k = M ( X k ) ,
Центральным моментом порядка k случайной величины Х называют математическое ожидание величины (Х – М(Х))k
µ k = M [ X − M ( X )) k ] ,
в частности µ 1 = M [ X − M ( X )) ] = 0 , µ 2 = M [ X − M ( X )) 2 ] = D( X )
Основные распределения вероятностей
1 Виды дискретных распределений
1.1 Биномиальное распределение
Случайная величина Х называется распределенной по биномиальному закону, если
свои возможные значения она принимает с вероятностями
m=0, 1, 2...n
Pn (m ) = C nm p m (1 − p )n − m ,
где
Cm
n =
n!
(n − m )! m!
Числовые характеристики для биномиального распределения:
- математическое ожидание
M(X) = n ⋅ p
- дисперсия
D(X) = n ⋅ p ⋅ (1 − p)
- среднее квадратичное отклонение
σ( X ) = n ⋅ p ⋅ (1 − p )
Биномиальное распределение с ростом числа опытов n переходит в пуассоновское. Нужно только, чтобы при n →∞ одновременно p → 0 так, чтобы np оставалось постоянным.
Именно это число и будет параметром λ предельного пуассоновского распределения.
10
1.2 Распределение Пуассона
Случайная величина Х называется распределенной по закону Пуассона, если свои
возможные значения она принимает с вероятностями
Pn (m ) =
λm e − λ
m!
где λ=n·p – параметр распределения; m=0, 1, 2, …, n .
Числовые характеристики для распределения Пуассона:
M(X) = λ
D(X) = λ
σ(X) = λ
1.3 Гипергеометрическое распределение
Пусть имеется, например, N шаров, среди которых M белых, а остальные (N-M) черные. Наугад выбираются n шаров. Гипергеометрическим называется распределение случайной величины X=m – количества m белых шаров среди выбранных
Данное распределение является трёхпараметрическим, т. к. оно зависит от трёх параметров: N, M и n.
Числовые характеристики для гипергеометрического распределения:
M (X ) =
nM
N
D(X) =
nM(N − M)(N − n)
N2 (N −1)
При n<0,1N гипергеометрическое распределение стремится к биномиальному.
2. Виды непрерывных распределений
2.1 Равномерное распределение
Распределение вероятностей называется равномерным, если на интервале, которому принадлежат все возможные значения непрерывной случайной величины,
плотность вероятности сохраняет постоянное значение, а вне этого интервала она
равна нулю.
Для равномерно распределенной случайной величины X, возможные значения которой
принадлежат отрезку [a, b] (см. рис1.), плотность вероятности имеет вид:
0 при x ≤ a,
1
f (x) = 
при a < x ≤ b,
a
0b − при
x>b

Функция распределения( рис.2)
0 при x ≤ a,
x−a
F(x) = 
при a < x ≤ b,
−
b
a
1 при x > b

Числовые характеристики M(X) =
a+b
(b − a ) 2
, D(X) =
;
2
12
Рис.1
2.2. Нормальное распределение
Рис.2
11
σ (X) = b − a .
2 3
Непрерывная случайная величина X имеет нормальный закон распределения, если ее
функция плотности вероятности имеет вид:
ƒ(x) =
1
σ 2π
−
e
( x −a ) 2
2σ 2
,
где a є R, σ > 0 - параметры распределения.
График функции f (x) называют нормальной кривой или кривой Гаусса рис.3.
Рис.3
Рис.4
Она обладает следующими свойствами:
1. кривая симметрична относительно прямой x = a;
2) функция имеет максимум ƒ(a) =
1
;
σ 2π
3) при x → ± ∞ кривая приближается к оси Ox;
4) кривая ориентирована вогнутостью вниз при x є (a - σ, a + σ) и вогнутостью вверх при
x ∈ ( −∞, a − σ) ∪ (a + σ, +∞ ), а – это математическое ожидание нормальной случайной величины, σ - ее среднее квадратическое отклонение
Вероятность попадания нормальной случайной величины в интервал (α,β) определяется по формуле:
β−a 
α−a 
 − Ф
,
 σ 
 σ 
P(α < X < β) = Ф
где Ф(х) – функция Лапласа.
Вероятность попадания нормальной случайной величины в интервал, симметричный
относительно математического ожидания, определяется формулой:
δ
P( X − a < δ) = 2 Φ   .
σ 
Из этой формулы получаем P( X − a < 3δ) = 2 Φ(3) = 0,9973, откуда следует правило трех
сигм для нормального распределения: практически достоверно, что отклонение нормальной случайной величины от ее математического ожидания не превышает утроенного
среднего квадратического отклонения.
2.3. Показательное распределение
Непрерывная случайная величина X имеет показательный (экспоненциальный) закон
распределения, если функция ее плотности вероятности имеет вид:
0, если x < 0,
f ( x ) =  −λx
λe , если x ≥ 0,
График функции y = f(x) имеет вид рис.6:
Функция распределения (рис. 7)показательной случайной величины Х имеет вид:
0, приx < 0,
F(x) =  −λx
1 − e
Для показательной случайной величины Х:
12
, при x ≥ 0.
1
1
1
, D( X ) = , σ ( X ) =
λ
λ
λ2
-λa
Вероятность попадания в интервал [a;b]: P(a <X < b) = e - e-λb
M (X ) =
Рис.5
Рис.6
Система двух случайных величин"
По своей классификации случайные величины делятся, с одной стороны, на дискретные и непрерывные, а с другой – на одномерные и многомерные. Будем
обозначать двумерный случайный вектор {X, Y}.
Закон распределения двумерного дискретного случайного вектора {X, Y} – это любое правило, по которому возможным значениям {xk, yk} ставятся в соответствие вероятности их появления pk.
Один из способов задания закона – это таблица с двойным входом, задающей перечень возможных значений каждой компоненты и вероятности p(xi, yj), с которыми величина принимает значение (xi, yj):
Y
y1
…
yj
…
ym
x1
p(x1, y1)
…
p(x1, yj)
…
p(x1, ym)
x2
p(x2, y1)
…
p(x2, yj)
…
p(x2, ym)
Х
…
…
…
…
…
…
xi
p(xi, y1)
…
p(xi, yj)
…
p(xi, ym)
…
…
…
…
…
…
xn
p(xn, y1)
…
p(xn, yj)
…
p(xn, ym)
При этом сумма вероятностей, стоящих во всех клетках таблицы, равна 1.
Зная закон распределения двумерной случайной величины, можно найти законы
распределения ее составляющих. Действительно, событие Х = х1 представляется собой
сумму несовместных событий (X = x1, Y = y1), (X = x1, Y = y2),…, (X = x1, Y = ym), поэтому
р(Х = х1) = p(x1, y1) + p(x1, y2) +…+ p(x1, ym) (в правой части находится сумма вероятностей, стоящих в столбце, соответствующем Х = х1). Так же можно найти вероятности остальных возможных значений Х. Для определения вероятностей возможных значений Y
нужно сложить вероятности, стоящие в строке таблицы, соответствующей Y = yj.
Другой способ задания закона распределения – графический.
Третий способ задания закона распределения – аналитический, при котором вероятности задаются в виде функции точки: pk= f ( xk ).
Функция и плотность совместного распределения двумерной
случайной величины, свойства
Функцией распределения F(x, y) двумерной случайной величины (X, Y) называется
вероятность того, что X < x, a Y < y:
F(х, у ) = p (X < x, Y < y).
Определение функции распределения справедливо как для непрерывной, так и для дискретной двумерной случайной величины.
Свойства функции распределения.
1. 0 ≤ F(x, y) ≤ 1
13
2. F(x, y) есть неубывающая функция по каждому аргументу:
F(x2, y) ≥ F(x1, y), если x2 > x1;
F(x, y2) ≥ F(x, y1), если y2 > y1.
3. Имеют место предельные соотношения:
а) F(-∞, y) = 0; b) F(x, - ∞) = 0; c) F(- ∞, -∞) = 0; d) F( ∞, ∞) = 1.
4. При у = ∞ функция распределения двумерной случайной величины становится функцией распределения составляющей Х:
F(x, ∞) = F1(x).
При х = ∞ функция распределения двумерной случайной величины становится функцией
распределения составляющей Y :
F( ∞, y) = F2(y).
Плотностью совместного распределения вероятностей (двумерной плотностью вероятности) непрерывной двумерной случайной величины называется смешанная частная
производная 2-го порядка от функции распределения:
∂ 2F(x, y)
.
∂x∂y
f ( x, y) =
Двумерная плотность вероятности представляет собой предел отношения вероятности
попадания случайной точки в прямоугольник со сторонами Δх и Δу к площади этого прямоугольника при ∆х → 0, ∆у → 0.
Свойства двумерной плотности вероятности.
1. f(x, y) ≥ 0
y x
2. F(x, y) =
∫ ∫ f (x, y)dxdy
−∞ − ∞
+∞ +∞
3.
∫ ∫ f ( x, y)dxdy = 1
−∞ −∞
Условные законы распределения случайных величин
Рассмотрим дискретную двумерную случайную величину и найдем закон распределения составляющей Х при условии, что Y примет определенное значение (например, Y =
у1). Для этого воспользуемся формулой Байеса, считая гипотезами события Х = х1, Х =
х2,…, Х = хп, а событием А – событие Y = у1. При такой постановке задачи нам требуется
найти условные вероятности гипотез при условии, что А произошло. Следовательно,
р( x i / y1) =
p( x i , y1 )
.
p( y1)
Таким же образом можно найти вероятности возможных значений Х при условии, что Y
принимает любое другое свое возможное значение:
р( x i / y j ) =
p( x i , y j )
p( y j )
.
Аналогично находят условные законы распределения составляющей Y:
p( y j / x i ) =
p( x i , y j )
p( x i )
.
Условной плотностью φ(х/у) распределения составляющих Х при данном значении Y
= у называется
14
ϕ( х / у) =
f ( x , y)
f ( x , y)
.
=
∞
f 2 ( y)
∫ f ( x, y)dx
−∞
Аналогично определяется условная плотность вероятности Y при Х
ψ( у / х ) =
f (x , y)
f ( x , y)
.
=
∞
f1( х )
∫ f ( x, y)dу
−∞
Числовые характеристики двух случайных величин, свойства.
Начальным моментом порядка k, s двумерной случайной величины (Х,Y) называется
математическое ожидание произведения Xk на Ys:
αk,s = M (XkYs).
Для дискретных случайных величин α k , s = ∑∑ xik y sj pij ,
i
j
∞ ∞
∫ ∫x
для непрерывных случайных величин α k , s =
k
y s f ( x, y )dxdy.
− ∞− ∞
Центральным моментом порядка k, s двумерной случайной величины (Х,Y) называется математическое ожидание произведения (X – M(X))k на (Y – M(Y))s:
μk,s = M((X – M(X))k(Y – M(Y))s).
Для дискретных случайных величин µ k , s = ∑∑ ( xi − M ( X )) k ( y j − M (Y )) s pij ,
для
i
j
∞ ∞
∫ ∫ ( x − M ( X ))
непрерывных случайных величин µ k , s =
k
( y − M (Y )) s f ( x, y )dxdy.
− ∞− ∞
При этом М(Х) = α1,0, M(Y) = α0,1, D(X) = μ2,0, D(Y) = μ0,2.
Корреляционным моментом системы двух случайных величин называется второй
смешанный центральный момент:
Kxy = μ1,1 = M((X – M(X))(Y – M(Y))).
Для дискретных случайных величин К ху = ∑∑ ( xi − M ( X ))( y j − M (Y )) pij ,
для
i
j
∞ ∞
непрерывных случайных величин К ху =
∫ ∫ ( x − M ( X ))( y − M (Y )) f ( x, y)dxdy.
− ∞−∞
Безразмерной характеристикой коррелированности двух случайных величин является коэффициент корреляции
rxy =
K xy
σ xσ y
.
Корреляционный момент описывает связь между составляющими двумерной случайной величины.
Две независимые случайные величины являются и некоррелированными. Однако
понятия коррелированности и зависимости не эквивалентны, а именно, величины могут
быть зависимыми, но при этом некоррелированными. Дело в том, что коэффициент корреляции характеризует не всякую зависимость, а только линейную. В частности, если Y =
aX + b, то rxy = ±1.
Предельные теоремы вероятностей
Изучение статистических закономерностей позволило установить, что при некоторых условиях суммарное поведение большого количества случайных величин почти утрачивает случайный характер и становится закономерным. В частности, если влияние на
15
сумму отдельных слагаемых является равномерно малым, закон распределения суммы
приближается к нормальному. Математическая формулировка этого утверждения дается
в группе теорем, называемой законом больших чисел.
Неравенство Чебышева справедливо как для непрерывных, так и для дискретных
случайных величин.
p( | X – M(X)| < ε ) ≥ D(X) / ε².
Теорема Чебышева. Если Х1, Х2,…, Хп – попарно независимые случайные величины, дисперсии которых равномерно ограничены ( D(Xi) ≤ C), то для сколь угодно малого
числа ε вероятность неравенства
Х 1 + Х 2 + ... + Х п М ( Х 1 ) + М ( Х 2 ) + ... + М ( Х п )
−
<ε
п
п
будет сколь угодно близка к 1, если число случайных величин достаточно велико.
Теорема Бернулли. Если в каждом из п независимых опытов вероятность р появления события А постоянна, то при достаточно большом числе испытаний вероятность того,
что модуль отклонения относительной частоты появлений А в п опытах от р будет сколь
угодно малым, как угодно близка к 1:
m

lim p − p < ε  = 1.
n →∞
 n

Закон больших чисел не исследует вид предельного закона распределения суммы
случайных величин. Этот вопрос рассмотрен в группе теорем, называемых центральной
предельной теоремой. Они утверждают, что закон распределения суммы случайных величин, каждая из которых может иметь различные распределения, приближается к нормальному при достаточно большом числе слагаемых. Этим объясняется важность нормального закона для практических приложений.
Центральная предельная теорема для одинаково распределенных слагаемых. Если Х1, Х2,…, Хп,… - независимые случайные величины с одинаковым законом распределения, математическим ожиданием т и дисперсией σ2, то при неограниченном увеличеn
нии п закон распределения суммы Yn = ∑ X k неограниченно приближается к нормальному.
k =1
Теорема Ляпунова. Если случайная величина Х представляет собой сумму очень
большого числа взаимно независимых случайных величин, для которых выполнено условие:
n
∑b
k
lim
n →∞
k =1


 ∑ Dk 
 k =1 
n
3
2
,
где bk – третий абсолютный центральный момент величины Хк, а Dk – ее дисперсия, то Х
имеет распределение, близкое к нормальному ( условие Ляпунова означает, что влияние
каждого слагаемого на сумму ничтожно мало).
Частным случаем центральной предельной теоремы для дискретных случайных величин является теорема Муавра-Лапласа.
Теорема Муавра-Лапласа. Если производится п независимых опытов, в каждом из
которых событие А появляется с вероятностью р, то справедливо соотношение:


Y − np
< β  = Φ ( β ) − Φ (α ),
p α <


npq


16
где Y – число появлений события А в п опытах, q = 1 – p.
РАЗДЕЛ 3. МАТЕМАТИЧЕСКАЯ СТАТИСТИКА
Элементы математической статистики
Математическая статистика занимается установлением закономерностей, которым
подчинены массовые случайные явления, на основе обработки статистических данных,
полученных в результате наблюдений. Двумя основными задачами математической статистики являются:
- определение способов сбора и группировки этих статистических данных;
- разработка методов анализа полученных данных в зависимости от целей исследования,
к которым относятся:
а) оценка неизвестной вероятности события; оценка неизвестной функции распределения;
оценка параметров распределения, вид которого известен; оценка зависимости от других
случайных величин и т.д.;
б) проверка статистических гипотез о виде неизвестного распределения или о значениях
параметров известного распределения.
Для решения этих задач необходимо выбрать из большой совокупности однородных
объектов ограниченное количество объектов, по результатам изучения которых можно
сделать прогноз относительно исследуемого признака этих объектов.
Определим основные понятия математической статистики.
Генеральная совокупность – все множество имеющихся объектов.
Выборка – набор объектов, случайно отобранных из генеральной совокупности.
Объем генеральной совокупности N и объем выборки n – число объектов в рассматриваемой совокупности.
Виды выборки:
Повторная – каждый отобранный объект перед выбором следующего возвращается в генеральную совокупность;
Бесповторная – отобранный объект в генеральную совокупность не возвращается.
Для того, чтобы по исследованию выборки можно было сделать выводы о поведении
интересующего нас признака генеральной совокупности, нужно, чтобы выборка правильно представляла пропорции генеральной совокупности, то есть была репрезентативной
(представительной).
Первичная обработка результатов.
Пусть интересующая нас случайная величина Х принимает в выборке значение х1 п1 раз,
k
х2 – п2 раз, …, хк – пк раз, причем
∑n
k
= n, где п – объем выборки. Тогда наблюдаемые
i =1
значения случайной величины х1, х2,…, хк называют вариантами, а п1, п2,…, пк – частотами. Если разделить каждую частоту на объем выборки, то получим относительные частоты wi =
ni
. Последовательность вариант, записанных в порядке возрастания, называют
n
вариационным рядом, а перечень вариант и соответствующих им частот или относительных частот – статистическим рядом:
Если исследуется некоторый непрерывный признак, то вариационный ряд может состоять из очень большого количества чисел. В этом случае удобнее использовать группированную выборку. Для ее получения интервал, в котором заключены все наблюдаемые
значения признака, разбивают на несколько равных частичных интервалов длиной h, а затем находят для каждого частичного интервала ni – сумму частот вариант, попавших в i-й
17
интервал. Составленная по этим результатам таблица называется группированным статистическим рядом.
Эмпирическая функция распределения
Выборочной (эмпирической) функцией распределения называют функцию F*(x),
определяющую для каждого значения х относительную частоту события X < x
F * ( x) =
nx
,
n
где пх – число вариант, меньших х, п – объем выборки.
В отличие от эмпирической функции распределения, найденной опытным путем,
функцию распределения F(x) генеральной совокупности называют теоретической функцией распределения. F(x) определяет вероятность события X < x, а F*(x) – его относительную частоту. При достаточно больших п, как следует из теоремы Бернулли, F*(x)
стремится по вероятности к F(x).
Из определения эмпирической функции распределения видно, что ее свойства совпадают
со свойствами F(x):
1. 0 ≤ F*(x) ≤ 1.
2. F*(x) – неубывающая функция.
3. Если х1 – наименьшая варианта, то F*(x) = 0 при х≤ х1; если хк – наибольшая варианта,
то F*(x) = 1 при х > хк .
Эмпирическая функция плотности вероятности
Для наглядного представления поведения исследуемой случайной величины в выборке можно строить различные графики. Один из них – полигон частот: ломаная, отрезки которой соединяют точки с координатами (x1, n1), (x2, n2),…, (xk, nk), где xi откладываются на оси абсцисс, а ni – на оси ординат. Если на оси ординат откладывать не абсолютные (ni), а относительные (wi) частоты, то получим полигон относительных частот.
Для непрерывного признака графической иллюстрацией служит гистограмма, то есть
ступенчатая фигура, состоящая из прямоугольников, основаниями которых служат частичные интервалы длиной h, а высотами – отрезки длиной ni /h (гистограмма частот) или
wi /h (гистограмма относительных частот). В первом случае площадь гистограммы равна
объему выборки, во втором – единице.
Числовые характеристики статистического распределения
Одна из задач математической статистики: по имеющейся выборке оценить значения
числовых характеристик исследуемой случайной величины.
Выборочным средним называется среднее арифметическое значений случайной величины, принимаемых в выборке:
k
х + х 2 + ... + х п n1 x1 + n 2 x 2 + ... + n k x k
хВ = 1
=
=
п
n
∑n x
i
i =1
n
i
,
где xi – варианты, ni - частоты.
Выборочное среднее служит для оценки математического ожидания исследуемой случайной величины.
Выборочной дисперсией называется
n
DB =
∑ (x
i
k
− xB ) 2
i =1
n
∑ n (x
i
=
i
− xB )2
i =1
n
а выборочным средним квадратическим отклонением –
σ В = DB .
18
,
Другими характеристиками вариационного ряда являются:
- мода М0 – варианта, имеющая наибольшую частоту (в предыдущем примере М0 = 5
).
- медиана те - варианта, которая делит вариационный ряд на две части, равные по
числу вариант. Если число вариант нечетно ( n = 2k + 1 ), то me = xk+1, а при четном n =2k
те =
x k + x k +1
.
2
Оценки начальных и центральных моментов (так называемые эмпирические моменты) определяются аналогично соответствующим теоретическим моментам:
- начальным эмпирическим моментом порядка k называется
Mk
В частности, M 1 = ∑
ni x i
∑n x
=
i
k
i
n
.
= x B , то есть начальный эмпирический момент первого порядка
n
равен выборочному среднему.
- центральным эмпирическим моментом порядка k называется
тk
В частности, т2
∑ n (x
=
i
i
n
− хВ ) 2
∑ n (x
=
i
i
n
− хВ )k
.
= D B , то есть центральный эмпирический момент второго
порядка равен выборочной дисперсии.
Статистические оценки параметров распределения
Получив статистические оценки параметров распределения нужно убедиться, что они в
достаточной степени служат приближением соответствующих характеристик генеральной совокупности. Определим требования, которые должны при этом выполняться.
Статистическая оценка Θ* называется несмещенной, если ее математическое ожидание равно оцениваемому параметру Θ при любом объеме выборки:
М(Θ*) = Θ.
Смещенной называют оценку, математическое ожидание которой не равно оцениваемому
параметру.
Несмещенность не является достаточным условием хорошего приближения к истинному значению оцениваемого параметра. Если при этом возможные значения Θ* значительно отклоняются от среднего значения, то есть дисперсия Θ* велика, то значение,
найденное по данным одной выборки, может значительно отличаться от оцениваемого
параметра. Следовательно, требуется наложить ограничения на дисперсию.
Статистическая оценка называется эффективной, если она при заданном объеме выборки п имеет наименьшую возможную дисперсию.
При рассмотрении выборок большого объема к статистическим оценкам предъявляется
еще и требование состоятельности.
Состоятельной называется статистическая оценка, которая при п→∞ стре-мится по
вероятности к оцениваемому параметру (если эта оценка несмещенная, то она будет состоятельной, если при п→∞ ее дисперсия стремится к 0).
Выборочное среднее есть состоятельная оценка математического ожидания. В отличие от выборочного среднего, выборочная дисперсия является смещенной оценкой дисперсии генеральной совокупности.
Можно предложить другую оценку дисперсии – исправленную дисперсию s², вычис19
ляемую по формуле
k
n
s2 =
DB =
n −1
∑ n (x
i
i
− xB ) 2
i =1
.
n −1
Такая оценка будет являться несмещенной. Ей соответствует исправленное среднее квадратическое отклонение
k
∑ n (x
i
s = s2 =
i
− xB )2
i =1
.
n −1
Доверительный интервал. Доверительная вероятность.
При выборке малого объема точечная оценка может значительно отличаться от оцениваемого параметра, что приводит к грубым ошибкам. Поэтому в таком случае лучше
пользоваться интервальными оценками, то есть указывать интервал, в который с заданной вероятностью попадает истинное значение оцениваемого параметра. Разумеется, чем
меньше длина этого интервала, тем точнее оценка параметра. Поэтому, если для оценки
Θ* некоторого параметра Θ справедливо неравенство | Θ* - Θ | < δ, число δ > 0 характеризует точность оценки ( чем меньше δ, тем точнее оценка). Но статистические методы позволяют говорить только о том, что это неравенство выполняется с некоторой вероятностью.
Надежностью (доверительной вероятностью) оценки Θ* параметра Θ называется вероятность γ того, что выполняется неравенство | Θ* - Θ | < δ. Если заменить это неравенство двойным неравенством – δ < Θ* - Θ < δ, то получим:
p ( Θ* - δ < Θ < Θ* + δ ) = γ.
Таким образом, γ есть вероятность того, что Θ попадает в интервал ( Θ* - δ, Θ* + δ).
Доверительным называется интервал, в который попадает неизвестный параметр с
заданной надежностью γ.
С помощью доверительного интервала можно оценивать различные параметры генеральной совокупности.
Для оценки математического ожидания а нормально распределённого количествен~
ного признака Х по выборочной средней X при известном среднем квадратическом отклонении σ генеральной совокупности при n ≥ 30 и случайном повторном отборе формула
имеет вид
~
~
σ
σ
P( X − t
< X <X+t
) = 2Φ 0 ( t ) = γ ,
n
n
где t определяется по таблицам функции Лапласа из соотношения 2Ф0(t) = γ;
∆=
t ⋅σ
n
Для оценки математического ожидания а нормально распределённого количествен~
ного признака Х по выборочной средней X при известном среднем квадратическом отклонении σ генеральной совокупности при n ≥ 30 и случайном бесповторном отборе формула примет вид
n
n
σ
σ
~
~
P( X − t
1− < X < X + t
) 1 − = 2Φ 0 (t ) = γ ;
N
N
n
n
∆=
t ⋅σ
n
1−
n
N
Для оценки математического ожидания а нормально распределённого количествен~
ного признака Х по выборочной средней X при неизвестном среднем квадратическом отклонении σ генеральной совокупности при n<30 и случайном повторном отборе формула
20
будет иметь вид
s
s
~
~
P( X − t
< X < X +t
) = 2 S (t ) = γ ,
n
n
где t определяется по таблицам функции Стьюдента по уровню значимости α = 1 – γ и
числу степеней свободы k = n – 1; s – исправленное выборочное среднее квадратическое
отклонение; n объём выборки.
∆=
t⋅s
n
Для оценки математического ожидания а нормально распределённого количествен~
ного признака Х по выборочной средней X при неизвестном среднем квадратическом отклонении σ генеральной совокупности при n<30 и случайном бесповторном отборе формула примет вид
s
n
s
n
~
~
P( X − t
1− < X < X + t
1 − ) = 2 S (t ) = γ ;
N
N
n
n
∆=
t ⋅s
n
1−
n
N
Для оценки генеральной доли р нормально распределённого количественного признака по выборочной доле ω = m / n при n ≥ 30 и случайном повторном отборе формула
имеет вид
P (ω − t
ω (1 − ω )
ω (1 − ω )
< p <ω +t
) = 2Φ 0 (t ) = γ ,
n
n
где t определяется по таблицам функции Лапласа из соотношения 2Ф0(t) = γ; ω – выборочная доля; n – объём выборки
∆=t
ω (1 − ω )
.
n
Для оценки генеральной доли р нормально распределённого количественного признака по выборочной доле ω = m / n при n ≥ 30 и случайном бесповторном отборе формула
примет вид
P (ω − t
ω (1 − ω )
ω (1 − ω )
n
n
(1 − ) < p < ω + t
(1 − ) ) = 2 S (t ) = γ ;
n
N
n
N
∆=t
ω (1 − ω )
n
(1 − ) .
n
N
Основы проверки статистических гипотез
Статистической гипотезой называется предположение о выборке.
Выдвинутая гипотеза называется основной (нулевой) и обозначается Н0.
По отношению к основной гипотезе всегда можно сформулировать альтернативную (конкурирующую), противоречащую ей, которую обозначают Н1.
Цель статистической проверки гипотез состоит в том, чтобы на основании выборочных данных принять решение о справедливости основной гипотезы Н0.
Если выдвигаемая гипотеза сводится к утверждению о том, что значение некоторого
неизвестного параметра генеральной совокупности в точности равно заданной величине,
то эта гипотеза называется простой. В других случаях гипотеза называется сложной.
Так как проверка статистических гипотез осуществляется на основании выборочных
данных, то решение неизбежно сопровождается вероятностью ошибочного заключения
как в ту, так и в другую сторону.
Так, в какой – то небольшой доле случаев α нулевая гипотеза может оказаться отвергнутой, в то время как она справедлива. Такую ошибку называют ошибкой 1-го рода, а
её вероятность – уровнем значимости α
Наоборот, в какой – то небольшой доле случаев β нулевая гипотеза принимается, в
то время как на самом деле она ошибочна. Такую ошибку называют ошибкой 2-го рода.
21
Вероятность ошибки второго рода β. Вероятность 1- β называют мощностью критерия.
Проверка статистических гипотез осуществляется с помощью статистического критерия (К), который является функцией от результатов наблюдения.
Статистический критерий – это правило, по которому определяется мера расхождения результатов выборочного наблюдения с высказанной гипотезой Н0.
Выбор критерия может быть осуществлён на основании различных принципов. Чаще
всего пользуются принципом отношения правдоподобия, который позволяет построить
наиболее мощный критерий.
Значение критерия, рассчитываемое по специальным правилам на основании выборочных данных, называется наблюдаемым значением критерия Кнабл.
Значения критерия, разделяющие совокупность значений критерия на область допустимых значений и критическую область, определяемые на заданном уровне значимости α
по таблицам распределения случайной величины К, выбранной в качестве критерия, называют критическими точками Ккр.
Областью допустимых значений называют совокупность значений критерия К, при
которых нулевая гипотеза Н0 не отклоняется.
Критической областью называют совокупность значений критерия К, при которых
нулевая гипотеза Н0 отклоняется в пользу конкурирующей Н1.
Различают левостороннюю и правостороннюю критические области. Если конкурирующая гипотеза – правосторонняя, т.е а > a0 то и критическая область – правосторонняя.
Если конкурирующая гипотеза – левосторонняя, т.е а < a0 то и критическая область –
левосторонняя.
Если конкурирующая гипотеза – двусторонняя, т.е a ≠ a 0 , то и критическая область
двусторонняя.
Основной принцип проверки статистических гипотез состоит в следующем:
- если наблюдаемое значение критерия принадлежит критической области, то нулевая
гипотеза отклоняется в пользу конкурирующей
- если наблюдаемое значение критерия принадлежит области допустимых значений, то
нулевую гипотезу нельзя отклонить.
Критерий согласия Колмогорова
Применяется для не сгруппированного статистического ряда. В этом критерии в качестве
меры различия между эмпирическим и предполагаемым теоретическим распределениями
используется максимум модуля разности между эмпирической функцией распределения
F*(x) и теоретической F(x).
При использовании этого критерия согласия необходимо:
- найти максимальный по всем возможным значениям аргумента модуль разности между
выборочной и теоретической функциями распределения D;
- вычислить значение критерия λ
-задать уровень значимости 1-q
- проверить выполнение условия
.
Если условие выполняется, то можно принять нулевую гипотезу и считать, что теоретическое распределение подобрано правильно. Если же условие не выполняется, то нулевая
гипотеза отвергается.
22
Критерий согласия Пирсона
Применяется для сгруппированного статистического ряда. Для проверки нулевой гипотезы Н0: генеральная совокупность распределена нормально – нужно вычислить по выборке
наблюдаемое значение критерия:
χ
(ni − ni′ ) 2
,
=∑
ni′
i =1
s
2
набл
а по таблице критических точек распределения χ2 найти критическую точку χ кр2 (α , k ) , ис2
пользуя известные значения α и k = s – 3. Если χ набл
< χ kp2 - нулевую гипотезу принимают,
2
при χ набл
> χ kp2 ее отвергают.
Основы корреляционного анализа
Корреляционный анализ – это совокупность методов обнаружения корреляционной
зависимости между случайными величинами.
Для двух случайных величин Х и Y корреляционный анализ включает следующие
этапы:
– построение корреляционного поля (диаграммы рассеивания) и составление корреляционной таблицы;
– вычисление выборочного коэффициента корреляции;
– проверку статистической гипотезы о значимости корреляционной связи.
Корреляционное поле и корреляционная таблица являются исходными данными при
корреляционном анализе. По характеру расположения точек на диаграмме рассеивания
можно составить предварительное представление о форме зависимости случайных величин.
Коэффициент корреляции r служит мерой линейной корреляционной связи между x
и y . Если r = ±1 , то x и y связаны линейной функциональной зависимостью, если ρ = 0 ,
то они не коррелированны.
Дана система случайных величин (Х;У). Пусть в результате n испытаний получено n
точек (х1;у1); (х2;у2)…(хn;yn), Необходимо вычислить коэффициент корреляции этой системы случайных величин.
Приняв во внимание закон больших чисел, при достаточно большом математическом ожидании получим следующие приближённые равенства:
n
∑ xi
n
n
∑ yi
∑
n
x i2
M (X) ≈ x = i =1 ; M (Y) ≈ y = i =1 ; δ x2 ≈ i =1
n
n
n
∑ yi2
− x 2 ; δ y2 ≈ i =1
n
− y2 ;
n
∑ x i yi
C xy ≈ i =1
− x i yi .
n
Отсюда можно найти коэффициент корреляции по формуле:
rxy =
C xy
δ x δe
.
Если rxy ∗ n − 1 ≥ 3 , то связь между случайными величинами Х и У достаточна устойчива.
Основы регрессионного анализа
Пусть изучается двумерная случайная величина (Х, Y), и получена выборка из п пар
чисел (х1, у1), (х2, у2),…, (хп, уп). Будем искать параметры прямой линии среднеквадрати23
ческой регрессии Y на Х вида
Y = ρyxx + b ,
(*)
Подбирая параметры ρух и b так, чтобы точки на плоскости с координатами (х1, у1), (х2, у2),
…, (хп, уп) лежали как можно ближе к прямой (*). Используем для этого метод наименьших квадратов и найдем минимум функции
n
n
i =1
i =1
F ( ρ , b) = ∑ (Yi − yi ) 2 = ∑ ( ρxi + b − yi ) 2 .
Приравняем нулю соответствующие частные производные:
n
∂F
= 2∑ ( ρxi + b − y i ) xi = 0
∂ρ
i =1
.
n
∂F
= 2∑ ( ρxi + b − y i ) = 0
∂b
i =1
В результате получим систему двух линейных уравнений относительно ρ и b:
(
)
 ∑ х 2 ρ + (∑ х )b = ∑ xy

 (∑ x )ρ + nb = ∑ y
.
Ее решение позволяет найти искомые параметры в виде:
ρ xy =
n∑ xy − ∑ x ⋅ ∑ y
n∑ x 2 − (∑ x )
2
∑ x ⋅ ∑ y − ∑ x ⋅ ∑ xy
b=
n∑ x − (∑ x )
2
;
2
2
.
При этом предполагалось, что все значения Х и Y наблюдались по одному разу.
Если имеется достаточно большая выборка (не менее 50 значений), и данные сгруппированы в виде корреляционной таблицы, то
x=
∑x,
n
y=
∑y,
n
x2 =
∑x
2
n
,
заменим в последней системе
∑ x = n x , ∑ y = ny , ∑ x
2
∑ xy = ∑ n
= nx2 ,
xy
xy ,
где пху – число появлений пары чисел (х, у). Тогда последняя система примет вид:
(n x 2 )ρ + (nx )b = n xy
∑ xy
yx

ρ
+
=
(
x
)
b
y

yx
Можно решить эту систему и найти параметры ρух и b, определяющие выборочное уравнение прямой линии регрессии:
у х = ρ ух х + b .
Но чаще уравнение регрессии записывают в ином виде, вводя выборочный коэффициент
корреляции. Выразим b из второго уравнения системы:
b = у − ρ ух х .
Подставим это выражение в уравнение регрессии: y x − y = ρ yx ( x − x ) . Тогда
ρ yx =
где
σ~ x2 = x 2 − ( x ) 2 .
∑n
xy
xy − nx y
n( x 2 − ( x ) 2 )
=
∑n
xy − nx y
,
nσ~ 2
xy
x
Введем понятие выборочного коэффициента корреляции
rB =
∑n
xy − nx y
~
nσ xσ~ y
xy
σ~ y
σ~ x
Примем ρ yx ~ = rB , откуда ρ yx = rB ~ . Используя это соотношение, получим выборочное
σy
σx
24
уравнение прямой линии регрессии Y на Х вида
σ~ y
y x − y = rB ~ ( x − x )
σ
x
РАЗДЕЛ 4. СЛУЧАЙНЫЕ ПРОЦЕССЫ
Классификация случайных процессов
Случайным процессом называется множество или семейство случайных величин,
значения которых индексируются временным параметром.
Основными понятиями для случайных процессов являются понятия состояния процесса и перехода его из одного состояния в другое.
Значения переменных, которые описывают случайный процесс, в данный момент
времени называются состоянием случайного процесса. Случайный процесс совершает
переход из одного состояния в другое, если значения переменных, задающих одно состояние, изменяются на значения, которые определяют другое состояние.
Число возможных состояний (пространство состояний) случайного процесса может
быть конечным или бесконечным. Если число возможных состояний конечно или счетно
(всем возможным состояниям могут быть присвоены порядковые номера), то случайный
процесс называется процессом с дискретными состояниями.
Если переменные, описывающие случайный процесс, могут принимать любые значения из конечного или бесконечного непрерывного интервала, а, значит, число состояний несчетно, то случайный процесс называется процессом с непрерывными состояниями.
Для случайных процессов с дискретными состояниями характерны скачкообразные
переходы из одного состояния в другое, тогда, как в процессах с непрерывными состояниями переходы являются плавными. Далее будем рассматривать только процессы с дискретными состояниями, которых часто называют цепями.
Обозначим через g(t) случайный процесс с дискретными состояниями, а возможные
значения g(t), т.е. возможные состояния цепи, - через символы E0, E1, E2, … . Иногда для
обозначения дискретных состояний используют числа 0, 1, 2,... из натурального ряда.
Случайный процесс g(t) называется процессом с дискретным временем, если переходы процесса из состояния в состояние возможны только в строго определенные, заранее
фиксированные моменты времени t0, t1, t2, …. Если переход процесса из состояния в состояние возможен в любой, заранее неизвестный момент времени, то случайный процесс
называется процессом с непрерывным временем. В первом случае, очевидно, что интервалы времени между переходами являются детерминированными, а во втором - случайными величинами.
Процесс с дискретным временем имеет место либо, когда структура системы, которая описывается этим процессом, такова, что ее состояния могут изменяться только в заранее определенные моменты времени, либо когда предполагается, что для описания
процесса (системы) достаточно знать состояния в определенные моменты времени. Тогда
эти моменты можно пронумеровать и говорить о состоянии Ei в момент времени ti.
Стационарные случайные процессы
Стационарной называют случайную функцию X(t), математическое ожидание которой постоянно при всех значениях аргумента t и корреляционная функция которой зависит только от разности аргументов t2-t1
Из этого определения следует, что:
25
1. Корреляционная функция стационарной случайной функции есть функция одного
аргумента.
2. Дисперсия стационарной случайной функции постоянна при всех значениях аргумента t и равна значению ее корреляционной функции в начале координат.
Свойства:
- корреляционная функция стационарной случайной функции есть четная функция
- абсолютная величина корреляционная функция стационарной случайной функции
не превышает ее значения в начале координат
Нормированная корреляционная функция стационарной случайной функции есть не.
случайная функция аргумента τ:
Абсолютная величина нормированной корреляционной функции стационарной случайной функции не превышает единицы
Две случайные функции X(t) и Y(t) называют стационарно связанными, если их взаимная корреляционная функция зависит только от разности аргументов τ=t2-t1:
Взаимная корреляционная функция стационарно связанных случайных функций
имеет следующее свойство:
Корреляционная функция производной дифференцируемой стационарной случайной
функции X(t) равняется второй производной от ее корреляционной функции, взятой со
знаком минус:
Взаимная корреляционная функция дифференцируемой стационарной случайной
функции
и ее производной равняется первой производной от корреляционной функции , которая
берется со своим (противоположным) знаком, если индекс x стоит на втором (первом) по
порядку месте:
Корреляционная функция интеграла от стационарной случайной функции равняется:
Спектральное разложение стационарного случайного процесса
Спектральным разложением стационарного случайного процесса Х(t,ω) называется
его представление в виде
26
где uk(ω), vk(ω) – центрированные некоррелированные случайные величины с дисперсиями Duk=Dvk=Dk.
Постоянная величина ωk называется частотой, принимает значения ωk=2πk/l; при этом говорят о дискретном спектре частот.
Можно представить спектральное разложение стационарного случайного процесса
по дискретному спектру частот в виде
где θk – фаза гармонического колебания; Zk(ω) – амплитуда гармонического колебания.
Таким образом, стационарный случайный процесс может быть представлен в виде
суммы гармонических колебаний со случайными амплитудами Zk(ω) и случайными фазами θk на различных неслучайных частотах ωk.
Спектральная плотность
Спектральная плотность Sx(ω) случайного процесса Х(t) определяется как преобразование Фурье корреляционной функции Rх(τ), т. е.
Если воспользоваться формулой Эйлера е-jωτ=соsωτ-jsinωτ, то
Так как Rx(τ)sinωτ - нечетная функция τ, то в последнем выражении второй интеграл
равен нулю. Учитывая, что Rx(τ)cosωτ— четная функция τ, получаем
Поскольку cosωτ=cos(-ωτ), то имеем
Таким образом, спектральная плотность Sx(ω) является действительной и четной
функцией частоты ω. Поэтому на графике спектральная плотность всегда симметрична
относительно оси ординат.
Если спектральная плотность известна, то по формуле обратного преобразования
Фурье можно найти соответствующую ей корреляционную функцию:
Спектральная плотность может быть получена и непосредственно по реализации
случайного процесса без предварительного вычисления корреляционной функции. Если
известна реализация случайного процесса x(t), то можно найти ее изображение Фурье,
введя сначала одно ограничение, связанное с тем, что для существования преобразования
Фурье необходимо, чтобы при t→∞ подынтегральная функция стремилась к нулю, а реализация стационарного случайного процесса таким свойством не обладает. Поэтому сна27
чала рассматривают функцию xT(t), совпадающую с функцией x(t) на конечном интервале
от -T до +Т, а за пределами этого интервала равную нулю, т. е.
Изображение Фурье для функции XT(t) существует и имеет вид
Комплексную функцию частоты ХT(jω) называют спектральной функцией (текущим
спектром) реализации x(t), определенной в интервале -T<=t<=T.
Спектральная плотность выражается через спектральную функцию следующим образом:
где ХT(-jω) — функция, комплексно-сопряженная с ХT(jω).
Цепи Маркова
Особое место среди случайных процессов занимают так называемые марковские
случайные процессы, впервые описанные А.А. Марковым в 1907г.
Случайный процесс называется марковским, если вероятность любого его состояния
в будущем зависит только от состояния в настоящем и не зависит от того, каким образом
и когда процесс пришел в текущее состояние. Аналитически сказанное может быть записано в виде:
Pr{g(tn+1)=En+1|g(t0)=E0, g(t1)=E1, …, g(tn)=En}=Pr{g(tn+1)=En+1|g(tn)=En},
где t1<t2< … <tn<tn+1, а En - текущее состояние.
Иными словами, в марковских случайных процессах влияние (воздействие) всей
предыстории процесса на его будущее полностью сосредоточено в текущем состоянии
процесса. Это свойство называется свойством отсутствия последействия или применительно к случайным процессам марковским свойством.
Свойство отсутствия последействия накладывает существенные ограничения на распределение времени пребывания марковского процесса в том или ином состоянии. Так, в
случае цепи Маркова с непрерывным временем время пребывания в данном состоянии
должно быть распределено по экспоненциальному, а в случае дискретной цепи Маркова по геометрическому, законам распределения, которые являются единственными, соответственно, непрерывным и дискретным распределениями без последействия. Только при
таких ограничениях на времена пребывания процесса в состояниях гарантировано выполнение марковского свойства.
6.3 Содержание лабораторных работ
Лабораторные работы в программе данной дисциплины не предусмотрены.
6.4. Содержание практических занятий
6.4.1 Перечень тем практических занятий.
1. Использование теорем сложения и умножения вероятностей при решении задач.
2. Использование формул полной вероятности, Бейеса, Бернулли при решении задач.
3. Контрольная работа по теме "Случайные события".
4. Дискретные и непрерывные одномерные случайные величины. Числовые характеристики.
5. Определение числовых характеристик одномерной случайной величины с использованием Statistics Toolbox.
28
6. Законы распределения одномерных дискретных случайных величин.
7. Законы распределения одномерных непрерывных случайных величин.
8. Контрольная работа по теме "Числовые характеристики случайных величин".
9. Система двух случайных величин. Числовые характеристики.
10. Точечная оценка числовых характеристик.
11. Интервальные оценки числовых характеристик.
12. Проверка статистической гипотезы о законе распределения случайной величины с использованием средств Statistics Toolbox.
13. Метод наименьших квадратов.
14. Элементы корреляционного и регрессионного анализа данных.
15. Контрольная работа по теме "Корреляционно – регрессионный анализ".
6.4.2 Задания на практические занятия.
Практическое занятие 1.
Получить навыки решения задач с использованием теорем сложения и умножения
вероятностей.
Практическое занятие 2.
Получить навыки решения задач с использованием формул полной вероятности,
Бейеса, Бернулли
Практическое занятие 3.
Применить полученные на занятиях знания при самостоятельном решении задач.
Практическое занятие 4.
Рассчитать числовые характеристики дискретных и непрерывных случайных величин.
Практическое занятие 5.
Рассчитать числовые характеристики дискретных и непрерывных случайных величин, используя средств Statistics Toolbox.
Практическое занятие 6.
Изучить законы распределения одномерных дискретных случайных величин.
Практическое занятие 7.
Изучить законы распределения одномерных непрерывных случайных величин.
Практическое занятие 8.
Применить полученные на занятиях знания при самостоятельном решении задач.
Практическое занятие 9.
Рассчитать числовые характеристики дискретных и непрерывных двумерных случайных величин.
Практическое занятие 10.
Изучить методы получения точечных оценок параметров распределений.
Практическое занятие 11.
Рассчитать интервальные оценки математического ожидания и дисперсии при различных исходных данных.
Практическое занятие 12.
С помощью критериев согласия проверить гипотезу о виде неизвестного распределения.
Практическое занятие 13.
Отыскать вид и значения параметров функциональной зависимости, используя метод
наименьших квадратов.
29
Практическое занятие 14.
Определить наличие зависимости между двумя случайными величинами.
Практическое занятие 15.
Применить полученные на занятиях знания при самостоятельном решении задач.
6.4.3 Методические указания по выполнению заданий практических занятий.
Практические работы 1-4, 8-11,13,15 состоят в решении задач, остальные выполняются на компьютерах с использованием системы МаtLab.
Практическое занятие № 1
Использование теорем сложения и умножения вероятностей
при решении задач.
Цель занятия – научиться использовать теоремы сложения и умножения вероятностей при решении задач.
Ход занятия
1. Выборочная проверка домашнего задания, если решения какой-либо домашней задачи
вызвало затруднения у большей части студентов, задача решается на доске.
2. Проводится опрос по теоретическому материалу. Студенты делятся на две подгруппы.
Одна подгруппа задает вопросы по теме занятия, вторая - отвечает.
3. Решение типовых примеров у доски.
4. Самостоятельное решение студентами задач в тетрадях с последующей записью на
доске и объяснением решения.
5. Домашнее задание.
Типовые задания
1. При доставке с завода на базу 1000 радиоприемников, у 55 вышли из
строя лампы. Найти вероятность того, что взятый наудачу приемник будет исправным.
2. Из 60 вопросов, входящих в экзаменационные билеты, студент подготовил 50.
Найти вероятность того, что взятый наудачу студентом билет, содержащий 2 вопроса, будет состоять из подготовленных им вопросов.
3. Отдел технического контроля проверяет изделия на стандартность. Вероятность
того, что изделие стандартно, равна 0.9. Найти вероятность того, что из двух проверенных наудачу взятых изделий только одно стандартное.
4. В секретном замке на общей оси 4 диска, каждый из которых разделен на 5 секторов, отмеченных определенными цифрами. Замок открывается только в том случае, когда
цифры образуют определенное четырехзначное число. Найти вероятность открыть замок,
установив произвольное четырехзначное число.
5. Устройство состоит из 5 элементов, среди которых 2 изношенных. При включении
устройства включаются случайным образом 2 элемента. Найти вероятность того, что
включенными окажутся неизношенные элементы.
Практическое занятие № 2
Использование формул полной вероятности, Бейеса,
Бернулли при решении задач
Цель работы - научиться решать задачи теории вероятности с использованием формул
полной вероятности, Бейеса, Бернулли
Ход занятия
Аналогичен порядку работы практического занятия № 1.
Типовые задания
1. Вероятности того, что во время работы цифровой электронной машины произой30
дет сбой в арифметическом устройстве, в оперативной памяти, в остальных устройствах
относятся как 3 : 2 : 5. Вероятности обнаружения сбоя в арифметическом устройстве, в
оперативной памяти, в остальных устройствах соответственно равны 0.8, 0.7, 0.9. Найти
вероятность того, что возникший в машине сбой будет обнаружен.
2. В трех ящиках находятся в первом – 3 белых и 2 черных шара, во втором – 4 белых и 8 черных шара, в третьем – 2 белых и 1 черный шар. Извлечение шара из любого
ящика равновероятно. Найти вероятность того, что извлечение было произведено из второго ящика, если вынутый шар оказался черным.
3. Вероятности попадания при каждом выстреле для трех стрелков равны соответственно 4/5, 3/4, 2/3. При одновременном выстреле всех трех стрелков независимо друг от
друга имелись два попадания. Найти вероятность того, что промахнулся третий стрелок.
4. В ящике находятся 12 деталей, изготовленных на заводе № 1, 20 деталей– на заводе № 2 и 18 деталей – на заводе № 3. Вероятность того, что деталь, изготовленная на заводе № 1, отличного качества – равна 0.9; для деталей, изготовленных на заводах № 2 и
№ 3, эти вероятности равны 0.6 и 0.9. Наудачу берется деталь. Найти вероятность того,
что она окажется отличного качества.
5. Система, составленная из четырёх блоков, работает исправно, если за рассматриваемый период выйдет из строя не более двух блоков. Найти вероятность безотказной работы системы блоков, если отказы блоков являются независимыми событиями и вероятность отказа каждого блока равна 1/8.
Практическое занятие № 3
Контрольная работа по теме "Случайные события"
Цель занятия: промежуточный контроль знаний студентов.
Ход занятия
Контрольная работа проводится по индивидуальным вариантам. Типовой вариант контрольной работы:
Задача 1
Наудачу называется месяц и число некоторого не високосного года. Найти
вероятность того, что это будет воскресенье, если всего в этом году 53 воскресенья, а соответствие чисел дням недели неизвестно.
Задача 2
Числа 1, 2, 3, 4, 5 написаны на 5 карточках. Наудачу последовательно выбираются три
карточки, и вынутые таким образом цифры ставятся слева направо. Найти вероятность
того, что полученное при этом трехзначное число будет четным.
Задача 3
Найти вероятность того, что выбранное наудачу число n > 0 при возведении в квадрат
даст число, оканчивающееся единицей.
Задача 4
Отдел технического контроля проверяет изделия на стандартность. Вероятность того, что
изделие стандартно, равна 0.9. Найти вероятность того, что из двух проверенных наудачу
взятых изделий только одно стандартное.
Задача 5
В вычислительной лаборатории имеются 6 клавишных автоматов и 4 полу автомата. Вероятность того, что автомат не выйдет из строя в течение часа,
равна 0.95; для полуавтомата эта вероятность равна 0.8. Студент производит
расчет на машине, выбранной наудачу. Найти вероятность того, что машина в течение ча31
са не выйдет из строя.
Задача 6
В трех ящиках находятся в первом – 3 белых и 2 черных шара, во втором
– 4 белых и 8 черных шара, в третьем – 2 белых и 1 черный шар. Извлечение
шара из любого ящика равновероятно. Найти вероятность того, что извлечение было произведено из второго ящика, если вынутый шар оказался черным.
Практическое занятие № 4
Дискретные и непрерывные одномерные случайные величины.
Числовые характеристики.
Цель работы - научиться решать задачи теории вероятности по определению числовых
характеристик одномерных случайных величин.
Ход занятия
Аналогичен порядку работы практического занятия № 1.
Типовые задания
1. По данному закону распределения дискретной случайной величины Х найти числовые характеристики: а) математическое ожидание М(Х); б) дисперсию D(X).
2. Построить ряд распределения числа попаданий мячом в корзину при трех бросках,
если вероятность попадания при одном броске равна 0,6. Найти среднее число попаданий
и дисперсию.
3. Случайная величина Х может принимать два возможных значения: х1 с вероятностью 0,3 и х2 с вероятностью 0,7. Найти значения х1 и х2 ( х1< х2 ), зная что М(Х)=2,7 и
D(Х)=0,21.
4. Случайная величина задана плотность распределения f(x)=ax2+2,3x-5 на отрезке
[2;4]. Найти параметр а, моду, медиану, математическое ожидание.
5. Найти математическое ожидание и дисперсию случайной величины Х, зная ее
плотность распределения f(x)=1/2m при a-m≤x≤a+m.
Практическое занятие № 5
Определение числовых характеристик одномерной случайной величины
с использованием Statistics Toolbox
Цель работы – изучить методы определения числовых характеристик одномерных
случайных величин, научиться использовать их при решении задач теории вероятности с
использованием средств Statistics Toolbox.
Порядок выполнения работы
1. Задать дискретную случайную величину в виде вектора Х случайных чисел, используя линейное преобразование
Х=а+(b-a)·Y,
где Y - вектор из 20 случайных чисел, равномерно распределенных в интервале (0, 1);
a - номер варианта; b =50.
2. Рассчитать функцию распределения F(X).
3. Определить функцию распределения с помощью функции MATLAB [F,x] =
ecdf(Х) и построить её график.
4. Рассчитать математическое ожидание, стандартное отклонение и медиану заданной случайной величины по формулам, приведенным в разделе 1.
5. Найти выборочные характеристики дискретной случайной величины с помощью
средств Matlab.
6. Определить моменты до 4-го порядка 6 по формулам раздела 1. Проверить вычис32
ления с помощью средств Matlab.
7. Определить асимметрию и эксцесс по формулам раздела 1 и используя стандартные функции Matlab.
Примечание: раздел 1 – Общие сведения приведен в методических указаниях к практической работе.
Практическое занятие № 6
Законы распределения одномерных дискретных случайных величин
Цель работы - исследование с помощью средств Matlab законов распределения одномерных дискретных случайных величин.
Порядок выполнения работы
1. В качестве исходных данных принять:
для распределений биномиального, Пуассона и геометрического:
- вероятность наступления события p= номер варианта/10;
- n=номер варианта+5.
для гипергеометрического распределения:
N=номер варианта+5; M=номер варианта;
n=const выбирается из диапазона 1…N; m - из диапазона 0…M. Ограничения на
параметы М≤N и m≤n.
2. Для каждого из рассмотренных распределений построить в одном графическом
окне два графика плотности вероятности. Один из графиков плотности вероятности получить по формулам раздела 1, второй – с использованием функций системы Matlab (раздел 2.2). Исследовать их зависимость от параметров распределений.
3. Для каждого из рассмотренных распределения построить в отдельном графическом окне график функции распределения с использованием функций системы Matlab
(раздел 2.1). Исследовать их зависимость от параметров распределений.
4. Рассчитать числовые характеристики рассмотренных дискретных распределений
по формулам, приведенным в разделе 1 и по общим формулам (см. МУ к лабораторной
работе № 1).
5. Какими должны быть параметры биномиального распределения, чтобы оно отличалось от пуассоновского с параметром λ = 5 не более чем на 1%? Нарисовать на одном
графике многоугольники распределений: сплошной зеленой линией – эталонного пуассоновского и штриховой синей– найденного биномиального.
Примечание: раздел 1 и 2 – Общие сведения приведены в методических указаниях к
практической работе.
Практическое занятие № 7
Законы распределения одномерных непрерывных случайных величин.
Цель работы - исследование с помощью средств Matlab законов распределения одномерных непрерывных случайных величин."
Порядок выполнения работы
1. Смоделировать массив объемом N=100 для законов распределения: нормального,
равномерного, экспоненциального.
Параметры моделируемых массивов:
– для нормального распределения N(а; s) (s > 0 ):
;
а = номер варианта, s =
– для равномерного распределения R(a; b) ( a < b ):
a = номер варианта, b = 2a;
33
– для экспоненциального распределения E(л) (л > 0 ):
где n – номер варианта.
Внимание! Во всех функциях Matlab параметром экспоненциального распределения
считается не плотность событий λ, а обратная ей величина
µ = 1 / λ.
2. Для каждого из рассмотренных распределений построить в одном графическом
окне два графика плотности вероятности. Один из графиков плотности вероятности получить по формулам раздела 1, второй – с использованием функций системы Matlab (раздел 2.2).
3. Для каждого из рассмотренных распределения построить в отдельном графическом окне график функции распределения с использованием функций системы Matlab
(раздел 2.1).
4. Рассчитать числовые характеристики рассмотренных непрерывных распределений по формулам, приведенным в разделе 1 и по общим формулам (см. МУ к лабораторной работе № 1).
5. Рассмотреть, как влияет на форму графика плотности вероятности нормального
распределения изменение величины математического ожидания и среднеквадратического
отклонения.
6. Построить в одном окне, используя функции Matlab. графики плотности вероятности нормированного нормального распределения и распределения Стьюдента с k степенями свободы. Рассмотреть, как изменится кривая распределения Стьюдента при увеличении числа степеней свободы. Принять k=10, 50, 100.
7. Те же построения выполнить для закона Пирсона ( χ 2 ).
Примечание: раздел 1 и 2 – Общие сведения приведены в методических указаниях к
практической работе.
Практическое занятие № 8
Контрольная работа по теме "Числовые характеристики
случайных величин".
Цель занятия: промежуточный контроль знаний студентов.
Ход занятия
Контрольная работа проводится по индивидуальным вариантам. Типовой вариант контрольной работы:
Задача 1. В результате испытаний двух приборов А и В установлена вероятность
появления помех, оцениваемых по 3-х бальной системе (таблица).
Уровень помех
1
2
3
Вероятность появления Прибор А
0,20
0,06
0,04
помех данного уровня
Прибор В
0,06
0,04
0,1
По приведенным данным выбрать лучший прибор, если лучшим является тот, который в
среднем имеет меньший уровень помех.
Задача 2. Плотность вероятности случайной величины
34
Доказать, что заданная функция может быть плотностью вероятности случайной величины Х. Найти ее функцию распределения, математическое ожидание, дисперсию,
среднее квадратическое отклонение и вероятность попадания случайной величины в интервал [1, 3]. Построить графики плотности вероятности и функции распределения.
Задача 3. Случайная величина Х подчинена закону распределения, график плотности которого имеет вид
Найти математическое ожидание, дисперсию, среднее квадратическое отклонение.
Задача 4. Прибор состоит из двух независимо работающих блоков А и B, каждый из
которых собран из нескольких независимых элементов (рис. 1), вероятности отказов которых р1=р2=0,2; р3=р4=р7=0,3; р5=р6=0,25; р8=0,278;
При отказе блока он подлежит полной замене, причем стоимость замены блока А
равна С1=5 единицам стоимости, блока В – С2=10 единицам. Предполагается, что за определенный период времени Т ни один блок не потребует повторной замены.
Найти случайную величину Х – стоимость восстановления прибора за период времени Т. Построить ряд и функцию распределения. Вычислить математическое ожидание,
дисперсию и среднее квадратическое отклонение.
Построить многоугольник распределения и график функции распределения.
Задача 5. Дискретная случайная величина Х может принимать только два значения
х1 и х2, причем х1 < х2. Известны вероятность р1=0,2 возможного значения х1, математическое ожидание М(Х)=3,8 и дисперсия D(X)=0,16. Найти закон распределения случайной
величины.
Практическое занятие № 9
Система двух случайных величин. Числовые характеристики.
Цель работы – научиться решать задачи теории вероятности по определению числовых
характеристик системы двух случайных величин.
Ход занятия
Аналогичен порядку работы практического занятия № 1.
Типовые задания
1. Дискретная двумерная случайная величина (X, Y) описывается законом распределения вероятностей, заданного таблицей. Определить: законы распределения составляющих X и Y; условный закон распределения случайной величины X при условии, что Y
приняла значение y1 и случайной величины Y при условии, что X приняла значение x2.
35
2. По каналу связи передается один раз дискретный сигнал, вероятность правильного
приема которого р=0,8. Определить закон распределения в табличной форме и функцию
распределения F(x,y) двумерной случайной величины (X, Y), где X – число правильно
принятых сигналов, Y – число неправильно принятых сигналов.
3. Двумерная случайная величина (X, Y) распределена по закону, заданному таблицей. Определить математическое ожидание и дисперсию случайной величины Z=2X+Y2.
4. Случайная точка на плоскости распределена по закону, заданному таблицей. Найти математическое ожидание случайных величин X и Y; дисперсии величин X и Y; условное математическое ожидание величины X при Y=y3; корреляционный момент Кxy и
коэффициент корреляции rxy.
5. Задана совместная плотность вероятности р2(x,y) двумерной случайной величины
(X, Y). Определить математическое ожидание mx и my величин X и Y; дисперсии D(X) и
D(Y) составляющих.
Практическое занятие № 10
Точечная оценка числовых характеристик
Цель работы – научиться решать задачи теории вероятности по определению точечных
оценок числовых характеристик.
Ход занятия
Аналогичен порядку работы практического занятия № 1.
Типовые задания
1. Найти оценки параметров нормального распределения случайной величины Х методом моментов.
2. Найти оценку параметра а распределения Пуассона методом максимального правдоподобия.
3. Найти оценку параметра а распределения Пуассона методом наименьших квадратов.
4. По выборке объема n=41найдена смещенная оценка Dв=3 генеральной дисперсии.
Найти несмещенную оценку дисперсии генеральной совокупности.
5. В итоге четырех измерений некоторой физической величины одним прибором получены следующие результаты 8, 9, 11, 12. Найти а) выборочную среднюю результатов
измерений; б) выборочную и исправленную дисперсии ошибок прибора.
Практическое занятие № 11
Интервальные оценки числовых характеристик
Цель работы – научиться решать задачи теории вероятности по определению доверительных интервалов.
Ход занятия
Аналогичен порядку работы практического занятия № 1.
Типовые задания
1. Среднее расстояние до ориентира, полученное по четырем независимым измерениям, равно 2250 м. Средняя ошибка измерительного прибора Е=40 м, систематическая
ошибка отсутствует. Найти с надежностью 95 % доверительный интервал для измеряемой
величины.
2. На контрольных испытаниях 16 осветительных ламп были определены оценки математического ожидания и среднего квадратического отклонения их срока службы, кото~ = 20 час.
рые оказались равными ~
х = 3000 час. и σ
Считая, что срок службы каждой лампы является нормальной случайной величиной, оп36
ределить:
а) доверительный интервал для математического ожидания и среднего квадратического отклонения при доверительной вероятности 0,9;
б) с какой вероятностью можно утверждать, что абсолютное значение ошибки определения х не превзойдет 10 час., а ошибка в определении σ будет меньше 2 час.
3. По выборке объемом n определены выборочное среднее и исправленное среднее
квадратическое отклонение s нормально распределенной случайной величины Х. Найти
доверительный интервал для оценки неизвестного математического ожидания а и дисперсии σ2.
4. Найти доверительный интервал для математического ожидания нормально распределенной случайной величины, если объем выборки п = 49, x B = 2,8, σ = 1,4, а доверительная вероятность γ = 0,9.
5. Пусть объем выборки п = 25, х В = 3, s = 1,5. Найти доверительный интервал для а
при γ = 0,99.
6. Пусть п = 20, s = 1,3. Найти доверительный интервал для σ при заданной надежности γ = 0,95.
Практическое занятие № 12
Проверка статистической гипотезы о законе распределения случайной
величины с использованием средств Statistics Toolbox
Цель работы - изучение методов проверки статистических гипотез о законе распределения с помощью критериев согласия. Получение навыков проверки с помощью средств
MATLAB.
Порядок выполнения работы
1. Используя ниже приведенную программу, сформировать одномерный массив х случайных чисел, имеющих некоторый закон распределения.
clear all
nd=unidrnd(4)
switch nd
case 1,
mu=unifrnd(-2,2);
sigma=unifrnd(0.5,3);
x=normrnd(mu,sigma,400,1)
case 2
lambda=unifrnd(0.4,2.5);
x=exprnd(1/lambda,300,1)
case 3,
a=unifrnd(-2,0.1);
b=unifrnd(0.5,4);
x=unifrnd(a,b,500,1)
case 4,
sigma=unifrnd(0.4,2.5);
x=raylrnd(sigma,600,1)
end
2. Определить размер массива и упорядочить его в порядке возрастания. Определить
xmin , xmax .
3. Для составления сгруппированного статистического ряда определить количество
37
интервалов
или
k= n
с округлением до целого – round(k).
4. Определить ширину каждого интервала
x
− x min
∆x = max
k
5. Для каждого интервала определить частоту попадания значения в интервал и середину интервала. Для нахождения середин интервалов разбиения и числа попаданий в
интервал в MATLAB используется функция [kolint,xsr]=hist(x,k). Функция [kolint,xsr]=hist(x,k) возвращает массив xsr середин интервалов и массив kolint числа попаданий в интервал.
6. Построить гистограмму.
7. Вычислить выборочное среднее m*x и выборочную исправленную дисперсию D*x
∑ (xi − m*x )
n
∑ xi
n
m*x = i =1
n ,
2
Dx* = i =1
n −1
В MATLAB для вычисления m*x используется функция mean(x); а для вычисления D*x
- var(x).
8. Найти параметры теоретического распределения по методу моментов для всех
подходящих непрерывных распределений, реализованных в MATLAB.
На основании метода моментов параметры, входящие в выражения для теоретических плотностей распределения f (x ) , подбираются так, чтобы моменты теоретических
распределений совпадали с выборочными моментами.
- показательного распределения α =
1
X
- нормального распределения m = X , σ = s 2
- равномерного распределения a = X − 3s 2 , b = X + 3s 2
- распределения Релея σ =
2
⋅X .
π
9. Построить на одном графике эмпирическую и все подбираемые теоретические
плотности распределения.
Для построения эмпирической плотности нужно все значения по оси ординат в
гистограмме разделить на nh, где n-число экспериментальных данных, h-ширина интервала. В MATLAB это делает функция ecdfhist. Она строит нормированную нужным образом гистограмму. Для неё нужно предварительно построить выборочную функцию распределения с помощью функции ecdf.
Теоретические плотности распределения строим с помощью функции pdf, задавая
нужный вид распределения и его параметры.
10. Проанализировав графики теоретических и эмпирической плотности выдвинуть
гипотезу о законе распределения генеральной совокупностей.
11. Проверить выдвинутую гипотезу с помощью критерия согласия Колмогорова.
Провести проверку по критерию Колмогорова со всеми распределениями, и выбрать
то, для которого значение уровня значимости q максимальное.
38
Построить на одном рисунке эмпирическую функцию распределения F*(x) и наиболее
подходящую теоретическую. График эмпирической функции распределения рисует
функция cdfplot, а теоретическая строится по точкам x.
12. Проверить выдвинутую гипотезу с помощью критерия согласия Пирсона.
Вычислить выборочное значение критерия хи-квадрат χ 2B для всех предполагаемых
распределений.
χ 2B
2
(
n i − n ⋅ pi теор )
=∑
k
k =1
n ⋅ p iтеор
Для определения теоретической вероятности попадания в интервал можно использовать следующую конструкцию
pro=cdf('имя распределения',Gr,пар1,пар2) - значение функции распределения на
границах интервалов
Gr –матрица 2хk, содержащая левую (первый столбец) и правую (второй столбец)
границы k интервалов.
пар1,пар2 – параметры распределения.
Вычислить критические значения критерия χ r2 (1 − α) , для этого необходимо использовать функцию chi2inv(1-α,r), где α - уровень значимости, r - число степеней свободы."
Сравнивается значение критерия χ 2B и квантиль χ 2r (1 − α) . Если χ 2B < χ 2r (1 − α ) , то гипотеза о
виде распределения принимается с доверительной вероятностью 1 − α .
Практическое занятие № 13
Метод наименьших квадратов
Цель работы – провести линеаризацию заданной функции с использованием метода наименьших квадратов.
Порядок выполнения работы
1. Заданы экспериментально полученные точки, определяющие зависимость между переменными х и у по одной из пяти функций (гиперболическая, логарифмическая, показательная, степенная и комбинированная).
2. Необходимо реализовать линеаризацию зависимости, подобрать параметры а0 и аi по
методу наименьших квадратов и проверить правильность вычислений с помощью известной зависимости.
а0 = Му — а1Мх, где
где
Таким образом,
есть искомая линейная функция.
39
Практическое занятие № 14
Элементы корреляционного и регрессионного анализа данных
Цель работы - изучение метода корреляционно-регрессионного анализа с помощью
средств MATLAB.
Порядок выполнения работы
1. Используя ниже приведенную программу, сформировать массив случайных
величин X и Y
clear all
xl=unifrnd(-10,-2,1);
xr=unifrnd(2,10,1);
np=unidrnd(100)+200
x=[xl:(xr-xl)/np:xr]
n=1;
a=unifrnd(-3,3,1,n+1);
sigma=unifrnd(3,5);
y=polyval(a,x)+normrnd(0,sigma,size(x));
2. Вычислить выборочные числовые характеристики для случайных
величин X и Y :
- выборочное среднее
n
n
∑ xi
∑ yi
m*x = i =1
n
- выборочная дисперсия
m*y = i =1
n
* 2
(
−
y
m
∑ i y)
* 2
(
−
x
m
∑ i x)
n
n
D*x = i =1
D*y = i =1
n
n
3. Вычислить выборочный коэффициент корреляции по формуле
и с использованием стандартной функции Matlab – corrcoef.
4. Проверить гипотезу о значимости коэффициента корреляции с использованием tкритерия Стьюдента.
5. Построить корреляционное поле (диаграмму рассеивания). По расположению точек
сделать предположение о примерном виде регрессии.
по формулам
6. Вычислить параметры уравнения линейной регрессии
и с использованием функции polyfit, regress.
7. Построить зависимость y=f(x).
8. Проверить гипотезу о значимости коэффициента регрессии с использованием tкритерия Стьюдента. Для этого найти расчетное значение критерия
40
Критическое значение tкр определяется по таблице критических точек распределения
Стьюдента по заданному уровню значимости и числу степеней свободы. Если , то коэффициент регрессии статистически значим.
8. Проверить статистическую надежность уравнения регрессии с использованием критерия F-Фишера.
Расчетное значение F-критерия при использовании линейного уравнения регрессии находится по формуле
Критическое значение F-критерия определяется по таблице критических точек распределения Фишера при уровне значимости α=0,05 и числу степеней свободы k1=k=1 и k2=n-k1, k – число параметров при переменных X.
Если , то уравнение регрессии статистически значимое или надежное.
Практическое занятие № 15
Контрольная работа по теме "Корреляционно – регрессионный анализ"
Цель занятия: промежуточный контроль знаний студентов.
Ход занятия
Контрольная работа проводится по индивидуальным вариантам. Типовой вариант контрольной работы:
Для заданных случайных величин Х и Y
Y 13,8 13,8 14 22,5 24 28 32 20,9 22 21,5 32 35 24 37,9 27,5
X 33
40 36 60 55 80 95 70 48 53 95 75 63 112 70
необходимо выполнить следующее:
1. Построить график зависимости между переменными (точечную диаграмму), по которому подобрать модель уравнения регрессии.
2. Рассчитать параметры уравнения регрессии методом наименьших квадратов.
3. Оценить качество уравнения с помощью средней ошибки аппроксимации.
4. Оценить тесноту связи между переменными с помощью коэффициента корреляции.
5. Оценить значимость коэффициентов корреляции и регрессии по критерию tСтьюдента при уровне значимости α=0,05.
6.
Охарактеризовать статистическую надежность результатов регрессионного
анализа с использованием критерия Фишера при уровне значимости α=0,05.
Требования к отчету по практическим работам № 5-7, 12,14, выполняемым на компьютерах.
Отчет по практической работе должен быть оформлен в соответствии с требованиями
ГОСТ 2.105, ГОСТ 2.106, СТО ИрГТУ.005-2009 и содержать:
1. Цель работы.
2. Задание.
3. Расчетные формулы.
4. Листинг программы.
5. Результаты вычислений.
6. Выводы по работе.
6.5 Содержание самостоятельной работы
41
6.5.1 Общий перечень заданий для самостоятельной работы
Самостоятельная работа включает
- изучение отдельных разделов курса и написание конспекта;
- выполнение расчетных заданий;
- подготовку к практическим работам;
- обработку результатов практических работ, выполненных на компьютере и их
оформление;
- подготовка к контрольным работам;
- подготовку к экзамену.
6.5.2 Методические рекомендации по выполнения заданий самостоятельной работы.
Подготовка к практическим занятиям включает обновление в памяти материалов
лекций, содержащих теоретические сведения, и учебной литературы. При этом, как правило, достаточным оказывается прочитать только литературу по основному списку.
Обработка результатов практических работ, выполняемых в среде MatLab и их
оформление заключается в составлении отчета по практической работе, который должен
включать цель работы, задание, результаты выполнения работы, ответы на контрольные
вопросы.
Теоретические разделы для самостоятельной проработки: Предельные теоремы вероятностей.
Цель работы: изучить предельные теоремы теории вероятности, научиться использовать их при решении задач.
Задание: В работе должны быть рассмотрены следующие вопросы
1. Закон больших чисел: неравенство Чебышева, теорема Чебышева, теорема Маркова.
2. Следствия закона больших чисел: теорема Бернулли, теорема Пуассона.
3. Центральная предельная теорема.
4. Примеры решения задач на использование предельных теорем.
Форма выполнения работы: конспект, презентация. Конспект выполняет каждый студент
самостоятельно, презентация разрабатывается группой студентов (3-4 человека).
Расчетные задания выполняются в течение семестра по мере изучения соответствующих разделов курса.
Темы расчетных заданий:
1. Проверка статистической гипотезы о виде неизвестного распределения.
2. Определение корреляционной зависимости между случайными величинами.
В процессе обучения студенты выполняют три контрольные работы по темам курса.
Содержание контрольных работ соответствует содержанию материала, рассмотренного на практических занятиях.
Подготовка к экзамену включает проработку конспекта лекций и рекомендованной
литературы, а также ответы на контрольные вопросы для предварительной самостоятельной оценки своих знаний.
6.5.4. Содержание курсового проекта (курсовой работы)
Курсовой проект (курсовая работа) в программе данной дисциплины не предусмотрен.
42
6.5.5. Учебно-методическое обеспечение самостоятельной работы студентов
1.Гмурман В. Е. Теория вероятностей и математическая статистика: учеб.пособие. 12-е изд., перераб. - М.: Высшее образование. Юрайт-Издат. 2009. - 479 с. :ил.
7. Применяемые образовательные технологии
При реализации данной программы применяются образовательные технологии, описанные в табл. 2.
Таблица 2 - Применяемые образовательные технологии
Технологии
Лекции Лаб.р.
Слайд - материалы
Виртуальное моделирование
Работа в команде
Игра
Проблемное обучение
Проектный метод
Исследовательский метод
Тренинг
Дискуссии
Виды занятий
Практ./Сем. СРС
Куросовой проект
+
не
предусм.
+
+
курсовой проект
не предусмотрен
+
Применение метода указывать знаком +
8. Контрольно-измерительные материалы и оценочные средства для текущего
контроля успеваемости, промежуточной аттестации по итогам освоения дисциплины
8.1. Краткое описание контрольных мероприятий, применяемых контрольноизмерительных технологий и средств.
Целью текущего контроля знаний студентов является проверка и оценка усвоения
ими теоретического, практического материала и приобретенных знания, умений и навыков.
Текущий контроль обеспечивается:
- допуском к выполнению практических работ и защитой результатов выполнения;
- проверкой выполнения самостоятельной работы;
- контрольными работами;
- ежемесячной аттестацией студентов по результатам посещения лекционных занятий, выполнения и защиты практических работ.
Итоговый контроль заключается в проведении устного экзамена.
8.2. Описание критериев оценки уровня освоения учебной программы.
К экзамену допускаются студенты, выполнившие все индивидуальные задания и
защитившие практические работы, выполняемые на компьютерах в MatLab.
8.3. Контрольно измерительные материалы для итоговой аттестации по дисциплине
Экзаменационный билет содержит два теоретических вопроса и задачу.
Вопросы к экзамену
1. Случайные события
43
1. Случайные события и операции над ними.
2. Классическое определение вероятности. Свойства вероятности.
3. Относительная частота наступления события.
4. Статистическая и геометрическая вероятности.
5. События совместные и несовместные, зависимые и независимые. Условная вероятность.
6. Теоремы сложения и умножения вероятностей.
7. Полная группа событий. Формула полной вероятности.
8. Вероятность гипотез. Формулы Бейеса.
9. Последовательность независимых испытаний. Формулы Бернулли и Пуассона.
2. Случайные величины
1. Дискретные и непрерывные случайные величины.
2. Законы распределения случайных величин, способы задания.
3. Функция распределения случайной величины, ее свойства. График функции распределения.
4. Плотность распределения вероятностей непрерывной случайной величины, ее
свойства.
5. Числовые характеристики дискретных и непрерывных случайных величин.
6. Мода. Медиана. Моменты. Асимметрия и эксцесс. Квантили.
7. Основные распределения вероятностей: биномиальное, Пуассона, геометрическое, равномерное, показательное, нормальное.
8. Оценки отклонения теоретического распределения от нормального.
9. Распределения, связанные с нормальным.
10. Система двух случайных величин.
11. Функция распределения двумерной случайной величины, свойства.
12. Плотность совместного распределения вероятностей двумерной непрерывной случайной величины, свойства.
13. Условные законы распределения случайных величин.
14. Система произвольного числа случайных величин.
15. Числовые характеристики двух случайных величин: начальные и центральные моменты, корреляционный момент, коэффициент корреляции.
16. Предельные теоремы вероятностей. Закон больших чисел и центральная предельная теорема.
17. Следствия закона больших чисел. Предельные теоремы Муавра – Лапласа. Предельная теорема Пуассона.
3. Методы математической статистики
1. Элементы математической статистики. Вариационный ряд. Генеральная совокупность и выборка.
2. Способы отбора. Статистический ряд.
3. Эмпирическая функция распределения.
4. Эмпирическая функция плотности вероятности.
5. Числовые характеристики статистического распределения.
6. Статистические оценки параметров распределения. Несмещенные, эффективные и
состоятельные оценки.
44
7. Оценки для математического ожидания и дисперсии.
8. Точечные и интервальные оценки неизвестных параметров распределения.
9. Методы получения точечных оценок.
10. Доверительный интервал. Доверительная вероятность.
11. Доверительные интервалы для математического ожидания и дисперсии.
12. Основы проверки статистических гипотез.
13. Гипотезы: нулевая и альтернативная, простая и сложная.
14. Статистические критерии. Ошибки первого и второго рода.
15. Критическая область и область принятия гипотезы.
16. Выравнивание статистического ряда.
17. Критерий Колмогорова. Критерий Пирсона.
18. Основы корреляционного анализа.
19. Выборочный коэффициент корреляции, свойства.
20. Корреляционное отношение, основные свойства.
21. Проверка гипотезы о значимости выборочного коэффициента корреляции.
22. Задачи регрессионного анализа. Виды регрессии.
23. Оценка коэффициентов регрессии.
24. Значимость и адекватность регрессии.
4. Случайные процессы
1. Сечение и траектория случайного процесса.
2. Конечномерные распределения случайного процесса.
3. Осредненные характеристики случайного процесса.
4. Классификация случайных процессов: стационарные в узком и широком смыслах,
эргодические, марковские.
5. Спектральное разложение стационарного случайного процесса.
6. Спектральная плотность.
7. Процесс Пуассона. Цепи Маркова.
8. Марковские процессы с дискретными состояниями и непрерывным временем.
9. Системы массового обслуживания, расчет основных характеристик систем массового обслуживания.
9. Рекомендуемое информационное обеспечение дисциплины
9.1 Основная учебная литература
9.1.1 В.Е. Гмурман Теория вероятностей и математическая статистика: учеб.пособие.
- 12-е изд., перераб. - М.: Высшееобразование. Юрайт-Издат. 2009. - 479 с. :ил.
9.1.2 В.Е. Гмурман Руководство к решению задач по теории вероятностей и математическойстатистике : учеб.пособие для вузов / В. Е. Гмурман. - 12-е изд., перераб. -М.:
Высш. шк., 2006. - 476 с.: с-ил.
9.1.3 Б. Г. Володин Сборник задач по теории вероятностей, математической статистике и теории случайных функций : учеб. пособие. - Изд. 4-стер. - СПб. : Лань, 2008. 445 с.
9.2 Дополнительная учебная и справочная литература.
9.2.1 Д. Т. Письменный Конспект лекций по теории вероятностей, математической
статистике и случайным процессам. - М. : Айрис-пресс, 2006. - 287 с.
9.2.2 Хант, Б. Р. Matlab R2007 с нуля. / Б. Р. Хант, Р. Л. Липсмен, Д. М. Розенберг. –
М.: Лучшие книги, 2008. - 352 с.
45
9.3 Электронные образовательные ресурсы:
9.3.1 Ресурсы ИрГТУ, доступные в библиотеке университета и в локальной сети
университета:
http://library.istu.edu/hoe
http://www2.viniti.ru
9.3.2 Ресурсы сети Интернет
http://www.window.edu.ru
http://www.pilab.ru
http://www.edu.nstu.ru
http://www.eprussia.ru
http://www.twirpx.com
http://www.diagram.com.ua
10. Рекомендуемые специализированные программные средства
1. Интерактивная компьютерная система для выполнения инженерных и научных
расчетов MatLAB.
11. Материально-техническое обеспечение дисциплины
Компьютерный класс кафедры “Радиоэлектроники и телекоммуникационных систем”
Приложение к учебной программе – Учебно-тематический план
Учебная программа составлена в соответствии с Федеральным Государственным образовательным стандартом высшего профессионального образования (ФГОС) по направлению « Инфокоммуникационные технологии и системы связи»
46
47
48
РАСПРЕДЕЛЕНИЕ
СОДЕРЖАНИЯ ДИСЦИПЛИН ПО ВИДАМ ЗАНЯТИЙ
№
пп
1. ЛЕКЦИИ
Разделы и темы дисциплины по учебной программе
Кол-во
часов
Семестр 4
1
2
3
4
Случайные события
Случайные величины
Математическая статистика
Случайные процессы
Всего
8
12
12
4
36
2. ПРАКТИЧЕСКИЕ ЗАНЯТИЯ
№
пп
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
Название работы
Семестр 4
Использование теорем сложения и умножения вероятностей
при решении задач.
Использование формул полной вероятности, Бейеса, Бернулли
при решении задач.
Контрольная работа по теме "Случайные события".
Дискретные и непрерывные одномерные случайные величины.
Числовые характеристики.
Определение числовых характеристик одномерной случайной
величины с использованием Statistics Toolbox.
Законы распределения одномерных дискретных случайных величин.
Законы распределения одномерных непрерывных случайных
величин.
Контрольная работа по теме "Числовые характеристики случайных величин".
Система двух случайных величин. Числовые характеристики.
Точечная оценка числовых характеристик.
Интервальные оценки числовых характеристик.
Проверка статистической гипотезы о законе распределения
случайной величины с использованием средств Statistics Toolbox.
Метод наименьших квадратов.
Элементы корреляционного и регрессионного анализа данных
Контрольная работа по теме "Корреляционно – регрессионный анализ".
49
Кол-во
часов
2
2
2
2
4
2
2
2
2
2
2
4
2
4
2
50