close

Вход

Забыли?

вход по аккаунту

...лекций по высшей математике, теории вероятности

код для вставкиСкачать
«СМОЛЕНСКАЯ ГОСУДАРСТВЕННАЯ МЕДИЦИНСКАЯ АКАДЕМИЯ»
КАФЕДРА МЕДИЦИНСКОЙ И БИОЛОГИЧЕСКОЙ ФИЗИКИ
ДМИТРИЕВА Е.В.
КРАТКИЙ КУРС ЛЕКЦИЙ ПО ВЫСШЕЙ
МАТЕМАТИКЕ, ТЕОРИИ ВЕРОЯТНОСТИ И
СТАТИСТИКЕ
(часть 2)
Учебное пособие для студентов
фармацевтического факультета
Смоленск
2010
1
УДК 51
В данном учебном пособии изложен необходимый теоретический
материал с подробными методическими указаниями по высшей
математике, теории вероятности и статистике в соответствие с курсом
лекций по данной дисциплине для фармацевтического факультета.
Пособие рассчитано на помощь в самостоятельной работе студентов
и способствует более глубокому усвоению курса. Во всех разделах кратко
излагаются основные теоретические сведения (определения, теоремы,
формулы), необходимые для решения последующих задач.
Пособие охватывает полный объем информации по данным темам
для студентов фармацевтического факультета СГМА.
Составитель: старший преподаватель кафедры медицинской и
биологической физики Дмитриева Е.В.
Рецензенты:
д.б.н., профессор, заведующий кафедры медицинской и
биологической физики ГОУВПО СГМА С.К. Кириллов;
к.т.н., доцент кафедры пищевой инженерии филиала ГОУВПО
«МЭИ (ТУ)» в г. Смоленске Ю.В. Синявский.
2
1.ОСНОВЫ ТЕОРИИ ВЕРОЯТНОСТИ.
1.1.События. Равенство событий. Сумма и произведение событий.
Противоположные события.
Событием называется результат некоторого опыта.
Событие называется случайным, если в данном опыте оно может
наступить, но может и не наступить.
Случайные события обозначаем А, В, С,…
Событие называется достоверным, если в данном опыте оно
обязательно наступит. Достоверное событие обозначаем
U. Событие
называется невозможным, если в данном опыте оно наступить не может.
Невозможное событие обозначаем V.
Событие А называется частным случаем события В, если при
наступлении А наступает и В. То, что А является частным случаем В,
записываем А В.
События А и В называются равными, если каждое из них является
частным случаем другого. Равенство событий А и В записываем А = В.
Суммой событий А и В называется третье событие А + В, которое
наступает тогда и только тогда, когда наступает хотя бы одно из событий: А
или В.
Произведением событий А и В называется третье событие АВ, которое
наступает тогда и только тогда, когда наступают оба события: А и В.
Понятия суммы и произведения двух событий очевидным образом
переносятся на случай любого множества событий.
Событием, противоположным событию А, называется событие A ,
которое наступает тогда и только тогда, когда не наступает событие А.
Условившись обозначать наступление события цифрой «1» и
ненаступление – цифрой «0», сумму и произведение двух событий, а также
противоположное событие можно определить следующими таблицами:
А
В
А+В
АВ
А
A
1
1
1
1
1
0
1
0
1
0
0
1
0
1
1
0
0
0
0
0
3
Пример 1. Опыт состоит в бросании игральной кости. Событие Аi, (i = 1,
2, 3, 4, 5, 6) – выпадение i очков; событие А – выпадение четного числа очков,
В – выпадение нечетного числа очков, С – выпадение числа очков, кратного
трем, и D – выпадение числа очков, большего трех. Выразите события А, В, С
и D через Аi, (i = 1, 2, 3, 4, 5, 6).
Решение. Событие А наступает тогда и только тогда, когда наступает А2,
или А4, или А6. Это означает, что А = А2 + А4 + А6.
Рассуждая аналогично, имеем:
В = А1 + А3 + А5, С = А3 + А6 и D = А4 + А5 + А6.
Пример 2. С помощью таблиц, определяющих А + В, АВ и A , доказать
равенство А + В = А + A В .
Решение. Составим таблицы, дающие все случаи наступления и
ненаступления левой и правой частей доказываемого равенства:
А
В
А+
В
А
В
A
В
AВ
А+ A В
В
1
1
0
1
1
1
0
0
0
1
1
0
1
1
1
0
0
1
0
1
0
1
0
0
0
1
1
0
0
0
0
0
1
1
0
0
1
1
1
1
Последние столбцы этих таблиц одинаковы, что и означает
справедливость равенства А + В = А + A В .
Пример 3. С помощью таблицы перечислите все случаи наступления и
ненаступления события А В + С в зависимости от наступления и
ненаступления событий А, В и С.
Решение. Составим таблицу:
А
В
С
В
АВ
АВ+ С
1
1
1
0
0
1
1
1
0
0
0
0
1
0
1
1
1
1
0
1
1
0
0
1
1
0
0
1
1
1
0
1
0
0
0
0
0
0
1
1
0
1
0
0
0
1
0
0
4
А В
Рис.1
С
Пример 4. Пусть А, В и С – события, означающие
попадание точки соответственно в области А, В и С
(рис.1). Что означает событие АВ + С?
Решение. События АВ + С означает попадание
точки в область (А  В)  С, которая на рисунке 2
заштрихована.
Рис.2
1.2. Частота случайного события и «статистическое определение»
вероятности
Пусть А – случайное событие по отношению к некоторому испытанию.
Представим себе, что это испытание произведено N раз и при этом событие
А наступило в NA случаях. Тогда отношение
NA
N
называется частотой события А в данной серии испытаний.

Определение. Вероятностью случайного события А называется
число р(А), около которого колеблется частота этого события в длинных
сериях испытаний.
Пример 1. Наблюдения показывают, что в среднем среди 1000
новорожденных детей 515 мальчиков. Частота рождения мальчика в такой
серии наблюдений равна 0,515.
Пример 2. Французский естествоиспытатель Бюффон (XVIII в.) бросил
монету 4040 раз, и при этом герб выпал в 2048 случаях. Следовательно,
частота выпадения герба в данной серии испытаний равна:
2048
 0,50693...
4040
Пример 3. Английский математик Карл Пирсон (1857-1936) бросал
монету 24000 раз, причем герб выпал 12012 раз. Следовательно, частота
выпадения герба в данной серии испытаний равна:

5

12012
 0,5005.
24000
Примеры 2 и 3 подтверждают естественное предположение о том, что
вероятность выпадения герба при одном бросании монеты равна 0,5.
1.3. Аксиомы теории вероятностей
При аксиоматическом подходе к изложению теории вероятностей за
основу берется некоторое множество , элементы  которого называются
элементарными событиями, а само  - пространством элементарных
событий.
Зафиксируем некоторую непустую систему S, состоящую из
подмножества А, В, … пространства элементарных событий. Подмножества
А, В,… назовем событиями.
Относительно структуры системы S предположим выполненными
следующие две аксиомы событий:
I.
Если множества А1, А2, … ( в конечном или счетном числе)
являются событиями, то их объединение А1  А2 … тоже
является событием.
Если множество А является событием, то его дополнение  \
А до множества  тоже является событием.
Система S, удовлетворяющая аксиомам I и II, называется борелевским
полем событий.
II.
Из аксиом I и II вытекает, что  S,  S и если Ai S (i = 1, 2, …),
то А1  А2  .. S.
В дальнейшем операцию объединения событий будем называть
сложением и обозначать знаком «+», операцию пересечения – умножением и
обозначать знаком «-» , а операцию дополнения – переходом к
противоположному событию и выделять чертой сверху (например, А ). Кроме
того, событие  назовем достоверным и обозначим U,  - невозможным и
обозначим V.
В новых обозначениях аксиомы I и II запишутся:
I. А1, А2,…  S  А1 + А2 + …  S.
II. А  S  А  S .
1.
События А и В назовем несовместными, если АВ = V (т.е. АВ = ).
Аксиомы вероятностей:
Каждому событию А поставлено в соответствие неотрицательное
число р(А), называемое вероятностью события А.
6
Если события А1, А2, … попарно несовместны, то р(А1 + А2 + …) =
р(А1) + р(А2) + … (аксиома счетной аддитивности)
3. p(U) = 1.
Совокупность трех объектов < , S, p(A) >, в которой S удовлетворяет
аксиомам I и II, а функция р(А) – аксиомам 1, 2, 3, назовем
вероятностной схемой.
2.
1.4. Комбинаторика и бином Ньютона
Правило произведения.
Пусть элемент х1 строки (х1, х2, …, хk) можно выбрать n1 способами;
 после каждого выбора х1 элемент х2 можно выбрать n2 способами;
 после выборов х1 и х2 элемент х3 можно выбрать n3 способами и
т.д.;
 после выборов
способами.
х1, х2, …, хk-1 элемент хk можно выбрать nk
 Тогда строку (х1, х2, …, хk) можно образовать n1  n2  …  nk
способами.
Пример 1. Сколькими способами можно выбрать четырехзначное число,
все цифры которого различны?
Решение. Каждому четырехзначному числу можно
поставить во
взаимно однозначное соответствие строку (х1, х2, х3, х4), где х1, х2, х3, х4 –
соответственно 1, 2, 3 и 4-я цифры.
 Элемент х1 этой строки можно выбрать 9 способами (любую из
цифр 1, 2, 3, 4, 5, 6, 7, 8, 9);
 элемент х2 можно выбрать также 9 способами (теперь можно
использовать и цифру 0, но первую выбранную цифру повторить
нельзя);
 элемент х3 можно выбрать 8 способами (уже выбранные первые
две цифры повторить нельзя); наконец, элемент х4 можно выбрать
7 способами.
Согласно правилу произведения искомое число способов выбора
четырехзначного числа с различными цифрами равно:
9  9  8  7 = 4536.
Размещения с повторениями.
Пусть Х – множество, состоящее из n элементов (n-членное множество).
Тогда любая строка длиной k, составленная из элементов множества Х,
называется размещением с повторениями из n элементов по k.
7
Число всех размещений с повторениями из n элементов по k равно nk.
Пример 2. Сколькими способами можно выбрать четырехзначное число,
в десятичной записи которого нет нуля?
Решение. Четырехзначные числа указанного вида можно рассматривать
как строки длиной 4, составленные из элементов множества
Х = {1, 2, 3, 4, 5, 6, 7, 8, 9},
т.е. как размещения с повторениями из 9 элементов по 4. Следовательно,
искомое число способов равно: 94 = 6561.
Размещения без повторений. Перестановки.
Пусть Х по-прежнему n-членное множество. Тогда любая строка
длиной k, составленная из различных элементов множества Х, называется
размещением без повторений из n элементов по k. Число всех таких
размещений обозначается Ank и равно:
Ank  n( n  1 )...( n  k  1 ) 
n!
.
( n  k )!
В случае, когда k = n, размещения без повторений называются
перестановками из n элементов. Число всех перестановок из n элементов
обозначается Pn и равно:
Pn =
Ann =
n!.
Пример 3. 10 спортсменов разыгрывают одну золотую, одну
серебряную и одну бронзовую медали. Сколькими способами эти медали
могут быть распределены между спортсменами?
Решение. Предположим, что спортсмены пронумерованы числами от 1
до 10 и х1, х2, х3 – номера спортсменов, получивших золотую, серебряную и
бронзовую медали.
Каждому такому распределению медалей соответствует строка (х1, х2, х3
), состоящая из различных чисел (номеров спортсменов). Обратно каждой
строке (х1, х2, х3) соответствует способ распределения медалей.
Следовательно, число способов распределения медалей равно числу
размещений без повторений из 10 элементов по 3, т.е.
3
А10
 10  9  8  720.
Сочетания и бином Ньютона.
Всякое k-членное подмножество
сочетанием из n элементов по k.
n-членного множества называется
Число различных сочетаний из n элементов по k обозначается
Справедлива формула
8
Cnk .
C nk 
n!
.
k ! ( n  k )!
Числа
C n0 , C 1n , C n2 ,…, C nn1 , C nn являются коэффициентами в
разложении бинома Ньютона:
(a + b)n = C n0 a0 bn + Cn1 a bn-1 + … + C nn an b0.
Пример 4. Сколькими способами из 10 спортсменов можно отобрать
команду из 6 человек?
Решение. Очевидно, команда из 6 человек является 6-членным
подмножеством 10-членного множества, т.е. сочетанием из 10 элементов по
6. Следовательно, искомое число способов равно
6
С10
 210.
1.5. Классический способ подсчета вероятностей
Пусть  - конечное пространство элементарных событий А1, А2, …, Аn.
В качестве борелевского поля событий рассмотрим систему S всех
подмножеств множества .
Ясно, что при этом аксиомы I и II выполняются. При классическом
способе подсчета вероятностей все элементарные события считаются
равновероятными. И так как
1
р(А1 + А2 +… + Аn) = р(U) = 1, то р(А1) = р(А2) = … = р(Аn) = .
n
Если теперь А – произвольное событие и А = Ai1 + …+ Aim, то согласно
аксиоме 2 имеем
m
р(А) = .
n
События А1, А2, …, Аn принято называть элементарными исходами
данного испытания, а те элементарные исходы, которые в сумме составляют
событие А, называются благоприятными случаями для А.
Количество благоприятных случаев для события А обозначим m(A).
Таким образом, р(А) =
m( А )
, т.е. вероятность события А равна отношению
n
числа благоприятных случаев для А к общему числу элементарных исходов
испытания.
9
Пример 1. В урне 10 шаров, из которых 3 белых и 7 черных. Какова
вероятность того, что наудачу извлеченный шар из этой урны окажется
белым?
Решение. Пусть событие А – извлеченный шар оказывается белым.
Данное испытание имеет 10 равновероятных исходов, из которых для
события А благоприятны три. Следовательно, р(А) =
3
.
10
Пример 2. Все натуральные числа от 1 до 20 записаны на одинаковых
карточках и помещены в урну. После тщательного перемешивания карточек
из урны наудачу взята одна карточка. Какова вероятность того, что число на
взятой карточке окажется кратным 5 – событие А; кратным 3 – событие В;
простым – событие С; составным – событие D; не простым и не составным –
событие Е?
Решение. Испытание имеет 20 равновероятных исходов.
Из них m(A) = 4; m(B) = 6; m(C) = 8; m(D) = 11; m(E) = 1.
Соответственно событиям получим следующие вероятности:
p(A) = 0,2; p(B) = 0,3; p(C) = 0,4; p(D) = 0,55; p(E) = 0,05.
1.6. Правила сложения и умножения вероятностей
Во многих задачах сложные события, вероятности которых надо найти,
удается выразить в виде комбинации других, более простых событий, причем
вероятности последних либо заданы, либо непосредственно подсчитываются.
В таком случае для решения задач можно использовать формулы,
выражающие вероятности суммы и произведения событий через вероятности
соответствующих слагаемых и сомножителей.
Правила сложения и умножения вероятностей:
если события А1, А2,…,Аn,… попарно несовместны, то справедливо
равенство
р(А1+ А2,+…+ Аn +…) = р(А1) + р(А2) +…+ р(Аn)+...
(1)
Из правила сложения вероятностей для двух событий вытекает правило
нахождения вероятности противоположного события:
p( A )  1  p( A ) .
(2)
Для произвольных событий А и В имеет место формула
р(А + В) = р(А) + р(В) – р(АВ).
(3)
Вероятность р(В/А) события В при условии наступления события А по
определению равна:
10
p( B / A ) 
p( AB )
.
p( A )
(4)
Из этого определения следует формула для вычисления вероятности
произведения двух событий:
р(АВ) = р(А) р(В/А).
(5)
Для вычисления вероятности произведения n событий (n>2) служит
общая формула:
р(А1 А2… Аn) = р(А1) р(А2 / A1) p(A3 / A1A2)+…+ р(Аn /A1A2…An-1)
(6)
События А1, А2,… Аn называются независимыми в совокупности, если
вероятность любого из них не меняется при наступлении какого угодно числа
событий из остальных.
Правило умножения вероятностей для n событий: если события А1,
А2,… Аn независимы, то вероятность их произведения равна произведению
их вероятностей, т.е.
р(А1 А2… Аn) = р(А1) р(А2) … р(Аn).
(7)
Вычисление вероятности суммы событий можно свести к вычислению
вероятности произведения противоположных событий по формуле
р(А1 +А2 +…+ Аn) = 1 - р ( A1 A2 ...An ).
(8)
В частности, если события А1 ,А2,…, Аn независимы, то
р(А1 +А2 +…+ Аn) = 1 - р ( A1 ) p( A2 )... p( An ) = 1 – (1 – р(А1))(1 – р(А2))…
…(1 – р(Аn)).
(9)
Пример 1. Вероятность попадания в мишень для первого стрелка 0,8, а
для второго – 0,6. Стрелки независимо друг от друга сделалают по одному
выстрелу. Какова вероятность того, что в мишень попадет хотя бы один из
стрелков?
Решение. Введем обозначения: событие А – попадание первого стрелка,
событие В – попадание второго стрелка, событие С – попадание хотя бы
одного из стрелков. Тогда, очевидно С = А + В, причем события А и В
совместны. Следовательно, по формуле (3)
р(С) = р(А) + р)В) – р(АВ).
Так как события А и В независимы, то
р(С) = р(А) + р)В) – р(А) р(В).
Наконец, учитывая, что р(А) = 0,8, р(В) = 0,6, получаем:
р(С) = 0,8 + 0,6 – 0,8 · 0,6 = 0,92.
11
Пример 2. Монета брошена три раза. Найдите вероятность того, что
герб выпадет ровно два раза.
Решение. Введем обозначения: Аi – выпадение герба при i-м бросании
монеты (i = 1, 2, 3), А – выпадение 2 гербов при 3 бросаниях монеты. Тогда А
= А1А2 A3 + А1 A2 А3 + A1 А2А3. Так как слагаемые правой части этого
равенства попарно несовместны, то по правилу сложения вероятностей
имеем:
р(А) =р(А1А2 A3 ) + р(А1 A2 А3 ) + р( A1 А2А3).
Наконец, учитывая независимость событий А1, А2, А3, по правилу
умножения вероятностей получаем:
р(А) =р(А1 ) р(А2 ) р( A3 ) + р(А1 ) р( A2 ) р(А3 ) + р( A1 ) р(А2 ) р(А3)=
1 1 1 1 1 1 1 1 1 3
=          .
2 2 2 2 2 2 2 2 2 8
Пример 3. В команде из 12 спортсменов 5 мастеров спорта. По
жеребьевке из команды выбирают 3 спортсменов. Какова вероятность того,
что все выбранные спортсмены являются мастерами спорта?
Решение. Укажем 2 способа решения, из которых первый состоит в
непосредственном подсчете искомой вероятности по классической схеме, а
второй – в применении формулы (7).
Первый способ. Представим себе урну, в которой 5 красных и 7 белых
шаров. Красные шары соответствуют мастерам спорта, а белые – остальным
спортсменам. Из этой урны наудачу извлекаются 3 шара, и пусть событие А
состоит в появлении 3 красных шаров. Тогда искомая вероятность равна:
C 53
1
p( A )  3 
.
C 12 22
Второй способ. Из урны последовательно без возвращения извлекаются
3 шара. Введем обозначения: А1 – первый шар красный, А2 – второй
красный, А3 – третий красный и А – все 3 шара красные. Тогда А = А1А2А3 и
по формуле (7) при n = 3 имеем:
р(А) = р(А1) р(А2/A1) p(A3/A1A2) =
5 4 3
1
  
.
12 11 10 22
Пример 4. 3 стрелка попадают в мишень соответственно с
вероятностями 0,9; 0,8; 0,7. Какова вероятность того, что при одном выстреле
хотя бы один из них попадет в мишень (событие D)?
Пусть событие А, В, С – соответственно попадание в мишень 1, 2, и 3-го
стрелка. Тогда D= А + В + С. Однако лучше представить D как событие,
противоположное ABC (ни одного попадания): D = ABC . По формуле (9)
тогда имеем: p(D) = 1 – p( A ) p( B ) p( C ) = 1 – 0,1 · 0,2 · 0,3 = 0,994.
12
1.7. Формула полной вероятности и формула Байеса.
Пусть событие А может наступить только с одним из n попарно
несовместных событий Н1, Н2, …, Нn, которые по отношению к А
называются гипотезами. Тогда вероятность события А можно вычислить по
формуле полной вероятности:
n
p( A )   p( H i ) p( A / H i ) .
i 1
Если стало известно, что событие А произошло, то вероятность
р(Hi) (i = 1,2,…,n) можно переоценить, т.е. найти условные вероятности
p(Hi / A).
Эта задача решается по формуле Байеса:
p( H i / A ) 
p( H i ) p( A / H i )
,
p( A )
(10)
где р(А) вычисляется по формуле полной вероятности.
Пример. В первой урне 2 белых и 6 черных шаров, во второй – 4 белых
и 2 черных. Из первой урны наудачу переложили 2 шара во вторую, после
чего из второй урны наудачу достали один шар.
а) Какова вероятность того, что этот шар белый?
б) Шар, взятый из второй урны, оказался белым. Какова вероятность
того, что из первой урны во вторую были переложены 2 белых шара?
Решение. а) Введем обозначения: А – шар, извлеченный из второй урны,
белый; гипотезы Н1 – из первой урны во вторую переложены 2 белых шара,
Н2 – переложены 2 разноцветных шара, Н3 – переложены 2 черных шара.
Тогда
р(А) = р(Нi) p(A/Hi) + p(H2) p(A/H2) + p(H3) p (A/H3).
Вероятности гипотез Нi и условие вероятности p(A/ Нi ) (i = 1, 2, 3)
вычисляем по классической схеме:
C 22 1
C 21  C 61 12
C 62 15
p( H 1 )  2 

, p( H 2 ) 
, p( H 3 )  2 
;
C 8 28
C 82
28
C 8 28
p( A / H 1 ) 
3
5
, p( A / H 2 )  ,
4
8
p( A / H 3 ) 
1
.
2
Полученные результаты подставим в формулу (1):
1 3 12 5 15 1 9
      .
28 4 28 8 28 2 16
б) Вероятность р(Н1/А) находим по формуле Байеса:
p( A) 
13
p( H 1 / A 
p( H 1 ) p A / H 1  1

.
p( A )
21
1.8. Формула Бернулли и ее обобщение.
Опыты 1, 2,… называются независимыми, если любая комбинация их
исходов является совокупностью независимых событий.
В вероятностной схеме Бернулли рассматривается последовательность n
независимых опытов 1, 2,…, n, в каждом из которых некоторое событие
А может наступить с одной и той же вероятностью р = р(А).
Условно это событие рассматривается как успех, а его ненаступление
(событие A ) – как неудача.
Вероятность неудачи в каждом опыте равна: q = 1 – p .
Пусть для заданного целого числа k (0  k  n) Pn(k) обозначает
вероятность того, что в n опытах успех наступит ровно k раз.
Имеет место формула Бернулли:
Pn(k) = C nk pk qn-k.
(1)
Вероятности Pn(k) (k = 0,1,…,n) называются биномиальными в силу того,
что правая часть формулы (1) представляет собой общий член разложения
бинома Ньютона:
n
( q  p )   C nk p k q n k .
n
(2)
k 0
Так как p+q=1, то из формулы (2) следует, что сумма всех биномиальных
вероятностей равна 1:
n
P
k 0
n
( k )  1.
Пример 1. Вероятность попадания в мишень при одном выстреле для
данного стрелка равна 0,8 и не зависит от номера выстрела. Требуется найти
вероятность того, что при 5 выстрелах произойдет ровно 2 попадания в
мишень.
Решение. В этом примере n = 5, р = 0,8 и k = 2; по формуле Бернулли
находим: p5  C5 0 ,8 0 ,2  0 ,0512 .
Пример 2. 2 равносильных шахматиста играют ряд партий, причем ничьи
в счет не идут. Что более вероятно в счете: ( 1 : 1), ил (2 : 2), или (3 : 3) и т.д.?
Решение. Найдем по формуле Бернулли вероятность того, что в 2n
результативных партиях один из шахматистов выиграет n партий, т.е. счет
2
2
3
будет n : n. Принимая во внимание, что p = q =
14
1
, имеем:
2
n
n
( 2n )!
1 1
P2 n  C     
2
2n .
 2   2  ( n! ) 2
n
2n
Преобразуем полученное выражение с целью найти связь между P2n(n) и
P2n+2(n+1):
( 2n )! ( 2n  1 ) ( 2n  2 ) ( n  1 )2  2 2
2n  2
P2 n ( n ) 

P2 n 2 ( n  1 ) 
( n! )2 ( 2n  1 ) ( 2n  2 ) ( n  1 )2  2 2 n 2 2n  1
1 

 1 
 P2 n 2 ( n  1 )
 2n  1 
Из полученного соотношения
1 

P2 n ( n )   1 
 P2 n  2 ( n  1 )
 2n  1 
(3)
видно, что счет (n : n) более вероятен, чем (n + 1 : n + 1). Расчеты по
формуле Бернулли показывают, что последовательности событий (1 : 1),
(2 : 2), (3 : 3), (4 : 4), … соответствует последовательности вероятностей
64
48
40 35
,
,
,
, …. .
128 128 128 128
То число успехов k0, которому при заданном n соответствует
максимальная биномиальная вероятность Pn(k0), называется наиболее
вероятным числом успехов.
Для нахождения наиболее вероятного числа успехов k0 по заданным n и
р можно воспользоваться неравенствами
np – q  k0  np + p
(4)
или правилом: если число np + p не целое, то k0 равно целой части этого
числа (k0 = [np + p]); если же np + p целое, то k0 имеет два значения
k'0  np  q и р.
Пример 3. Найдите наиболее вероятное число попаданий в мишень при
5 выстрелах, используя условие примера 1, и соответствующую этому числу
вероятность.
Решение. Так как np + p = 5  0,8 = 4,8 не целое, то k0 = [4,8] = 4;
вероятность Р5(4) находим по формуле Бернулли:
P5 (4) C54 0,8 4  0,2  0,4096.
Пример 4. Найдите наиболее вероятное число выпаданий герба при 25
15
бросаниях монеты.
Решение. В этом примере n = 25, p = 0,5. Число np + p = 25 0,5+0,5=13 –
целое, поэтому k 0 12 и k 0 13 .
Пусть Рn (k1  k  k2) – вероятность того, что в n опытах схемы Бернулли
успех наступит от k1 до k2 раз (0  k1  k  n ). Тогда имеет место формула
'
"
k2
Рn (k1  k  k2) =  Pn (k ) 
k  k1
k2
C
k  k1
k
n
p k q nk ;
(5)
вероятность Рn (1  k  n) того, что в n опытах успех наступит хотя бы
один раз, равна:
Рn (1  k  n)= 1 – qn.
(6)
Пример 5. Монета брошена 10 раз. Найдите вероятность того, что герб
выпадет: а) от 4 до 6 раз; б) хотя бы один раз.
Решение. А) По формуле (5) при n = 10, k1 = 4, k2 = 6, p = q = 0,5
получим:
210 252
210 21
.



1024 1024 1024 32
10
1
1023
б) По формуле (6) Р10 (1  k  10) = 1    
.
1024
2
Р10 (4  k  6) = Р10 (4) + Р10 (5) + Р10 (6) =
Пусть производится n независимых опытов, каждый из которых имеет
m (m  2) попарно несовместных и единственно возможных исходов
А1, А2,…, Аm с вероятностями р1= р(А),…,рm = (Am), одинаковыми во всех
опытах (имеется в виду, что р1+р2+…+ рm=1).
Для произвольных целых неотрицательных чисел k1, k2,…,km (k1+
k2+…+km = n) обозначим через Pn (k1, k2,…,km) вероятность того, что в n
опытах исход А1 наступит k1 раз, исход А2 - k2 раз и т.д., исход Am - km раз.
Тогда справедлива формула
Pn (k1, k2,…,km) =
n!
k k
km
p1 1 p2 2 ... pm
,
k1 ! k 2 !...k m !
(7)
которая является обобщением формулы Бернулли на случай, когда
каждый из независимых опытов 1, 2,…, n имеет m исходов (m  2).
Вероятности Pn (k1, k2,…,km), соответствующие всевозможным наборам
целых неотрицательных чисел k1, k2,…,km с условием k1+ k2+…+km = n
назовем полиномиальными, ввиду того что выражение, стоящее в правой
части формулы (8), представляет собой общий член разложения (р1+р2+…+
рm)n по полиномиальной формуле.
Пример 6. Мишень состоит из 3 попарно непересекающихся зон. При
одном выстреле по мишени вероятность попадания в первую зону для
данного стрелка равна 0,5. Для второй и третьей зон эта вероятность равна
соответственно 0,3 и 0,2. Стрелок произвел 6 выстрелов по мишени. Найдите
вероятность того, что при этом окажется 3 попадания в первую зону, 2
16
попадания во вторую и одно попадание в третью зону.
Решение. В этом примере n = 6, k1 = 3, k2 = 2, k3 = 1, p1 = 0,5, p2 = 0,3 и p3 =
0,2. Подставляя эти данные в формулу (8), получаем искомую вероятность:
P6 (3, 2,1) 
6!
0,53  0,3 2 0,2  0,135.
3! 2! 1!
1.9. Приближенные формулы Лапласа и Пуассона.
Локальная приближенная формула Лапласа. При больших n имеет
место приближенное равенство
1
Pn ( k ) 
( x ) ,
(1)
npq
k  np
1

x2
2
e .
, ( x ) 
2
npq
(Таблицу значений функции (х) см. в приложении).
где
x
Интегральная приближенная формула Лапласа. При больших
имеет место приближенное равенство
Pn ( k1  k  k 2 )  Ф( х 2 )  Ф( х1 ) ,
n
(2)
где
x1 
k1  np
npq
,
x2 
k 2  np
npq
,
Ф( x ) 
1
2
x
e

t2
2
dt .
0
Функция Ф(х) называется функцией Лапласа (таблицу ее значений см. в
приложении). При нахождении значений функции (х) и Ф(х) для
отрицательных значений аргументов следует иметь в виду, что (х) четная, а
Ф(х) – нечетная.
Отметим еще, что приближенными формулами Лапласа (1) и (2) на
практике пользуются в случае, если npq  10. Если же npq < 10, то эти
формулы приводят к довольно большим погрешностям.
Приближенная формула Пуассона. При больших
справедлива формула
Pn ( k ) 
k
k!
(Для функции
e   , где  = np.
Pk (  ) 
k
k!
n
и малых
р
(3)
e   таблицу значений см. в приложении).
17
Пример 1. Вероятность наступления события А в каждом из 900
независимых испытаний равна р = 0,8. Найдите вероятность того, что
событие А произойдет: а) 750 раз; б) 710 раз; в) от 710 до 740 раз.
Решение: Так как npq = 900  0,8  0,2 = 14,4 > 10, то в пунктах а) и б)
воспользуемся формулой (1), а в пункте в) – формулой (2).
750  900  0,8
а) x 
900  0,8  0,2
Р900 (750) 
б) x 
 2,5 ;
1
1
 (2,5)   0,0175 0,00146;
12
12
750  720
  0,83 ;
12
Р900 (710) 
в) x1 
(2,5)  0,0175;
 (- 0,83) =  (0,83)  0,2827;
1
 0,2827 0,0236 ;
12
710  720
740  720
  0,83 ; x2 
1,67 ;
12
12
Ф(-0,83) = - Ф(0,83)  - 0,2967; Ф(1,67)  0,4527;
Р900 (710  k  740)  0,4525 + 0,2967 = 0,7492.
Пример 2. Вероятность того, что электролампочка, изготовленная данным
заводом, является бракованной, равна 0,02. Для контроля отобрано наудачу
1000 лампочек. Оцените вероятность того, что частота бракованных
лампочек в выборке отличается от вероятности 0,02 менее чем на 0,01.
Решение. Пусть k – число бракованных лампочек в выборке. Нам нужно
оценить вероятность выполнения неравенства
k
 0,02  0,01 .
1000
Оно равносильно неравенству 11  k  29. Следовательно
 k

P 
 0,02  0,01  P1000 (11 k  29) .
 1000

Так как npq = 1000  0,02  0,98 = 19,6 > 10, то для вычисления вероятности
Р1000 (11  k  29) воспользуемся интегральной приближенной формулой
Лапласа.
В данном случае
x1 
11  1000 0,02
1000  0,02  0,98
  2,03 ; x2 
29  20
9

 2,03 ;
4,43
4,43
Ф( - 2,03)  - 0, 4788; Ф(2,03)  0,4788.
Следовательно, по формуле (2) имеем:
Р1000 (11  k  29)  0,4788 + 0,4788 = 0,9576.
Пример 3. Телефонная станция обслуживает 400 абонентов. Для каждого
абонента вероятность того, что в течение часа он позвонит на станцию равна
18
0,01. Найдите вероятности следующих событий: а) в течение часа 5
абонентов позвонят на станцию; б) в течение часа не более 4 абонентов
позвонят на станцию; в) в течение часа не менее 3 абонентов позвонят на
станцию.
Решение. Так как р = 0,01 мало и n = 400 велико, то будем пользоваться
приближенной формулой Пуассона при  = 400  0,01 = 4.
а) Р400 (5) 
4 2 4
е  0,156293; (см. таблицу 4 приложения).
5!
б) Р400 (0  k  4)  0,018316 + 0,073263 + 0,146525 + 0,195367 + 0,195367 =
=0,628838;
в) Р400 (3  k  400) = 1 - Р400 (0  k  4) = 1 – 0,018316 – 0,073263 –
0,146525 = = 0,761896.
1.10. Дискретная случайная величина и закон ее распределения.
Реальное содержание понятия «случайная величина» может быть
выражено с помощью такого определения: случайной величиной, связанной с
данным опытом, называется величина, которая при каждом осуществлении
этого опыта принимает то или иное числовое значение, причем заранее
неизвестно, какое именно. Случайные величины будем обозначать жирными
буквами х, у,….
Определение. Говорят, что задана дискретная случайная величина х,
если указано конечное или счетное множество чисел х1, х2… и каждому из
этих чисел xi поставлено в соответствие некоторое положительное число pi,
причем
р1 + р2 + …= 1.
Числа
х1, х2… называются возможными значениями случайной
величины х, а числа р1 , р2 ,… вероятностями этих значений (pi = Р(х = xi)).
xi
pi
x1
p1
x2
p2
…
…
Таблица называется законом распределения дискретной случайной
величины х.
Для наглядности закон распределения дискретной случайной величины
изображают графически, для чего в прямоугольной системе координат строят
точки (xi, pi) и соединяют последовательно отрезками прямых.
Получающаяся при этом ломаная линия называется многоугольником
распределения случайной величины х.
19
у
0,4096
0,1536
0,02560
1
2
3
4
х
Рисунок 2.
Пример 1. По мишени производится 4 независимых выстрела с
вероятностью попадания при каждом выстреле р = 0,8. Требуется: а) найти
закон распределения дискретной случайной величины х, равной числу
попаданий в мишень; б) найти вероятности событий: 1  х  3; х > 3; в)
построить многоугольник распределения.
Решение.
а) Возможные значения случайной величины х: 0, 1, 2, 3, 4.
Соответствующие вероятности вычисляем по формуле Бернулли:
р0  р ( х  0)  С40 0,80  0,2 4  0,0016.
р1  р ( х  1)  С41 0,8  0,23  0,0256.
р2  р ( х  2)  С42 0,8 2  0,2 2  0,1536.
р3  р ( х  3)  С43 0,83  0,2  0,4096.
р4  р ( х  4)  С44 0,84  0,2 0  0,4096.
Закон распределения х представится таблицей:
xi
pi
0
0,0016
1
0,0256
2
0,1536
3
0,4096
4
0,4096
Проверка: 0,0016 + 0,0256 + 0,1536 + 0,4096 + 0,4096 = 1.
б) Вероятность событий 1  х  3 и х > 3 равны:
р (1  х  3) = р ({1,2,3}) = р1 + р2 + р3 = 0,0256 + 0,1536 + 0,4096 =
0,5888;
р( х > 3) = р ({4}) = р4 = 0,4096.
в) Многоугольник распределения представлен на рисунке 2.
Если возможными значениями дискретной случайной величины х
являются 0, 1, 2, …, n, а соответствующие им вероятности вычисляются по
формуле Бернулли:
Pn ( k )  C nk p k q n k , k = 0,1,…n; q = 1- p,
то говорят, что случайная величина х имеет биномиальный закон
распределения:
20
xi
pi
0
pn(0)
1
pn(1)
…
…
n
pn(n)
Рассмотренная выше в примере 1 случайная величина х имеет
биномиальный закон распределения, в котором n = 4, p = 0,8.
Пример 2. В урне 7 шаров, из которых 4 белых, а остальные черные.
Из этой урны наудачу извлекаются 3 шара; х – число извлеченных белых
шаров. Найдите закон распределения дискретной случайной величины х и
вероятность события х  2.
Решение. Возможные значения случайной величины х: 0, 1, 2, 3.
Соответствующие им вероятности р0, р1, р2, р3 подсчитываем классическим
способом:
С 40  С 33
С 41  С 32 12
1
р0  р ( х  0 ) 

 ;
; р1  Р ( х  1 ) 
3
3
С7
35
С7
35
С 42  С 31 18
С 43  С 30
4
р2  р ( х  2 ) 
 ; р3  р ( х  3 ) 
 .
3
3
С7
35
С7
35
Закон распределения х:
xi
pi
0
1
2
3
1
35
12
35
18
35
4
35
Вероятность события х  2 равна:
р (х  2) =
12
4
22
+
=
.
35
35
35
Пусть заданы натуральные числа m, n, s, причем m s  n. Если
возможными значениями дискретной случайной величины х являются
0,1,2,…, m, а соответствующие им вероятности выражаются по формуле
Cmk  Cnsmk
pk = p(x = k) =
, k = 0,1,…,m,
Cns
то говорят, что случайная величина х имеет гипергеометрический
закон распределения.
Случайная величина х из примера 2 имеет гипергеометрический закон
распределения с n =7, s = 3, m = 4.
Другими часто встречающимися примерами законов распределения
дискретной случайной величины являются:
геометрический
21
xi
pi
1
p1
2
p2
…
…
3
p3
…
…
k
pk
где pk = qk-1p, q = 1 – p (0 < p < 1);
Закон распределения Пуассона:
xi
pi
Pn ( k ) 
k
k!
2
p2
…
…
0
p0
1
p1
3
p3
k
pk
 e  ,
 - положительное постоянное.
…
…
Закон распределения Пуассона является предельным для биномиального
при n  , p  0, np =  = const. Виду этого обстоятельства при больших
n и малых p биномиальные вероятности вычисляются приближенно по
формуле Пуассона:
Pn ( k ) 
k
k!
 e  ,
где  = np.
Пример 3. Фармацевтический завод отправил на базу 500 коробок
определенного препарата. Вероятность повреждения коробок в пути равна
0,002. Найдите закон распределения случайной величины х, равной числу
поврежденныхкоробок, и найдите вероятности следующих событий:
А – повреждено менее 3коробок;
В – повреждено более 2коробок;
С – повреждена хотя бы одна коробка.
Решение. Возможные значения х: 0, 1, 2, ..., 500; так как n = 500 велико, а
р = 0,002 мало, то положив  = 500  0,002 = 1, вычислим вероятности
pk = p(x = k)
приближенно по формуле Пуассона:
k  1
Pk 
e 
, k = 0, 1, 2, ..., 500.
k!
k!e
Закон распределения случайной величины х приближенно имеет вид:
xk
pk
0
1
е
1
1
е
2
1
2е
3
1
6е
22
… 500
1
…
500!е
Или
xk
pk
0
0,368
1
0,36
8
2
0,184
3
0,061
… 500
… 0,000
Используя полученную таблицу, находим вероятности событий А, В и С:
p(A) = p(x < 3) = p ({0, 1, 2}) = 0,368 + 0,368 + 0,184 = 0,92.
p(B) = p (x > 2) = 1 – p( x  2) 1 – p ({0, 1, 2}) = 0,008.
p(C) = p (x  1) = 1 – p( x  0) 1 – p ({0}) = 1 – 0,368 = 0,632.
1.11. Непрерывные случайные величины.
Плотность вероятности.
Случайная величина х называется непрерывной, если ее функция
распределения F(x) непрерывна на всей числовой оси.
Для непрерывной случайной величины х при любом х0  R имеет место
равенство
р(х = х0) = 0,
(1)
а также
р(х1  х  х2 ) = р(х1 < х < х2 ) = р(х1 < х  х2 ) = р(х1  х < х2 ) = F(х2 ) - F (х1 ),
(2)
где F(x) – функция распределения величины х.
Пусть f(x) неотрицательная интегрируемая функция, определенная на
всей числовой оси и удовлетворяющая условию


Тогда функция
f ( x ) dx  1.
(3)

F( x ) 
x

f ( t ) dt
(4)

обладает всеми свойствами функции распределения. Кроме того, F(x)
непрерывна в любой точке (и слева, и справа). Следовательно, случайная
величина
х, определяемая функцией распределения F(x), является
непрерывной.
Мы говорим, что случайная величина х с функцией распределения F(x)
раcпределена с плотностью, если существует неотрицательная функция f(x),
такая, что для любого х  R имеет место равенство (2). При этом f(x)
23
называется плотностью вероятности случайной величины х, а ее график
– кривой распределения.
Из определения плотности вероятности
f(x) и свойств функции
распределения следует, что f(x) должна удовлетворять условию (1). И
обратно, если f(x)  0 и выполняется условие (1), то f(x) является
плотностью вероятности.
Если случайная величина х имеет плотность вероятности f(x) , то имеет
место формула
x2
р(х1  х  х2 ) =

f ( x ) dx .
(5)
x1
Пример 1. Случайная величина х с функцией распределения
е х , если x  0 ,
F( x ) 
1, если x  0.
(6)
является непрерывной, так как функция F(x) непрерывна на всей числовой
оси.
Пример 2. Случайная величина х с функцией распределения
е х , если x   1,
F( x ) 
1, если x  1.
(7)
не является непрерывной, так как х = -1 является точкой разрыва функции
F(x).
Случайные величины x с плотностью вероятности (6) или с функцией
распределения (7) часто встречаются на практике (показательный закон
распределения).
Кривая распределения и график функции распределения случайной
величины х с показательным законом распределения (6) и (7) представлены
на рисунке
f(x)
f(x)
1
1
1
0
1
х
0
1
б)
a)
24
х
Пример 3. (Закон равномерного распределения на отрезке).
Случайная величина х называется равномерно распределенной на
отрезке [a, b], если ее плотность вероятности имеет вид:
если x  a ,
0 ,
 1

f ( x ) 
, если a  x  b ,
b

a

если x  b .
0 ,
(8)
Пример 4. Закон нормального распределения на прямой (закон Гаусса).
Говорят, что случайная величина х подчиняется нормальному закону
распределения, если ее плотность вероятности имеет вид:
( xa )

1
f( x)
e 2 ,
 2
2
2
(9)
где а – произвольный, а  - положительный параметры.
Найдем функцию распределения для нормального закона (9).
По формуле (4) запишем:
x
1
F ( x )   f ( t )dt 
 2

x
e

( t  a )2
2 2
dt .

Пример5. (Закон Максвелла). Модуль скорости молекулы газа является
случайной величиной х, распределенной по закону Максвелла:
если x  0 ,
0 ,
 3
f ( x )   4h 2  h x
, если x  0 ,
  x e

2
2
m
, m – масса молекулы, k – постоянная Больцмана и Т –
2kT
абсолютная температура. Найдем функцию распределения случайной величины
х.
где h 
Решение. По формуле (4) имеем:
F ( x )
Сделаем замену t 
y
h 2
В результате получим
4h 3

x
2 h t
 t e dt .
2 2
0
, а потом проинтегрируем по частям.
F ( x )  2Ф( x h 2 ) 
25
2h

x e h x .
2
2
1.12. Числовые характеристики случайных величин.
Математическим ожиданием дискретной случайной величины х с
законом распределения:
xi
pi
называется число
x1
p1
…
…
x2
p2
M[x] = x1p1 + x2p2 +…
(1)
(1)
(2)
при условии абсолютной сходимости ряда (2).
Если х имеет закон распределения (1) и у = (х) – функция от
случайной величины х, то
M[y] = M[(х)] =  (хi)pi
(3)
Если х – непрерывная случайная величина с плотностью вероятности f(x), то

M[x] =
 xf ( x ) dx
(4)

при условии, что интеграл сходится абсолютно; справедлив также
интегральный аналог формулы (3):

M[(х)] =
  ( x ) f ( x ) dx
,
(5)

Свойства математического ожидания:
1. M [c] = c, если с постоянная.
2. M [cх] = c M [х] , если с постоянная.
3. M [х1 + …+ хn] = M [х1] + …+M[хn].
4. Если х1 , х2, …, хn независимы, то M [х1  …  хn] = M [х1]  …  M[хn].
Дисперсией случайной величины х называется число
D[x] = M[(x – M[x])2].
Число
 [x] =
отклонением х.
D[ x ]
называется средним квадратическим
Справедлива формула
D[x] = M[x2] – M[x]2.
26
(6)
Из определения дисперсии и формул (3) и (5) вытекает справедливость
следующих формул для дисперсии:
D[x] =
( x
i
 M[x])2 pi ,
(7)
i
если х – дискретная случайная величина с законом распределения (1);

D [ x ]   ( x  M [ x ])2 f ( x ) dx ,
(8)

если х – непрерывная величина с плотностью f(x).
Формула (6) в сочетании с (3) и (5) дает для дисперсии формулы
(обычно более удобные, чем (7) и (8)):
D[x]   x i2 pi  M[x]2,
i
(9)
если х – дискретная величина;

D[x] =  x 2 f ( x ) dx  M[x]2,
(10)

если х – непрерывная величина с плотностью f(x).
Свойства дисперсии:
1. D[c] = 0 , если с постоянная.
2. D [cх] = c2 D [х] = c, если с постоянная.
Пример 1. Дискретная случайная величина
распределения:
х
задана законом
Значения х
-1
0
1
2
Вероятности 0,1
0,3
0,5
0,1
Найдите математические ожидания величин х и у = 2х2 +1.
Решение. Имеем согласно (1) и (2):
М [х] = (-1)  0,1 + 0  0,3 + 1  0,5 + 2  0,1 = 0,6;
М [у] = М [2х2 + 1] = [2 (-1)2 + 1]  0,1 + [2  02 + 1]  0,3 + [2  12 + 1]  0,5 +
+ [2  22 + 1]  0,1 = 2,2.
Пример 2. Случайная величина
(показательный закон распределения):
х
имеет плотность вероятности
0, если x  0,
f ( x)   x
 e , если x  0,   0.
Найдите математические ожидания величин х и у = 2х2 +3.
27
Решение. Имеем согласно (4) и (5):

M [ x ]   x e
 x
dx   x e
 x

0
0

M [ у ]   ( 2 x  3 ) e
2
0
x

  e x dx 
0
dx 
3 2  4
2
1

.
.
2. ОСНОВЫ МАТЕМАТИЧЕСКОЙ СТАТИСТИКИ.
Статистика – наука, изучающая количественные закономерности
материальных явлений в неразрывной связи с их качественной стороной.
Статистика, изучающая вопросы, связанные с медициной и
здравоохранением, называется медицинской.
Вероятностная природа медицины и вероятностный характер процессов
в общественном здоровье позволяют повсеместно применять методы
математической статистики и теории вероятностей и выбирать их в
зависимости от уровня решаемых задач с целью сведения к минимуму набора
и степени проявления случайностей. Основным инструментом для этого
является теория вероятностей – математическая наука, устанавливающая
закономерности случайных явлений.
2.1. Основные понятия теории вероятности.
Вероятность – количественная мера объективной возможности
появления события при реализации определенного комплекса условий.
Вероятность события А обозначается как р(А) и выражается в долях
единицы или в процентах.
Мера вероятности – диапазон ее числовых значений: от 0 до 1 или от 0
до 100%.
Случайное событие – событие, которое при реализации определенного
комплекса условий может произойти или не произойти. Его вероятность
будет находиться в пределах 0< p(A) < 1 или 0< p(A) < 100%.
Достоверное событие - событие, которое при реализации
определенного комплекса условий произойдет непременно. Его вероятность
будет равна 1 или 100%.
Невозможное событие - событие, которое при реализации
определенного комплекса условий не произойдет никогда. Его вероятность
будет равна 0.
В медицинских исследованиях достаточной считается вероятность
появления события не менее 0,95 или 95%. При изучении заболеваний или
ситуаций, имеющих важнейшие медико-социальные последствия или
высокие показатели летальности и инвалидности, а также при
28
фармакологических исследованиях вероятность появления события должна
быть не менее 0,99 (99%).
Частота появления события (статистическая вероятность) – это
отношение числа случаев, в которых реализовался определенный комплекс
условий (m), к общему числу случаев (n): p(A)=m/n.
Вероятность отсутствия события: q= 1- p.
Случайная величина – величина, которая при реализации
определенного
комплекса условий может принимать различные значения.
Закон больших чисел: при достаточно большом числе наблюдений
случайные отклонения взаимно погашаются и проявляется устойчивость
некоторых параметров, которая выражается в основной тенденции
(закономерности). При этом наблюдаемая частота случайного события будет
сколь угодно мало отличаться от вероятности появления события в
отдельном опыте.
2.2. Организация исследования.
В процессе организационного этапа исследования решается комплекс
различных задач. Прежде всего, устанавливается объект исследования и
единица наблюдения.
Под объектом наблюдения понимают статистическую совокупность,
состоящую из отдельных предметов или явлений - единиц наблюдений,
взятых в определѐнных границах времени и пространства.
Единица наблюдения - первичный элемент статистической
совокупности, являющейся носителем признаков, подлежащих регистрации,
изучению в ходе исследования. Например, группа пациентов, на которых
проводится исследование будет являться объектом наблюдения, т.е.
статистической совокупностью, а каждый пациент, входящий в эту группу и
являющийся носителем интересующих исследователя признаков, будет
единицей наблюдения.
Учитывая необходимость использования современных математических
методов и вычислительной техники для обработки данных, вместо
привычного деления всех признаков на количественные и качественные в
настоящее время используется более подробная классификация признаков:
• количественные признаки (масса тела, рост, возраст, лабораторные
данные и т.п.);
• качественные; номинальные или классификационные признаки (пол,
место жительства, должность, профессия и т.п.);
29
• порядковые признаки, у которых можно выделить различные степени
выраженности изучаемого явления и которые в свою очередь, делятся на
расплывчатые ( например, результаты лечения: хорошие, здоровья: отличное,
очень хорошее, хорошее, удовлетворительное, плохое ) и ранговые
(например, порядковый номер родов).
В зависимости от отношения между признаками различают факторный
(причина) и результативный (следствие) признаки.
Приняты и определѐнные обозначения этих признаков; y=f(x) или
y=f(x1,x2,x3...xn), т.е. от факторного признака x или от группы факторов
(x1,x2,x3...xn).
Статистические таблицы делятся на простые (анализ одного
признака), групповые (сочетание двух признаков), комбинационные
(сочетание трех и более признаков). Статистические таблицы должны иметь
название, отражающее основную закономерность, которая в таблице
изучается; итоговые вертикальные и горизонтальные графы и единицы
измерения приведенных признаков.
Программа анализа подразумевает разработку рабочей гипотезы
исследования,т.е. основной идеи эксперимента.
Важнейшее место на этапе организации исследования принадлежит
выбору метода формирования статистической совокупности. В зависимости
от степени охвата объекта исследования принято различать сплошное и
выборочное статистическое исследование.
Сплошным называется такое наблюдение, при котором изучаются все
единицы наблюдения объекта исследования, т.е. так называемая
генеральная совокупность.
Выборочное наблюдение - это вид несплошного наблюдения, при
котором отбор подлежащих обследованию
единиц наблюдения
осуществляется случайно из генеральной совокупности, после чего
результаты
распространяются
на
всю
исходную
совокупность.
Сформированная таким образом совокупность называется выборочной или
выборкой.
Для того, чтобы можно было распространить результаты, полученные на
части единиц наблюдения, на всю совокупность (объект наблюдения),
выборка должна быть репрезентативной.
Репрезентативность
это
представительность
выборочной
совокупности по отношению ко всей (генеральной) совокупности, при этом
репрезентативность должна быть количественной и качественной. Под
количественной репрезентативность понимают достаточное число единиц
наблюдения в выборке для проявления закона больших чисел.
30
Под качественной репрезентативностью понимают соответствие
признаков у единиц наблюдения генеральной и выборочной совокупностей.
Репрезентативность выборки зависит от еѐ численности и от способов
формирования выборочной совокупности, т.е. способов отбора единиц
наблюдения (способов рандомизации). Главное требование, предъявляемой к
отбору - это его случайность (рандомизированный отбор). При этом каждой
единице наблюдения обеспечивается одинаковая вероятность попадания в
выборку благодаря случайности отбора. Случайность отбора достигается
путем выбора и применения адекватного метода рандомизации, что является
очень важным моментом в исследовании, от которого будет зависеть
полноценность получаемых данных и, в конечном итоге, успех всего
исследования.
2.3. ВИДЫ РАСПРЕДЕЛЕНИЙ. ОБОБЩАЮЩИЕ КОЭФФИЦИЕНТЫ.
ВАРИАЦИОННЫЙ РЯД И ЕГО ХАРАКТЕРИСТИКИ.
В результате сводки материала получаются абсолютные числа, которые
применяются в анализе для характеристики объема, размера явления (число
больниц, число коек, число больных, бюджет здравоохранения и т. д.). При
малых числах наблюдений, когда не требуется выявление закономерностей,
тоже могут быть использованы абсолютные числа.
Однако в большинстве случаев для анализа полученных данных
необходимо предварительно описать полученную статистическую
совокупность с помощью ряда параметров. Начинается описание
статистической совокупности с расчета и анализа обобщающих
коэффициентов. В здравоохранении и медицине чаще всего для этой цели
используются относительные величины и средние величины.
Признаки, или переменные, могут принимать различные конкретные
значения. Различают следующие виды признаков:
1. Качественные
или
номинальные
–
не
поддающиеся
непосредственному измерения, например, характеристики пациента:
диагноз, пол, профессия, семейное положение. Качественные данные,
которые могут быть отнесены только к двум противоположным
категориям да – нет, принимающие одно из двух значений (выжил –
умер; курит – не курит)) называются дихотомическими.
2. Порядковые или ранжируемые – эти признаки можно расположить в
естественном порядке (ранжировать), но при этом отсутствует
количественная мера расстояния между величинами. Примером
являются оценка тяжести состояния пациента, стадия болезни,
самооценка состояния здоровья. При этом допускается, что тяжелое
течение заболевания «хуже», чем среднетяжелое, а очень тяжелое –
«еще хуже», однако нельзя сказать во сколько или на сколько хуже.
31
Можно сказать, что порядковые данные занимают промежуточное
положение между количественными и качественными типами. Их
можно упорядочить как количественные данные, но над ними нельзя
производить арифметические действия, как над качественными
данными.
3. Количественные или интервальные – признаки, количественная
мера которых четко определена; наиболее удобный для
статистического анализа тип данных. Количественные признаки могут
быть:
 непрерывными, принимающими любое значение на
непрерывной шкале, например масса тела, температура,
биохимические показатели крови;
 дискретными, принимающие лишь определенные значения
из диапазона измерения, обычно целые, например, число
рецидивов, число детей в семье, число заболеваний у одного
больного, число выкуриваемых сигарет.
Для правильного выбора пути статистического анализа необходимо
знать вид распределения изучаемого признака.
Под видом распределения случайной величины понимают
соответствие, устанавливаемое между всеми возможными числовыми
значениями случайной величины и вероятностями их появления в
совокупности.
Вид (закон) распределения может быть представлен:
 аналитической зависимостью в виде формулы;
 в виде графического изображения;
 в виде таблицы.
2.4. ШКАЛЫ ИЗМЕРЕНИЙ
Состояние объекта оценивается по тем или иным критериям. В качестве
критериев могут выступать: выживаемость животных, степень интоксикации,
сохранение жизненно важных функций и т.д.
Оценки измеряются в той или иной шкале. Шкала (условно говоря,
шкала – это множество возможных значений оценок по критериям) –
числовая система, в которой отношения между различными свойствами
изучаемых явлений, процессов переведены в свойства того или иного
множества, как правило – множества чисел.
Различают несколько типов шкал. Во-первых, можно выделить
дискретные шкалы (в которых множество возможных значений оцениваемой
величины конечно – например, оценка в баллах – «1», «2», «3», «4», «5») и
32
непрерывные шкалы (например, концентрация вещества в ммоль/л или
активность фермента в сыворотке крови в мКат/л).
Во-вторых, выделяют шкалы отношений, интервальные шкалы,
порядковые (ранговые) шкалы и номинальные шкалы (шкалы наименований)
– см. Рис. 2, на котором отражена также мощность шкал – то есть их
«разрешающая способность» (иногда выделяют и иные шкалы, например,
шкалу разностей, в
которой измеряется (календарное) время).
Рассмотрим свойства четырех основных типов шкал, перечисляя их в
порядке убывания мощности.
Шкала отношений – самая мощная шкала. Она позволяет оценивать, во
сколько раз один измеряемый объект больше (меньше)другого объекта,
принимаемого за эталон, единицу. Для шкал отношений существует
естественное начало отсчета (нуль), но нет естественной единицы измерений.
Шкалами отношений измеряются почти все физические величины –
время, линейные размеры, площади, объемы, сила тока, мощность и т.д. В
медико-биологических исследованиях шкала отношений будет иметь место,
например, когда измеряется время появления того или иного признака после
начало воздействия (порог времени, в секундах, минутах), интенсивность
воздействия
до появления какого-либо признака (порог силы воздействия в вольтах,
рентгенах и т.п.). Естественно, к шкале отношений относятся все данные в
биохимических и электрофизиологических исследованиях (концентрации
веществ, вольтажи, временные показатели электрокардиограммы и т.п.).
Сюда же, например, относятся и количество правильно или неправильно
выполненных «заданий» в различных тестах по изучению высшей нервной
деятельности у животных.
Шкала интервалов применяется достаточно редко и характеризуется
тем, что для нее не существует ни естественного начала отсчета, ни
33
естественной единицы измерения. Примером шкалы интервалов является
шкала температур по Цельсию, Реомюру или Фаренгейту. Шкала Цельсия,
как известно, была установлена следующим образом: за ноль была принята
точка замерзания воды,
за 100 градусов – точка ее кипения, и, соответственно, интервал температур
между замерзанием и кипением воды поделен на 100 равных частей. Здесь
уже утверждение, что температура 300С в три раза больше, чем 100С, будет
неверным. В шкале интервалов сохраняется отношение длин интервалов.
Можно сказать: температура в 300С отличается от температуры в 200С в два
раза сильнее, чем температура в 150С отличается от температуры в 100С.
Порядковая шкала (шкала рангов) – шкала, относительно значений
которой уже нельзя говорить ни о том, во сколько раз измеряемая величина
больше (меньше) другой, ни на сколько она больше (меньше). Такая шкала
только упорядочивает объекты, приписывая им те или иные баллы
(результатом измерений является нестрогое упорядочение объектов).
Например, так построена шкала твердости минералов Мооса: взят набор
10 эталонных минералов для определения относительной твердости методом
царапанья. За 1 принят тальк, за 2 – гипс, за 3 – кальцит и так далее до 10 –
алмаз. Любому минералу соответственно однозначно может быть приписана
определенная твердость. Если исследуемый минерал, допустим, царапает
кварц (7), но не царапает топаз (8), то соответственно его твердость будет
равна 7. Аналогично построены шкалы силы ветра Бофорта и землетрясений
Рихтера.
Шкалы порядка широко используются в педагогике, психологии,
медицине и других науках, не столь точных, как, скажем, физика и химия. В
частности, повсеместно распространенная шкала школьных отметок в баллах
(пятибалльная, двенадцатибалльная и т.д.) может быть отнесена к шкале
порядка. В медико-биологических исследованиях шкалы порядка
встречаются сплошь и рядом и подчас весьма искусно замаскированы.
Например, для анализа свертывания крови используется тромботест: 0 –
отсутствии свертывания в течение времени теста (а через минуту?), 1 –
«слабые нити», 2 – желеподобный сгусток, 3 – сгусток, легко
деформируемый, 4 – плотный, упругий, 5 – плотный, занимающий весь
объем и т.п. Понятно, что интервалы между этими плохо отличимыми и
очень субъективными позициями произвольны. В этом случае фраза
«Тромботест у исследуемых животных повышался в среднем с 3,3 до 3,7» выглядит абсурдной. Масса подобных шкал все
еще встречается в экспериментальной токсикологии, экспериментальной
хирургии, экспериментальной морфологии.
Частным случаем порядковой шкалы является дихотомическая шкала, в
которой имеются всего две упорядоченные градации – например, «выжил
после эксперимента», «не выжил».
34
Шкала наименований (номинальная шкала) фактически уже не связана с
понятием «величина» и используется только с целью отличить один объект
от другого: номер животного в группе или присвоенный ему уникальный
шифр и т.п.
2.5. Виды распределений
Нормальное
(гауссово,
симметричное,
колоколообразное)
распределение – описывает совместное воздействие на изучаемое явление
небольшого числа случайно сочетающихся факторов (по сравнению с общей
суммой факторов), число которых неограниченно велико. Встречается в
природе наиболее часто, за что и получило название «нормального».
Характеризует распределение непрерывных случайных величин.
х - значения случайной величины;
р - вероятность появления данного
значения в совокупности.
Биномиальное распределение (распределение Бернулли) – описывает
распределение частоты события, обладающего постоянной вероятностью
появления при многократных испытаниях. При большом числе испытаний
стремиться к нормальному. Крайним вариантом биномиального
распределения является альтернативное распределение, при котором вся
совокупность распределяется на две части (две альтернативы). Биномиальное
распределение характеризует распределение дискретных случайных величин.
х - значения случайной величины;
р - вероятность появления данного
значения в совокупности.
Распределение Пуассона – описывает события, при которых с
возрастанием значения случайной величины, вероятность появления ее в
совокупности резко уменьшается. Распределение Пуассона характернно для
редких событий и может рассматриваться также как крайний вариант
35
биномиального.
величин.
Характеризует
распределение
дискретных
случайных
х - значения случайной величины;
р - вероятность появления данного
значения в совокупности.
2.6.ОСНОВНЫЕ ХАРАКТЕРИСТИКИ ВАРИАЦИОННОГО РЯДА:
Вариационный ряд - ранжированный ряд распределения по величине
какого-либо признака. Этот признак носит название варьирующего, а его
отдельные числовые значения называются вариантами и обозначаются через
"х".
Число, показывающее, сколько раз данная варианта встречается в
вариационном ряду, называется частотой и обозначается через "f ".
Основные характеристики вариационного ряда:
1). Показатели, характеризующие центральную тенденцию
или
уровень ряда: средние величины или меры расположения (собственно
средние и структурные средние).
2). Показатели, характеризующие разнообразие (рассеяние, вариацию,
разброс) признака: стандартное отклонение, дисперсия, размах.
Выбор характеристик центральной тенденции и разнообразия признака,
прежде всего, зависит от вида распределения. В случае нормального
распределения используют показатели параметрической статистики, в случае
распределения, отличного от нормального и при неизвестном виде
распределения применяют показатели непараметрической статистики.
2.6.1. Средние величины
Средняя величина - обобщающий коэффициент, который
характеризует наиболее типичный размер определенного признака в целом
для совокупности или для отдельных ее частей. Расчет средних величин
имеет смысл только для качественно однородной совокупности, в связи с
этим в одной совокупности может быть столько средних, на сколько
однородных групп она может быть разбита.
36
Виды средних величин
Средняя арифметическая - применяется, если варианты возрастают
(убывают) в арифметической прогрессии.
Важнейшее свойство средней заключается в том, что она отражает то
общее, что присуще каждой единице изучаемой совокупности, хотя значение
признака отдельных единиц совокупности могут колебаться в ту или иную
сторону.
Типичность средней непосредственно связана с однородностью
изучаемой совокупности. В случае не однородной совокупности необходимо
провести разбивку ее на качественно однородные группы и рассчитать
среднюю по каждой по каждой из однородных групп.
Структурные средние:
 Мода – Мо
 Медиана – Ме
В рядах динамики рассчитывается средняя арифметическая, средняя
хронологическая.
Средней арифметической называется такое среднее значение признака
при вычислении которого общий объем признака не изменяется.
n
хар 
х
i
- ср. арифметическое простое
n
xi – индивидуальное значение признака
n – общее число изучаемой совокупности
i 1
 xi f i
х ар .вз . 
i 1
n
ср. арифметическое взвешенное
 fi
i 1
Вариацией значения какого-либо признака в совокупности называется
различие его значений у разных единиц данной совокупности в один и тот
же период или момент времени.
Проведение вариационного анализа начинается с построения
вариационного ряда – упорядоченное распределение единиц совокупности по
возрастающим или по убывающим признакам и подсчет соответствующих
частот.
Ряды распределения

ранжированные

дискретные

интервальные
37
Ранжированный вариационный ряд – перечень отдельных ед.
совокупности в порядке возрастания убывания ранжированного признака
При построении интервального вариационного ряда необходимо
выбрать оптимальное количество групп, самый распространенный способ по
формуле Стерджесса
k – количество интервалов
n – объем совокупности
k=1+3.32lgn
При расчетах почти всегда получают дробные значения, округления
производить до целого числа.
Длина интервала – l
x
 x min
l  max
k
Виды интервалов
1. нижняя граница последующего интервала повторяет верхнюю
границу последующего интервала.
2. С индивидуальными границами в интервал входят верхняя и
нижняя границы.
3. открытый интервал, интервал с одной границей
При расчетах по интервальному вариационному ряду за xi принимается
середина интервала.
Интервалы могут быть как равные, так и нет. При изучении
вариационного ряда существенную помощь оказывает графическое
изображение.
Интервальный вариационный ряд
изображается с помощью гистограммы.
Дискретный вариационный ряд изображается с
помощью полигона.
38
2.6.2. Характеристики разнообразия вариационного ряда
1. Размах вариации (амплитуда): R  x max  x min
n
 xi  x
2. Среднее линейное отклонение: d  i 1
n 1
3. Дисперсия: D =  2  
( xi  x ) 2
n 1
2
4. Среднее квадратическое отклонение:   
Для сравнения вариации признаков в разных совокупностях или для
сравнения вариации разных признаков в одной совокупности используются
относительные показатели, базой служит средняя арифметическая.
1. Относительный размах вариации.
VR 
R
x
xmax  xmin
x

 100%
2. Относительное линейное отклонение
d
Vd   100%
x
3. Коэффициент вариации
Сv    100%
x
Этот коэффициент позволяет оценивать вариабельность (разброс)
признака в нормированных границах. Если его значение не превышает 10%,
то можно говорить о слабом разбросе; если значение этого коэффициента
превышает 20%, то разброс вариант считают большим.
Данные показатели дают не только сравнительную оценку, но и
образуют однородность совокупности. Совокупность считается однородной,
если коэффициент вариации не превышает 33%.
4.
Коэффициент ассиметрии
g

х  Мо

При нормальном распределении этот коэффициент близок к нулю.
39
2.6.3. Правило «трех сигм»
68.3 % всех вариант отклоняются от своей средней не более чем на σ
95.4% вариант находятся в пределах X ± 2σ
99.7% вариант находятся в пределах X ± 3σ
Отклонение параметра от его средней арифметической в пределах σ
расценивается как норма.
Субнормальным считается отклонение в пределах ± 2σ.
Патологическим - сверх этого предела, т.е. > ± 2σ
2.6.4. Кривая нормального распределения.
Описательные статистики дают общую информацию о распределении
переменной. Например, медиана отражает то, что с вероятностью 0,5
значение переменной будет больше данного значения или, наоборот, меньше
этого значения.
Полный ответ дает функция распределения.
Пусть X — некоторая переменная, принимающая значения на прямой.
Тогда функция распределения этой переменной, обозначаемая F(x), есть
вероятность того, что Х<х.
Для описания реальных явлений статистиками используются
различные распределения: нормальное, Стьюдента, хи-квадрат, Коши,
биномиальное, отрицательное биномиальное и др.
40
Закон нормального распределения:
y
1
e
 2
2
 xi  x 
1
 

2  
у – ордината нормального распределения
е = 2,7218;
xi – варианты вариационного ряда;
х – среднее;
Функция нормального распределения полностью определяется х и б.
2.7.Теоретическая основа выборочного метода
Взаимосвязь статистических показателей выборочной и генеральной
совокупностей определяется законом больших чисел, выражаясь в теореме
П. Л.Чебышева:
Чем больше число некоторых случайных величин, тем их средняя
арифметическая ближе к средней арифметической генеральной
совокупности, т.e. тем меньше разница между показателями выборочной и
генеральной совокупностей. По мере увеличения числа наблюдений
вероятность осуществления приближения показателя выборки к
показателю генеральной совокупности становится все больше, стремясь к
единице, если число наблюдений стремится к бесконечности.
Для того чтобы могла проявиться эта закономерность, выборка должна
быть репрезентативна (представительна) по отношению к генеральной
совокупности.
Репрезентативность - это способность выборочной совокупности как
количественно, так и качественно отражать свойства генеральной
совокупности.
Количественная репрезентативность достигается достаточностью числа
наблюдений, качественная - соответствием признаков единиц наблюдения в
выборочной и генеральной совокупностях.
Любое значение параметра, вычисленное на основе ограниченного числа
наблюдений, непременно содержит элемент случайности. Такое
приближенное, случайное значение называется оценкой параметра. Оценка
параметра должна быть доброкачественной, что определяется тремя
факторами, которые дают наименьшие ошибки расхождения показателей
выборочной и генеральной совокупностей:
- состоятельность оценки, т.е. при увеличении числа наблюдений оценка
параметра приближается к его значению в генеральной совокупности;
41
- несмещенность оценки, т.е. при оценке отсутствуют систематические
ошибки в сторону завышения или занижения параметра генеральной
совокупности;
- эффективность оценки, т.е. оценка должна обладать минимальной
вариабельностью.
Как правило, проводят точечную и интервальную оценку параметра.
2.7.1. Точечная оценка параметра
Точечная оценка параметра выражается в ошибке репрезентативности,
которая показывает, на сколько отличаются обобщающие коэффициенты
(показатели), полученные при выборочном исследовании, от тех
коэффициентов, которые могли бы быть получены при сплошном
исследовании.
Условные обозначения:
σ- стандартное отклонение
n - число наблюдений в выборке
f - частота появления признака в совокупности
t - доверительный коэффициент
x - средняя величина
Способы, уменьшающие ошибку репрезентативности:
- увеличение числа наблюдений
- уменьшение вариабельности признака
8.7.2. Интервальная оценка параметра
Знание величины ошибки репрезентативности недостаточно, чтобы быть
уверенным в результатах выборочного исследования, т.к. конкретная ошибка
одного выборочного наблюдения может быть больше (меньше) средней
ошибки выборки.
Поэтому на практике определяют так же пределы возможных ошибок
выборки или предельную ошибку выборки (∆). Т.к. предельная ошибка
может быть как в сторону увеличения, так и в сторону уменьшения, то
говорят о доверительном интервале или доверительных границах, в
пределах которых будет находиться показатель генеральной совокупности на
основании данных выборочного исследования.
Если признак генеральной совокупности распределѐн нормально, то
интервальную оценку производят, используя интервал Стьюдента:
_
х  t 

n
_
 X  х  t 
42

n
- критерий достоверности или критерий Стьюдента, который
показывает, с какой вероятностью данные выборки совпадут с данными
генеральной совокупности (определяется по таблице Стьюдента);
 - доверительная вероятность.
t
∆= t 

n
- предельная ошибка.
Оценка интервала с границами, определяемыми стандартным
отклонением , имеет невысокую надежность: около одной трети всех
экспериментальных данных ―на законном основании‖ может быть вне этого
интервала. Мы вправе увеличить надежность интервальной оценки, задавая
более высокую доверительную вероятность. Чаще всего берут 0.90; 0.95 и
0.99.
Например, если Pдов=0.95, то из таблицы Стьюдента следует
t   1,96 ,
_
и
х  1.96

_
 X  х  1.96
n

.
n
При Pдов=0.99 и Pдов=0.999 соответственно получим
_
х  2 ,58 
_
х  3 ,29 

n

n
_
 X  х  2 ,58 
_
 X  х  3 ,29 

n

n
,
.
t - доверительный коэффициент (критерий достоверности или
критерий Стьюдента), который показывает, с какой вероятностью данные
выборки совпадут с данными генеральной совокупности.
Существует таблица соответствия интеграла вероятности значения t
(Таблица Стьюдента).
При числе наблюдений больше 30 можно пользоваться следующей
закономерностью: вероятности безошибочного прогноза р = 0,68
приблизительно соответствует t ≅ 1; при p = 0,95 t ≅ 2, при р = 0,99 t ≅ 3.
Для большинства медицинских исследований допускают р = 0,95 или
95%. В этом случае вероятность выхода результата выборочного
исследования за границы доверительного интервала, т.е. вероятность ошибки
составляет 0,05 или 5%. Поэтому говорят, что результат исследования
получен с уровнем значимости 0,05 (р=0,05). При необходимости более
43
строгой оценки р=0,99 (99%), вероятность ошибки составит 0,01 (1%) и
следовательно уровень значимости будет р=0,01
Часто на практике необходимо оценить надежность и точность
исследования, т.е. нужно знать, к каким ошибкам может привести замена
параметра (результата в генеральной совокупности) его точечной оценкой
(результатом в выборке с учетом ошибки репрезентативности) и с какой
уверенностью можно ожидать, что эти ошибки не выйдут за известные
пределы.
2.7.3. Проверка гипотезы о нормальном распределении.
Причиной частого обращения к закону распределения является то, что
зависимость возникающая в результате действия множества случайных
причин ни одна из которых не является преобладающей. Если в
вариационном ряду рассчитали Мо=Ме, то это может указывать на близость
к нормальному распределению. Наиболее точная проверка соответствия
нормальному закону производится с помощью специальных критериев.
Критерий Пирсона.
( f э  f T )2
 
fT
- теоретическая частота
- эмпирическая частота
2
fT
fЭ
Методика расчета теоретических частот.
1. Определяется среднее арифметическое и  по интервальному
вариационному ряду, считается t по каждому интервалу.
2. Находим значение плотности вероятности для нормированного закона
распределения.
1
1 2t
f(t )
e
2
44
2
3. Находим теоретическую частоту.
fT 
f
i
l fi

f(t )
- сумма эмпирических частот
f (t )
- плотность вероятности
округлить значение до целых
l – длина интервала
4. Расчет коэффициента Пирсона
 2расчет
5. табличное значение  2
d.f. – количество интервалов – 3
d.f. – количество степеней свободы.
2
6. если  2расчет >  табл
, то распределение не является нормальным, т.е.
гипотеза о нормальном распределении отменяется. Если  2расчет <
2
 табл
, то распределение является нормальным.
Критерий Колмогорова
D

, D – максимальное значение между накопленными
 fэ
эмпирическими и теоретическими частотами.
Необходимое условие для использования Колмогорова:
Число наблюдений более 100. По специальной таблице вероятностей
P() с которой можно утверждать, что данное распределение является
нормальным.
2.8. МЕТОДЫ СРАВНЕНИЯ СТАТИСТИЧЕСКИХ
СОВОКУПНОСТЕЙ.
Статистические методы сравнения совокупностей включают в себя
следующие методы:
1. Оценка достоверности различия обобщающих коэффициентов
(параметрические и непараметрические);
2. Оценка достоверности различий в распределении совокупностей;
3. Стандартизация обобщающих коэффициентов.
45
Общие принципы сравнения совокупностей основываются на анализе
так называемой нулевой гипотезы (Но). Согласно этой гипотезе
первоначально принимается, что между совокупностями (показателями)
различия случайны (не достоверны), т.е., что обе группы вместе составляют
один и тот же однородный материал, одну совокупность. Статистический
анализ должен привести или к отклонению Но-гипотезы, если доказана
достоверность полученных различий, или к ее сохранению, если
достоверность различий не доказана, т.е. различия признаны случайными.
Т.к. статистические различия всегда характеризуются определенным
уровнем значимости, то принятие решения по отбрасыванию или
сохранению Но - гипотезы связано с оценкой уровня значимости. В медикобиологических исследованиях общепризнанным минимальным уровнем
значимости является р=0.05, следовательно:
– если при сравнении совокупностей полученный при исследовании уровень
значимости меньше 0,05 (р < 0,05), то Но–гипотеза отбрасывается и различия
в совокупностях признаются достоверными, воспроизводящимися при
повторных исследованиях с определенной вероятностью;
– если при сравнении совокупностей полученный в исследовании уровень
значимости больше 0,05 (р > 0,05), то Но – гипотеза признается верной
( подтверждается), что свидетельствует об отсутствии достоверных различий
между совокупностями. Последнее может быть связано как с реальным
отсутствием различий, так и с недостаточным объемом выборки, который не
позволяет проявиться основным закономерностям изучаемого явления.
2.8.1. Параметрические методы оценки достоверности различий
обобщающих коэффициентов.
Параметрические методы оценки требуют знания характера
распределения (только для нормального распределения) изучаемого признака
и его параметров (средних величин, стандартного отклонения и др.). Уровень
значимости в этих методах определяется с помощью расчета критерия t и
сравнения его значения с табличным, который соответствует определенному
уровню значимости:
– если >
, то р < 0,05 и Но – гипотеза отвергается;
– если <
, то р > 0,05 и Но – гипотеза принимается,
при этом – фактический критерий, рассчитанный исследовании;
– табличное значение критерия t для р = 0.05.
46
2.8.2. Методы расчета критерия t.
При сопоставлении двух независимых серий наблюдений:
для частотных показателей:
для средних величин:
Для оценки достоверности полученного критерия «t» при числе
наблюдений больше 30 можно пользоваться следующей закономерностью:
если критерий
t ≥ 2, то он достоверен, т.к. соответствует р ≥ 0,95 или р ≤
0,05.
Если критерий
t ≥ 3, то он достоверен с большей степенью
достоверности, т.к. соответствует р ≥ 0,99 или р ≤ 0,01.
Для числа наблюдений меньше 30 достоверность критерия t
определяется по таблице Стьюдента. Для определения табличного значения
критерия t необходимое число степеней свободы рассчитывается по формуле:
где
- число наблюдений в одной совокупности;
- число наблюдений в другой совокупности.
Для оценки различий в частотных показателях можно пользоваться
таблицей, в которой приводятся минимальные значения разности двух
частотных величин достижения которой достаточно для двукратного
превышения своей средней ошибки разности, что подтверждает
достоверность различий. Для пользования таблицей достаточно знать
меньшее значение из двух показателей и число наблюдений, .которое должно
быть не меньше 20.
2.8.3. Непараметрические методы оценки достоверности различий
обобщающих коэффициентов.
Положительные стороны непараметрических методов:
• не требуют предварительного расчета параметров распределения
(средних величин, стандартного отклонения и др.);
• не требуют предварительного знания характера распределения;
• позволяют сравнивать совокупности с номинальными и порядковыми
признаками;
• просты в применении.
47
Отрицательные стороны непараметрических методов:
• дают менее точные результаты, чем параметрические методы;
• имеют существенные ограничения в применении по
наблюдений.
числу
2.8.4. Оценка достоверности различий по методу "хи-квадрат"(критерию
соответствия, критерию Пирсона, коэффициенту согласия)
Область применения метода:
• определение достоверности различий в нескольких сравниваемых
группах и при нескольких результатах с определенной степенью
достоверности;
• определение наличия связи между явлениями без измерения ее
величины;
48
• оценка идентичности
вариационных рядов.
(близости)
распределений
двух
и
более
Преимущества метода:
• не зависит от формы распределения;
• может использоваться для сравнения нескольких групп (признаков)
• используется на абсолютных цифрах;
Ограничения метода:
• величина полученного "хи -квадрата" зависит от перегруппировки
материала. Если группировки не ярко выражены, результат не
показателен;
• действует лишь как суммарный показатель различия, не устанавливая
отклонение каких именно групп друг от друга обусловило конечный
результат;
• группы должны быть как можно более однородны для предупреждения
"погашения влияний";
• "ожидаемые числа" при расчете должны быть не менее 5;
• не следует применять, если число наблюдений < 20
• служит для оценки независимых совокупностей.
Суть метода заключается в том, что в сравниваемых группах
предполагается отсутствие различий в распределении совокупностей
(отсутствие связи между исследуемыми факторами), т.е. формулируется
Но-гипотеза. На основании этой гипотезы рассчитывается новое
распределение признаков в совокупности по группам (расчет т.н.
"ожидаемых чисел").
"Ожидаемые числа" сопоставляют с фактическим. Если Но-гипотеза
верна, то теоретические и фактические числа должны совпасть, и
рассчитанный "хи -квадрат" будет равен 0, либо отклонение теоретических
чисел от фактических будет незначительно и полученный •хи-квадрат" не
превысит своего критического значения.
Чем больше теоретические числа, рассчитанные на основе
Но-гипотезы, будут отличаться от фактических, тем более "хи -квадрат"
будет отличаться от 0 тем с большей вероятностью можно отклонить
Но-гипотезу и говорить о статистической достоверности имеющихся
различий в сравниваемых совокупностях.
Вычисляется по следующей формуле:
49
Алгоритм определения достоверности совпадений и различий для
экспериментальных данных, измеренных в порядковой шкале, заключается в
следующем:
1. Вычислить для сравниваемых выборок
– эмпирическое значение
критерия по формуле.
2. Сравнить это значение с критическим значением
,взятым из таблицы:
 если
<
, то сделать вывод: «характеристики сравниваемых
выборок совпадают на уровне значимости 0,05»;
 если
>
, то сделать вывод «достоверность
характеристик сравниваемых выборок составляет 95%».
различий
2.9. Понятие корреляционной связи и корреляционно-регрессионный
анализ (КРА).
Различают 2 типа связей меду различными явлениями и их признаком
функциональную и статистическую.
Функциональной называется такая связь, когда с изменением значения
одной из переменных вторая изменяется строго определенным образом, т.е.,
значению одной переменной соответствует одно или несколько точно
заданных значений другой переменной. Функциональная связь возможна
лишь в том случае, когда переменная у зависит от переменной х и не от
каких других факторов не зависит, но в реальной жизни такое невозможно.
Статистическая связь существует в том случае, когда с изменением
значения одной из переменных вторая может в определенных пределах
принимать любые значения, но ее статистические характеристики
изменяются по определенному закону.
Важнейший частный случай статистической связи – корреляционная
связь. При корреляционной связи разным значениям одной переменной
соответствуют различные средние значения другой переменной, т.е. с
изменением значения признака х закономерным образом изменяется
среднее значение признака у.
Слово корреляция ввел английский биолог и статист Френсис Галь
(correlation)
50
В статистике принято различать следующие виды зависимости:
1.
парная корреляция – связь между 2мя признаками результативным
и факторным, либо между двумя факторными.
2.
частная корреляция – зависимость между результативным и
одним факторным признаком при фиксированном значении другого
факторного признака.
3.
множественная корреляция – зависимость результативного
признака от двух и более факторных признаков включенных в исследование.
Задачей корреляционного анализа является количественная оценка
тесноты связи между признаками.
В конце 19 века Гальтон и Пирсон исследовали зависимость между
ростом отцов и детей.
Корреляционный анализ устанавливает:
- наличие связи;
- силу связи: слабая (коэффициент корреляции до 0.29), средняя (0.3 0.69), сильная (0.7 и выше);
- направление связи: прямая (изменения признаков происходят в одном
направлении) и обратная (изменения признаков происходят в разных
направлениях);
- характер связи: парциальная (частная) (взаимосвязь между парой
признаков) и множественная (взаимосвязь группы признаков).
Виды представления корреляционной связи:
- корреляционное поле (точечная диаграмма);
- корреляционная решетка (матрица);
- коэффициент корреляция.
Методика корреляционного анализа
1. Качественный и логический анализ совокупности с целью выяснения
причинно-следственной связи.
2. Построение корреляционных матриц или полей для выявления парных
взаимосвязанных факторов.
3. Вычисление коэффициентов корреляции между взаимосвязанными
факторами для установления силы и направления связи (см. таблицу).
4. Оценка достоверности коэффициента корреляции.
Достоверность коэффициента корреляция оценивается:
а) по таблице при числе коррелируемых пар до 9. Фактический
коэффициент корреляции должен быть больше табличного, выбранного для
определенного уровня значимости.
Табличное значение учитывает число степеней свободы, которое при
парной корреляции равно: f = n –2
б) по критерию t:
51
- коэффициент корреляции;
- ошибка коэффициента корреляции;
n - число пар коррелирующих признаков.
Полученный критерий t должен быть больше табличного значения для
уровня значимости 0,05. В этом случае корреляционная взаимосвязь между
признаками признается статистически достоверной (значимой).
Регрессия исследует форму связи. Задача регрессионного анализа –
определение аналитического выражения связи.
Корреляционно-регрессионный анализ как общее понятие включает в
себя изменение тесноты связи и установления аналитического выражения
связи.
Условия применения и ограничения КРА.
1. наличие массовых данных, т.к. корреляционная связь является
статистической
2. необходима качественная однородность совокупности.
3. подчинение распределения совокупности по результативному и
факторному признаку, нормальному закону распределения, что связано с
применением метода наименьших квадратов.
Регрессионный анализ - метод статистической обработки данных,
позволяющий по средней величине одного признака определить среднюю
величину другого признака, корреляционно связанного с первым.
Виды регрессии
- простая (результативный признак рассматривается как функция от
одного аргумента, т.е. одного факторного признака): у = f (x)
- множественная (результативный признак рассматривается как функция
от нескольких аргументов, т.е. факторных признаков):
2.9.1. Парная регрессия на основе метода наименьших квадратов.
Уравнение регрессии - математическое уравнение, описывающее
зависимость между признаками, корреляционно связанными между собой
а) линейная зависимость:
б) экспоненциальная зависимость:
в) показательная зависимость:
г) параболическая зависимость:
52
Регрессионный анализ заключается в определении аналитического
выражения связи. По форме различают линейную регрессию, которая
выражается уравнением прямой y  a  bx , и не линейную регрессию
b
y  a  bx  cx 2 или y  a  .
x
По направлению связи различают на прямую, т.е. с увеличением
признака х увеличивается признак у.
обратная
прямая
Обратная, т.е. с увеличением х уменьшается у.
1.
способ графический – нанеся эмпирические данные на поле
корреляции, но более точная оценка производится с помощью метода
наименьших квадратов.
2.
МНК (метод наименьших квадратов)
Х – признак фактический
У – признак результативный
y  a  bx
2
  y  y   min
Разница между фактическим значением и значением рассчитанным по
уравнению связи возведенное в квадрат должна стремиться к минимуму.
При МНК min сумма квадратов отклонений эмпирических значений у от
теоретических полученных по выбранному уравнению регрессии.
Для линейной зависимости
na  b  xi   yi
a  xi  b xi2   xi yi
 а,b
параметры a,b записываются в уравнение, затем подставляем
полученное уравнение эмпирическое значение xi и находим теоретическое
значение yi. Затем сравниваем yi теоретическое и yi эмпирическое. Сумма
квадратов разности между ними должна быть минимальна. Выбираем тот
вид зависимости, при котором выполняется данная зависимость.
53
В уравнении парной линейной регрессии:
b – коэффициент парной линейной регрессии, он измеряет силу связи,
т.е. характеризует среднее по совокупности отклонение у от его средней
величины на принятую единицу измерения.
Положительный знак при коэффициенте регрессии говорит о прямой
связи между признаками, знак «-» говорит об обратной связи между
признаками.
2.9.2. Применение парного линейного уравнения регрессии.
Основное применение – прогнозирование по уравнению регрессии.
Ограничением при прогнозировании служат условия стабильности других
факторов и условий процесса. Если резко измениться в нем среда
протекающего процесса, то данное уравнение регрессии не будет иметь
места.
Точечный прогноз получается подстановкой в уравнение регрессии
ожидаемого значения фактора. Вероятность точной реализации такого
прогноза крайне мала.
Если точечный прогноз сопровождается значением средней ошибки
прогноза, то такой прогноз называется интервальным.
Средняя ошибка прогноза образуется из двух видов ошибок:
1.
ошибок 1 рода – ошибка линии регрессии
2.
ошибка 2 рода – ошибка, связанная с ошибкой вариации.
Средняя ошибка прогноза.
m y x  m ~yk  S 2y
ост
k
m ~yk  S уост
S уост 
m yx
k
1
n

( x k  x )2
 ( x i  x )2
 ( y i  y )2
n2
- ошибка положения линии регрессии в генеральной совокупности
n – объем выборки
xk – ошибочное значение фактора
СКО результативного признака от линии регрессии в
S уост –
генеральной совокупности
Корреляционный анализ предполагает оценку тесноты связи.
Показатели:
1.
линейные коэффициент корреляции – характеризует тесноту и
направление связи между двумя признаками в случае наличия между ними
линейной зависимости
54
rxy 
rxy  b
 ( x i  x )( y i  y )
 ( x i  x )2  ( y i  y )2
x
y
 1  rxy  1
при
r xy =-1 связь функциональная обратная,
r xy =1 связь
функциональная прямая, при rxy =0 связь отсутствует.
МИНУСЫ
Применяется только для линейных связей, используется для оценки
связей между количественными признаками. Рассчитываются только по
индивидуальным значениям.
ПЛЮСЫ
 высокая степень точности
 подходит для оценки тесноты связи между описательным и
количественным
признаком,
но
количественный
должен
быть
результативным
 подходит для любых типов связей
55
3. Линейное программирование.
Первые задачи геометрического содержания, связанные с отысканием
наименьших и наибольших величин, появились ещѐ в древние времена.
Развитие промышленности в 17-18 веках привело к необходимости
исследования более сложных задач на экстремум и к появлению
вариационного исчисления. Однако лишь в 20 веке при огромном размахе
производства и осознанию ограниченности ресурсов Земли во весь рост
встала задача оптимального использования энергии, материалов, рабочего
времени, большую актуальность приобрели вопросы наилучшего в том или
ином смысле управления различными процессами физики, техники,
экономики и др. Сюда относятся, например, задача организации
производства с целью получения максимальной прибыли при заданных
затратах ресурсов, задача управления системой гидростанций и
водохранилищ
с
целью
получения
максимального
количества
электроэнергии, задача о быстрейшем нагреве или остывании металла до
заданного температурного режима, задача о наилучшем гашении вибраций и
многие другие задачи.
Задача оптимизации может быть успешно решена с помощью ЭВМ,
даже при небольшой вычислительной мощности. При этом качество расчета
и скорость вычислений зависит от используемого программного
обеспечения.
Существует несколько основных алгоритмов оптимизации: методом
перебора, симплекс-методом, (решением экстремальных уравнений или
неравенств).
Наибольший интерес представляет симплекс-метод, при относительно
несложном алгоритме позволяющий просчитывать и находить решение для
сотен и тысяч уравнений (неравенств).
Многие задачи оптимизации сводятся к отысканию наименьшего или
наибольшего значения некоторой функции, которую принято называть
целевой функцией или критерием качества. Постановка задачи и методы
исследования существенно зависят от свойств целевой функции и той
информации о ней, которая может считаться доступной в процессе решения
задачи, а также, которая известна до решения задачи.
Линейным программированием называются задачи оптимизации, в
которых целевая функция является линейной функцией своих аргументов, а
условия, определяющие их допустимые значения, имеют вид линейных
уравнений и неравенств. Линейное программирование начало развиваться в
первую очередь в связи с задачами экономики, с поиском способов
оптимального распределения и использования ресурсов. Оно послужило
основой широкого использования математических методов в экономике.
Следует подчеркнуть, что в рамках реальных экономических задач число
56
независимых переменных обычно бывает очень большим (порядка 10000
элементов).
Транспортная задача является классической задачей исследования
операций. Множество задач распределения ресурсов сводится именно к этой
задаче. Распределительные задачи связаны с распределением ресурсов по
работам, которые необходимо выполнить. Задачи этого класса возникают
тогда, когда имеющихся в наличии ресурсов не хватает для выполнения
каждой работы наиболее эффективным образом. Поэтому целью решения
задачи, является отыскания такого распределения ресурсов по работам, при
котором либо минимизируются общие затраты, связанные с выполнением
работ, либо максимизируется получаемый в результате общий доход.
4. Математическая постановка задачи об оптимальных перевозках
В общем виде задачу можно представить следующим образом: в m
пунктах производства A1, A2, …, Am имеется однородный груз в количестве
соответственно a1, a2, …, am. Этот груз необходимо доставить в n пунктов
назначения B1, B2, …, Bn в количестве соответственно b1, b2, …, bn.
Стоимость перевозки единицы груза (тариф) из пункта Ai в пункт Bj равна cij.
Требуется составить план перевозок, позволяющий вывести все грузы и
имеющий минимальную стоимость.
Обозначим через xij количество груза, перевозимого из пункта Ai, в
пункт Bj. Запишем условия задачи в распределительную таблицу, которую
будем использовать для нахождения решения (табл. 1).
Таблица 1. Модель распределительной таблицы.
Bi
Ai
B1
b1
c11
A1
a1
x11
c12
x12
c21
A2
a2
x21
…
ai
xi1
…
am
xm1
…
…
x22
…
с1j
x1j
…
…
x2j
…
…
…
xij
…
…
xmj
x1n
c2n
…
…
x2n
…
…
…
xin
…
...
xmn
cin
cmj
Математическая модель транспортной задачи имеет вид
57
c1n
cij
cm2
xm2
…
Bn
bn
c2j
ci2
xi2
…
cm1
Am
…
…
…
Bj
bi
c22
ci1
Ai
…
…
B2
b2
cmn
m
n
F ( X )    c ij X ij  min,
i 1 j 1
при ограничениях:
n
x
j 1
ij
 ai ,
ij
 bj ,
m
x
i 1
xi , j  0, i  1, m, j  1, n.
Оптимальным решением задачи является матрица
X ОПТ  ( xij ) mn ,
удовлетворяющая системе ограничений и доставляющая минимум целевой
функции.
4.1. Аналитический метод решения параметрической транспортной
задачи
Методика нахождения исходного опорного решения задачи об
оптимальных перевозках методом Фогеля
Алгоритм выполнения метода.
1. В каждой строке и каждом столбце распределительной таблицы
вычислить разности между всеми парами элементов (Cij) и выбрать
минимальную.
2. Среди всех выбранных минимальных разностей Cij выбрать
максимальное значение и выделить соответствующий столбец (строку).
3. В выбранном столбце (строке) найти минимальное значение Cij и
назначить необходимую перевозку, ориентируясь на наличие запасов (ai)
данного поставщика (Aij) и потребностей (bj) данного потребителя (Bij).
4. Вычеркнув соответствующую строку (столбец), т.е. удалив из
дальнейших расчетов поставщика (потребителя), запасы которого
(потребности) исчерпаны, повторить заново алгоритм (1-4) до полного
составления плана перевозок.
Процесс распределения продолжают до тех пор, пока все грузы от
поставщиков не будут вывезены, а потребители не будут удовлетворены. При
распределении грузов может оказаться, что количество занятых клеток
меньше, чем m+n-1. В этом случае задача считается вырожденной. В этом
случае недостающее число занятых клеток заполняется нулевыми
поставками, которые называются условно занятыми.
58
4.2. Проверка полученного опорного плана на оптимальность.
Найденное исходное опорное решение проверяется на оптимальность
методом потенциалов по следующему критерию: если опорное решение
транспортной задачи является оптимальным, то ему соответствует система
m+n действительных чисел ui и vj, удовлетворяющих условиям ui+vj=cij для
занятых клеток и ui + vj –cij ≤ 0 для свободных клеток.
Числа ui и vj называют потенциалами. В распределительную таблицу
добавляют строку vj и столбец ui.
Потенциалы ui и vj находят из равенства ui + vj = cij, справедливого для
занятых клеток. Одному из потенциалов дается произвольное значение,
например u1 = 0, тогда остальные потенциалы определяются однозначно. Так,
если известен потенциал ui, то vj=cij–ui; если известен потенциал vj, то ui=cijvj.
Обозначим ∆ij=ui+vj–cij. Эту оценку называют оценкой свободных
клеток. Если ∆ij≤0, то опорное решение является оптимальным. Если хотя бы
одна из оценок ∆ij>0, то опорное решение не является оптимальным и его
можно улучшить, перейдя от одного опорного решения к другому [1].
4.3. Методика решения параметрической транспортной задачи
Задача формулируется следующим образом: для всех значений
параметра δ≤k≤φ где δ и φ – произвольные действительные числа, найти
такие значения xij (i  1, m; j  1, n), которые обращают в минимум функцию
n
m
F ( x)   (сij  kcij ) xij ,
j 1 i 1
где Xij – объем поставок груза,
при ограничениях:
m
 xij  ai ,
 i 1
n
 x  b ,
j
 j 1 ij
Xij≥0, i  1, m, j  1, n.
Пользуясь методом потенциалов, (Фогеля) решаем задачу при k=δ до
получения оптимального решения. Признаком оптимальности является
условие:
59
u i  v j  (cij  kcij )  0 для незанятых клеток
и u i  v j  cij  kcij для занятых клеток,
где u i , v j – потенциалы строк, столбцов распределительной таблицы.
Условие совместимости транспортной задачи запишется в виде
 ij  k ij  0
Значения aij и Bij определяются из условия
 ij  ui  vj  cij ,

 ij  ui  vj  cij .
где ui, vj , ui, vj определяются из систем уравнений
ui  vi  cij ,

uj  vj  cij.
Значения k находятся в пределах k1≤k≤k2:
max(  ij /  ij ), если существует хотя бы одно Bij>0;
k1  
если все Bij≥0
 ,
если существует хотя бы одно Bij>0;
min(  ij /  ij ),
k2  
если все Bij≤0.
,
Алгоритм решения.
1) Задачу решаем при конкретном значении параметра k=δ до получения
оптимального решения.
2) Определяем aij и Bij.
3) Вычисляем значение параметра k.
4) Если k>δ, производим перераспределение поставок и получаем новое
оптимальное решение. Если k = δ, то процесс решения окончен [1].
Приложения.
60
1.  ( x) 
1
2
e

x2
2
.
x
0,0
0,1
0,2
0,3
0,4
0,5
0,6
0,7
0,8
0,9
0
0,3989
0,3970
0,3910
0,3814
0,3683
0,3521
0,3332
0,3123
0,2897
0,2661
1
3989
3965
3902
3802
3668
3503
3312
3101
2874
2637
2
3989
3961
3894
3790
3653
3485
3292
3079
2850
2613
3
3988
3956
3885
3778
3637
3467
3271
3056
2827
2589
4
39986
3951
3876
3765
3621
3448
3251
3034
2803
2565
5
3984
3945
3867
3752
3605
3429
3230
3011
2780
2541
6
3982
3939
3857
3739
3589
3410
3209
2989
2756
2516
7
3980
3932
3847
3726
3572
3391
3187
2966
2732
2492
8
3977
3925
3836
3712
3555
3372
3166
2943
2709
2468
9
3973
3918
3825
3697
3538
3352
3144
2920
2685
2444
1,0
1,1
1,2
1,3
1,4
1,5
1,6
1,7
1,8
1,9
0,2420
0,2179
0,1942
0,1714
0,1497
0,1295
0,1109
0,0940
0,0790
0,0656
2396
2155
1919
1691
1476
1276
1092
0925
0775
0644
2371
2131
1895
1669
1456
1257
1074
0909
0761
0632
2347
2107
1872
1647
1435
1238
1057
0893
0748
0620
2323
2083
1849
1626
1415
1219
1040
0878
0734
0608
2299
2059
1826
1604
1394
1200
1023
0863
0721
0596
2275
2036
1804
1582
1374
1182
1006
0848
0707
0584
2251
2012
1781
1561
1354
1163
0989
0833
0694
0573
2227
1989
1758
1539
1334
1145
0973
0818
0681
0562
2203
1965
1736
1518
1315
1127
0957
0804
0669
0551
2,0
2,1
2,2
2,3
2,4
2,5
2,6
2,7
2,8
2,9
0,0540
0,0440
0,0355
0,0283
0,0224
0,0175
0,0136
0,0104
0,0079
0,0060
0529
0431
0347
0277
0219
0171
0132
0101
0077
0058
0519
0422
0339
0270
0213
0167
0129
0099
0075
0056
0508
0413
0332
0264
0208
0163
0126
0096
0073
0055
0498
0404
0325
0258
0203
0158
0122
0093
0071
0053
0488
0396
0317
0252
0198
0154
0119
0091
0069
0051
0478
0387
0310
0246
0194
0151
0116
0088
0067
0050
0468
0379
0303
0241
0189
0147
0113
0086
0065
0048
0459
0371
0297
0235
0184
0143
0110
0084
0063
0047
0449
0363
0290
0229
0180
0139
0107
0081
0061
0046
3,0
3,1
3,2
3,3
3,4
3,5
3,6
3,7
3,8
3,9
0,0044
0,0033
0,0024
0,0017
0,0012
0,0009
0,0006
0,0004
0,0003
0,0002
0043
0032
0023
0017
0012
0008
0006
0004
0003
0002
0042
0031
0022
0016
0012
0008
0006
0004
0003
0002
0040
0030
0022
0016
0011
0008
0005
0004
0003
0002
0039
0029
0021
0015
0011
0008
0005
0004
0003
0002
0038
0028
0020
0015
0010
0007
0005
0004
0002
0002
0037
0027
0020
0014
0010
0007
0005
0003
0002
0002
0036
0026
0019
0014
0010
0007
0005
0003
0002
0002
0035
0025
0018
0013
0009
0007
0005
0003
0002
0001
0034
0025
0018
0013
0009
0006
0004
0003
0002
0001
61
II. у = Ф(х)=
х
00
0,01
0,02
0,03
0,04
0,05
0,06
0,07
0,08
0,09
0,10
0,11
0,12
0,49
0,50
0,51
0,52
0,53
0,54
0,55
0,56
0,57
0,58
0,59
0,60
0,61
0,62
0,63
0,64
0,65
0,66
0,67
0,68
0,69
0,70
0,71
0,72
0,73
0,74
0,75
0,76
0,77
0,78
0,79
0,80
0,81
0,82
0,83
0.84
0,85
0,86
0,87
0,88
0,89
y
00000
0,0040
0,0080
0,0120
0,0160
0,0199
0,0239
0,0279
0,0319
0,0359
0,0398
0,0438
0,0478
0,1879
0,1915
0,1950
0,1985
0,2019
0,2054
0,2088
0,2123
0,2157
0,2190
0,2224
0,2257
0,2291
0,2324
0,2357
0,2389
0,2422
0,2454
0,2486
0,2517
0,2549
0,2580
0,2611
0,2642
0,2673
0.2703
0,2734
0,2764
0,2794
0,2823
0,2852
0,2881
0,2910
0,2939
0,2967
0,2995
0,3023
0,3051
0,3078
0,3106
0,3133
x
0,13
0,14
0,15
0,16
0,17
0,18
0,19
0,20
0,21
0,22
0,23
0,24
1,02
1,03
1,04
1,05
1,06
1,07
1,08
1,09
1,10
1,11
1,12
1,13
1,14
1,15
1,16
1,17
1,18
1,19
1,20
1,21
1,22
1,23
1,24
1,25
1,26
1,27
1,28
1,29
1,30
1,31
1,32
1,33
1,34
1,35
1,36
1,37
1,38
1,39
1,40
1,41
1,42
2
y
0,0517
0,0557
0,0596
0,0636
0,0675
0,0714
0,0753
0,0793
0,0832
0,0871
0,0910
0,0948
x
1
e
0,3461 1,55
0,3485 1,56
0,3508 1,57
0,3531 1,58
0,3554 1,59
0,3577 1,60
0,3599 1,61
0,3621 1,62
0,3643 1,63
0,3665 1,64
0,3686 1,65
0,3708 1,66
0,3729 1,67
0,3749 1,68
0,3770 1,69
0,3790 1,70
0,3810 1,71
0,3830 1,72
0,3849 1,73
0,3869 1,74
0,3888 1,75
0,3907 1,76
0,3925 1,77
0,3914 1,78
0,3962 1,79
0,3980 1,80
0,3997 1,81
0,4015 1,82
0,4032 1,83
0,4049 1,84
0,4066 1,85
0,4082 1,86
0,4099 1,87
0,4115 1,88
0,4131 1,89
0,4147 1,90
0,4162 1,91
62
0,4177 1,92
0,4192 1,93
0,4207 1,94
0,4222 1,95
t2
2
dt .
0
x
0,25
0,26
0,27
0,28
0,29
0,30
0,31
0,32
0,33
0,34
0,35
0,36

y
x
y
0,0987
0,1026
0,1064
0,1103
0,1141
0,1179
0,1217
0,1255
0,1293
0,1331
0,1368
0,1406
0,37
0,38
0,39
0,40
0,41
0,42
0,43
0,44
0,45
0,46
0,47
0,48
0,1443
0,1480
0,1517
0,1554
0,1591
0,1628
0,1664
0,1700
0,1736
0,1772
0,1808
0,1844
0,4394
0,4406
0,4418
0,4429
0,4441
0,4452
0,4463
0,4474
0,4484
0,4495
0,4505
0,4515
0,4525
0,4535
0,4545
0,4554
0,4564
0,4573
0,4582
0,4591
0,4599
0,4608
0,4616
0,4625
0,4633
0,4641
0,4649
0,4656
0,4664
0,4671
0,4678
0,4686
0,4693
0,4699
0,4706
0,4713
0,4719
0,4726
0,4732
0,4738
0,4744
2,16
2,18
2,20
2,22
2,24
2,26
2,28
2,30
2,32
2,34
2.36
2,38
2,40
2,42
2,44
2,46
2,48
2,50
2,52
2,54
2,56
2,58
2,60
2,62
2,64
2,66
2,68
2,70
2,72
2,74
2,76
2,78
2,80
2,82
2,84
2,86
2,88
2,90
2,92
2,94
2,96
0,4846
04854
0,4861
0,4868
0,4875
0,4881
0,4887
0,4893
0,4898
0,4904
0,4908
0,4913
0,4918
0,4922
0,4927
0,4931
0,4934
0,4938
0,4941
0,4945
0,4948
0,4951
0,4953
0,4956
0,4959
0,4961
0,4963
0,4965
0,4967
0,4969
0,4971
0,4973
0,4974
0,4976
0,4977
0,4979
0,4980
0,4981
0,4982
0,4984
0,4985
III.

k
0
2
3
4
5
6
7
8
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
0,2
0,3
k e
k!
0,4
0,904837 0,818731 0,740818 0,670320
0,090484 0,163746 0,222245 0,268128
0,004524 0,016375 0,033337 0,053626
0,001091 0,003334 0,007150
0,000151 0,000055 0,000250 0,000715
0,000004 0,000002 0,000015 0,000057
0,000001 0,000004

k
0,1
Pk ( ) 
1,0
2,0
3,0
0,367879
0,367879
0,183940
0,061313
0,015328
0,003066
0,000511
0,000073
0,000009
0,000001
0,135335
0,270671
0,270671
0,180447
0,090224
0,036089
0,012030
0,003437
0,000859
0,000191
0,000038
0,000007
0,000001
0,049787
0,149361
0,224042
0,224042
0,168031
0,100819
0,050409
0,021604
0,008101
0,002701
0,000810
0,000221
0,000055
4,0
0,018316
0,073263
0,146525
0,195367
0,195367
0,156293
0,104194
0,059540
0,029770
0,013231
0,005292
0,001925
0,000642
0,000197
0,000013 0,000056
0,000003 0,000015
0,000001 0,000004
0,000001
63
0,5
0,6
0,7
0,8
0,9
0,606531
0,303265
0,075816
0,012636
0,001580
0,000158
0,000013
0,000001
0,548812
0,329287
0,098786
0,019757
0,002964
0,000356
0,000035
0,000003
0,496585
0,347610
0,121663
0,028388
0,004968
0,000695
0,000081
0,000008
0,449329
0,359463
0,143785
0,038343
0,007669
0,001227
0,000164
0,000019
0,000002
0,406570
0,365913
0,164661
0,049398
0,011115
0,002001
0,000300
0,000039
0,000004
5,0
6,0
7,0
8,0
9,0
0,006738
0,033690
0,084224
0,140374
0,175467
0,175467
0,146223
0,104445
0,065278
0,036266
0,018133
0,008242
0,003434
0,001321
0,000472
0,000157
0,000049
0,000014
0,000004
0,000001
0,002479
0,014873
0,044618
0,089235
0,133853
0,160623
0,160623
0,137677
0,103258
0,068838
0,041303
0,022529
0,011262
0,005199
0,002228
0,000891
0,000334
0,000118
0,000039
0,000012
0,000004
0,000001
0,000912
0,006383
0,022341
0,052129
0,091226
0,127717
0,149003
0,149003
0,130377
0,101405
0,070983
0,045171
0,026350
0,014188
0,007094
0,003311
0,001448
0,000596
0,000232
0,000085
0,000030
0,000010
0,000003
0,000001
0,000335
0,002684
0,010735
0,028626
0,057252
0,091604
0,122138
0,139587
0,139587
0,124007
0,099262
0,072190
0,048127
0,029616
0,016924
0,009026
0,004513
0,002124
0,000944
0,000397
0,000159
0,000061
0,000022
0,000008
0,000003
0,000001
0,000123
0,001111
0,004998
0,014994
0,033737
0,060727
0,091090
0,117116
0,131756
0,131756
0,118580
0,097020
0,072765
0,050376
0,032384
0,019431
0,010930
0,005786
0,002893
0,001370
0,000617
0,000264
0,000108
0,000042
0,000016
0,000006
0,000002
0,000001
IV. Таблица значений t = t(, n) .
n/
0,95
0,99
0,999
n/
0,95
0,99
0,999
5
2,78
4,60
8,61
20
2,093
2,361
3,883
6
2,57
4,03
6,86
25
2,064
2,797
3,745
7
2,45
3,71
5,96
30
2,045
2,756
3,659
8
2,37
3,50
5,41
35
2,032
2,720
3,600
9
2,31
3,36
5.04
40
2,023
2,708
3,558
10
2,26
3,25
4,78
45
2,016
2,692
3,527
11
2,23
3,17
4,59
50
2,009
2,679
3,502
12
2,20
3,11
4,44
60
2,001
2,662
3,464
13
2,18
3,06
4,32
70
1,996
2,649
3,439
14
2,16
3,01
4,22
80
1,001
2,640
3,418
15
2,15
2,98
4,14
90
1,987
2,633
3,403
16
2,13
2,95
4,07
100
1,984
2,627
3,392
17
2,12
2,92
4,02
120
1,980
2,617
3,374
18
2,11
2,90
3,97

1,960
2,576
3,291
19
2,10
2,88
3,92
ЛИТЕРАТУРА
1. Андронов А. М., Копытов Е. А., Гринглаз Л. Я. Теория вероятностей и
математическая статистика: Учебник для вузов. – 1-е, 2004. – 464 С.
2. Гмурман В.Е. Теория вероятностей и математическая статистика. – М.:
Высш. школа, 1998.
3. Колмогоров А.Н., Журбенко И.Г., Прохоров А.В. Введение в теорию
вероятностей. – М.: Наука, 1982. – 159 С.
4. Кочетков Е.С., Смерчинская С.О., Соколов В.В. Теория вероятностей и
математическая статистика: учебник. – М.: Форум, 2003. – 240С.
5. Максимов Ю.Д., Недзвецкий О.И., Романов М.Ф. Курс высшей
математики для гуманитарных специальностей/ Под ред. Ю.Д.
Максимова: Учеб. Пособие. – СПб.: Специальная Литература, 1999. –
191 с.: ил.
6. Миронова Н.П. Теория вероятностей и математическая статистика:
учебник. – 2005 г. – 224 С.
64
7. Морозов Ю.В. Основы высшей математики и статистики: Учебник. –
М.: Медицина, 1998. 232 с.
8. Омельченко В.П. Практические занятия по высшей математике: Учеб.
пособие/ В.П. Омельченко, Э.В. Курбатова. Изд. 2-е, доп. и перераб. –
Ростов н/Д: Феникс, 2006. – 350 с.:ил. – (Высшее образование).
9. Павлушков И.В. и др. Основы высшей математики и математической
статистики. – М.: ГЭОТАР-Медиа, 2007. – 424с.
10.Соколов Г.А.,Чистякова Н.А. Теория вероятностей. – М.: Экзамен,
2005. – 416С.
Оглавление
1.ОСНОВЫ ТЕОРИИ ВЕРОЯТНОСТИ. .............................................................................................. 3
1.1.СОБЫТИЯ. РАВЕНСТВО СОБЫТИЙ. СУММА И ПРОИЗВЕДЕНИЕ
СОБЫТИЙ. ПРОТИВОПОЛОЖНЫЕ СОБЫТИЯ. ......................................................................... 3
1.2. ЧАСТОТА СЛУЧАЙНОГО СОБЫТИЯ И «СТАТИСТИЧЕСКОЕ ОПРЕДЕЛЕНИЕ» ............. 5
ВЕРОЯТНОСТИ .............................................................................................................................................. 5
1.3. АКСИОМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ .......................................................................................... 6
1.4. КОМБИНАТОРИКА И БИНОМ НЬЮТОНА ................................................................................... 7
1.5. КЛАССИЧЕСКИЙ СПОСОБ ПОДСЧЕТА ВЕРОЯТНОСТЕЙ ...................................................... 9
1.6. ПРАВИЛА СЛОЖЕНИЯ И УМНОЖЕНИЯ ВЕРОЯТНОСТЕЙ ................................................ 10
1.7. ФОРМУЛА ПОЛНОЙ ВЕРОЯТНОСТИ И ФОРМУЛА БАЙЕСА. ............................................ 13
1.8. ФОРМУЛА БЕРНУЛЛИ И ЕЕ ОБОБЩЕНИЕ. ............................................................................. 14
1.9. ПРИБЛИЖЕННЫЕ ФОРМУЛЫ ЛАПЛАСА И ПУАССОНА.................................................... 17
1.10. ДИСКРЕТНАЯ СЛУЧАЙНАЯ ВЕЛИЧИНА И ЗАКОН ЕЕ РАСПРЕДЕЛЕНИЯ. ................ 19
1.11. НЕПРЕРЫВНЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ. ........................................................................ 23
1.12. ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ СЛУЧАЙНЫХ ВЕЛИЧИН. ........................................... 26
2. ОСНОВЫ МАТЕМАТИЧЕСКОЙ СТАТИСТИКИ. ............................................................... 28
2.1. ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ВЕРОЯТНОСТИ.......................................................... 28
2.2. ОРГАНИЗАЦИЯ ИССЛЕДОВАНИЯ. ......................................................................................... 29
2.3. ВИДЫ РАСПРЕДЕЛЕНИЙ. ОБОБЩАЮЩИЕ КОЭФФИЦИЕНТЫ.
ВАРИАЦИОННЫЙ РЯД И ЕГО ХАРАКТЕРИСТИКИ. ............................................................. 31
2.4. ШКАЛЫ ИЗМЕРЕНИЙ ................................................................................................................... 32
2.5. ВИДЫ РАСПРЕДЕЛЕНИЙ ............................................................................................................ 35
2.6.ОСНОВНЫЕ ХАРАКТЕРИСТИКИ ВАРИАЦИОННОГО РЯДА: .................................... 36
2.6.1. СРЕДНИЕ ВЕЛИЧИНЫ ............................................................................................................... 36
2.6.2. ХАРАКТЕРИСТИКИ РАЗНООБРАЗИЯ ВАРИАЦИОННОГО РЯДА ........................ 39
2.6.3. ПРАВИЛО «ТРЕХ СИГМ» .......................................................................................................... 40
2.6.4. КРИВАЯ НОРМАЛЬНОГО РАСПРЕДЕЛЕНИЯ................................................................ 40
2.7.ТЕОРЕТИЧЕСКАЯ ОСНОВА ВЫБОРОЧНОГО МЕТОДА ............................................... 41
2.7.1. ТОЧЕЧНАЯ ОЦЕНКА ПАРАМЕТРА ..................................................................................... 42
8.7.2. ИНТЕРВАЛЬНАЯ ОЦЕНКА ПАРАМЕТРА ........................................................................ 42
2.7.3. ПРОВЕРКА ГИПОТЕЗЫ О НОРМАЛЬНОМ РАСПРЕДЕЛЕНИИ. ............................ 44
2.8. МЕТОДЫ СРАВНЕНИЯ СТАТИСТИЧЕСКИХ..................................................................... 45
СОВОКУПНОСТЕЙ. ................................................................................................................................ 45
2.8.1. ПАРАМЕТРИЧЕСКИЕ МЕТОДЫ ОЦЕНКИ ДОСТОВЕРНОСТИ РАЗЛИЧИЙ
ОБОБЩАЮЩИХ КОЭФФИЦИЕНТОВ. ......................................................................................... 46
65
2.8.2. МЕТОДЫ РАСЧЕТА КРИТЕРИЯ T. ....................................................................................... 47
2.8.3. НЕПАРАМЕТРИЧЕСКИЕ МЕТОДЫ ОЦЕНКИ ДОСТОВЕРНОСТИ
РАЗЛИЧИЙ ОБОБЩАЮЩИХ КОЭФФИЦИЕНТОВ................................................................. 47
2.8.4. ОЦЕНКА ДОСТОВЕРНОСТИ РАЗЛИЧИЙ ПО МЕТОДУ "ХИКВАДРАТ"(КРИТЕРИЮ СООТВЕТСТВИЯ, КРИТЕРИЮ ПИРСОНА,
КОЭФФИЦИЕНТУ СОГЛАСИЯ) ....................................................................................................... 48
2.9. ПОНЯТИЕ КОРРЕЛЯЦИОННОЙ СВЯЗИ И КОРРЕЛЯЦИОННОРЕГРЕССИОННЫЙ АНАЛИЗ (КРА). ................................................................................................ 50
2.9.1. ПАРНАЯ РЕГРЕССИЯ НА ОСНОВЕ МЕТОДА НАИМЕНЬШИХ
КВАДРАТОВ. .............................................................................................................................................. 52
2.9.2. ПРИМЕНЕНИЕ ПАРНОГО ЛИНЕЙНОГО УРАВНЕНИЯ РЕГРЕССИИ. ................ 54
3.
ЛИНЕЙНОЕ ПРОГРАММИРОВАНИЕ. ....................................................................................... 56
4. МАТЕМАТИЧЕСКАЯ ПОСТАНОВКА ЗАДАЧИ ОБ ОПТИМАЛЬНЫХ
ПЕРЕВОЗКАХ ............................................................................................................................................. 57
4.1. АНАЛИТИЧЕСКИЙ МЕТОД РЕШЕНИЯ ПАРАМЕТРИЧЕСКОЙ
ТРАНСПОРТНОЙ ЗАДАЧИ .................................................................................................................. 58
МЕТОДИКА НАХОЖДЕНИЯ ИСХОДНОГО ОПОРНОГО РЕШЕНИЯ ЗАДАЧИ ОБ
ОПТИМАЛЬНЫХ ПЕРЕВОЗКАХ МЕТОДОМ ФОГЕЛЯ ......................................................... 58
4.2. ПРОВЕРКА ПОЛУЧЕННОГО ОПОРНОГО ПЛАНА НА ОПТИМАЛЬНОСТЬ. ...... 59
4.3. МЕТОДИКА РЕШЕНИЯ ПАРАМЕТРИЧЕСКОЙ ТРАНСПОРТНОЙ ЗАДАЧИ ...... 59
ПРИЛОЖЕНИЯ. ........................................................................................................................................ 60
ЛИТЕРАТУРА ............................................................................................................................................. 64
66
1/--страниц
Пожаловаться на содержимое документа