close

Вход

Забыли?

вход по аккаунту

- Юдин С.В.

код для вставкиСкачать
ВВЕДЕНИЕ
Предлагаемый курс разработан профессором, д.т.н. Юдиным С.В. на
основании многолетнего опыта преподавания математики студентам разных специальностей в Тульском филиале Российского государственного
торгово-экономического университета, Тульском государственном университете, Тульском филиале Всероссийского заочного финансовоэкономического университета, Тульском институте экономики и информатики.
Современные экономисты используют для построения моделей самые разнообразные математические методы. Теоретические обоснования
этих методов находятся в различных учебниках. Автор сделал попытку
объединить все необходимые сведения в одном учебнике.
Разумеется, в ограниченном объеме данного пособия невозможно
полностью представить все разделы современной математики. Тем не менее, он содержит основные положения и теоремы, необходимые для специалистов в экономических областях.
Учебник может быть полезен и начинающим преподавателям. При
необходимости они могут воспользоваться им при чтении лекций.
Следует отметить, что лектор имеет право, при необходимости, менять последовательность изложения отдельных разделов.
Нумерация формул, теорем, определений ведется в каждом разделе
отдельно.
Учебник никоим образом не может рассматриваться, как полностью
оригинальный курс. Математика – это достаточно консервативный и очень
объемный предмет, чтобы один автор мог использовать при преподавании
данного курса только собственные разработки. Авторские права в учебнике могут быть распространены только на форму подачи материала и компоновку.
Автор рекомендует использовать совместно с данным пособием книгу: Юдин С.В. Математика в экономике: учебное пособие / С.В. Юдин. –
М.: Изд-во РГТЭУ, 2009. – 228 с. – ISBN 5-87827-386-1
3
ЧАСТЬ 1. МНОЖЕСТВА
1. Операции над множествами
1.1. Терминология, определения
Множества и составляющие их элементы будем обозначать буквами,
как правило, латинского алфавита. Обычно, обозначив множества буквами
A,B,C и т.д., элементы их обозначают буквами a, b , c ... Элемент множества называют также точкой .
Во многих случаях ряд множеств имеет специальное обозначение
(которое, однако, не является обязательным). Так, например, множество
натуральных чисел обозначается буквой N, множество действительных чисел - буквой R и т.д.
Выражения 'x принадлежит множеству E', или 'x есть элемент множества E', или 'x есть точка из E' все имеют одинаковый смысл и могут
быть представлены символически как x∈ E, где ‘∈’ есть знак принадлежности. Его отрицание изображается символом ∉; выражение 'x не принадлежит множеству E' может быть записано как x∉E.
Говорят, что множество E содержится во множестве F , если любой
элемент x из E является элементом множества F. Символически это свойство изображается как E ⊂ F. Выражение 'F содержит E' равнозначно тому,
что 'E содержится в F ', и обозначается F⊃E. Символы ⊂ и ⊃ являются
знаками включения .
Символ '=' представляет собой равенство или тождество. Запись x=y
означает, что x совпадает с y; по соглашению, это может рассматриваться
как тождественное равенство между x и y; это может также означать, что
некоторый элемент x обозначается по новому, через y. Рассмотрим это на
примере.
Пусть имеются два действительных числа a и b. Обозначим
наибольшее из них через max(a,b). С другой стороны, максимальное значение из пары можно обозначить некоторой буквой, скажем с. Очевидно,
что можно записать c=max(a,b).
Отрицанием символа '=' служит символ ' ≠ ', который означает 'отлично
от'.
Символ ⇒ означает логическое следствие ..
Если P и Q - два свойства относительно элементов одного множества, то запись P⇒Q означает, что свойство P влечет свойство Q, т.е. что Q
верно всегда, когда верно P. Если же имеет место и обратное, т.е. Q⇒P, то
факт взаимного следствия записывается следующим образом: P⇔Q. Символ '⇔' означает логическую эквивалентность . Он читается как 'необходимо и достаточно'.
U
U
U
U
U
U
U
U
4
1.2. Подмножества, дополнения, пустое множество
Определение 1 . Всякое множество, составленное из элементов заданного множества E, называется подмножеством множества E. Подмножество определяется заданием некоторого свойства P, которому удовлетворяют
(или которому не удовлетворяют) элементы множества E
Так, если N - множество натуральных чисел 1, 2, 3, 4, и т.д., а P свойство четности, то ему удовлетворяют некоторые натуральные числа,
множество которых составляет часть (подмножество) множества N. Если
же P - свойство, состоящее в том, что 'квадрат элемента из N равен двум',
то оно не выполняется ни для одного элемента этого множества.
Определение2 . Если свойство P не имеет места ни для какого элемента множества E, то подмножество множества E, определяемое этим
свойством, называется пустым подмножеством или пустым множеством .
Пустое множество обозначается O. Говорят также, что такое множество
пусто, или что множество элементов, удовлетворяющих P, пусто.
Подмножество, содержащее лишь один элемент x, обозначается {x}.
Множество всех подмножеств множества E обозначается через P(E).
Соотношения E ⊂ P(E) и O ⊂ P(E) верны всегда.
Запись X⊂P(E) означает, что X есть элемент множества подмножеств множества E, т.е. является подмножеством множества E, так что
можно записать X⊂E.
Определение 3 . Пусть E есть некоторое множество, а X - его подмножество, определенное свойством P. Дополнением множества X до E
называется множество элементов из E, не принадлежащих X.
Дополнение множества X обозначается через E\X. Дополнением пустого множества является все множество E и обратно.
U
U
U
U
U
U
U
U
U
U
U
U
U
U
1.3. Объединение, пересечение, произведение
Определение 4 . Объединением двух множеств E и F называется
множество элементов, принадлежащих E или F. Союз 'или' является отрицанием союза 'и', означающего 'одновременно'. Символом объединения является знак ' ∪'. Имеем E∪F=F∪E.
В объединении двух множеств, E и F , мы можем рассмотреть элементы из E, не принадлежащие F, элементы из F, не принадлежащие E, и
элементы, принадлежащие одновременно E и F.
Пусть X,Y - произвольные подмножества из E. Тогда (X∪Y)⊂ E, или
(X∪Y)⊂P(E). Для любого X⊂P(E) имеем X∪O=X.
U
U
U
U
5
Определение 5 . Пересечением двух множеств E и F называется множество элементов, принадлежащих и E, и F. Пересечение двух множеств
обозначается E∩F. Имеем E∩F=F∩E.
Таким образом, множество E∩F составлено из элементов, для которорыв выполняется свойство 'x∈E и x∈F'. Если ему не удовлетворяет ни
один элемент, множество E∩F пусто. Тогда записывают E∩F=O и говорят, что E и F дизъюнктны , или не имеют общих точек , или не пересекаются . Каково бы ни было X⊂P(E), всегда X∩O=O.
Если E∩F≠O, т.е. если E и F имеют общий элемент, то говорят, что
пересечение множеств E и F не пусто, что E пересекает F, или F пересекает E, или что E и F пересекаются.
U
U
U
U
U
U
U
U
U
U
Пример. Если E - множество таких действительных чисел x, что
a≤x≤b, F - множество таких действительных чисел x, что b≤x<=c, G множество таких действительных чисел x, что b<x≤c, где a, b, c - заданные действительные числа, то множества E∪F и E∪G тождественны и состоят из чисел x, удовлетворяющих условию a≤x≤c. Множество E∩F состоит из единственного числа b, а E∩G пусто.
Пусть E и F - два множества. Произведением множества E на множество F называется множество всех элементов, получаемых путем составления пар из двух элементов, первый из которых, x, принадлежит E, а
второй, y, принадлежит F. Произведение множества E на множество F обозначается E×F; элемент этого произведения обозначается (x,y), где x∈E,
y∈F.
В общем случае E×F≠F×E.
1.4. Свойства операций над множествами
Объединение и пересечение, рассматриваемые как операции над
множествами E, F, G,
коммутативны, т.е. E∪F=F∪E , E∩F=F∩E ;
6
ассоциативны, т.е. (E∪F) ∪G=E∪(F∪G) , (E∩F)∩G=E∩(F∩G).
Пересечение дистрибутивно относительно объединения, т.е.
E∩(F∪G)=(E∩F)∪(E∩G).
Объединение дистрибутивно относительно пересечения, т.е.
E∪(F∩G)=(E∪F)∩(E∪G).
Если X, Y - подмножества множества E, то
1) X⊂Y<==>X∪Y=Y<==>X∩Y=X
2) X⊂X∪Y
3) X∩Y⊂X, X∩Y⊂Y
4) X∪(E\X)=E, X∩(E\X)=O
5) E\(X∪Y)=(E\X)∩(E\Y)
6) E\(X∩Y)=(E\X)∪(E\Y)
Иногда для обозначения операции объединения используется символ сложения '+', а для обозначения операции пересечения - символ умножения '.'.
Пример. Докажем, например, свойство (A∪B) ∩C=(A∩C)∪(B∩C).
Это можно записать также следующим образом: (A+B)C=AC+BC.
Пусть x принадлежит (A+B). Очевидно, что он принадлежит либо A, либо
B. Пусть x принадлежит A. Отсюда следует, что x принадлежит AC, а, следовательно, x принадлежит AC+BC. Таким образом, из 'x принадлежит
A+B' следует 'x принадлежит AC+BC'.
Пусть теперь x принадлежит C. Если (A+B)C≠O, то либо x принадлежит (A+B), либо (A+B)C - пустое множество. Если x принадлежит
(A+B), то этот случай уже рассмотрен. Если x не принадлежит (A+B), то x
не принадлежит ни A, ни B. Тогда AC=O и BC=O. Следовательно, в правой части рассматриваемого выражения находится пустое множество.
Таким образом, мы доказали утверждение (A+B)C ⇒ AC+BC.
Пусть теперь x принадлежит AC+BC. Значит, x принадлежит либо
AC, либо BC. Пусть x принадлежит AC. Тогда x принадлежит и A, и C.
Отсюда следует, что x принадлежит (A+B) и C. Cледовательно, x принадлежит (A+B)C.
Таким образом, доказано утверждение
AC+BC ==> (A+B)C.
Отсюда, исходное утверждение доказано.
7
2. Функции или отображения.
2.1. Исходные определения
Определение 1. Пусть E, F - два множества. Обозначим через x произвольный элемент из E, а через y - произвольный элемент из F. Говорят,
что определено отображение множества E во множество F, если указан
способ, посредством которого каждому x, принадлежащему E, ставится в
соответствие некоторый элемент y из F.
Отображение E в F обычно обозначается строчной латинской буквой
(чаще всего - f).
Пусть y есть элемент из F, соответствующий элементу x из E при
отображении f. Это записывается так: y=f(x). Элемент x называется переменным, а элемент y, или f(x), из F называется значением этого отображения f, или образом f(x) элемента x при отображении f.
В качестве синонима термина 'переменное' используются также термины 'индекс' и 'параметр'.
Определение 1’.Отображение множества E во множество F называется также функцией, определенной на E, со значениями в F, или функцией f.
Иногда вместо 'функции' говорят о преобразовании множества E в F
или об операторе. Все эти названия употребляются в одинаковом смысле,
и их использование диктуется соображениями удобства.
Если задано отображение f множества E в F, то это записывается в
виде x→f(x) и может быть прочитано так: 'x переходит в f(x)'. Обратно,
можно посредством некоторых правил выразить значение y через значение x и говорить, что f есть функция, определяемая как x → y.
Важные замечания. 1) Следует тщательно различать символы x, f(x),
f, т.к. x есть элемент из E; f(x) - элемент из F; f - математическое понятие,
отличное от x и от f(x).
2) Одной из характерных черт современной математики является как
раз изучение свойств множеств, элементами которых служат функции.
2.2. Отображение во множество, отображение на множество, взаимно однозначное отображение
Пусть f есть отображение множества E во множество F. Выражение 'f
определено на E' означает, что каждому x, принадлежащему E, соответствует при отображении f некоторое y, принадлежащее F. Выражение 'f
есть отображение E в F' только это и означает, т.е. каждому x из E соответствует y из F.
Но множество значений f(x) не обязано включать в себя все элементы
множества F. Так, функция 'sin' есть отображение множества R действи8
тельных чисел в R, но множество значений sinx состоит из действительных
чисел y, удовлетворяющих условиям
-1≤y≤1.
Если множество всех значений f(x), принимаемых функцией f, есть
все множество F, то f называется отображением E на F. В этом случае для
любого y из F найдется хотя бы один элемент x из E, для которого y=f(x).
Утверждение, что f есть отображение E на F, означает, что каждое y
из F есть образ при отображении f хотя бы одного x из E. Иначе говоря,
уравнение y=f(x) имеет по крайней мере одно решение при любом y, принадлежащем F.
Определение 2. Пусть f есть отображение E на F. Если любой элемент y из F является при отображении f образом единственного элемента x
из E, то отображение f называется взаимно однозначным, или биективным;
говорят также, что f есть биекция. Таким образом, утверждение, что 'f есть
взаимно однозначное отображение', означает прежде всего, что f - отображение 'на' и что уравнение y=f(x) имеет единственное решение для любого
y из F.
Определение 3. Если E=F и f есть взаимно однозначное отображение
E на себя, то f называется перестановкой.
Для того, чтобы f было взаимно однозначным отображением E на F,
необходимо и достаточно, чтобы f было отображением E на F и чтобы для
любых x 1 и x 2 из E (x 1 ≠x 2 ) всегда f(x 1 )≠f(x 2 ) в F.
B
B
B
B
B
B
B
B
B
B
B
B
2.3. Обратное отображение
Определение 4. Пусть f есть отображение множества E на множество
F. И пусть y - точка из F; если f не является отображением на F, то не для
всякого y существует x из E, для которого f(x)=y, а если существует, то их
может быть несколько, так что множество элементов из E, имеющих образом при отображении f один и тот же элемент y из F, составляет часть
множества E и может быть как пустым, так и состоять из нескольких точек. Следовательно, если задана функция f, то, вообще говоря, нельзя
устроить обращение от F к E. Напротив, рассмотрим расширение функции
f на множество подмножеств P(E) и P(F). Обозначим это расширение через
v. Пусть X o из P(E) - подмножество E, и пусть Y=v(X o ) - образ в P(F) множества X o при отображении v; Y есть множество всех y=f(x), принадлежащих F, для которых x принадлежит X o . Обратно, зададим подмножество Y,
включенное в F; рассмотрим все те x из E, для которых f(x) принадлежит
Y; множество всех этих x образует подмножество X из E (которое содержит подмножество X o ). Если любому Y из P(F) поставить в соответствие
таким образом определенный элемент X из P(E), то будет установлено
отображение P(F) в P(E), которое называется обратным отображением к v
и обозначается через v -1 .
B
B
B
B
B
B
B
B
B
P
P
9
B
Следовательно, это есть отображение множества подмножеств (из F)
во множество подмножеств (из E), как и само отображение v.
В обычной записи между f и v не делается различия, и отображение v -1 обозначается f --1 . Стало быть, используется символическое обозначение f(x), f(X), f --1 (Y). Однако важно отметить, что f(x) есть элемент
из F; f(X) - подмножество из F; f --1 (Y) - подмножество из E и что, вообще
говоря, f --1 определено не как отображение множества F во множество E, а
только как отображение P(F) и P(E).
Для того, чтобы f --1 определяло отображение F в E, необходимо и достаточно, чтобы f было взаимно однозначным отображением E на F. Тогда
отображение f --1 также взаимно однозначно.
Пример 1. Пусть f есть отображение x→x 2 множества E=R во множество F=R. Обратное отображение f --1 ставит в соответствие каждому множеству действительных чисел другое множество действительных чисел.
Например, если X o =[0,1], то f(X o )=X o =Y, принадлежащее F.
Обратно, подмножество тех x из E, для которых f(x) принадлежит отрезку [0,1], есть [-1,1].
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
P
B
B
B
B
P
B
B
2.4. Композиция отображений
Пусть заданы три множества: E, F, G и пусть f - отображение E в F, а
g - отображение F в G.
Каждому x из E отображение f ставит в соответствие элемент f(x) из
F. Отображение g переводит f(x) в g(f(x)), принадлежащий G. Следовательно, определено отображение h множества E во множество G:
x→g(f(x)).
Это отображение называется композицией отображения F на G и
обозначается: h=g⊗f.
Важно отметить, что если можно определить g⊗f, то f⊗g может не
иметь смысла.
2.5. Последовательности
Мы предполагаем известным множество N натуральных чисел , а
также его свойства.
Определение 5. Множество X называется счетным, если существует
хотя бы одно взаимно однозначное отображение множества N на множество X.
Определение 6. Последовательностью называется отображение множества N в некоторое заранее заданное множество E.
Обозначения. Если элементы множества N обозначены через n, p, q,
k,..., то значение f есть f(n) и является элементом множества E.
Сама последовательность обозначается через {x n }.
B
10
B
Множество значений. Пусть X есть множество значений последовательности из E, которое не следует смешивать с понятием самой последовательности. Множество значений может быть конечным или счетным. Если в E задано конечное или счетное подмножество X, то можно
многими способами определить последовательность, для которой X было
бы множеством значений (мы предполагаем, естественно, что множество X
состоит хотя бы из двух элементов, т.к. в случае одного элемента определяемая последовательность будет постоянной). Таким образом, если X
счетно, то существует, по определению, как минимум одно взаимно однозначное отображение множества N на множество X; это отображение и
есть последовательность {x n }. Возьмем теперь перестановку множества N,
т.е. взаимно однозначное отображение N на N: n→p(n). Композиция этих
двух отображений дает новую последовательность {x p(n) }, множеством
значений которой снова будет X; эта последовательность, вообще говоря,
отличается от первой, т.к. две последовательности {x n }, {y n } (являющиеся
отображениями) равны, если при любом n: x n =y n .
Определение 7. Подпоследовательность заданной последовательности. Пусть {x(n)} есть заданная последовательность из E. И пусть задано
строго возрастающее отображение множества N в N, т.е. задана последовательность {n(k)} натуральных чисел, в которой k<k' влечет n(k)<n(k'). Последовательность {y(k)}, определяемая равенством y(k)=x(n(k)) при любом
k, называется подпоследовательностью последовательности {x(n)}.
B
B
B
B
B
B
B
B
B
B
B
B
2.6. Бинарные отношения, эквивалентность
Определение 8. Пусть E - некоторое множество и пусть A - подмножество из E×E; говорят, что два элемента x,y из E связаны бинарным отношением, определяемым посредством A, если (x,y) принадлежит A.
Примеры. Пусть, например, E=N - множество натуральных чисел.
Определим на множестве N×N подмножество A: (p,q) такие, что p+q - четное число.
Равенство также является бинарным отношением. Если E - некоторое множество, а D - диагональ множества E×E, т.е. множество элементов
(x,x), где x принадлежит E, то отношение (x,y) принадлежит D есть не что
иное, как x=y.
В дальнейшем бинарное отношение будем записывать следующим
образом: R(x,y).
Отметим, что задание бинарного отношения R(x,y) для пар элементов
из E не означает, что это отношение выполняется для любой пары.
Пусть R(x,y) - бинарное отношение на E. Обозначим снова через A
подмножество из E×E, которое определяет R или которое определяется R.
Определение 9. Отношение R называется рефлексивным, если R(x,x)
справедливо для любого x из E, т.е. если для любого x из E всегда (x,x)
принадлежит A, и значит A содержит диагональ множества E×E.
11
Отношение R называется симметричным, если R(x,y) ⇔ R(y,x). Отношение
R называется транзитивным, если из (R(x,y) и R(y,z)) следует R(x,z). Отношение R называется антисимметричным, если (R(x,y) и R(y,x)) влечет за собой x=y.
Определение 10. Бинарное отношение R на множестве E называется
отношением эквивалентности, если оно рефлексивно, симметрично и транзитивно.
Примеры. 1) Пусть на плоскости задано направление D и пусть R
есть отношение между двумя точками M и M', введенное следующим образом: R(M,M') ⇔ прямая MM' параллельна D.
2) Между двумя парами (p,q),(p',q') натуральных чисел устанавливается отношение R:
R[(p,q),(p',q')] ⇔ pq'=p'q или отношение R:
R[(p,q),(p',q')] ⇔ p+q'=p'+q.
Определение 11. Классом эквивалентности в E по отношению эквивалентности R называется множество всех элементов из E, эквивалентных некоторому заданному элементу x.
Примечание: можно показать, что два класса эквивалентности не
пересекаются, либо совпадают.
Определение 12. Фактором или фактормножеством множества E по
отношению эквивалентности R называется множество классов эквивалентности.
2.7. Порядок
Определение 13. Говорят, что бинарное отношение R на множестве E
есть отношение порядка, если R рефлексивно, транзитивно и антисимметрично, т.е: R(x,x) справедливо при любом x из E; (R(x,y) и R(y,z)) ⇒ R(x,z);
(R(x,y) и R(y,x)) ⇒ x=y.
Терминология.
1) Будем обозначать отношение R символом '≤'.
2) x≤ y читается как 'x меньше y'.
3) Если R есть отношение порядка, то отношение R(y,x) между x и y
тоже есть отношение порядка, называемое отношением, противоположным
R(x,y), и обозначаемое '≥'.
4) x≥ y читается как 'x больше y'.
5) x≤y логически эквивалентно y≥x.
6) Если задано отношение порядка, то символическая запись x<y
означает, что x≥y и x≠y. В этом случае будем говорить, что x строго меньше y или что y строго больше x.
7) Если множество E наделено отношением порядка, то говорят, что
E - упорядоченное множество.
12
Замечание. Если на E задано отношение порядка, то это не должно
обязательно означать, что для любой пары (x,y) выполняется одно из отношений R(x,y) или R(y,x).
Примеры. Множество N натуральных чисел упорядочено отношением p<q. Отношение включения A⊂B есть отношение порядка на
множестве P(E) подмножеств множества E.
Определение 14. Если R есть отношение порядка на E и если для любой пары (x,y) всегда либо R(x,y) либо R(y,x), то множество называется линейно упорядоченным.
2.8. Наименьший и наибольший элементы.
Определение 15. Пусть E - упорядоченное множество. Если существует такой элемент a, принадлежащий E, что a≤x (соответственно, x≤a)
для любого x из E, то a называется наименьшим (наибольшим) элементом.
Если в E имеется наименьший элемент, то он единственный.
Пример. Пусть P(E) есть множество подмножеств некоторого множества E, упорядоченного отношением включения . Для любого A, принадлежащего P(E) имеем: O⊂A⊂E; следовательно, пустое множество будет наименьшим, а E - наибольшим в P(E).
Замечание. Упорядоченное множество может не иметь наименьшего
или наибольшего элемента. Так, во множестве R действительных чисел не
существует ни наибольшего, ни наименьшего числа. Для множества
E:0<x≤1 наибольший элемент равен 1, а наименьшего не существует.
2.9. Верхняя и нижняя грани.
Определение 16. Пусть E - упорядоченное множество, а A - его подмножество. Если существует x из E такой, что для любого y из A: y≤x (y≥x),
то элемент x называется верхней (нижней) гранью множества A.
Определение 17. Наименьшая из всех верхних граней называется
точной верхней гранью. Она обозначается
sup A
X ∈А
Определение 18. Наибольшая из всех нижних граней называется точной нижней гранью. Она обозначается inf A .
x∈A
13
ЧАСТЬ 2. ЭЛЕМЕНТЫ ЛИНЕЙНОЙ АЛГЕБРЫ И
АНАЛИТИЧЕСКОЙ ГЕОМЕТРИИ
3. Матрицы и системы линейных алгебраических уравнений
3.1. Определители.
Рассмотрим систему линейных алгебраических уравнений
a11 x + a12 y = b1 
(1)

a 21 x + a 22 y = b2 
Решение этой системы следующее:
b a − b2 a12 
x = 1 22
a11a 22 − a 21a12 
(2)

b2 a11 − b1a 21 
y=
a11a 22 − a 21a12 
Можно заметить, что в формулах (2) четыре раза встречается выражение одного и того же типа, а именно, функция от четырех переменных
f(a,b,c,d), называемая определителем второго порядка и обозначаемая следующим образом:
a b
f (a , b, c, d ) =
= ab − cd .
(3)
c d
Таким образом, решение (2) системы (1) можно записать несколько в
другой форме:
b1 a 12
a12 b1
b
a 22
a
b2
.
(4)
x= 2
; y = 22
a 12 b1
a12 b1
a 21 b2
a 21 b2
Аналогично определяются определители третьего и более высоких
порядков.
Рассмотрим алгоритм вычисления определителя третьего порядка
(без доказательства). Пусть дан определитель третьего порядка
a11 a12 a13
D = a 21
a 22
a 23 .
a 31
a 32
a 33
Он равен
D = a11
a 22
a 23
a 32
a 33
− a12
a 21
a 23
a 31
a 33
или
14
+ a13
a 21
a 22
a 31
a 32
.
(6)
D = a11
a 22
a 23
− a 21
a12
a13
+ a 23
a11
a 22
.
(7)
a 32 a 33
a 32 a 33
a 31 a 32
Разложения (6) и (7) дают одинаковый результат. Метод, который
здесь был применен, называется метод вычисления определителя при помощи разложения по минорам
Определение 1. Пусть дан определитель порядка n. Минором этого
определителя порядка k (k < n) называется определитель порядка k, образованный из исходного вычеркиванием (n-k) столбцов и (n-k) строк.
Пусть теперь дан определитель порядка n:
a11 a12 ... a1n
a
a 22 ... a 2 n
(8)
D = 21
.
...
... ... ...
a n1 a n 2 ... a nn
Он равен
n
∑ (−1) k +1 a1k M1k .
D=
(9 )
k =1
или
n
D = ∑ ( −1) i +1 a i1 M i1 .
(10)
i =1
Здесь M lm - определитель порядка (n-1), образованный из исходного
вычеркиванием строки с номером l и столбца с номером m.
Разложение (9) называется разложением определителя по первой
строке, а разложение (10) - разложением по первому столбцу.
Свойства определителей:
1) При перестановке местами двух строк (столбцов) значение определителя меняет знак.
2) Если поэлементно прибавить к одной строке (столбцу) прибавить
другую строку (столбец), умноженную (поэлементно) на любое, не равное
нулю, число, то значение определителя не изменится.
3) Если умножить поэлементно на любое, не равное нулю, число
строку (столбец), то значение определителя тоже будет умножено на это
число.
4) Если определитель имеет две равные строки (столбцы), то его значение равно нулю.
B
B
15
3.2. Применение определителей для решения систем алгебраических уравнений (правило Крамера)
Пусть дана система n линейных алгебраических уравнений с n неизвестными:
a11 x1 +...+ a1n xn = b1 

.........................

an1 x1 +...+ ann xn = bn 
(11)
Вычислим определители
a11 a12
a
a22
∆ = 21
...
...
an1 an 2
... a1n
... a2 n
;
... ...
... ann
a11 ... a1,i − 1
....; ∆ i =
b1 a12
b a22
∆1 = 2
... ...
bn an2
b1
a1,i + 1
... a1n
a11 b1
... a2 n
a
b
; ∆ 2 = 21 2
... ...
... ...
... ann
an1 bn
... a1n
a11
a12
a21 ... a2 ,i −1 b2 a2 ,i +1 ... a2 n
a
a22
; ...; ∆ n = 21
... ...
...
...
...
... ...
...
...
an1 ... an ,i −1 bn an ,i +1 ... ann
an1 an 2
... a1n
... a2 n
;
... ...
... ann
... b1
... b2
.
... ...
... bn
Величина ∆ называется главным определителем системы.
Пусть ∆ не равно нулю. Тогда существует единственное решение системы уравнений (11):
∆
∆
∆
∆
(12)
x1 = 1 ; x 2 = 2 ; ...; xi = i ; ...; x n = n .
∆
∆
∆
∆
Если главный определитель системы равен нулю, то:
1) если хотя бы один из остальных определителей отличен от нуля, то система (11) несовместна (решений нет);
2) если все определители равны нулю, то существует бесконечно много
решений этой системы (одно или несколько уравнений являются линейными комбинациями остальных).
3.3. Матрицы
Определение 2. Назовем матрицей упорядоченный прямоугольный
набор чисел, который можно представить в виде таблицы:
a11 a12 ... a1n
a
a 22 ... a 2 n
(13)
.
A = 21
...
... ... ...
a n1 a n 2 ... a nn
16
Определение 3. Минором матрицы, называется определитель, полученный из элементов матрицы вычеркиванием одного или нескольких
столбцов и одной или нескольких строк.
Определение 4. Рангом матрицы называется наивысший порядок отличных от нуля миноров этой матрицы. Обозначение:
rang A=Rg A - ранг матрицы A.
Определение 5. Если ранг матрицы равен r, то любой минор порядка
r, отличный от нуля, называется базисным минором, а строки и столбцы,
на которых он построен, называются базисными.
Рассмотрим матрицы-столбцы
 a1 
 b1 
a 
b 
2

A=
;
B =  2 .
 ... 
 ... 
 
 
 an 
 bn 
A=B если они имеют одинаковое число строк и для любого i выполнено равенство a i =b i .
a1 + b1
αa1
a + b2
αa 2
.
A+ B= 2
. αA =
... ...
...
a n + bn
αa n
Из определения этих операций очевидны следующие свойства:
A+B=B+A; (A+B)+C=A+(B+C); α(βA)=(αβ)A; α(A+B)=αA+αB;
(α+β)A=αA+βA.
Определение 6. Пусть даны столбцы A 1 ,A 2 ,...,A k . Назовем столбец
α 1 A 1 +α 2 A 2 +...+α k A k линейной комбинацией исходных столбцов.
Определение 7. Говорят, что столбцы A 1 ,A 2 ,...,A k линейно зависимы,
если существует такая их линейная комбинация
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
n
B = ∑ α i Ai ,
(14)
i =1
что не все коэффициенты α i равны нулю. Если же равенство (12) возможно
только при условии равенства всех коэффициентов α i нулю, то столбцы
называются линейно независимыми.
Теорема 1 (теорема о базисном миноре). Каждый столбец матрицы
можно представить в виде линейной комбинации ее базисных столбцов.
Доказательство. Пусть RgA=r. Для определенности будем считать, что
ми-нор порядка r, не равный нулю, расположен в левом верхнем углу матрицы:
B
B
B
17
B
a11 . . . a1m
a11
A = ... ... ... , S = ...
a n1 . . . a nm
a r1
Возьмем новый минор:
a11 . . . a1r a1i
... ... ... ...
.
dj =
a r1 . . . a rr a ri
a j1 . . . a jr a ji
. . . a1r
... ... .
. . . a rr
(15)
Ясно, что для любого значения числа j этот определитель равен нулю, т.к. он имеет порядок r+1. Отсюда следует, что столбцы определителя
являются линейно зависимыми. Покажем это.
Разложим определитель (13) по последней строке:
r
d j = ∑ a jk ck + a ji ci .
(16)
k =1
Здесь c k - алгебраическое дополнение элемента a jk .
По крайней мере, одно число (c i ) не равно нулю в (16), т.к. оно равно
по модулю определителю S≠0. Соотношение (16) справедливо для любого
j, поэтому можем записать:
B
B
B
B
B
B
0 = a11c1 + .. .+a1r cr + a1i ci


. ... .. .. ... .. ... .. .. ... .. .. ... .. .. ..

0 = an1c1 + .. .+anr cr + ani ci

(17)
Соотношение (17) показывает, что любой i-й столбец является линейной комбинацией базисных столбцов.
Следствие: если определитель равен нулю, то его столбцы линейно
зависимы.
Теорема 2 (теорема о ранге матрицы). Ранг матрицы равен максимальному числу линейно независимых ее столбцов.
Доказательство. Пусть ранг матрицы равен RgA=r. Докажем, что
базисные столбцы матрицы линейно независимы.
Если бы они были линейно зависимы, то столбцы базисного минора
также были бы линейно зависимы, следовательно, он был бы равен нулю.
Покажем теперь, что любой набор r+1 столбцов линейно зависим.
Введем матрицу A', содержащую r+1 выбранных столбцов. Очевидно, что
RgA'≤r, следовательно, число базисных столбцов матрицы A' не превосходит r, так что эти столбцы линейно зависимы.
Замечание: все сказанное о столбцах относится и к строчкам.
Следствие: для каждой матрицы максимальное количество линейно
независимых столбцов равно максимальному числу линейно независимых
строк.
Теорема 3. Ранг матрицы не изменится, если к некоторому ее столбцу прибавить произвольную линейную комбинацию остальных столбцов.
18
Теорема 4. Пусть в некоторой матрице имеется r линейно независимых столбцов, а любой другой ее столбец можно представить в виде линейной комбинации этих столбцов. Тогда RgA=r.
3.4. Системы линейных уравнений
Пусть дана система линейных уравнений
a11x1 + . . .+ a1n xn = b1 

.........................
a m1x1 + . . .+ a mn xn = bm 
(18)
Обозначим решения системы (18) через x' 1 ,x' 2 ,...,x’ n и y' 1 ,y' 2 ,...,y' n .
Они равны, если x' i =y' i для любого i. В дальнейшем будем рассматривать вектор-столбец решения:
x'1
x'
X= 2 .
...
x' n
Обозначим
a11 . . . a1n
B
B
A = ...
a m1
B
B
B
B
B
B
B
B
B
B
B
B
B
B
. . . - основная матрица системы;
. . . a mn
...
a11 . . . a1n b1
B = . . . . . . . . . . . . - расширенная матрица системы.
a m1 . . . a mn bm
Теорема 5 (теорема Кронекера-Капелли). Система линейных уравнений (18) совместна (имеет решение) в том и только в том случае, когда
RgA=Rg B.
Доказательство.
1) Пусть решение существует, тогда имеем равенство
b1
a11
a12
a1n
. . . = x1 . . . + x 2 . . . + . . .+ x n . . . .
(19)
bm
a m1
a m2
a mn
Равенство (19) означает, что последний столбец матрицы B является
линейной комбинацией столбцов матрицы A, следовательно, RgB≤RgA, а,
т.к. матрица B включает в себя матрицу A, то Rg A=Rg B.
2) Пусть теперь Rg A=Rg B. Покажем, что система совместна.
Т.к. базисный минор матрицы A является базисным минором матрицы B, то вектор-столбец b i можно представить в виде линейной комбинаB
B
19
ции столбцов матрицы A (к базисным столбцам добавляем остальные с нулевыми коэффициентами).
3.5. Фундаментальное семейство решений
Рассмотрим однородную систему уравнений
n
∑ aij x j = 0
(i = 1... m).
(20)
j =1
Нас будет интересовать нетривиальное (ненулевое) решение этой системы.
Пусть Rg A=r. Тогда существует r линейно независимых уравнений
системы (20). Пусть это будут первые r строк. Это всегда можно сделать
перестановкой уравнений. Тогда имеем систему
r
∑ aij x j = 0
(i = 1...m).
(21)
j =1
Если некоторый вектор X' является решением системы (21), то и cX',
где c - некоторая константа, тоже является решением этой системы. Кроме
того, если X' и X'' - два различных решения, то их сумма X'+X'' - тоже решение.
Рассмотрим различные варианты.
1) Пусть r=n. тогда, по правилу Крамера, решение единственно.
2) Пусть r<n. Тогда решений может быть несколько.
Определение 7. Говорят, что некоторый набор решений системы (21)
является фундаментальным семейством решений, если эти решения линейно независимы и любое другое решение можно представить в виде их
линейной комбинации.
Теорема 6. Если r<n, то система (21) имеет фундаментальное семейство решений. При этом, каждое фундаментальное семейство состоит из
(n-r) решений.
Определение 8. Линейная комбинация фундаментального семейства с
произвольными коэффициентами называется общим решением системы
(21).
Рассмотрим теперь две системы уравнений:
n
∑ aij x j = bi
(i = 1...m).
(22)
(i = 1... m).
(23)
j =1
и
n
∑ aij x j = 0
j =1
Теорема 7.
20
Пусть X 0 - какое-либо решение неоднородной системы (22), а
X 1 ,X 2 ,...,X k - фундаментальное семейство решений системы (23). Тогда
общее решение системы (22) имеет вид:
B
B
B
B
B
B
B
B
k
X = X 0 + ∑ ci X i ,
(24)
i =1
где c i - произвольные константы.
По другому это выражение можно записать следующим образом:
x1
x01
x11
xn − r ,1
B
B
... = ... + c1 ... +...+cn − r
xn
x0n
x1n
...
.
xn − r , n
x j1
Здесь ... - j-й вектор фундаментального семейства.
x jn
3.6. Действия над матрицами
Определение 9. Две матрицы называются равными, если количество
строк и столбцов в них одинакова и все соответствующие элементы равны.
Определение 10. Суммой двух матриц, имеющих одинаковое строение, называется матрица такого же строения, все элементы которой являются суммой соответствующих элементов данных матриц.
Определение 11. Произведением матрицы на число является матрица
того же строения, каждый элемент который получен из соответствующего
элемента исходной матрицы умножением на это число.
Определение 12. Нулевой матрицей 'O' называется матрица, все элементы которой равны нулю.
Введенные операции имеют следующие свойства:
1) A+B=B+A;
2) A+(B+C)=(A+B)+C;
2) A+O=A;
4) 1A=A;
5) αA=Aα, (αβ)A=α(βA);
6) 0A=O;
6) (α+β)A=αA+βA;
8) (-1)A=-A;
7) B-A=B+(-A).
Умножение матриц
Пусть число столбцов матрицы A равно числу строк матрицы B:
a11 ... a1m
b11 ... b1 p
A = ... ... ... ; B = ... ... ... .
an1 ... anm
bm1 ... amp
Определение 13. Произведением AB называется матрица C=AB, число строк которой равно числу строк матрицы A, число столбцов - числу
21
столбцов матрицы B. Элементы матрицы C определяются следующим обm
разом: cij = ∑ aik bkj .
(25)
k =1
Это определение может быть получено из рассмотрения операций
преобразования системы координат. Мы знаем, что каждое преобразование
может быть определено матрицей коэффициентов. Если матрица A определяет преобразование f, а матрица B - преобразование g, матрица C будет
определять преобразование fg.
Далее, пусть имеется преобразование f: (x,y)→(x',y'). Тогда:
a
a
x'
x
= 11 12 ⋅ .
(26)
y ' a21 a22 y
Свойства операции умножения:
1) α(AB)=(αA)B=A(αB);
2) A(B+C)=AB+AC;
3) (A+B)C=AC+BC;
4) A(BC)=(AB)C (если существует каждое из произведений).
Необходимо помнить, что AB не равно BA !
Транспонирование матриц
Определение 14. Пусть дана матрица A=||a ij ||. Матрица A т =||a ji || называется транспонированной:
(αA+βB) т =αA т +βB; (AB) т =B т A т .
Теорема.8. Ранг произведения двух матриц не превосходит ранга
каждого из сомножителей.
Умножение квадратных матриц
Определение 15. Определитель, составленный из всех элементов
квадратной матрицы, называется ее детерминантом, что записывается следующим образом: d=det A=|A|.
Теорема 9. Пусть A и B - квадратные матрицы одного порядка n⋅n, а
C=AB. Тогда det C=det A⋅det B=|A|⋅|B|.
Определение 16. Назовем единичной матрицей матрицу E, все элементы
которой, лежащие на главной диагонали, равны 1, а все остальные - 0.
Имеем: AE=EA=A; |E|=1.
Определение 16. Пусть A - квадратная матрица. Назовем матрицу B
обратной к матрице A, если AB=E. Если |A|=0, то обратной матрицы не
существует, в этом случае матрица A называется вырожденной.
Любая невырожденная матрица имеет обратную матрицу.
Если B - матрица, обратная к матрице A, то AB=BA=E. Замечание:
множество невырожденных матриц является группой относительно умножения.
Теорема 10. Пусть AB=C, B - квадратная матрица, причем |B|≠0. Тогда Rg A=Rg C.
B
P
P
P
P
P
P
P
P
P
P
22
B
P
P
B
B
4. Линейные пространства.
4.1. Основные понятия
Определение 1. Линейным пространством называется множество
элементов произвольной природы, обладающее следующими свойствами:
1) Введена операция сложения, по которой для каждой пары элементов a и b из множества (будем обозначать его через R) ставится в соответствие элемент c из R, называющийся их суммой (c=a+b), причем для операции сложения выполняются следующие свойства:
a) a+b=b+a; b) (a+b)+c=a+(b+c);
c) существует нулевой элемент такой, что для любого a из R a+0=a;
d) для любого элемента a из R существует элемент
(-a) такой, что a+(-a)=0.
2) Определено умножение на число: c=αa, a=const, причем выполняется следующее:
a) существует единица 1: 1⋅a=a;
b) (αb)a=α(ba).
3) (α+β)a=αa+βa; α(a+b)=αa+αb; 0a=0.
Базис и координаты
Определение 2. Говорят, что элементы e 1 ,e 2 ,...,e n образуют базис, если: a) они линейно независимы; b) любой элемент линейного пространства
может быть выражен через их линейную комбинацию:
B
B
B
B
B
B
n
x = ∑ αi ei
(1)
i =1
Числа α i называются координатами элемента x в базисе e.
Количество базисных элементов называется размерностью линейного пространства.
Пусть существует два различных представления элемента x в этом
базисе. Тогда кроме представления (1) существует представление
B
B
n
x = ∑ β i ei
(2)
i =1
Рассмотрим разность
n
x − x = 0; 0 = ∑ (α i − β i )ei ⇒ α i = βi ∀i.
i =1
23
В дальнейшем будем представлять элемент x через вектор-столбец
α1
его координат:
x = ... .
αn
Теорема 1. Если линейное пространство имеет базис из n элементов,
то любой набор из (n+1) элемента линейно зависим, а всякий другой базис
состоит из n элементов.
Доказательство. Пусть e 1 ,...,e n - базис. Рассмотрим (n+1) элемент из
R: x 1 ,...,x n ,x n+1 . Имеем:
B
B
B
B
B
B
B
B
B
B
n
x j = ∑ α ij ei , j = 1... n
(3)
i =1
Рассматривая элементы x j как вектор-столбцы, составим из них матрицу X:
B
α11
α12
X = ...
...
α n1 α n 2
B
... α 1, n +1
(4)
...
... .
... α n , n +1
Очевидно, что набор из (n+1) столбцов матрицы X линейно зависим,
т.к. Rg X≤n. Отсюда также следует, что базис не может состоять более, чем
из n элементов. Меньшее число базисных элементов невозможно, поскольку справедлива следующая
Лемма. В n-мерном пространстве любой набор из n независимых
элементов образует базис.
Доказательство. Пусть элементы x 1 ,...,x n , принадлежащие пространству R, линейно независимы. Возьмем еще один произвольный элемент x
из R. Тогда получим набор из (n+1) элемента, а в n-мерном пространстве
такой набор линейно зависим, т.е.
B
B
B
B
n
αx + ∑ α i xi = 0, α ≠ 0,
(5)
i =1
что следует из линейной независимости исходных n элементов. Тогда имеем:
1 n
x = − ∑ α i xi = 0.
(6)
α i =1
Пример 1. Рассмотрим пространство многочленов степени не выше
n


R:  Pn (t ) = c0 + ∑ ci t i . Покажем, что элементы 1,t,t 2 ,...,t n линейно
n:

i =1

независимы и образуют базис.
Предположим обратное, т.е. существуют такие числа α i , что
P
P
B
24
B
P
P
n
α 0 + ∑ α i t i = 0.
(7)
i =1
Продифференцируем n раз: α n n!=0 ==> α n =0. Дифференцируя (n-1)
раз, получим, что α n-1 =0 и т.д., что α i =0 для любого i. Таким образом, базис этого пространства состоит из (n+1) элемента.
Пример 2. Пусть дано пространство функций, непрерывных на отрезке. Оно не имеет базиса, поскольку в нем существует сколь угодно много линейно независимых элементов.
B
B
B
B
B
B
B
B
Изоморфизм линейных пространств
Определение 3. Два линейных пространства R и Q называются изоморфными, если между их элементами можно установить такое взаимно
однозначное соответствие, при котором сохраняется сложение элементов и
умножение элементов на число.
Теорема 2. Два линейных пространства изоморфны в том и только в
том случае, когда они имеют одинаковую размерность.
Подпространства линейного пространства
Определение 4. Будем говорить , что множество L, принадлежащее
R, образует подпространство, если элементы из L сами образуют пространство относительно введенных в R операций.
Определение 5. Пусть L 1 и L 2 - подпространства пространства R.
Пусть x 1 принадлежит L 1 , a x 2 принадлежит L 2 . Совокупность всех сумм
x=x 1 +x 2 называется суммой подпространств L 1 +L 2 . Сумма подпространств, в свою очередь, является подпространством.
Определение 6. Пересечением пространств L 1 и L 2 называется такое
множество элементов x из R, что одновременно x принадлежит и L 1 , и L 2
(L 1 ∩L2). Пересечение само является подпространством.
Теорема 3. Размерность суммы двух подпространств равна сумме их
размерностей минус размерность пересечения.
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
4.2. Линейные преобразования
Определение 7. Говорят, что в линейном пространстве R задано линейное преобразование A, если каждому элементу x из R поставлен в соответствие элемент y=A(x), принадлежащий R, причем A(a+b)=A(a)+A(b) и
A(αb)=αA(b).
Теорема 8.4. Пусть e 1 ,...,e n - базис в R. Тогда для любого набора
элементов g 1 ,...,g n из R существует и притом только одно линейное преобразование A такое, что A(e i )=g i .
Определение 8. Суммой линейных преобразований A и B называется
такое преобразование M, что Mx=Ax+Bx.
B
B
B
B
B
B
B
B
B
B
B
B
25
Определение 9. Произведением αL называется преобразование M такое, что Mx=α[Lx].
Определение 10. Множество всех линейных преобразований в R образует линейное пространство. Размерность его n⋅n. Это вытекает из того,
что каждое линейное преобразование определяется квадратной матрицей
n⋅n .
Определение 11. Произведением A⋅B двух линейных преобразований
называется преобразование M, заключающееся в выполнении сначала преобразования B, а затем - B: Mx=A(Bx).
Определение 12. Преобразование L называется обратным к преобразованию M, если LM=E, где E - единичное (или тождественное) преобразование. E: x→x.
4.3. Собственные векторы и собственные значения линейного преобразования
Определение 13. Пусть L - подпространство пространства R, а A - некоторое линейное преобразование. Если для любого элемента x из L Ax
принадлежит L, то L называется пространством, инвариантным относительно преобразования A.
Очевидно, что суммы и пересечения инвариантных подпространств
являются инвариантными подпространствами.
Определение 14. Ненулевой элемент x называется собственным вектором преобразования, если существует такое число k, что Ax=kx. Число k
называется собственным числом этого преобразования, соответствующего
собственному вектору x.
Рассмотрим это в матричном виде. Пусть вектор x равен
α1
a11 a12 ... a1n
x = ... , а A = ...
...
...
... .
an1 an 2 ... ann
αn
Имеем Ax=kx. Умножим слева на единичную матрицу E:
EAx=Ekx; Ax=kEx; Ax-kEx=0; (A-kE)x=0.
Отсюда следует, что матрица (A-kE) - вырожденная, т.е. число k будет собственным числом, если оно является корнем уравнения
|A-kE|=0
(8)
Иначе говоря, имеем из (8)
26
a11 − k
a21
...
a12
...
a1n
a22 − k ...
a2 n
...
...
...
= 0.
(9)
an1
an 2
... ann − k
Определение 15. Многочлен (9) называется характеристическим
многочленом преобразования A.
Теорема 5. Если линейное преобразование имеет собственный вектор, то соответствующее ему собственное число является корнем характеристического уравнения.
Теорема 6. Характеристический многочлен не зависит от выбора базиса.
Теорема 7. В комплексном пространстве каждый корень характеристического уравнения является собственным числом, а в вещественном
пространстве каждый действительный корень является собственным числом, а каждому комплексному корню соответствует двумерное инвариантное пространство.
Теорема 8. Множество собственных векторов соответствующих одному значению собственного числа k, образуют подпространство, если к
ним добавить нулевой вектор.
Теорема 9. Если линейное преобразование имеет n линейно независимых собственных векторов, то в базисе из этих векторов матрица преобразования имеет диагональный вид. Наоборот, если в некотором базисе
матрица преобразования имеет диагональный вид, то все векторы этого базиса являются собственными, а числа, стоящие на главной диагонали, являются собственными числами.
Лемма к теореме 9. Собственные векторы, соответствующие
различным собственным числам, линейно независимы.
27
5. Евклидовы пространства
5.1. Евклидовы пространства
Определение 1. Говорят, что в линейном пространстве задано скалярное произведение, если каждым двум элементам поставлено в соответствие число (x,y) и при этом выполнены следующие аксиомы:
1) (x,y)=(y,x);
2) (αx,y)=α(y,x);
3) (x+y,z)=(x,z)+(y,z);
4) (x,x)≥0; (x,x)=0 <==> x=0.
Определение 2. Вещественное линейное пространство называют евклидовым, если в нем введено скалярное произведение. Евклидово пространство размерности n обозначается R n .
Определение 3. Длиной (мерой) вектора x называется число
x = ( x, x) .
Теорема 1 (неравенство Коши-Буняковского). Для любых двух элементов евклидова пространства выполняется следующее неравенство:
|(x,y)| ≤ |x|⋅|y|
(1)
Доказательство. Очевидно, что (x+αy,x+αy)≥0. Раскрывая скобки,
получим: (x,x)+α(y,x)+α(x,y)+α⋅α(y,y)≥0.
( x, y)
Возьмем α =
.
( y, y)
( x , y )( x , y )
Тогда: ( x , x ) −
≥ 0, так что
( y, y)
B
B
2
2
( x , x )( y , y ) ≥ ( x , y )( x , y ) ⇒ x y ≥ ( x , y ) 2 ⇒ ( x , y ) ≥ x ⋅ y .
Кроме этого справедливо и такое неравенство:
|x+y|≤|x|+|y|
(2)
Докажем его.
Имеем:
(x+y,x+y)=(x,x)+2(x,y)+(y,y) ≤ |x| 2 +2|x|⋅|y|+|y| 2 =(|x|+|y|) 2 ==> (2) верно.
Определение 4 . Если (x,y)=0, то элементы x и y называются ортогональными.
Теорема Пифагора. Если (x,y)=0, то |x+y| 2 =|x| 2 +|y| 2 .
Пусть теперь в пространстве R n следующим образом определено
скалярное произведение: если вектор X в базисе e 1 ,e 2 ,..., e n имеет координаты x 1 ,x 2 ,...,x n , а вектор Y - y 1 ,y 2 ,...,y n , то
P
P
P
P
B
P
P
P
P
B
B
B
B
B
B
B
B
B
B
P
P
B
B
B
P
P
B
B
B
B
B
B
n
( X, Y) = ∑ xi yi .
(3)
i =1
28
Тогда справедливы неравенства Коши-Буняковского
n
∑ xi yi
n
∑ xi
≤
i =1
2
n
∑ yi
⋅
i =1
2
(4)
i =1
и Минковского
n
∑ xi + yi
2
n
∑ xi
≤
i =1
2
n
∑ yi
⋅
i =1
2
(5)
i =1
5.2. Ортогональный базис. Изоморфизм евклидовых пространств
Определение 5 . Евклидово пространство называется n-мерным, если
оно есть n-мерное линейное пространство со скалярным произведением.
Определение 6. Если все элементы некоторого базиса ортогональны,
а их длины равны единице, то базис называется ортонормированным.
Теорема 3. Если элементы f1,f2,...,fn взаимно ортогональны и среди
них нет нулевого, то они линейно независимы.
Доказательство. Рассмотрим линейную комбинацию
n
∑ ci f i = 0.
(6)
i =1
Умножим скалярно на fj. Получим cj(fj,fj)=0 ==> cj=0 для любого j.
Следствие: если в n-мерном евклидовом пространстве взять n попарно ортогональных ненулевых векторов, то они образуют базис.
Теорема 9.4. В каждом конечномерном евклидовом пространстве
существует ортонормированный базис.
Доказательство. Пусть f i - произвольный базис . Возьмем в качестве
e 1 вектор f 1 . Пусть теперь e 2 =f 2 +α 1 e 1 . Т.к. (e 1 ,e 2 )=0, то α 1 =-(f 2 ,e 1 )/(e 1 ,e 1 ).
Очевидно, что e 2 ≠0. Далее: e k =f k +χ 1 e 1 +...+χ k-1 e k-1 .
Т.к. (e i ,e j )=0 (i≠j), то, используя эти соотношения получим, что можно взять
( f ,e )
(7)
χi = − k i .
( ei , ei )
В конце концов получим n взаимно ортогональных векторов, которые можно нормировать на единицу: e' i =e i /|e i |.
Определение 7. Два евклидовых пространства называются изоморфными, если между их элементами можно установить такое взаимно однозначное соответствие, при котором сохраняется умножение на число, сложение и скалярное умножение.
Теорема 5. Евклидовы пространства изоморфны в том и только в том
случае, когда они имеют одинаковую размерность.
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
29
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
5.3. Матрица Грамма. Ортогональные матрицы и преобразования
в En :
Пусть в пространстве En задан базис e1,e2,...,en. Пусть x и y - векторы
n
n
x = ∑ α i ei , y = ∑ βi ei .
i =1
(8)
i =1
Найдем скалярное произведение (x,y):
n
n
 n
  n

( x , y ) =  ∑ α i ei ,∑ β i ei  =  ∑ α i ⋅∑ (ei , ek )β i  =
 i =1
  i =1 i =1

i =1
α1
= ...
T
(e1 , e1 )
⋅ ...
αn
(e1 , e2 ) ... (e1 , en ) β1
...
...
... ⋅ ...
(en , e1 ) (en , e2 ) ... (en , en )
(9)
βn
Обозначим через Г матрицу
(e1 , e1 ) (e1 , e2 ) ... (e1 , en )
Г=
...
...
...
...
(10)
(en , e1 ) (en , e2 ) ... (en , en )
Эта матрица называется матрицей Грамма.
Таким образом, скалярное произведение двух векторов x и y можно
записать в следующем виде:
(11)
(x,y)=x Т Гy
Элементы матрицы Грамма обозначают через gij. Эта матрица носит
также название метрического тензора.
Если матрица Грамма равна единичной матрице, то базис является
ортонормированным.
Рассмотрим, как изменяются элементы матрицы Грамма при переходе от одного базиса к другому.
Пусть e i ,(i=1,n) - некоторый базис в E n , которому соответствует матрица Грамма Г (ее элементы - g), а e' i ),(i=1,n) - некоторый другой базис с
матрицей Грамма Г'. Пусть S - матрица преобразования из базиса e в базис
e'. Тогда имеем:
P
B
P
B
B
B
e'i =
B
B
n
∑ sik ek .
(12)
k =1
Для матрицы Грамма получаем:
n
n
 n
 n
g 'ik = ( e 'i , e 'k ) =  ∑ sij e j , ∑ skm em  = ∑ sij ⋅ ∑ ( e j , em ) skm
m =1
m =1
 j =1
 m=1
или
(13)
Г'=S Т ГS
P
P
30
Следствие: Пусть a i ,(i=1,n) - произвольные векторы, а Г - их матрица
Грамма. Если эти векторы линейно независимы, то их можно принять за
базис. Тогда существует преобразование S такое, что Г=S ТES. Таким образом, если набор векторов линейно независим, то их матрица Грамма невырождена. Обратно, если матрица Грамма невырождена, то векторы линейно независимы.
Следствие 2. Если e i ,(i=1,n) - ортонормированный базис в E n , а
e' j ,(j=1,n) - другой ОНБ в E n , то и Г=E и Г'=E. Тогда очевидно, что существует матрица S такая, что E=S Т S.
Определение 8. Матрица S, удовлетворяющая условию S Т S=E, называется унитарной (ортогональной). Любая унитарная матрица невырождена и S -1 =S Т .
Определение 9. Преобразование A евклидова пространства называется унитарным, если оно сохраняет скалярное преобразование всех векторов.
Теорема 6. В ортонормированном базисе матрица унитарного преобразования унитарна.
B
B
P
B
B
B
B
P
B
B
B
P
P
P
P
P
P
B
P
P
5.4. Самосопряженные преобразования
Определение 10. Пусть в евклидовом пространстве задано линейное
преобразование A. Преобразование A' называется сопряженным к A, если
для любых векторов x и y (Ax,y)=(x,A'y).
Теорема 7. Для каждого линейного преобразования существует и
притом только одно сопряженное с ним преобразование. Сопряженное
преобразование также является линейным.
Определение 11. Если сопряженное преобразование совпадает с данным, то оно называется самосопряженным (В комплексном пространстве
такое преобразование называется эрмитовым).
Теорема 8. Все корни характеристического уравнения эрмитова преобразования вещественны.
Теорема 9. Собственные векторы, соответствующие различным собственным значениям эрмитова преобразования, ортогональны.
Теорема 10. Каждое эрмитово преобразование определяет ортонормированный базис из собственных векторов (быть может, неоднозначно).
31
6. Линейные и квадратичные формы
6.1. Линейные формы
Определение 1. Пусть в пространстве R определена числовая функция f(x). Говорят, что f(x) является линейной формой, если для любых x и y
из R выполняются соотношения:
f(x+y)=f(x)+f(y); f(αx)=αf(x) (α=const).
Пусть e 1 ,e 2 ,...,e n - базис в R n . Тогда имеем:
B
B
B
B
B
B
B
n
B
n
x = ∑ α i ei ,
f ( x ) = ∑ βi f (ei ).
i =1
(1)
i =1
Величина f(e i ) называется компонентой линейной формы. Очевидно,
что на пространстве R n можно задать не одну, а несколько (быть может,
неограниченно много) линейных форм.
Определение 2. Набор линейных форм, заданных на линейном пространстве R n , образует n-мерное линейное пространство, которое называется сопряженным с R n и обозначается R' n .
Теорема 10.1. В унитарном пространстве E n для любой линейной
формы f существует такой элемент a из E n , что f(x)=(x,a).
Доказательство. Пусть e 1 ,...,e n - ортонормированный базис в E n .
Пусть
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
n
f ( x ) = ∑ α i f (ei ).
i =1
n
Возьмем в качестве a следующий элемент из E n : a = ∑ f (ei )ei .
B
B
i =1
Отсюда, очевидно, теорема верна.
6.2. Билинейные формы
Определение 3. Говорят, что в R (линейное пространство) задана билинейная форма A, если каждой паре x, y принадлежащих R, поставлено в
соответствие число A(x,y).
Замечание: как следует из определения, скалярное произведение является билинейной формой.
Для фиксированного y говорят, что A(x,y) есть линейная форма первого рода относительно x, а для фиксированного x - A(x,y) - линейная форма второго рода относительно y.
Пример 1. Рассмотрим билинейную форму A(x,y).
32
n
Пусть e i (i=1,n) - базис; x = ∑ α i ei ,
B
B
i =1
n
Имеем:
n
y = ∑ βi ei .
i =1
n
A( x, y ) = ∑ ∑ α i βi A(ei , e j ).
(2)
i =1 j =1
Введем матрицу
A(e1,e1 ) ...
A=
...
...
A(e1,en )
...
(3)
A(en ,e1 ) ... A(en ,en )
Эта матрица называется матрицей билинейной формы.
Используя формулу (3), можно записать:
T
α1
A( x , y ) = ...
β1
⋅ A ⋅ ... = x T Ay.
(4)
αn
βn
Можно показать, что при переходе от одного базиса к другому, матрица билинейной формы преобразуется также, как и другие матрицы, по
общим правилам.
Определение 4. Билинейная форма называется симметричной, если
A(x,y)=A(y,x).
Можно показать, что для симметричной линейной формы справедливо соотношение: A Т =A.
P
P
6.3. Квадратичные формы. Закон инерции
Определение 5. Пусть в линейном пространстве R задана симметричная билинейная форма A(x,y). Тогда A(x,x) называется квадратичной формой. Можно записать, что
A(x,x)=x Т Ax,
(5) где A
- матрица билинейной формы.
Квадратичная форма A(x,x) порождается симметричной билинейной
формой A(x,y). Покажем, что A(x,y) единственно.
Рассмотрим билинейную форму A(x+y,x+y):
A(x+y,x+y)=A(x,x)+2A(x,y)+A(y,y) ==>
A( x + y , x + y ) − A( x , x ) − A ( y , y )
A( x , y ) =
.
(6)
2
Теорема 2. Для каждой квадратичной формы существует базис, в котором она представлена в виде
P
P
n
A( x , x ) = ∑ λ i α i2 ,
(7)
i =1
33
где λ i - либо +1, либо -1, либо 0.
(Такой базис называется каноническим. Он определяется не единственным образом).
Теорема 3. Пусть квадратичная форма приведена к каноническому
виду в двух разных базисах. Пусть в базисе e i (i=1,n)
A( x, x) = α12 + α 22 + ... + α 2p − α 2p +1 − α 2p +2 − ... − α 2p +r
а в базисе e' i (i=1,n)
A( x, x) = β12 + β 22 + ... + β 2q − β 2q +1 − β 2q +2 − ... − β 2q + s
Тогда p=q, r=s.
Эта теорема носит название закон инерции.
Определение 6. Число коэффициентов, отличных от нуля в каноническом виде, называется рангом квадратичной формы. При этом число
положительных коэффициентов называется положительным индексом
инерции, а число отрицательных коэффициентов - отрицательным индексом инерции.
Определение 7. Если все коэффициенты квадратичной формы в каноническом базисе положительны, то такая квадратическая форма называется положительно определенной.
Замечание: в качестве скалярного произведения можно использовать
симметричную билинейную форму, квадратичная форма которой является
положительно определенной.
B
B
B
B
B
B
6.4. Критерий Сильвестра
Теорема 4. Пусть A(x,x) - некоторая квадратичная форма, матрица
которой есть
a11 a12 ... a1n
A = ...
...
...
... .
an1 an 2 ... ann
Для того, чтобы эта форма была положительно
димо и достаточно, чтобы n определителей
a11 a12
a11 a12
∆ 1 = a11 ; ∆ 2 =
; ∆ 3 = a21 a22
a21 a22
a31 a32
a11
∆ k = ...
... a1k
a11 ... a1n
... ... ; ...; ∆ n = ... ... ...
a k 1 ... a kk
были положительными.
Доказательство.
an1 ... ann
34
определена, необхоa13
a23 ; ...;
a33
Замечание. Пусть ∆ n =det A, а ∆' n =det A', причем матрицы A и A' связаны преобразованием S: A'=S T AS, следовательно ∆' n =|S T |∆ n |S|=|S| 2 ∆ n .
Таким образом, определители ∆ n и ∆' n имеют один и тот же знак.
Необходимость. Пусть квадратичная форма A(x,x) положительно
определена и пусть e i ,(i=1,n) - канонический базис. В этом каноническом
базисе ∆' n =1 (>0).
Рассмотрим подпространство L k . Пусть e i ,(i=1,k) - его базис. В этом
подпространстве квадратичная форма A(x,x) также определена. Отсюда
очевидно, что ∆ k >0. Поскольку k - любое, то необходимость доказана.
Достаточность. Доказательство проведем по индукции.
Дано: ∆ k >0 (k=1,n).
Пусть n=1. Тогда A(x,x)=a 11 α 1 2 . Т.к. a 11 >0 (по условию), то форма
положительно определена.
Допустим теперь, что в (n-1)-мерном пространстве теорема верна.
Покажем, что она верна в n-мерном.
Выберем в (n-1)-мерном пространстве канонический базис, тогда
квадратическая форма A(x,x)=β 1 2 +β 2 2 +...+β n-1 2 .
Рассмотрим теперь квадратичную форму в n-мерном пространстве.
Здесь имеем базис f 1 ),f 2 ,...,f k ,en. Здесь f i (i=1,n) - канонический базис в (n1)-мерном пространстве.
Имеем:
A(x,x)=β 1 2 +β 2 2 +...+β k 2 +2b 1n β 1 β n +...+2b n-1n β n-1 β n +b nn β n 2 .
Сделаем замену α i =β i +b in β n , (i=1,n-1); α n =β n . Получаем:
A(x,x)=α 1 2 +α 2 2 +...+α n-1 2 +Cα n 2 , где C - константа. Т.к., по условию,
∆ n >0, то C>0. Следовательно, квадратическая форма A(x,x) положительно
определена.
B
B
B
B
P
P
B
B
B
B
B
P
P
B
B
P
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
PB
P
B
B
B
B
B
PB
P
B
B
P
PB
B
B
B
B
B
PB
P
B
B
P
B
B
P
PB
B
P
PB
B
B
B
P
PB
B
PB
B
B
B
B
PB
P
B
B
B
B
B
B
PB
B
P
B
B
B
B
B
B
B
PB
P
B
35
B
B
B
B
B
B
B
B
B
B
PB
P
P
B
B
7. Системы линейных неравенств
7.1. Задача о максимуме выручки
Рассмотрим следующую задачу.
Имеется 150 л жидкости А и 150 л жидкости Б. Для получения одной
бутыли смеси 1 нужно взять 2 л жидкости А и 1 л жидкости Б, а для получения одной бутыли смеси 2 нужно взять соответственно 1 л жидкости А и
4 – жидкости Б.Смесь 1 продаётся по цене 2 ден. единицы, а смесь 2 – 3
ден. единицы за одну бутыль. Сколько нужно приготовить бутылей каждой
смеси, чтобы общая их стоимость была наибольшей, при условии, что число бутылей со смесью 2 не менее числа бутылей со смесью 1?
Сформулируем экономико-математическую модель исходной экономической задачи.
Введём следующие обозначения: х 1- количество бутылей первой смеси; х 2 - количество бутылей второй смеси. Стоимость бутылей первой смеси составляет 2х 1 ден. единиц, а второй смеси - 3х 2 ден. единиц, т. е. необходимо максимизировать целевую функцию (общую стоимость):
f( X ) =2х1 + 3х2→ max.
Помимо указанной функции мы имеем ряд ограничений.
1-е ограничение: можно потратить не более 150 л жидкости А.
В математической форме оно имеет вид
2 x1 + x2 ≤ 150
2-е ограничение: можно потратить не более 150 л жидкости В.
В математической форме оно имеет вид
x1 + 4 x2 ≤ 150
3-е ограничение: число бутылей со смесью 2 не менее числа бутылей
со смесью 1.
В математической форме оно имеет вид
x1 − x 2 ≤ 0
4-е ограничение: количество бутылей не может быть отрицательным.
В математической форме оно имеет вид
x1 ≥ 0, x2 ≥ 0
Таким образом, получаем следующую задачу:
f( X ) =2х1 + 3х2→ max при условиях
36
2 x1 + x2 ≤ 150

 x1 + 4 x2 ≤ 150

 х1 − х2 ≤ 0
 x1 ≥ 0, x2 ≥ 0
7.2. Графическое решение задачи
Сформулированную выше задачу можно решить графически, т.к. у
нас всего две переменные.
Прежде всего, необходимо на плоскости (x1, x2) отобразить область,
удовлетворяющую имеющимся ограничениям (рис. 1).
Рис. 1. Область допустимых решений.
Ограничения х 1, 2 ≥ 0 означают, что область решений будет лежать в
первой четверти декартовой системы координат.
Первое ограничение по запасам жидкости А: 2 x1 + x2 ≤ 150
Решением этого неравенства является полуплоскость, лежащая ниже
прямой 2х 1 + х 2 = 150 (I), проходящей через точки (0;150) и (75;0).
37
Второе ограничесние по запасам жидкости В: x1 + 4 x2 ≤ 150
Решением этого неравенства является полуплоскость, лежащая ниже
прямой х 1 + 4х 2 = 150 (II), проходящей через точки (0;37,5) и (150;0).
Третье ограничение определяет связь между количеством бутылей:
x1 − x 2 ≤ 0
Решением этого неравенства является полуплоскость, лежащая выше
прямой х 2 = х 1 (III). Эта прямая проходит через начало координат и пересекается с прямой II в точке D с координатами (30;30).
Общее множество точек для всех областей – треугольник ADO.
Рассмотрим множество прямых f( X )=const, т.е. 2х1 + 3х2=const.
Все эти прямые параллельны друг другу. На каждой прямой на всех
ее точках целевая функция остается постоянной.
Построим прямую 2х1 + 3х2=0. Она изображена на рис. 1. пунктирной
прямой.
Для определения направления движения к оптимуму построим вектор нормали к этой прямой: n=(2;3).
Начнем перемещение пунктирной прямой вдоль вектора нормали.
Чем дальше мы сумеем ее увести, сохраняя хотя бы одну точку в области
допустимых решений, тем больше будет значение целевой функции.
В данной задаче движение пряой до её пересечения с точкой D с координатами (30;30); далее она выходит из области допустимых решений. В
этой точке достигается максимум целевой функции.
Итак, max f( X ) = 2·30 +3·30 =150 ден. единиц и достигается при
х 1=30 и х 2 =30.
7.3. Общая постановка задачи линейного программирования
Рассмотренная выше задача является частным случаем задачи линейного программирования, которая формулируется следующим образом.
n
Необходимо найти экстремум функции Ц = ∑ ai xi → extr при налиi =1
чии следующих ограничений:
n
∑ bij xi ≤ c j , j = 1...k; xi ≥ 0 ∀i .
i =1
Задачи такого вида очень часто возникают в экономике.
38
8. Векторная алгебра
8.1. Векторы. Линейные операции над векторами
Определение 1. Вектором называется отрезок прямой, которому приписано определенное направление, т.е. один конец отрезка считается началом, а второй - концом вектора.
Вектор, соединяющий две точки (A и B), обозначается AB или
a= AB . Вектор, имеющий нулевую длину, есть нулевой вектор 0 или нульвектор.
Длина вектора (или его модуль): a=|a|=| AB |=AB.
Определение 2. Два вектора считаются равными, если один из них
может быть получен из другого с помощью параллельного переноса.
Из определения 2 легко можно получить следующие соотношения:
если a=b, то b=a; если a=b, b=c, то a=c.
Определение 3. Суммой векторов a и b называется вектор, который
будем обозначать c=a+b, началом которого служит начало вектора a, а
концом - конец вектора b, если начало вектора b совмещено с началом
вектора a.
Сумма векторов обладает следующими свойствами:
a+(b+c)=(a+b)+c; a+ 0=a; |a+b|≤|a|+|b|.
Определение 4. Если векторы антипараллельны и равны по модулю,
то они взаимно обратны. Вектор, обратный к вектору a, обозначается b=-a.
Очевидно, что a+(-a)=O.
Определение 5. Разностью векторов a и b называется вектор a-b, который в сумме с b дает a.
Докажем, что такой вектор существует. Пусть x+b=a. Имеем ряд соотношений:
(x+b)+(-b)=a+(-b);x+(b+(-b))=x+O=x ⇒ x=a+(-b) Таким образом, разность двух векторов, если она существует, определена единственным образом.
Определим вектор разности следующим образом: x=a+(-b). Имеем:
x+b=[a+(-b)]+b=a+[(-b)+b]=a+O=a,так что этот вектор подпадает
под определение. Отсюда видно, что a-b=a+(-b).
Определение 6. Произведением вектора a на число α называется вектор, который определяется следующим образом: его модуль равен |α||a|,
он расположен на той же прямой, что и a, и направлен в ту же сторону, если α>0, и направлен в противоположную сторону, если α<0.
39
Имеем следующие соотношения: αa=aα; 1a=a;
(αβ)a=α(βa); |(αβ)a|=|αβ||a|, (α+β)a=αa+βa; α(a+b)=αa+αb.
Определение 7.Пусть имеется n векторов и n чисел:
α 1 , α 2 ,..., α n ; a 1 , a 2 ,..., a n .
Тогда сумма
B
B
B
B
B
B
B
B
B
B
B
(-1)a=-a;
B
n
∑ α i ai
(1)
i =1
называется линейной комбинацией векторов.
Определение 8. Векторы a 1 , a 2 ,..., a n называются линейно зависимыми, если существует такая их линейная комбинация (1), которая равна нулю (нуль-вектору), при условии, что хотя бы один из коэффициентов α i не
равен нулю.
Если соотношение (1) равно нулю тогда и только тогда, когда все коэффициенты α i равны нулю, то векторы называются линейно независимыми
Теорема 1. Векторы являются линейно зависимыми тогда и только
тогда, когда хотя бы один из них можно выразить в виде линейной комбинации остальных.
Доказательство. 1) Предположим, что векторы линейно зависимы.
Тогда ( 3.1 ) равно нулю, хотя не все коэффициенты α i равны нулю. Пусть
α 1 ≠0. Т.к.
B
B
B
B
B
B
B
B
B
B
B
B
B
B
n
∑ α i ai
= 0,
(2)
i =1
то, поделив ( 3.2) на α 1 , получим:
α
α
α
(3)
a1 = − 2 a 2 − 3 a 3 −...− n a n
α1
α1
α1
Выражение (3) означает, что если векторы линейно зависимы, то
один из векторов можно представить в виде линейной комбинации остальных.
2) Предположим теперь, что a 1 =β 2 a 2 +...+β n a n . Имеем
(-1)a 1 +β 2 a 2 +...+β n a n =O,
т.е., если один из векторов является линейной комбинацией остальных, то
векторы линейно зависимы.
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
Следствия.
1) Если в некоторый набор векторов входит нулевой вектор, то этот
набор является линейно зависимым.
2) Если в некотором наборе векторов часть из них будут линейно зависимы, то и весь набор - линейно зависимый.
40
3) если некоторый набор векторов линейно независим, то и любая
его часть тоже линейно независима.
Определение 9. Векторы называются коллинеарными, если они параллельны одной и той же прямой.
Пусть a≠O. Тогда для любого b||a ('||' - знак коллинеарности) существует, притом только одно, число α такое, что b=αa.
Т.к. b||a, то b= ±(b/a)a , т.е. α - существует.
Пусть теперь b=α 1 a, причем α 1 ≠α, найденному выше.
Имеем, αa-α 1 a=b-b=O ==> (α−α 1 )a=O. Т.к. |a|≠0, то α−α 1 =0, следовательно, α - единственное.
Теорема 2. Два вектора коллинеарны в том и только в том случае,
когда они линейно зависимы.
Теорема.3. Если два вектора a и b не коллинеарны, то любой вектор,
лежащий в той же плоскости, единственным образом можно представить в
виде линейной комбинации исходных векторов, т.е.
c=αa+βb
(4)
Доказательство. Поместим начала всех трех векторов в одну точку
O. Обозначим через C концевую точку вектора c. Построим на этих точках параллелограмм так, что OC - его диагональ, а сторона OA||a, сторона
OB||b (это, очевидно, можно сделать).
Можно записать,
исходя из определения суммы,
что
c = OC = OA + OB, но, т.к. OA|| a , OB|| b, , то OA = αa , OB = βb ⇒ c=αa+βb.
Таким образом, доказана возможность разложения.
Пусть теперь имеется другое разложение: c=α 1 a+β 1 b. Вычтем из одного разложения другое: O=a(α 1 −α)+b(β 1 −β), но т.к. a и b линейно независимы, то α 1 =α, β 1 =β.
Определение 10. Векторы называются компланарными, если они параллельны одной и той же плоскости.
Замечание. Три вектора компланарны в том и только в том случае,
если они линейно зависимы.
Теорема 4. (О разложении вектора в пространстве). Пусть векторы a,
b, c не компланарны. Тогда любой вектор d можно и притом единственным образом представить в виде линейной комбинации исходных векторов.
Доказательство аналогично доказательству Теоремы 3.
Следствие: любые четыре вектора линейно зависимы.
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
8.2. Базис, декартова система координат
Определение 11. Если некоторое множество векторов R обладает тем
свойством, что любая линейная комбинация векторов из R принадлежит R,
то говорят, что R образует векторное пространство.
41
Определение 12. Говорят, что векторы a 1 ,a 2 ,...,a n , принадлежащие R,
образуют базис этого пространство, если они линейно независимы и любой
вектор из R может быть представлен в виде линейной комбинации этих
векторов.
Определение 13. Число векторов, образующих базис векторного
пространства, называется размерностью этого пространства.
Пусть e 1 ,e 2 ,e 3 - базис R. Тогда любой вектор может быть представ(5)
лен в виде суммы
a=xe 1 +ye 1 +ze 3
Определение 14. Коэффициенты x,y,z в разложении (5) вектора по базису называются координатами этого вектора относительно заданного базиса.
В дальнейшем будем использовать следующую символику:
a=(x,y,z) <==> a= a=xe 1 +ye 1 +ze 3 .
Пусть a=(x,y,z), b=(x',y',z'). Тогда a+b=(x+x',y+y',z+z'), αa=(αx,αy,αz).
Определение 15. Пусть фиксированы базис e 1 ,e 1 ,e 3 , а также точка O
(начало координат). Пусть дана точка A. Проведем из точки O в точку A
вектор, называемый радиус-вектором точки A. Пусть OA = xε 1 + yε 2 + zε 3 .
Координаты этого вектора называются координатами точки A.
Определение 16. Пусть дан ненулевой вектор b. Ортогональной проекцией вектора a на b называется вектор, началом которого служит проекция начала a на b, а концом - проекция конца a на b.
Обозначение: Пр b a - проекция a на b.
Определение 17. Ортонормированным называется базис, все векторы
которого перпендикулярны друг к другу и их модули равны 1. Система координат, основанная на этом базисе, называется декартовой.
Обозначение: i,j,k - ортонормированный базис; Пр i a=xi.
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
8.3. Скалярное произведение
Определение 18. Углом между двумя векторами называется наименьший из углов, образуемых этими векторами.
Определение 19. Скалярным произведением векторов b и a
называется число, равное произведению длины векторов
на косинус угла между ними: (a,b)=|a||b|cosϕ.
Свойства скалярного произведения:
1) (a,b)=(b,a);
2) (a,b)=0, если вектора ортогональны;
3) (a,a)=|a| 2 =a 2 ;
4) (αa,b)=α(a,b);
5) если b ≠O, то (a,b)=(Пр b a,b);
6) (a+b,c)=(a,c)+(b,c);
7) |(a,b)| ≤|a||b|.
P
P
P
P
B
B
42
8.4. Векторное произведение
Определение 20. Говорят, что три вектора a,b,c образуют правую
тройку, если кратчайший поворот от a к b кажется со стороны вектора c
происходящим против часовой стрелки. В противном случае - левая тройка.
Определение 21. Векторным произведением векторов a и b называется вектор, который обозначается [a,b] и обладает следующими свойствами:
1) |[a,b]|=|a||b|sinϕ;
c
2) c=[a,b] перпендикулярен как a, так и b;
b
3) векторы a,b,[a,b] образуют правую тройку;
4) [a,b]=O <==> a||b;
5) [a,b]=-[b,a];
6) [αa,b]=α[a,b];
ϕ
7) [a+b,c]=[a,c]+[b,c];
8) если дан ортонормированный базис i,j,k, то
i j k
[a , b] =
a
z , где a=(x,y,z),b=(x',y',z').
x' y' z '
x
y
8.5. Смешанное произведение векторов
Определение 22. Смешанным произведением трех векторов a,b,c,
взятых в данном порядке, называется число V=(a,[b,c])=(a,b,c).
Свойства смешанного произведения:
1) (a,b,c)=0 <==> a,b,c - компланарны;
2) если параллелепипед построен на векторах a,b,c, то его объем равен V=|(a,b,c)|;
3) смешанное произведение (a,b,c)>0, если a,b,c - правая тройка, и
меньше 0, если - левая тройка;
4) (a,b,c)=(b,c,a)=(c,a,b)=-(b,a,c);
5) Пусть задан базис e 1 ,e 2 ,e 3 и пусть в этом базисе
a=(x 1 ,y 1 ,z 1 ); b=(x 2 ,y 2 ,z 2 ); c=(x 3 ,y 3 ,z 3 ).
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
Тогда (a, b, c ) = (e , e , e ) x
1 2 3 2
x1
y1
y2
z1
z2
x3
y3
z3
B
B
B
(6)
x1
Если базис ортонормированный, то (a , b, c) = x
2
y1
y2
z1
z2
x3
y3
z3
43
(7)
x1
8) векторы a,b,c компланарны <==> x
2
y1
y2
z1
z2 = 0 .
x3
y3
z3
8.6. Изменение координат при изменении базиса
Пусть задан базис e 1 ,e 2 ,e 3 и пусть имеется некоторый набор векторов e’ 1 ,e’ 2 ,e’ 3 , который также может рассматриваться как базис. Пусть
имеется соотношение
B
B
B
B
B
B
B
B
B
B
B
B
e 1' = a11 e1 + a12 e 2 + a13 e 3 

e 2' = a 21 e1 + a 22 e 2 + a 23 e 3 

e 3' = a 31 e1 + a 32 e 2 + a 33 e 3 

(8)
Коэффициенты этого преобразования образуют матрицу, которая
полностью определяет его свойства. Свойства матриц будут рассмотрены
ниже. Матрица
a11
a12
a13
A = a 21
a 22
a 23
a 31
a 32
a 33
(9)
называется матрицей преобразования.
Координаты вектора преобразуются следующим образом при переходе от одного базиса к другому. Пусть a=xe 1 +ye 2 +ze 3 =x'e' 1 +y'e' 2 +z'e' 3 .
Тогда получим:
x'=a 11 x+a 12 y+a 13 z
| x=a 11 x'+a 21 y'+a 31 z'
y'=a 21 x+a 22 y+a 23 z
| y=a 12 x'+a 22 y'+a 32 z'
(10)
z'=a 31 x+a 32 y+a 33 z
| z=a 13 x'+a 23 y'+a 33 z'
Как можно заметить, матрицы перехода от одного базиса к другому
и обратно, являются транспонированными относительно друг друга, т.е. у
второй матрицы на месте строк находятся столбцы и на месте столбцов
находятся строки.
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
44
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
9. Прямая и плоскость
9.1. Прямая на плоскости
Понятие прямой является одним из фундаментальных понятий геометрии. Она определяется следующим образом: это линия наименьшей
длины, соединяющая две точки. Уавнение y=kx+b определяет на плоскости в декартовой системе координат некоторую прямую. Чертеж на
рис.4.1. показывает, что геометрический смысл коэффициентов k и b следующий: a=tgϕ, где ϕ - угол наклона прямой, отсчитываемый от положительного направления оси OX против часовой стрелки; b - длина отрезка,
заключенного между началом координат и точкой пересечения оси OY с
прямой.
Y
Это же уравнение можно записать в
другом виде. Пусть x 1 ,y 1 - координаты точки A, а x 2 ,y 2 - координаты точки B. Проведем через эти две точки прямую. Легко
ϕ
показать, что уравнение этой прямой
b
имеет следующий вид: y-y 1 =k(x-x 1 ), где
k=(y 2 -y 1 )/(x 2 -x 1 ).
Отсюда получаем так называемое
каноническое уравнение прямой:
x − x1
y − y1
(1)
=
x2 − x1 y2 − y1
Рис. 1.
Рассмотрим еще одну форму записи уравнения прямой:
Ax+By+C=0.
(2)
При B≠0 получаем уравнение y=(-A/B)x+(-C/B).
Пусть теперь A,B,C≠0. Тогда можно получить уравнение
(x/a)+(y/b)=1
(3)
Легко показать, что эта прямая проходит через точки с координатами
(0,b) и (a,0). Поэтому, уравнение (3) называется уравнением в отрезках.
Рассмотрим теперь следующую задачу: написать уравнение прямой,
проходящей через точку, определяемую радиус-вектором r 0 и перпендикулярную вектору n.
Пусть r - произвольный радиус-вектор (рис.4.2). Разность r-r 0 лежит
на нашей прямой и, очевидно, перпендикулярна вектору n. Отсюда получаем уравнение прямой:
(r-r 0 ,n)=0
(4)
или (r,n)=(r 0 ,n)=c=const
В дальнейшем будем считать, что |n|=1.
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
45
B
B
Подставим теперь в уравнение (4) координаты произвольной точки,
не лежащей на прямой. Пусть ее радиус-вектор есть r'. Тогда: r'-r 0 =r'', где
r''- вектор, соединяющий точку A(r') с точкой M(r 0 ). Разложим вектор
r''(см. рис.4.3) на две составляющие: r 1 - перпендикулярный n, и r 2 ||n;
r''=r 1 +r 2 .
B
B
B
B
B
B
B
B
B
B
B
B
Y
n
r-r 0
r0
r
X
Рис. 2.
Y
r''
A
r2
r0
r1
r'
X
Рис. 3.
Отсюда получаем: (r'-r 0 ,n)=(r'',n)=(r 1 +r 2 ,n)=(r 2 ,n).
Т.к. r 2 ||n, то r 2 =d n , где |d| - расстояние от (•)A до прямой.
Таким образом, (3) удобно для нахождения расстояния от точки до
прямой. Преобразуем это уравнение к виду, удобному для вычислений.
Нормальный вектор n=(cosϕ,sinϕ). Тогда (3) преобразуется к виду
(x-x 0 )cosϕ+(y-y 0 )sinϕ=0 или xcosϕ+ysinϕ-p=0, p≥0
(5)
Расстояние от произвольной точки A(x',y') до прямой равно
d=|x'cosϕ+y'sinϕ-p|
(6)
2
Уравнение Ax+By+C=0 приводится к виду (5) делением на A + B 2 . Оно
называется нормальным или нормированным уравнением прямой.
Если задано уравнение прямой в общей форме, т.е.
Ax+Bx+C=0
(7)
то легко показать, что вектор n=(A,B) перпендикулярен этой прямой.
Если заданы две прямые: Ax+By+C=0 и A'x+B'y+C'=0,
(8)
то они перпендикулярны, если перпендикулярны их нормальные векторы, т.е. векторы n=(A,B) и n'=(A',B'). Следовательно, прямые (8) перпендикулярны <==> AA'+BB'=0.
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
9.2. Пучок прямых
Определение 1. Пучком прямых называется множество всех прямых,
проходящих через фиксированную точку, называемую центром пучка.
46
Если центр пучка известен, то уравнение пучка прямых очевидно:
A(x-x0)+B(y-y0)=0
(9)
Здесь M(x0,y0) - центр пучка.
Пусть теперь известны лишь две прямые пучка:
A'x+B'y+C'=0; A''x+B''y+C''=0.
(10)
Возьмем два произвольных числа a и b, не обращающихся одновременно в ноль и составим следующее уравнение:
a(A'x+B'y+C')+b(A''x+B''y+C'')=0
(11)
Очевидно, что это уравнение прямой для каждой фиксированной пары чисел a и b. Докажем, что (11) является уравнением пучка.
Каждая прямая семейства (11) проходит через точку M пересечения
прямых (10). Далее, возьмем произвольную точку M' с координатами (x',y').
Покажем, что через эту точку проходит одна из прямых семейства (9).
Подставим ее координаты в (11):
a(A'x'+B'y'+C')+b(A''x'+B''y'+C'')=0
(12)
Нужно показать, что существуют такие a и b, что (10) выполняется.
Если M≠M', то хотя бы одна из прямых (410) не проходит через M'. Это
значит, что в (10) нулю может равняться только одно из выражений в
круглых скобках. Пусть первое из них отлично от нуля. Положим тогда
b=1, а
A' x'+ B' y'+ C'
(13)
a=
A' ' x'+ B' ' y'+ C' '
Таким образом, (10) выполняется, значит, через любую точку плоскости проходит прямая из семейства (11).
9.3. Плоскость
Пусть дана точка r 0 и два неколлинеарных вектора a и b.
Обозначим через r - вектор точки плоскости, на которой лежат векторы a и b. Очевидно, что вектор r-r 0 лежит на этой плоскости, следовательно, векторы r-r 0 , a, b - компланарны. Тогда существуют такие коэффициенты α и β, что
r-r 0 =αa+βb
(14)
или
r=r 0 +αa+βb
(14')
Запишем это уравнение в координатах.
Пусть r=(x,y,z); r 0 =(x 0 ,y 0 ,z 0 ); a=(x',y',z'); b=(x'',y'',z''). Тогда
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
x = x0 + αx'+βx'' 

y = y0 + αy'+βy''
z = z 0 + αz'+βz'' 
(15)
Запишем (15) в другой форме:
47
x − x0
x'
y − y0
y'
z − z0
z' = 0.
(16)
x' '
y' '
z''
Уравнение (16) выражает тот факт, что векторы r-r 0 , a, b - компланарны. Кроме того, это уравнение сразу позволяет написать уравнение
плоскости, проходящей через три точки.
Из (16) можно получить и другую форму уравнения плоскости:
Ax+By+Cz+D=0 (A 2 +B 2 +C 2 ≠0)
(17)
Теорема 1. Каждое уравнение первой степени определяет некоторую
плоскость.
Доказательство. Пусть дано ур-ие (17). Положим
x'= A'x+B'y+C'z, y'=A''x+ B''y+C''z, z'=Ax+By+Cz+D.
Пусть определитель данной системы отличен от нуля.
В соответствие с (17) получаем, что z'=0. Очевидно, что в новой системе координат мы получаем плоскость XOY.
Теорема 2. Два уравнения первой степени определяют одну и ту же
плоскость тогда и только тогда, когда все их коэффициенты пропорциональны.
Доказательство. Пусть даны два уравнения:
A'x+B'y+C'z+D'=0
(18)
A''x+B''y+C''z+D''=0
(19)
1) Предположим пропорциональность всех коэффициентов уравнений (18) и (19), т.е.:
A'=kA''; B'=kB''; C'=kC''; D'=kD''.
Очевидно, что эти уравнения определяют одну и ту же плоскость,
т.к. решения уравнения (18) являются решениями уравнения (19) и обратно.
2) Пусть теперь (18) и (19) определяют одну и ту же плоскость.
Пусть C'≠0. Рассмотрим пересечение плоскости с плоскостью x=0. Из первого ур-ия получим: B'y+C'z+D'=0; из второго: B''y+C''z+D''=0. Т.к. (18) и
(19) определяют одну и ту же плоскость, то и прямая должна быть одна.
Отсюда имеем пропорциональность: B'=kB'', C'=kC'', D'=D''.
Рассмотрим теперь пересечение плоскости с плоскостью y=0. Тогда
получим: A'x+C'z+D'=0; A''x+C''z+D''=0. Т.к. это одна и та же прямая, то
A'=lA'', C'=lC'', D'=lD''. Далее, имеем: C'=kC'' и C'=lC''. Отсюда, k=l.
Теорема доказана.
Теорема 3. Две плоскости параллельны тогда и только тогда, когда в
их уравнениях пропорциональны соответствующие коэффициенты при
первых степенях переменных.
Доказательство.
1) Пусть плоскости (18) и (19) параллельны. Докажем, что их коэффициенты пропорциональны. Для этого используем форму уравнения
B
P
P
P
P
P
P
48
B
плоскости (16). Возьмем два вектора a и b, лежащие на первой плоскости.
Т.к. плоскости параллельны, то эти векторы лежат и на второй
плоскости. Пусть r 1 - вектор точки, принадлежащий первой плоскости, а r 2
- вектор точки, принадлежащей второй плоскости. В соответствие с (16)
имеем:
B
x − x1
x'
x''
B
B
y − y1
y'
y''
z − z1
z' = 0;
z''
x − x2
x'
x''
y − y2
y'
y''
z − z2
z' = 0.
z''
B
(20)
Здесь r 1 =(x 1 ,y 1 ,z 1 );r 2 =(x 2 ,y 2 ,z 2 );a=(x',y',z');b=(x'',y'',z''). Легко видеть,
что в обоих случаях коэффициенты при x,y,z одни и те же.
2) Предположим теперь, что A'=kA'', B'=kB'', C'=kC''.
Имеем: k(A''x+B''y+C''z)+D'=0. Если D'=D'', то это одна плоскость.
Если D'≠kD'', то уравнения (18) и (19) не имеют общих решений, т.е. плоскости не пересекаются, следовательно, они параллельны.
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
9.4. Различные формы задания плоскости
1). Пусть даны три вектора: r 0 , a, b (a не коллинеарно b).
r=r 0 +αa+βb.
2). Пусть даны три вектора r 1 ,r 2 ,r 3 не лежащие на одной прямой:
r=r 1 +α(r 2 -r 1 )+β(r 3 -r 1 )
x − x1
y − y1
z − z1
B
B
B
B
B
или
B
B
B
x 2 − x1
B
B
B
y 2 − y1
B
B
B
B
B
B
B
B
B
z 2 − z1 = 0.
x 3 − x 1 y 3 − y 1 z 3 − z1
3). Ax+By+Cz+D=0.
x y z
+ + = 1- уравнение плоскости в отрезках.
4).
a b c
5). Пусть n - вектор нормали к плоскости, а r 0 - радиус-вектор точки плоскости, r - радиус-вектор произвольной точки плоскости:
(r-r 0 ,n)=0 или (r,n)=(r 0 ,n)=C.
Пусть |n|=1. Возьмем произвольную точку r'. Аналогично тому, что
мы уже делали в разделе 'Прямая на плоскости', получим:
a) каноническое уравнение плоскости xcosα+ycosβ+zcosγ-p=0.
Здесь α,β,γ - углы, составляющие вектором нормали с осями координат; n=(cosα,cosβ,cosγ).
b) расстояние от точки (x',y',z') до плоскости равно
d=|x'cosα+y'cosβ+z'cosβ-p|
c) из общего уравнения Ax+By+Cz+D=0 каноническое уравнение получается делением на A 2 + B 2 .
B
B
B
B
B
49
B
Знак радикала выбирается таким образом, чтобы свободный коэффициент был отрицательным.
d) из a) и c) следует, что вектор N=(A,B,C) перпендикулярен плоскости Ax+By+Cz+D=0.
Теперь получаем условие перпендикулярности двух плоскостей (18)
и (19):
A'A''+B'B''+C'C''=0.
(21)
9.5. Прямая линия в пространстве
Пусть даны векторы r 0 , определяющий точку на прямой, и a - лежащий на прямой. Тогда уравнение прямой может быть записано в параметрической форме: r=r 0 +αa или
B
B
B
B
x = x 0 + αx a 

y = y 0 + αy a 
z = z 0 + αz a 
(22)
Из (22) легко может быть получено следующее соотношение:
x − x0 y − y 0 z − z 0
(23)
=
=
xa
ya
za
Если взять две точки прямой r 1 и r 2 , то получим каноническое уравx − x1
y − y1
z − z1
нение прямой в пространстве:
или
=
=
x2 − x1 y2 − y1 z2 − z1
B
B
B
B
x − x0 y − y0 z − z0
=
=
.
a
b
c
(24)
Здесь использовано: r 0 =r 1 ; a=r 2 -r 1 .
Пусть теперь даны плоскость Ax+By+Cz+D=0 и прямая (24). Уравнение (24) можно записать в следующем виде: x=x 0 +αa; y=y 0 +βb; z=z 0 +γc.
Подставим это в уравнение плоскости: α(aA+bB+cC)+Ax 0 +By 0 +Cz 0 +D=0.
Если aA+bB+cC=0, то прямая и плоскость параллельны. Отсюда
следует вывод, что вектор (a,b,c) параллелен прямой.
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
9.6. Ортогональность и параллельность
x − x1 y − y1 z − z1
x − x2 y − y2 z − z2
ортогоДве прямые
=
=
и
=
=
a1
b1
c1
a2
b2
c2
нальны, если a 1 a 2 +b 1 b 2 +c 1 c 2 =0 и параллельны, если a 1 /a 2 =b 1 /b 2 =c 1 /c 2 .
Прямая (x-x 1 )/a=(y-y 1 )/b=(z-z 1 )/c и плоскость Ax+By+Cz+D=0 ортогональны, если a/A=b/B=c/C и параллельны, если aA+bB+cC=0.
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
50
B
B
B
B
B
B
B
B
B
B
B
10. Линии и поверхности второго порядка
10.1. Алгебраические линии и порядок
Определение 1. Поверхность называется алгебраической, если в некоторой системе координат она удовлетворяет уравнению f(x,y,z)=0, где
f(x,y,z) - многочлен.
Определение 2.
Алгебраическая поверхность называется поверхностью порядка n, если она определяется уравнением степени n.
Теорема 5.1. Если поверхность определяется относительно некоторой системы координат уравнением степени n, то относительно любой
другой системы она также определяется уравнением степени n.
10.2. Эллипс
Определение 3. Эллипсом называется линия, которая в некоторой
прямоугольной системе координат определяется уравнением
x2 y2
+
= 1.
(1)
a 2 b2
Это симметричная фигура. Если |a|=|b|, то x 2 +y 2 =a 2 - уравнение
окружности.
P
P
P
P
P
P
r2
r1
F2
F1
Рис. 5.1.
Рассмотрим точки с координатами (c,0) и (-c,0), где
c = a 2 − b 2 ( a > b). (см.рис.5.1). Эти точки называются фокусами эллипса.
Вычислим сумму расстояний от фокусов до произвольной точки эллипса M(x,y).
c
a
Имеем: r1 = ( x − c) 2 + y 2 = a − x ;
r2 = ( x + c) 2 + y 2 = a + x
c
.
a
Таким образом, получаем:
r 1 +r 2 =2a=const
(2)
Обозначим ε=c/a - эксцентриситет эллипса. Для эллипса эксцентриситет ε<1.
Прямая x=a/ε называется директрисой эллипса.
B
B
B
B
51
10.3. Уравнение эллипса в полярной системе координат
Рассмотрим полярную систему координат, которая определяется
следующим образом:
Точка O называется центром системы координат. Произвольным образом из центра проводится ориентированный луч OX. Координаты точки
задаются двумя числами ϕ - угол между положительным направлением луча OX и лучом, связывающим центр O с заданной точкой A, измеряемый
против часовой стрелки, и r - расстояние от центра до точки.
Эта система координат связана с декартовой следующим преобразованием:
x=rcosϕ; y=rsinϕ
(3)
Поместим центр полярной системы координат в один из фокусов
(см.рис. 2).
r
ϕ
x
F1
F2
Рис. 2.
c2
a−
a .
Имеем: r=a-x(c/a); x=c+rcosϕ; r=a-(c/a)(c+rcosϕ); r =
1 + ε cos ϕ
2
2
Обозначим p=a-(c /a)=b /a. Тогда
p
(4)
r=
1 + ε cos ϕ
P
P
P
P
10.4. Гипербола
Определение 4. Гиперболой называется линия, которая в некоторой
прямоугольной системе координат удовлетворяет уравнению
x2 y2
−
= 1 ( a , b > 0).
(5)
a 2 b2
Назовем точки F(c,0), F 1 (-c,0) фокусами гиперболы (рис. 3) (здесь
2
2
c =a +b 2 ).
Из рис. 3 видно, что r=(c/a)x-a; r 1 =(c/a)x+a, а их разность равна
r 1 -r=2a
(6)
B
P
P
P
P
P
B
P
B
B
B
B
52
r1
r
F
F1
Рис. 3.
Величина ε=c/a называется эксцентриситетом гиперболы. Для гиперболы ε>1.
Прямые x=a/ε и x=-a/ε называются директрисами гиперболы. Для
любой ветви гиперболы r/d=ε.
10.5. Уравнение гиперболы в полярной системе координат
Поместим центр полярной системы координат в один из фокусов гиперболы и направим ось в сторону ближайшей вершины (см. рис.5.4).
r1
r
ϕ
F
Рис.4.
c2
−a
a
. Обозначив p=b 2 /a, поИмеем: r=(c/a)x-a; x=c-rcosϕ; r =
1 + ε cos ϕ
лучим
p
(7)
r=
.
1 + ε cos ϕ
P
P
10.6. Парабола
Определение 5. Параболой называется линия, которая в некоторой
прямоугольной системе координат определяется уравнением
53
y 2 =px (p > 0)
P
(8)
P
Рис. 5.
В полярной системе координат уравнение параболы имеет вид
p
(8)
r=
( ε = 1).
1 + ε cos ϕ
Таким образом мы пришли к очень важному выводу: уравнения эллипса, гиперболы и параболы в полярной системе координат имеют один и
тот же вид, а именно:
ε < 1 - эллипс; 
p


r=
(9)
ε = 1 - парабола; 
1 + cos ϕ
ε > 1 - гипербола.


10.7. Оптические свойства эллипса, гиперболы, параболы
Эллипс: Если источник света поместить в один из фокусов эллипса, то лучи
света после зеркального отражения соберутся во втором фокусе.
Гипербола: Если источник света поместить в один из фокусов гиперболы,
то лучи света, отраженные от гиперболы, кажутся исходящими
из другого фокуса.
Парабола: Если источник света поместить в фокус параболы, то лучи света
после отражения от параболы идут параллельно ее оси.
54
ЧАСТЬ 3. ТЕОРИЯ ФУНКЦИИ ОДНОЙ ПЕРЕМЕННОЙ
11. Числовая последовательность и ее предел. Теоремы
Кантора и Вейерштрасса
11.1. Числовые последовательности.
Определение 1. Пусть по некоторому правилу к каждому натуральному числу отнесено некоторое действительное число. Расположим
эти числа в порядке возрастания номеров, тогда совокупность этих чисел
называется числовой последовательностью.
Определение 2. Пусть задана последовательность xn и пусть существует число a такое, что для любого ε>0 существует число N(ε) такое, что
для любых n>N(ε) выполнено неравенство |xn-a|<ε. Тогда это число называют пределом последовательности и пишут lim x n = a .
n→ ∞
Замечание. Вообще множество |x-a|<ε (ε>0) называется εокрестностью числа x. Пример 1. Пусть имеется последовательность
n
1 2 3
; ; ;...;
;... Докажем, что lim x n = 1 .
2 3 4
n+1
n→ ∞
Рассмотрим разность |xn-1|: |n/(n+1)-1|=|-1/(n+1)|=1/(n+1).
Эта величина должна быть меньше ε, как только n станет достаточно
большим. Имеем: 1/(n+1)<ε; n>1/ε-1; N(ε)=int(1/ε-1)+1=[1/ε].
Как только n будет больше N(ε), необходимое неравенство будет выполняться, следовательно, число a=1 соответствует определению предела.
Замечание. Если последовательность имеет предел, то говорят, что
последовательность сходится. Если последовательность сходится, то предел единственен.
Определение 3. Последовательность
{xn, n=1... ∞} называется
монотонно возрастающей, если для любого n xn+1>xn.
Теорема о монотонно возрастающей последовательности. Пусть
дана монотонно возрастающая последовательность x(n), ограниченная
сверху. Тогда эта последовательность сходится.
Доказательство. В силу теоремы о точной верхней грани последовательность имеет точную верхнюю грань. Обозначим ее через k*. Докажем,
что k * = lim xn .
n→∞
Т.к. k* - точная верхняя грань, то для любого ε>0 существует такое
N(ε), что для любых n>N(ε) k*-ε<xn (здесь мы учли монотонность после55
довательности). Следовательно, будет выполняться неравенство |xn- k*|<ε.
Таким образом, число k* соответствует определению предела.
11.2.Теоремы Кантора и Вейерштрасса
Теорема Кантора о вложенных отрезках. Пусть имеется последовательность вложенных друг в друга отрезков, длины которых стремятся к нулю: [a1,b1] ⊃ [a2,b2] ⊃ ... ⊃ [an,bn] ⊃ ... Тогда существует одна и
только одна точка q, которая принадлежит всем отрезкам.
Доказательство. Т.к. q принадлежит отрезку [an,bn)], то при всех n
an<q, bn>q. Покажем, что q - единственная точка.
Пусть h - еще одна общая точка. Пусть h>q. Ясно, что bn-an ≥h-q>0.
Это противоречит тому, что bn-an→0. Таким образом, h=q.
Замечание 1. Во множестве рациональных чисел теорема неверна.
Замечание 2. Если бы последовательность состояла из интервалов, то
теорема неверна.
Упражнение 2. Доказать замечание 2.
Определение 7. Пусть дана последовательность {xn}. Пусть задано
некоторое бесконечное подмножество чисел натурального ряда
n1<n2<...<nk<... Рассмотрим последовательность xn1, xn2,...,xnk,... Эта последовательность называется подпоследовательностью исходной последовательности.
Определение 8. Пусть определенная выше подпоследовательность
имеет предел и пусть lim x = a . Тогда число a называется частичным
nk →∞ nk
пределом исходной последовательности.
Теорема Вейерштрасса. Всякая ограниченная последовательность
имеет хотя бы один частичный предел.
Доказательство. Рассмотрим последовательность x1,x2,...,xn,... Она
ограничена, т.е. для любого n имеем: M ≤ xn ≤ K; M-K=δ. Разделим отрезок
[M,K] пополам и рассмотрим два отрезка: [M,M1] и [M1,K].
Ясно, что хотя бы в одном из этих отрезков находится бесконечное
множество членова последовательности. Возьмем тот из них, в котором
находится бесконечное множество точек, и обозначим его ∆1. Далее, разобьем ∆1 на два равных отрезка и т.д. В результате получим бесконечную
последовательность вложенных друг в друга отрезков, каждый из которых
содержит бесконечно много членов исходной последовательности. Длины
этих отрезков стремятся к нулю. По теореме Кантора, найдется единственная точка x, принадлежащая всем отрезкам.
Подпоследовательность сформируем следующим образом: в отрезке
∆1 возьмем точку xn1, не принадлежащую отрезку ∆2; в отрезке ∆2 возьмем
точку xn2 такую, что n2>n1 и не принадлежащую ∆3 и т.д. Покажем, что x
является пределом полученной подпоследовательности.
56
Очевидно, что |xnk-x| ≤ δ/2k (не превосходит длину k-го отрезка).
Правая часть становится и остается меньше любого наперед заданного
числа ε, как только k > -log ε (логарифм берется по основанию 2). Таким
образом, частичный предел существует.
Упражнение 3. Доказать, что предел любой подпоследовательности
сходящейся последовательности равен пределу последовательности.
11.3. Критерий Коши
Определение 1. Критерием называют необходимое и достаточное
условие.
Теорема 1 (критерий Коши). Для того, чтобы последовательность xn
сходилась, необходимо и достаточно, чтобы для любого ε>0 можно было
указать N(ε) такое, чтобы при всех n и m больших N(ε) выполнялось неравенство |xn-xm|<ε.
Доказательство.
1). Необходимость.
Пусть последовательность сходится и a - ее предел. Зададим ε>0.
Тогда существует N(ε) такое, что для любых n,m>N(ε) выполняются неравенства |xn-a|<ε/2; |xm-a|<ε/2. Отсюда имеем:
|xn-xm|=|(xn-a)-(xm-a)|≤|xn-a|+|xm-a|<ε/2+ε/2=ε.
Необходимость доказана.
2). Достаточность.
Докажем вначале, что последовательность, удовлетворяющая критерию Коши, ограничена.
Возьмем ε=1. Тогда, по условию, при всех n и m больших N(ε) будет
|xn-xm|<1. Фиксируем некоторое m и обозначим xm=q. Тогда
|xn-q|<1; -1+q < xn < 1+q.
Таким образом, за исключением конечного числа начальных членов,
все члены последовательности заключены в ограниченный интервал, т.е.
последовательность ограничена. Поскольку последовательность ограничена, то, по теореме Вейерштрасса, она имеет хотя бы один частичный предел. Обозначим его через a. Покажем, что это число является пределом последовательности.
Пусть задано ε>0. Выберем столь большое N(ε), чтобы для любых n и
m > N(ε) было |xn-xm|<ε/2. Выберем в подпоследовтельности какое-либо
n1(k)>N(ε) и столь большое, чтобы было |xn1(k)-a|<ε/2. Тогда для любых n >
N(ε) имеем: |xn-a|=|xn-xn1(k)+xn1(k)-a|≤|xn-xn1(k)|+|xn1(k)-a|<ε/2+ε/2=ε.
Первое неравенство справедливо по условиям теоремы, а второе в
силу существования предела подпоследовательности. Таким образом, предел последовательности существует. Теорема доказана.
57
11.4. Теоремы о пределах
Теорема 2. Пусть даны две последовательности xn и yn. Пусть
lim xn = a ; lim y n = b . Тогда последовательность xn+yn тоже сходится и
n→∞
n→∞
lim ( x n
n →∞
+ yn ) = a + b .
Доказательство. Зададим ε>0. Найдем такое N1(ε), чтобы при n>N1(ε)
было |xn-a|<ε/2. Найдем также N2(ε) такое, чтобы при n>N2(ε) было |ynb|<ε/2. Выберем N3(ε)=max (N1,N2). При n>N3 имеем:
|(xn+yn)-(a+b)|≤|xn-a|+|yn-b|<ε/2+ε/2=ε. Теорема доказана.
Теорема 3. Пусть в условиях теоремы 2 определена последовательность x n ⋅ y n . Тогда lim xn ⋅ y n = a ⋅ b .
n→∞
Доказательство. Заметим, что т.к. последовательности xn и yn сходятся, то они ограничены, т.е. |xn|<C; |yn|<C.
Зададим ε>0. Найдем столь большое N(ε), чтобы при всех n> N(ε)
выполнялось: |xn-a|<ε/(2C); |yn-b|<ε/(2C).
Имеем: |xnyn-ab|=|xnyn-ayn+ayn-ab|≤|yn||xn-a|+|a||yn-b|<Cε/(2C)+C(ε/2C)=ε.
Теорема 3. Пусть в условиях теоремы 2 определена последовательность xn/yn, причем yn≠0, b≠0. Тогда полученная последовательность
сходится и lim
xn a
= .
yn b
n →∞
Доказательство.
Замечание 1. При b≠0 существует такое N1, что для любых n>N1
|yn|>|b/2|. Пусть b>0. Тогда возьмем ε=b/2: |yn-b|<b/2; -b/2 < yn-b < b/2;
yn>b/2.
Замечание 2. Если b<0, то lim (− y n ) = −b , что то же самое.
n →∞
Зададим ε>0. Имеем:
x n a b ⋅ x n − a ⋅ y n b ⋅ xn − a ⋅ y n
− =
<
yn b
b ⋅ yn
b ⋅ (b / 2)
при
n большем некоторого N1.
По теоремам 2 и 3 lim (b ⋅ xn − a ⋅ y n ) = 0 . Поэтому существует таn→∞
кое N2, что при n>N2 будет |bxn-ayn|<ε|b|2/2.
При n>N3=max(N1,N2) одновременно выполняются оба неравенства.
xn a εb 2 2
− <
⋅
= ε.
Тогда для любого n>N3:
yn b
2 b2
58
Теорема 5. Пусть
lim z n
n→ ∞
= a.
lim xn = lim y n = a и yn<zn<xn при n≥1. Тогда
n→∞
n →∞
Доказательство. Зададим ε>0. Выберем N(ε) столь большое, чтобы
одновременно при n>N(ε) было:
xn − a < ε  a − ε < xn < a + ε 
⇒
 ⇒ a − ε < zn < a + ε Теорема доказана.
yn − a < ε  a − ε < yn < a + ε
Теорема 6. Пусть для любого n a≤xn≤b и пусть lim x n = c . Тогда
n→∞
a≤c≤b.
Доказательство. Пусть c>b. Тогда существует N такое, что для любых n>N имеем |xn-c|<ε=(c-b)/2. Тогда -(c-b)/2≤xn-c≤(c-b)/2; c+b/2≤xn≤3c/2b/2.
Таким образом, xn>b, что противоречит условиям теоремы.
11.5. Бесконечно малые и бесконечно большие последовательности
Определение 2. Сходящаяся последовательность xn называется бесконечно малой, если lim x n = 0 .
n→∞
Теорема 7. Пусть xn - бесконечно малая последовательность и пусть
yn - ограниченная последовательность (M<yn<N). Тогда xnyn - последовательность, сходящаяся к нулю.
Упражнение 1. Доказать теорему 7.
Определение 3. Пусть дана последовательность xn. Пусть для любого
M>0 существует N(M) такое, что для любых n>N(M) |xn|>M. Тогда данная
последовательность называется бесконечно большой и пишут lim x n = ∞ .
n→∞
Теорема 8. Пусть xn - бесконечно большая последовательность и
пусть xn≠0 для любого n. Тогда 1/xn - бесконечно малая последовательность.
11.6. Число e
Рассмотрим последовательность
xn=(1+1/n)n
Докажем, что эта последовательность сходится.
В соответствие с биномом Ньютона имеем:
n
xn = ∑
или
k =0
1
C nk ⋅  
n
k
= 1+
(1)
n
n( n − 1)...(n − k + 1)
n( n − 1)...(n − n + 1)
+ ... +
+ ... +
1!n
k !n k
n!n n
59
xn = 2 +
1  1
1  1  2   k 
1  1  2   n − 1 
1 −  + ... + 1 − 1 − ...1 −  + ... + 1 − 1 − ...1 −

2!  n 
k!  n  n   n 
n!  n  n  
n 
Отсюда видно, что последовательность является монотонно возрастающей, т.е xn+1>xn для любого n.
Докажем теперь, что эта последовательность ограничена сверху.
k −1 
m
1
1 1
Имеем: x n < 2 + + +...+ . Здесь мы заменили ∏ 1 −  на 1.
n
2! 3!
n!
m =1
Учитывая, что 2k-1<k!, получаем далее:
1
1
1
xn < 2 +
+
+ ... +
< 2 +1= 3.
2 2 23
2 n −1
Таким образом, мы получили, что числовая последовательность (1)
монотонно возрастает и ограничена сверху, следовательно, она имеет предел. Этот предел называется числом Непера и обозначается символом e:
n
 1
e = lim 1 +  = 2.718281828...
n
n →∞ 
Теорема Штольца. Пусть даны две неограниченные последовательности xn и yn, причем, начиная с некоторого номера n, последовательность
yn становится монотонно возрастающей. Тогда справедливо следующее соотношение:
xn
x − xn −1
x
− xn
,
= lim n
= lim n +1
lim
n → ∞ y n n → ∞ y n − y n −1 n → ∞ y n +1 − y n
если только существует предел справа. (Без доказательства).
Пример 1. xn=an (a>1); yn=n.
xn
a n +1 − a n
a n (a − 1)
= lim
= lim
=∞
lim
y
(
n
+
1
)
−
n
1
n → ∞ n n →∞
n →∞
Пример 2. z n =
1k + 2 k + ...n k
n
k +1
. Вводим xn=1k+...+nk; yn=nk+1.
xn
xn − xn −1
nk
Имеем: lim z n = lim
= lim
= lim
k +1
y
y
−
y
− (n − 1) k +1
n −1 n →∞ n
n →∞
n →∞ n n →∞ n
Т.к. ( n − 1) k +1 = n k +1 − ( k + 1) ⋅ n k + ..., то
lim z n = lim
n→∞
nk
n → ∞ ( k + 1) ⋅ n k + ...
=
1
k +1
60
12. Функции. Пределы. Непрерывность.
12.1. Функция и ее предел
Определение 1. Пусть функция y=f(x) определена в некоторой
окрестности числа a, за возможным исключением самой точки a. Пишут
lim f ( x ) = A , если для любого ε>0 существует δ(ε)>0 такое, что для люx→ a
бых x, удовлетворяющих неравенству 0<|x-a|<δ(ε) выполняется неравенство |f(x)-A|<ε. Число A при этом называется пределом f(x) при x→a.
Это определение принадлежит Коши. Существует другое определение, принадлежащее Гейне.
Определение 2. Пусть функция y=f(x) определена в некоторой
окрестности точки a и пусть для произвольной числовой последовательности xn такой, что 0<|xn-a|<r и lim x n = a , соответствующая последовательn→ ∞
ность
lim
x→ a
значений функции f(xn) сходится к числу A. Тогда пишут:
f (x ) = A .
Теорема 1. Определения Коши и Гейне эквивалентны.
Доказательство.
1). Покажем, что из определения Коши следует определение Гейне.
В самом деле, пусть задана произвольная последовательность xn такая, что lim x n = a . Зададим ε>0.
n→ ∞
Выберем δ(ε)>0 такое, что для любых x: 0<|x-a|<δ будет: |f(x)-A|<ε.
По найденному δ определим N(δ) такое, чтобы для любых n>N(δ)
было |xn-a|<δ. Отсюда немедленно получаем |f(xn)-A|<ε.
2). Докажем, что из определения Гейне следует определение Коши.
Пусть существует предел в смысле Гейне, а предел в смысле Коши
не существует. Это означает, что существует такое ε>0, что нет такого δ,
чтобы при всех |x-a|<δ было |f(x)-A|<ε.
Зададим δ1=1/10 и найдем x1 такое, чтобы
|x1-a|<δ1, а |f(x1)-A|≥ε.
...........................
Возьмем δn=1/10n и найдем x(n) такое, что
|xn-a|<δn, а |f(xn)-A|≥ε.
...........................
Получаем последовательность f(xn), которая не сходится к A, в то
время как последовательность xn сходится к a.
61
12.2. Теоремы о пределах
Теорема 2. Пусть
lim f ( x) = A, a lim g ( x) = B, тогда lim ( f ( x) + g ( x)) = A + B
x →a
x →a
x →a
Теорема 3. В условиях теоремы 2 lim ( f ( x) ⋅ g ( x) ) = A ⋅ B.
x→a
f ( x) A
= .
x → a g ( x) B
Определение 3. Пусть y=f(x) определена в некоторой окрестности
точки x=a, за исключением самой точки, радиуса r (проколотая окрестность). Функция y=f(x) называется бесконечно малой при x→a, если
lim f ( x ) = 0 .
Теорема 4. Пусть в условиях теоремы 2 B≠0. Тогда lim
x→ a
Определение 4. Пусть y=g(x) определена в проколотой окрестности
точки x=a. Пусть для любого M>0 существует δ(M)>0 такое, что для любых x: 0<|x-a|<δ(M) будет |g(x)|>M. Тогда функция y=g(x) называется бесконечно большой в точке x=a и пишут lim g ( x ) = ∞ .
x→ a
12.3. Односторонние и другие виды пределов
Определение 5. Пусть функция y=f(x) определена в правой полуокрестности точки x=a, за исключением, быть может, самой точки, т.е. она
определена при
0<x-a<r. Пишут lim f (x ) = A , если для любого ε>0
x→ a + 0
существует δ>0 такое, что для любых x: 0<x-a<δ будет |f(x)-A|<ε. Число A
называют пределом справа функции y=f(x) при x→a+0.
Аналогично вводят предел слева.
Замечание. Очевидно,
что
если
существует
предел
lim f ( x ) = A , то существуют односторонние пределы. Верно и обратное:
x→ a
если существуют оба односторонних предела и они равны, то существует
совпадающий с ними предел lim f ( x ) = A .
x→ a
Упражнение 2. Доказать это утверждение.
Определение 6. Пусть функция y=f(x) определена для всех x: |x|>R>0.
Пишут lim f ( x ) = A , если для любого ε>0 существует такое M>R, что для
x→ ∞
любых x: |x|>M будет |f(x)-A|<ε.
Замечание. Нетрудно теперь понять смысл следующизх обозначений:
lim
x → +∞
f ( x ) = A;
lim
x → −∞
f (x ) = B;
lim f ( x ) = +∞ и т. д.
x →∞
62
Во всех этих случаях естественным образом вводится определение
предела по Гейне и устанавливается эквивалентность по Коши и Гейне.
12.4. Теорема о существовании одностороннего предела
у монотонной функции
Определение 7. Пусть функция y=f(x) определена на отрезке [a,b].
Говорят, что функция y=f(x) монотонно возрастает на отрезке, если выполнение неравенства x1<x2 влечет за собой выполнение неравенства f(x1)≤f(x2).
Если выполняется неравенство f(x1) ≥f(x2), то функция монотонно убывающая.
Теорема 4. Пусть функция y=f(x) монотонно возрастает на отрезке
[a,b]. Пусть точка x=c принадлежит этому отрезку, тогда существуют односторонние пределы lim f ( x) и lim f ( x) , которые, в общем случае,
x → с+0
x → с−0
могут и не совпадать.
Доказательство. Докажем существование левостороннего предела.
Рассмотрим полуинтервал [a,c). На этом полуинтервале функция
ограничена: f(x) ≤f(c). Следовательно, множество значений f(x), принимаемых на [a,c), имеет точную верхнюю грань. Обозначим ее ω.Покажем, что
lim f ( x) = ω .
x→с−0
Имеем: для любого x<c f(x)<ω+ε для любого ε>0. Т.к. ω - точная
верхняя грань, то существует x0<c такое, что f(x0)>ω-ε. Далее, для любого
x: x0<x<c имеем f(x) ≥f(x0), т.е. f(x) ≥ω-ε.
Таким образом, имеем: |f(x)-ω|<ε.
Аналогично доказывается, что правосторонний предел равен точной
нижней грани левого полуинтервала.
Если функция монотонно убывающая, то следует рассмотреть функцию -f(x).
12.5. Непрерывность функции в точке
Определение 8. Пусть функция y=f(x) определена в некоторой точке
x=a и в ее окрестности. Если существует предел lim f ( x ) = f ( a ) , то функx→a
ция y=f(x) называется непрерывной в точке x=a. В противном случае она
называется разрывной.
63
Определение 9. Пусть x=a - точка разрыва функции y=f(x). Если с
обеих сторон существуют односторонние пределы, то такой разрыв называется разрывом первого рода.
Определение 10. Если хотя бы один односторонний предел в точке
разрыва не существует, то такая точка является точкой разрыва второго
рода.
Теорема 5. Пусть функции y=f(x) и y=g(x) непрерывны в точке x=a.
Тогда их сумма h(x)=f(x)+g(x) также непрерывна в точке x=a.
Теорема 6. В тех же предположениях h(x)=f(x)×g(x) непрерывна в
точке x=a.
Теорема 7. В условиях теоремы 5 функция h(x)=f(x)/g(x) непрерывна
в точке x=a, если g(x) ≠0 в окрестности точки x=a и в самой точке.
Упражнение 3. Доказать теоремы 5,6,7.
Помимо определения 8 можно дать следующие эквивалентные определения непрерывности.
Определение 8.1 (определение Коши). Функция y=f(x) называется
непрерывной в точке x=a, если для любого ε>0 существует δ(ε)>0 такое,
что для любых x: 0<|x-a|<δ выполняется неравенство |f(x)-f(a)|<ε.
Определение 8.2 (определение Гейне). Функция y=f(x) называется
непрерывной в точке x=a, если для любой сходящейся к точке x=a последовательности xn предел последовательности f(xn) равен f(a).
Определение 11. Пусть функция y=f(x) определена в точке x=a и в
некоторой ее правой полуокрестности. Говорят, что функция y=f(x) непрерывна справа в точке x=a, если существует предел lim f ( x ) = f ( a )
x→a+0
Аналогично определяется непрерывность "слева".
12.6. Непрерывность функции на отрезке
Определение 12. Функция y=f(x), определенная на отрезке [a,b],
называется непрерывной на отрезке [a,b], если она непрерывна в каждой
внутренней точке отрезка, а также непрерывна справа на левом конце и
непрерывна слева на правом конце отрезка.
Теорема 8 (первая теорема Вейерштрасса). Если функция y=f(x) непрерывна на отрезке [a,b], то она ограничена на этом отрезке, т.е. существует такое C>0, что для любого x из [a,b] |f(x)| ≤C.
Доказательство. Пусть такого числа C не существует. Тогда существует такое x1 из [a,b], что f(x1)>1 (с1=1). Далее:
c2=2: существует x2 из [a,b] - f(x2)>2;
............................................
cn=2: существует xn из [a,b] - f(xn)>n;
............................................
64
Заметим, что последовательность xn ограничена, т.к. a ≤xn ≤b. По
теореме Вейерштрасса об ограниченной последовательности, из нее можно
выбрать сходящуюся подпоследовательность xn(k).
Обозначим предел полученной подпоследовательности через x0:
lim xnk = x0 . Очевидно, что x0 принадлежит [a,b], следовательно, функk →∞
ция y=f(x) непрерывна в точке x=x0.
Гейне: lim f ( xnk ) = f ( x0 ) .
Из определения непрерывности
k →∞
С другой стороны, мы видели, что |f(xn(k)|>nk, т.е. lim f ( x n ) = ∞ . Таk
k →∞
ким образом, мы получили противоречие. Теорема доказана.
Замечание. Если отрезок заменить интервалом, то теорема неверна.
Например, для функции y=1/x на интервале (0, 1).
Введем некоторые обозначения.
Пусть функция y=f(x) непрерывна на [a,b]. Тогда, согласно теореме
8, она ограничена и, следовательно, множество Y значений функции ограничено и снизу, и сверху. Отсюда следует, что множество Y имеет точные
нижнюю и верхнюю грани. Обозначим их следующим образом:
(1)
M = sup f ( x ); m = inf f ( x );
x ∈[ a ,b ]
x ∈[ a ,b ]
Теорема 9 (вторая теорема Вейерштрасса: о достижимости точных
граней). Пусть функция y=f(x) непрерывна на отрезке [a,b]. Тогда существуют точки x1 и x2 такие, что f(x1)=M, f(x2)=m.
Доказательство. Докажем достижимость точной верхней грани.
Допустим противное. Тогда M-f(x)>0 для любых x из [a,b]. Отсюда
следует, что функция v(x)=1/[M-f(x)] непрерывна на этом отрезке. Тогда,
согласно первой теореме Вейерштрасса, она ограничена, т.е. существует
такое число C>0, что
1
< C.
M − f (x )
Отсюда следует, что f(x)<M-1/C. Это противоречит определению
точной верхней грани.
Аналогично доказывается достижимость точной нижней грани.
Лемма. Пусть функция y=f(x) непрерывна в точке x=a и f(a)>0. Тогда
в некоторой окрестности точки x=a будет f(x)>0.
Доказательство. Положим ε=f(a)/2>0. Тогда существует δ>0 такое,
что для любых x: |x-a|<δ будет |f(x)-f(a)|<ε=f(a)/2. Отсюда, f(x)>f(a)/2.
Теорема 10 (первая теорема Коши). Пусть функция y=f(x) непрерывна на отрезке [a,b] и пусть она принимает на концах отрезка разные знаки.
Тогда найдется такая точка x=c∈[a,b] (быть может, не одна), что f(c)=0.
65
Доказательство. Пусть f(a)<0, а f(b)>0.
Поделим отрезок [a,b] пополам точкой c1. Тогда либо f(c1)=0, либо
хотя бы на одном отрезке [a,c1], [c1,b] выполняется условие разных знаков.
Возьмем этот отрезок и снова поделим его пополам точкой c2. Опять, либо
f(c2)=0, либо на двух новых отрезках хотя бы в одном выполнено условие
разных знаков.
Продолжая это построение мы либо придем к точке cn: f(cn)=0, либо
построим последовательность вложенных друг в друга отрезков, длины
которых стремятся к нулю, а на концах их функция принимает значения
разных знаков.
По теореме Кантора о вложенных отрезках существует единственная
точка x, к которой стягиваются эти отрезки. Легко видеть, что f(x)=0. В самом деле, пусть f(x)>0. По лемме существует такая δ-окрестность точки x,
в которой f(x)>0. Это противоречит тому, что в этой δ-окрестности лежит
бесконечно много отрезков, на концах которых значения функции имеют
разные знаки.
Теорема 11 (вторая теорема Коши - о промежуточных значениях).
Пусть функция y=f(x) непрерывна на отрезке [a,b]. Пусть f(a)=A,
f(b)=B и пусть A<B. Тогда для любого числа C: A<C<B найдется такая
точка x=c из [a,b], что f(c)=C.
Доказательство. Возьмем функцию ϕ(x)=f(x)-C. Тогда ψ‘(a)<0, а
ϕ(b)>0. По теореме 10 существует такая точка x=c, что ϕ(c)=0, следовательно, f(c)=C. Теорема доказана.
66
13. Обратная и сложная функции. Замечательные пределы
13.1. Теорема об обратной функции
Теорема 1. Пусть функция y=f(x) непрерывна на отрезке [a,b] и строго возрастает на этом отрезке, т.е. для любых x1>x2 выполнено: f(x1)>f(x2).
Пусть f(a)=A, f(b)=B. Тогда для любого y0 из [A,B] существует корень x0 из
[a,b] уравнения y0=f(x0), зависящий от y0 и притом единственный. Так возникающая функция x=ϕ(y) непрерывна на отрезке [A,B] и строго возрастает на этом отрезке. Функция x=ϕ(y) называется обратной по отношению к функции y=f(x).
Доказательство. Т.к. Функция y=f(x) непрерывна, то, согласно второй теореме Коши (5, теорема 11) уравнение y0=f(x) может быть решено.
Ясно, что корень единственный. В самом деле, пусть y0=f(x0) и y0=f(x'),
причем x0≠x'. Тогда получается, что в разных точках отрезка [a,b] функция
y=f(x) принимает равные значения, что противоречит условию строгого
возрастания. Таким образом, функция x=ϕ(y) определена однозначно на
отрезке [A,B].
Покажем, что x=ϕ(y) строго возрастает на [A,B]. Возьмем y2>y1. Им
соответствуют корни x1,x2. Пусть x2<x1. Тогда, в силу строгой монотонности функции y=f(x), имеем: f(x1)>f(x2). Но f(x1)=y1; f(x2)=y2, т.е. y1>y2, что
противоречит исходной посылке.
Докажем теперь, что функция x=ϕ(y) непрерывна. Непрерывность в
точке y=y0 означает, что для любого ε>0 существует δ>0 такое, что как
только |y-y0|<δ, будет |ϕ(y)-ϕ(y0)|<ε.
Очевидно, существуют y1=f(x0-ε) и y2=f(x0+ε). Ясно, что y1<y0<y2.
Возьмем в качестве δ величину δ=min(y2-y0,y0-y1). Тогда, в силу монотонности функции x=ϕ(y) все значения y: |y-y0|<δ попадут в окрестность y0:
y1<y0<y2. Отсюда следует непрерывность функции x=ϕ(y).
Пример 1. Рассмотрим функцию y=xn (n - натуральное число). Эта
функция строго возрастает на любом отрезке [0,b]. Следовательно, на отрезке [0,bn] определена строго возрастающая и непрерывная обратная
функция x=y1/n.
Заодно мы показали, что из любого неотрицательного числа можно
извлечь корень n-й степени.
67
13.2. Теорема о сложной функции
Теорема 2. Пусть функция z=f(y) непрерывна в точке y=y0 и пусть
функция y=ϕ(x) в точке x=x0, причем v(x0)=y0. Тогда сложная функция
z=f[ϕ(x)] определена и непрерывна в точке x=x0 (Без доказательства)
Пример 3. z=y1/q - непрерывная функция, y=xr - также непрерывная
функция. Отсюда следует, что функция z=xp/q является непрерывной.
Таким образом, мы ввели степень с рациональным показателем.
13.3. Степенная функция
Если не оговорено особо, то ниже везде a>1, q>0.
Справедливы следующие свойства степенной функции с рациональным показателем.
1. ar=ap/q=(a1/q)p.
2. Справедливо неравенство a1/n>1.
a −1
> a 1/ n − 1 > 0 .
3. Справедлива оценка
n
Докажем последнее утверждение. Положим ε=a1/n-1>0.
Имеем: a1/n=1+ε. Возведем этот равенство в n-ю степень: a = 1 + C n1 ε + C n2 ε 2 + ...+ ε n .
Т.к. C nk > 0 ( 0 ≤ k ≤ n ), ε > 0 , C n1 = 1, то a>1+nε; ε<(a-1)/n.
Отсюда следует неравенство (a-1)/n>a1/n-1>0.
4. Пусть r1=q1/p1; r2=q2/p2. Тогда a r1 ⋅ a r2 = a r1 + r2 .
Доказательство. r1=q1/p1=(q1×p2)/(p1×p2); r2=q2/p2=(q2×p1)/(p2×p1).
a r1
 1 
=  a p1⋅ p2 




q1 ⋅ p2
 1 
r2
; a =  a p1 ⋅ p2 




q2 ⋅ p1
;
q p q ⋅p
 1  1 2+ 2 1
a r1 ⋅ a r2 =  a p1 ⋅ p2 
= a r1 + r2




5. Если ar1>ar2, то r1>r2.
Пусть теперь дано произвольное действительное число g. Под сим-
волической записью ag понимают число b = sup a r .
r≤g
Без доказательства приведем следующие свойства:
1. Если ag1>ag2, то g1>g2.
2. ag1ag2=ag1+g2.
68
13.4. Некоторые замечательные пределы
sin x
Пример 4. Найдем предел lim
.
x
x →0
Рассмотрим окружность единичного радиуса. Проведем из центра
окружности луч под углом ϕ к оси OX. Из точки пересечения A окружности и положительным лучом оси OX проведем вертикальную линию. Точки пересечения проведенного луча с окружностью и вертикальной линией
обозначим соответственно M и K.
Из точки M опустим перпендикуляр на ось OX.
В результате получим подобные прямоугольные треугольники OMB
и OKA. В радианной мере дуга MA равна углу x; сторона MB=sin x; сторона
KA=tg x.
Т.к. MB<MA<KA, то sin x<x<tgx. Поделим двойное неравенство на
sinx:
1<
x
1
sin x
<
<1
или cos x <
sin x cos x
x
Пусть некоторая числовая последовательность xk стремится к нулю
sin x
= 1.
(xk>0). Тогда cosxk ϕ → cos0=1. Переходя к пределу, получим: lim
x
x →0
Пример 5. Покажем, что
lim(1 +
1
x) x
x→0
=e
Пусть x>0, x→0+0. Оценим разность (1+x)1/x-e. Очевидно, что для
любого x найдется такое нату-ральное число n, что n+1 ≥ 1/x > n. Тогда
1/(n+1)≤x< 1/n и имеет место неравенство
n
n +1
 1
 1
1/ x
βn =  1 +  − e ≤ (1 + x) − e ≤  1 +  − e ≤ α n
 n
 n
Заметим, что lim α n = 0; lim βn = 0 .
n→ ∞
n→ ∞
Пусть задано ε>0. Выберем такое N>0, чтобы для любого n>N было:
-ε < αn < ε, -ε < βn < ε. Пусть теперь x удовлет воряет неравенству 0 < x <
1/N.
69
Тогда имеем -ε < (1+x)1/x - e < ε. Следовательно, при x>0 формула доказана.
Упражнение 1. Довести доказательство до конца.
ln(1 + x)
= 1.
Пример 6. Покажем, что lim
x
x→0
1
ln(1 + x) 1
= ⋅ ln(1 + x) = ln(1 + x) x .
Имеем следующую цепочку:
x
x
Пусть x стремится к нулю по некоторой последовательности xk
(xk≠0). Тогда последовательность (1 + xk )
имеем искомый предел.
1
xk
стремится к числу e. Отсюда
13.5. Эквивалентные бесконечно малые
Пусть даны две функции, непрерывные в окрестности точки x=a:
y=f(x) и y=g(x). Пусть обе эти функции стремятся к нулю при x→a, т.е. являются бесконечно малыми.
Определение 1. Функции f(x) и g(x) называются эквивалентными
f ( x)
= 1.
бесконечно малыми в точке x=a, если lim
g
(
x
)
x→a
Факт эквивалентности записывается следующим образом: f(x)~g(x).
Например:
sinx~x, x→0 ; sinx3~x3, x→0 ; ln(1+x)~x, x→0 ;
[ln(1+x2)]3~[sin(x2)]3, x→0.
f ( x)
= 0. Тогда пишут
Определение 2. Пусть в тех же условиях lim
g
(
x
)
x →a
f(x)=o(g(x)) и говорят, что функция f(x) является бесконечно малой более
высокого порядка, чем g(x).
Например, sinx3=o(x), x→0.
f ( x)
≤ M , то это записывается слеЕсли при x→a выполняется 0 <
g ( x)
дующим образом: f(x)=O(g(x)).
70
14. Производная. Теоремы о дифференцируемых функциях. Дифференциал.
14.1. Производная
Пусть функция y=f(x) определена в некоторой окрестности точки
x=x0. Разность x-x0 обозначим через ∆x и назовем эту величину приращением аргумента. Если ∆x задано, то x=x0+∆x.
Разность f(x0+∆x)-f(x0)=∆f(x0) называется приращением функции.
Дробь ∆f/∆x называют средней скоростью изменения функции на отрезке [x0, x0+∆x].
Определение 1. Пусть суy
ществует
предел
25
∆f
f ( x ) − f ( x0 )
y ' = lim
= lim
.
∆
−
x
x
x
20
dx → 0
dx → 0
0
Тогда функция y=f(x)
15
называется дифференцируемой
10
в точке x=x0, а данный предел
A
∆ y dy
φ
называется производной функ5
dx
ции в точке x=x0. Этот факт за0
писывается следующим обра0
1
2
3
4
5
x
зом: y' =
df
, x = x0 .
dx
Таким образом, производной называется предел отношения приращения функции к вызвавшему его приращению аргумента, в предположении, что приращение аргумента стремится к нулю.
Производная в точке x=x0 называется истинной или "мгновенной"
скоростью изменения функции в точке x=x0.
Пример 1. Рассмотрим функцию y=x2+2x+2. Покажем, что она имеет
производную в точке x=x0 и вычислим ее.
Имеем:
f=f(x0+∆x)-f(x0)=(x0+∆x)2-x02+2(x0+∆x)-2x0+2-2=
2x0∆x+∆x2+2∆x.
∆f
= 2 x0 + ∆x = 2 → 2 x0 + 2 при ∆x → 0.
∆x
Замечание. Если рассмотреть график функции y=f(x) и провести через точку A:(x0,f(x0)) секущую, то при приближении второй точки пересечения секущей и графика функции к исходной, можно наблюдать, что в пределе
секущая станет касательной. Отсюда видно, что y'(x0)=tgϕ, где ϕ - угол
наклона касательной к графику функции.
71
14.2 Производные основных элементарных функций
Приведем таблицу производных основных элементарных функций.
1) C'=0 (C=const);
2) (xn)'=nxn-1;
3) (ln x)'=1/x;
4) (ex)’= ex;
5) (cosx)'=-sinx;
6) (sinx)'=cosx;
7) (tgx)'=1/(cosx)2;
1
;
8) (arctg x )' =
1 + x2
1
9) (arc sin x )' =
.
2
1− x
14.3. Теоремы о функции, дифференцируемой в точке
Пусть дана функция y=f(x), дифференцируемая в точке x=x0. Обозна∆y
чим y '( x0 ) = lim .
∆x → 0 ∆x
Отсюда следует, что
∆f
− y'( x0 ) = α ( ∆x), где lim α ( ∆x ) = 0.
∆x
∆x → 0
Разрешая уравнение относительно ∆f, получаем:
∆f=y'(x0)∆x+α(∆x)∆x,
(1)
где ∆f=f(x)-f(x0); ∆x=x-x0.
Теорема 1. Если функция дифференцируема в точке, то она непрерывна в этой точке.
Доказательство. Доказательство немедленно следует из (1). В самом
деле, согласно (1)
(2)
lim ∆f = 0.
∆x → 0
Формула (2) означает, что
lim
x → x0
f ( x ) = f ( x 0 ), а это и есть одно из
определений непрерывности.
Замечание. Обратное утверждение неверно.
Теорема 2. Пусть функции y=f(x) и y=g(x) дифференцируемы в точке
x=x0. Тогда функция y=f(x)+g(x) также дифференцируема в этой точке,
причем [f(x)+g(x)]'=f'(x)+g'(x).
Доказательство. Очевидно, что ∆[f(x)+g(x)]=∆f+∆g.
df dg
∆ ( f + g ) ∆f ∆g
Тогда
=
+
+
.
→
∆x
∆x ∆x x → x 0 dx dx
72
Теорема 3. В условиях теоремы 2 дифференцируемо произведение
функций, причем (fg)'=f'g+fg'.
Доказательство. Возьмем разность ∆(fg)=f(x0+∆x)g(x0+∆x)-f(x0)g(x0)=
=[f(x0+∆x)g(x0+∆x)-f(x0)g(x0+∆x)]+[f(x0)g(x0+∆x)-(x0)g(x0)].
Поделим на ∆x:
∆ ( fg )
∆f
∆g
= g ( x0 + ∆x )
+ f ( x0 )
→ = g ( x 0 ) f '( x 0 ) + g '( x0 ) f ( x 0 )
∆x
∆x
∆x ∆x → 0
Теорема 4. В условиях теоремы 2 и при условии, что g(x0) ≠ 0, функ'
f
f ' g − fg '
.
ция y=f(x)/g(x) является дифференцируемой, причем   =
 g
g2
Доказательство. Имеем следующую цепочку преобразований:
∆( f / g)
1  f ( x 0 + ∆x ) f ( x 0 ) 
=
−

=
∆x
∆x  g ( x 0 + ∆ x ) g ( x 0 ) 
=
1  f ( x 0 + ∆ x ) g ( x 0 ) − f ( x 0 ) g ( x 0 ) + f ( x 0 ) g ( x 0 ) − f ( x 0 ) g ( x 0 + ∆x ) 

=
∆x 
g ( x 0 + ∆x ) g ( x 0 )

=
∆f
∆g 
f ' g − fg '
1

,
− f ( x0 )  →
 g ( x0 )
g ( x 0 + ∆x ) g ( x 0 ) 
∆x
∆x  ∆x → 0
g2
14.4. Производная сложной функции
Теорема 5. Пусть функция z=f(y) дифференцируема в точке y=y0.
Пусть также функция y=ϕ(x) дифференцируема в точке x=x0 и пусть
v(x0)=y0. Тогда сложная функция z=f[ϕ(x)] дифференцируема в точке x=x0
dz dz dv
и справедлива следующая формула:
=
⋅ .
dx dy dx
Доказательство. Т.к. функция z=f(y) дифференцируема в точке y=y0,
то ∆z=f'(y0)∆y+α(∆y)∆y, где lim α ( ∆y ) = 0. Пусть теперь ∆y есть соответ∆y → 0
ствующее приращение функции ϕ(x), вызванное приращением аргумента
∆x, т.е ∆y= ϕ(x0+∆x)- ϕ(x0). Поделив обе части приращения ∆z на ∆x, получим:
∆z
∆y
∆y
= f '( x0 ) + α ( ∆x) .
∆x
∆x
∆x
(3)
Пусть теперь ∆x → 0 по некоторой последовательности значений. Тогда ∆y также стремится к нулю по некоторой последовательности значений
в силу непрерывности функции ϕ(x), но тогда и α(∆y) → 0. Возникающая
последовательность правых частей выражения (3) сойдется, очевидно, к
выражению, указанному в теореме.
73
14.5. Производная обратной функции
Теорема 6. Пусть функция y=f(x) определена на отрезке [x0-r,x0+r],
r>0, строго возрастает на этом участке, непрерывна там, дифференцируема
в точке x=x0 и не обращается в этой точке в ноль. Тогда обратная функция
x=ϕ(y) дифференцируема в точке y=y0=f(x0), причем v'(y0)=1/f'(x0).
Доказательство. Возьмем разностное отношение
∆v ϕ ( y0 + ∆y ) − ϕ ( y0 ) ∆x
1
=
=
=
.
∆y
∆y
∆y  ∆y 
 
 ∆x 
Пусть теперь имеем некоторую последовательность ∆yk, стремящуюся к нулю, причем ∆yk ≠ 0. Тогда соответствующая последовательность ∆xk
→ 0 в силу непрерывности функции ϕ(y) в точке y=y0, причем ∆xk≠0 в силу
строгой монотонности функции ϕ(y). Последовательность ∆yk/∆xk сходится
в силу дифференцируемости функции f(x). Теорема доказана.
14.6. Производная функции, заданной параметрически
Определение 2. Пусть x=ϕ(t) и y=ψ(t) две непрерывные на отрезке
[α,β] функции. Пусть для определенности ϕ(t) строго возрастает на этом
отрезке. Если ϕ(α)=a, ϕ(β)=b, то на отрезке [α,β] определена непрерывная
функция t=t(x). В этом случае на отрезке [α,β] определена сложная функция y=ψ[t(x)]. В описанных условиях говорят, что функция y=ψ[t(x)]
определена параметрически уравнениями x=ϕ(t), y=ψ(t).
Теорема 7. Пусть выполнены все предположения определения и
пусть в некоторой точке t0 из [α,β] функция x=ϕ(t) дифференцируема, причем x'(t0) ≠ 0. Пусть функция y=ψ(t) также дифференцируема в точке t=t0.
Тогда параметрически заданная функция y=ψ[t(x)] дифференцируема в
ψ '(t 0 )
точке x=x0, причем y '( x0 ) =
.
ϕ '(t 0 )
Доказательство. Дифференцируемость внутренней функции следует
из теоремы 6: t'(x0)=1/ ϕ '(x0). Из теоремы 5 о дифференцируемости сложной функции следует дифференцируемость функции ψ[t(x)], причем
y'(x0)=ψ'(t0)t'(x0)=ψ'(t0)/ϕ'(t0).
14.7. Дифференциал
Пусть некоторая функция y=f(x) дифференцируема в точке x= x0. Тогда приращение функции может быть представлено в виде
(4)
∆f=f'(x0)∆x+o(∆x)
74
что следует из определения производной.
Замечание. Пусть про некоторую функцию, определенную в точке
x=x0 известно, что ее приращение представимо в виде
∆f=A∆x+o(∆x)
(5)
Тогда эта функция дифференцируема и A=f'(x0).
Упражнение 2. Доказать это утверждение.
Таким образом, представление приращения функции в виде (5) эквивалентно утверждению о ее дифференцируемости.
Определение 3. Если приращение функции представимо в виде
∆f=A∆x+o(∆x), то линейная относительно ∆x часть A∆x называется дифференциалом функции df. Этот факт записывается следующим образом:
df(x=x0)=A∆x=f'(x0)∆x или, полагая тождество ∆x=dx, df=f'(x0)dx
Определение 4. Пусть y=f(x) - некоторая функция и L - ее график. Рассмотрим прямую P, проходящую через точку M0(x0,y0). Через d(M)
обозначим расстояние от точки M(x,y) до прямой P. Прямая P называется
d( M)
касательной к графику L в точке M, если lim
= 0.
∆x → 0 MM 0
Теорема 8. Если функция y=f(x) дифференцируема в точке x=x0, то
существует касательная к графику этой функции в точке M0(x0,y0), которая
записывается уравнением
y-y0=y'(x0)(x-x0)
(6)
Доказательство. Имеем:
d( M) =
( y0 + ∆y − y0 ) − y'( x0 )( x0 + ∆x − x0 )
1 + y'( x0 ) 2
=
∆y − y ' ∆x
D
= o( ∆x).
d ( M ) o( ∆x) o( ∆x) ∆x
=
=
⋅
→ 0.
MM 0 MM 0
∆x MM 0 ∆x → 0
Упражнение 3. Доказать, что прямая, полученная выше, является
единственной касательной к графику. Показать, что дифференциал является ординатой приращения касательной, проведенной в точке M0: ∆y=y'∆x.
Далее:
75
14.7. Инвариантность формы первого дифференциала
Пусть функция z=f(y) дифференцируема в точке y=y0. Тогда
dz=f'(y0)dy. Пусть функция y=ϕ(x) дифференцируема в точке x=x0. Тогда
dy=ϕ'(x0)dx. Пусть теперь y0=ϕ(x0). Тогда сложная функция ω(x)=f[ϕ(x)]
дифференцируема в точке x=x0 и
dω=ω'(x0)dx или dω=f'(y0)ϕ'(x0)dx.
Сравнивая полученную формулу и формулы dz=f'(y0)dy и
dy= ϕ'(x0)dx, можем записать: dω=f'(y0)dy.
Правые части выражений для dω и dz совпадают, однако смысл величины dy у них разный. В одном случае, dy - приращение аргумента
функции, а в другом, dy - это приращение функции ϕ(x), вызванное приращением аргумента dx. Тем не менее, совпадение правых частей указанных
дифференциалов - факт, существенно значимый. Он носит название "инвариантность формы первого дифференциала". Его можно описать так: если
дана функция f=f(y), то всегда df=f'(y)dy, независимо от того, является ли
параметр y независимой переменной или это функция некоторого аргумента.
14.8. Производная и дифференциал высших порядков
Если производная некоторой функции, в свою очередь, является
дифференцируемой функцией, то ее производная называется второй производной от исходной функции. Общее обозначение (если, разумеется,
d k f ( x)
(k )
существуют все необходимые функции-производные): f ( x ) =
.
dx k
Предположим теперь, что функция y=f(x) дифференцируема дважды.
Ее дифференциал равен dy=f'(x0)dx. Видно, что дифференциал есть функция двух переменных: x0 и dx. Фиксируем dx и, рассматривая dy как функцию от x0, найдем ее дифференциал: d2y=f''(x)dx2 .
Полученная величина называется дифференциалом второго порядка.
Идя далее, получим: dky=f(k)(x)dxk.
76
15. Теоремы Ролля, Лагранже, Коши. Формула Тейлора.
Исследование функций.
15.1. Теоремы о дифференцируемых функциях
Определение 1. Пусть функция y=f(x) определена в правой полуокрестности точки x=a и существует предел
fx) − f (a )
(1)
lim x − a = A.
x →a + 0
Тогда говорят, что функция y=f(x) имеет в точке x=a правую производную, и обозначают предел (1) как A=f'пр(a).
Аналогично вводится и левая производная. Очевидно, что если
функцияч дифференцируема в некоторой точке, то эта функцияч имеет и
левую, и правую производные, причем они совпадают с производной.
Очевидно и обратное. Если существуют и левая, и правая производные, и они совпадают, то функция дифференцируема.
Упражнение 1. Доказать вышеуказанные утверждения.
Теорема 1 (теорема Ролля). Пусть функция y=f(x) непрерывна на отрезке [a,b] и дифференцируема в каждой внутренней точке этого отрезка.
Пусть при этом f(a)=f(b). Тогда найдется такая точка x0 из [a,b], что f'(x0)=0.
Доказательство. Пусть m=inf f(x), M=sup f(x) на отрезке [a,b]. Может
быть случайно, что m=M. Тогда из неравенства m ≤ f(x) ≤ M следует, что
f(x)=const, так что f'(x)=0.
Пусть теперь m≠M. Т.к. f(a)=f(b), то либо m, либо M достигаются
внутри отрезка. Вычислим теперь левую и правую производные в точке x0
(там, где либо f(x0)=m либо f(x0)=M).
Пусть f(x0)=M. Имеем:
f ( x ) − f ( x0 )
f ( x) − M
f ' п р ( x0 ) = lim
= lim
≤ 0;
x − x0
x → x0 + 0
x → x 0 + 0 x − x0
f ( x ) − f ( x0 )
f ( x) − M
= lim
≥ 0.
x − x0
x → x0 − 0
x → x 0 − 0 x − x0
Т.к. f'л(x0)=f'пр(x0)=f'(x0), то f'(x0)=0.
Аналогично поступаем, если f(x) достигает m.
Теорема 2 (теорема Лагранжа). Пусть функция y=f(x) непрерывна на
отрезке [a,b] и дифференцируема во всех внутренних точках этого отрезка.
Тогда существует такая точка x=ξ из интервала (a,b), что
f ' л ( x0 ) =
lim
f '(ξ ) =
f (b) − f (a)
.
b−a
(2)
77
Доказательство. Подберем константу k так, чтобы функция ϕ(x)=f(x)k(x-a) удовлетворяла условиям теоремы Ролля, т.е., чтобы было ϕ(a)=ϕ(b).
Имеем: ϕ(a)=f(a); ϕ(b)=f(b)-k(b-a) ⇒ k =
f (b) − f (a)
.
b−a
Согласно теореме Ролля существует точка x=ξ: ϕ’(ξ)=0. Дифференцируя функцию ϕ(x), получим:
ϕ '(ξ) = f '(ξ ) − k = 0 ⇒ f '(ξ) = k =
f (b) − f (a)
.
b−a
Теорема 3 (теорема Коши). Пусть функции y=f(x) и y=g(x) непрерывны на [a,b] и дифференцируемы во всех внутренних точках этого отрезка. Пусть производная функции y=g(x) не обращается в ноль ни в одной
точке этого отрезка. Тогда существует такая точка x=ξ из интервала (a,b),
что
f '(ξ ) f (b) − f ( a )
(3)
=
.
g '(ξ ) g (b) − g ( a )
Заметим, что знаменатель в правой части (3) не обращается в ноль.
Противное противоречило бы условию g'(x) ≠0 и теореме Ролля.
Доказательство. Возьмем функцию ϕ(x)=f(x)-kg(x) такую, что
f (b) − f ( a )
ϕ(a)=ϕ(b). Имеем: f(a)-kg(a)=f(b)-kg(b) ⇒ k =
. Таким образом,
g (b) − g ( a )
существует точка x=ξ: ϕ'(ξ)=0. Отсюда получаем: f'(ξ)-kg'(ξ)=0; k=f'(ξ)/g'(ξ).
Теорема доказана.
15.2. Формула Тейлора
Лемма 1. Пусть функции y=ϕ(x) и y=ψ(x) имеют (k+1) производную
на отрезке [a,b]. Пусть все их производные до k-го порядка включительно
обращаются в ноль в точке x=a. Пусть, кроме этого, (k+1)-я производная
функции ψ(x) не равна нулю при x>a, и ϕ(a)=ψ(a)=0.
Тогда для любого x из (a,b) существует такая точка x=ξ из (a,b), что
ϕ ( x) ϕ ( k +1) (ξ )
=
.
(4)
ψ ( x ) ψ ( k +1) (ξ )
Это обобщение теоремы Коши.
Доказательство. Для доказательства необходимо k раз применить
теорему Коши:
ϕ ( x) ϕ ( x ) − ϕ (a ) ϕ '(ξ ) ϕ '(ξ ) − ϕ '(a ) ϕ ''(ξ1 )
ϕ ( k +1) (ξk )
=
=
=
=
= ... = ( k +1)
ψ ( x) ψ ( x ) −ψ (a ) ψ '(ξ ) ψ '(ξ ) −ψ '(a ) ψ ''(ξ1 )
ψ (ξk )
Определение 2. Пусть теперь функция y=f(x) дифференцируема в
точке x=a n раз. Тогда многочлен
78
f '(a )
f ''(a )
f ( n) (a )
2
Pn ( x ) = f (a ) +
( x − a) +
( x − a ) +...+
( x − a ) n называется
1!
2!
n!
много-
членом Тейлора n-й степени функции y=f(x).
Легко заметить, что Pn(a)=f(a); Pn'(a)=f'(a); ...
Теорема 4 (формула Тейлора с остаточным членом в форме Лагранжа). Пусть функция y=f(x) имеет на отрезке [a,b] (n+1) производную. Пусть
Pn(x) - ее многочлен Тейлора степени n. Тогда для любого x∈(a,b) существует точка x=ξ такая, что
f ( n +1) (ξ )
f ( x) = Pn ( x ) +
( x − a ) n +1
(5)
(n + 1)!
Доказательство. Рассмотрим функции ϕ(x)=f(x)-Pn(x); ψ(x)=(x-a)n+1.
Обе эти функции удовлетворяют условиям леммы 1, следовательно,
существует точка x=ξ:
ϕ (( x) ϕ (n +1) (ξ ) f (n +1) (ξ )
=
=
,
ψ ( x) ψ ( n +1) (ξ ) (n + 1)!
что и требовалось доказать.
Теорема 5 (формула Тейлора с остаточным членом в форме Пеано).
Пусть функция y=f(x) имеет (n-1) производных в окрестности точки x=a и
n производных в этой точке. Тогда
f(x)=Pn(x)+o[(x-a)n]
(6)
ψ(x)=(x-a)n (здесь Pk(x) Доказательство. Пусть ϕ(x)=f(x)-Pn-1(x);
полином Тейлора степени k). Тогда, согласно лемме:
ϕ ( x ) ϕ ( n −1) (ξ ) f ( n −1) (ξ ) − f ( n −1) (a )
=
=
.
ψ ( x ) ψ ( n −1) (ξ )
n!(ξ − a )
Заметим, что
f ( n −1) (ξ ) − f ( n −1) (a )
= f ( n ) (a ) + o(1).
ξ−a
Пусть xk стремится к a по некоторой последовательности значений,
тогда xk→a, т.к. xk принадлежит интервалу (a,xk). Отсюда, имеем
f ( n − 1) (ξk ) − f ( n − 1) (a )
= f ( n ) (a ),
lim
ξk − a
k →∞
следовательно,
f ( n) (a )
f ( x ) = Pn − 1 ( x ) +
( x − a ) n + o(1)( x − a ) n =
n!
(n)
f (a )
= Pn − 1 ( x ) +
( x − a ) n + o[( x − a ) n ]
n!
79
15.3. Формула Тейлора для некоторых элементарных
функций
1). y=ex. Возьмем x0=a=0. Имеем: y'=y. Таким образом, производного
любого порядка равна самой функции. Значение y(a) =y(0)=1. Отсюда имеем:
x x2
xn
e x ≡ exp( x) = 1 + +
+...+
+ o( x n ).
1! 2!
n!
2). y=sinx. x0=a=0. Имеем:
0, n = 2 k
nπ
)= x=0 =
.
k
2
( −1) , n = 2k + 1
Отсюда получаем:
x 3 x5
x 2 k +1
sin x = x −
+
−...+ ( −1) k
+ o( x 2 k + 1 );
3! 5!
2 k + 1!
x2 x4
x 2k
cos x = 1 −
+
−...+ ( −1) k
+ o( x 2 k ).
2! 4!
2k !
sin ( n) x = sin( x +
3). y1=sh x =[exp x - exp(-x)]/2;
y2=ch x =[exp(x)+exp(-x)]/2.
sh' x=ch x; ch' x=sh x; sh(0)=0; ch(0)=1.
Отсюда получаем:
2 k +1
x 3 x5
k x
shx = x +
+
+...+ ( −1)
+ o( x 2 k + 1 );
3! 5!
2 k + 1!
2k
x2 x4
k x
chx = 1 +
+
+...+ ( −1)
+ o ( x 2 k ).
2! 4!
2k !
4). y=ln(1+x). y(0)=0; y'(0)=1/(1+0)=1; y''(0)=-1;
y(n)(0)=(n-1)!(-1)n.
Таким образом,
n
x2 x3
n x
ln(1 + x) = x +
+ +...+( −1)
+ o( x n ).
2! 3!
n!
Упражнение 2: доказать, что разложение в ряд Тейлора единственно.
15.4. Экстремумы
Определение 3. Пусть функция y=f(x) определена на отрезке [a,b].
Пусть в некоторой окрестности точки x=x0: x0-ε< x <x+ε выполняется неравенство f(x)>f(x0). Тогда говорят, что функция y=f(x) достигает минимума
80
при x=x0. Если y=f(x)<f(x0), то в точке x=x0 функция достигает максимума.
Оба типа таких точек носят наименование экстремума.
Теорема 6 (теорема Ферма). Пусть функция y=f(x) достигает в некоторой точке экстремума и пусть в этой точке она имеет производную. Тогда с необходимостью f'(x0)=0.
Доказательство. Пусть, для определенности, в точке x=x0 функция
y=f(x) достигает минимума. Тогда:
f ( x ) − f ( x0 )
> 0, x > x0 .
x − x0
Правая производная
f ( x ) − f ( x0 )
≥ 0.
f п' р ( x 0 ) = lim
x − x0
x → x0 + 0
Левая производная
f ( x ) − f ( x0 )
≤ 0.
f л' ( x 0 ) = lim
x − x0
x → x0 − 0
Отсюда, f'(x0)=0.
Замечание. Полученное условие является необходимым, но вовсе не
достаточным условием. В качестве примера можно рассмотреть поведение
функции y=x3 в окрестности точки x=0.
Определение 4. Точки, в которых первая производная обращается в
нуль, называются стационарными.
Теорема 7. Пусть функция y=f(x) имеет в некоторой окрестности
точки x=x0 две производные. Пусть f'(x0)=0, а f''(x0)≠0. Тогда в точке x=x0
достигается экстремум, причем - минимум при f''(x0)>0 и максимум при
f''(x0)<0.
Доказательство. Согласно формуле Тейлора имеем:
 f ''( x0 )

∆f = f ( x ) − f ( x 0 ) = 
+ o(1)  ( ∆x ) 2 .
 2!

Пусть f''(x0)>0. Возьмем δ столь малое, чтобы для любых |∆x|<δ было
|f''(x)|>o(1). Тогда ∆f>0, т.е. f(x)-f(x0)>0 и в точке x=x0 достигается минимум.
Если f''(x0)<0, то ∆f<0.
Теорема доказана.
Теорема 8. Пусть функция y=f(x) имеет в точке x=x0 n производных и
пусть все производные до (n-1)-го порядка включительно обращаются в
этой точке в ноль, а n-я производная нулю не равна. Тогда, если n - четное
число, то в точке x=x0 достигается экстремум, а именно, при положительной n-й производной - минимум, при отрицательной - максимум. Если же n
- нечетное, то экстремума нет.
Доказательство. Разложим функцию в ряд Тейлора:
81
n f (i ) ( x )
0
∆f = f ( x ) − f ( x0 ) = ∑
( x − x0 )i + o[( x − x0 ) n ].
i!
Существует такая окрестность точки x=x0, что знак выражения в
квадратной скобке совпадает со знаком n-й производной. Если n=2k, то
при положительной n-й производной имеем минимум, а при отрицательной - максимум.
Если n=2k+1, то при переходе через x0 правая часть меняет знак и
экстремума нет.
i =1
15.5. Критерий возрастания
Теорема 9. Пусть функция y=f(x) непрерывна на отрезке [a, b] и дифференцируема внутрим него. Тогда, чтобы эта функция возрастала, необходимо и достаточно, чтобы было f'(x)>=0.
Доказательство.
1). Необходимость. Пусть функция возрастает. Возьмем произвольную точку x=x0 из отрезка. Имеем:
f ( x ) − f ( x0 )
f ( x ) − f ( x0 )
f 'пр ( x0 ) = lim
≥ 0; f ' л‘ ( x0 ) = lim
≤ 0.
x − x0
x − x0
x → x0 + 0
x → x0 − 0
Отсюда получаем, что f'(x0) ≥ 0.
2). Достаточность. По теореме Лагранжа имеем: f(x)-f(x0)=f'(x)(x-x0),
если x и x0 принадлежат [a,b].
Если производная неотрицательная, то f(x)≥f(x0), если x>x0.
Теорема 10. Достаточное условие экстремума. Пусть функция y=f(x)
непрерывна на отрезке [x0-a,x0+a] и дифференцируема во всех внутренних точках этого отрезка, за исключением, быть может, самой точки x0.
Тогда, при условии
f'(x)>0, x0 < x < x0+a
f'(x)<0, x0 > x > x0-a
(7)
функция достигает в точке x=x0 минимума. Если же выполнено условие
f'(x)<0, x0 < x < x0+a
f'(x)>0, x0 > x > x0-a
(8)
то - максимума.
Упражнение 3. Доказать теорему 10.
15.6. Выпуклости, вогнутости, точки перегиба
Определение 5. Пусть функция y=f(x) определена на отрезке [a,b] и
пусть для любых x1,x2 выполняется неравенство
82
 x + x2  f ( x1 ) + f ( x2 )
(9)
f 1
.
≥
 2 
2
Тогда говорят, что функция на данном отрезке выпукла (выпукла
вверх).
Замечание: отмеченное условие означает, что между точками x1,x2
функция лежит выше стягивающей ее хорды.
Замечание: если неравенство (9) имеет обратный знак, то функция
вогнута (выпукла вниз).
Теорема 11. Пусть функция y=f(x) имеет вторую производную на отрезке [a,b]. Тогда для того, чтобы она была выпукла на этом отрезке, достаточно, чтобы выполнялось неравенство f''(x)<0.
Доказательство. Возьмем x0=(x1+x2)/2. Обозначим h=x0-x1=x2-x0. По
формуле Тейлора имеем:
f '( x0 )
f ''( x0 ) 2
f ( x2 ) = f ( x0 + h ) = f ( x0 ) +
h+
h + o( h 2 );
1!
2!
f '( x0 )
f ''( x0 ) 2
f ( x1 ) = f ( x0 − h ) = f ( x0 ) −
h+
h + o( h 2 );
1!
2!
2
2
f ( x1 ) + f ( x2 ) = 2 f ( x0 ) + f ''( x0 )h + o( h ).
Т.к. f''(x0)<0, то условие выпуклости выполняется. Теорема доказана.
Аналогично доказывается, что если f''(x)>0, то функция вогнута.
Определение 6. Пусть функция y=f(x) дифференцируема на отрезке
[a,b]. Говорят, что точка x=x0 из [a,b] является точкой перегиба, если график функции в окрестности точки x=x0 лежит по разные стороны от касательной, проведенной в этой точке.
Теорема 12. Пусть x=x0 - точка перегиба функции у=f(x). Пусть в
этой точке функция имеет вторую производную. Тогда с необходимостью
f''(x0)=0.
Доказательство. По формуле Тейлора имеем:
f ( x ) = f ( x0 ) = f ( x 0 ) +
f '( x0 )
f ''( x0 )
( x − x0 ) +
( x − x0 ) 2 + o(( x − x0 ) 2 );
1!
2!
Уравнение касательной имеет вид:
Y(x)=f(x0)+f'(x0)(x-x0).
Вычитая их, получим:
Y(x)-f(x)=[(1/2)f''(x0)+o(1)](x-x0)2.
Если вторая производная не обращается в нуль, то разность сохраняет знак в окрестности точки x=x0. Поэтому условие перегиба - f''(x0)=0.
Теорема 13. Пусть функция y=f(x) имеет в точке x=x0 три производных, причем f''(x0)=0, f'''(x0)≠0. Тогда точка x=x0 является точкой перегиба
графика функции.
Упражнение 4. Доказать теорему 13.
83
15.7. Асимптоты
Определение 7. Пусть функция y=f(x) определена в левой окрестности точки x=x0, за возможным исколючением самой точки x0. Пусть
lim f ( x ) = ∞ . Тогда говорят, что функция y=f(x) имеет вертикальную
x → x0 − 0
асимптоту в точке x=x0.
Определение 8. Пусть функция y=f(x) определена при x>x0. Пусть
существует линейная функция y=kx+b такая, что lim ( f ( x ) − ( kx + b)) = 0.
x → +∞
Тогда говорят, что функция y=f(x) имеет наклонную асимптоту
y=kx+b при x → +∞.
Замечание. Если асимптота существует, то коэффициенты k и b могут быть найдены по формулам:
f ( x)
k = lim
, b = lim ( f ( x ) − kx ).
(10)
x
x → +∞
x →+∞
Теорема 14. Пусть существуют пределы (10). Тогда прямая y=kx+b
является асимптотой функции y=f(x) при x → +∞.
Упражнение 5. Доказать теорему 14.
Замечание: аналогично вводятся вертикальная асимптота при x→x0+0
и наклонная при x → −∞.
84
ЧАСТЬ 4. ТЕОРИЯ ФУНКЦИИ НЕСКОЛЬКИХ ПЕРЕМЕННЫХ
16. Двумерное арифметическое пространство
16.1. Двумерное арифметическое пространство
Определение 1. Назовем двумерным арифметическим пространством
R2 совокупность всевозможных упорядоченных пар чисел. Элементы
арифметического пространства будем называть точками.
Определение 2. ε-окрестностью точки (x0,y0) называется множество
точек таких, что |x-x0|<ε и |y-y0|<ε.
Иногда ε-окрестностью называют совокупность точек, удовлетворяющих неравенству ( x − x 0 ) 2 + ( y − y 0 ) 2 < ε .
Определение 3. Пусть M - некоторое множество в арифметическом
пространстве R2. Точка A(x0,y0) называется предельной точкой множества
M, если в любую окрестность точки A попадает бесконечно много точек
множества M.
Определение 4. Множество M называется замкнутым, если оно содержит все свои предельные точки.
Определение 5. Множество называется открытым, если каждая его
точка принадлежит ему вместе с некоторой своей окрестностью.
Множество вида a≤x≤b, c<y<d не является ни открытым, ни замкнутым.
Примечание: все арифметическое пространство R2 является одновременно и открытым и замкнутым множеством.
Определение 6. Точка A(x0,y0) называется граничной точкой множества M, если в любую ее окрестность попадают как точки, принадлежащие
M, так и точки, не принадлежащие этому множеству.
Совокупность всех граничных точек множества называется границей
множества. Граничная точка может принадлежать, а может и не принадлежать множеству.
16.2. Теоремы Кантора и Вейерштрасса
Определение 7. Рассмотрим последовательность точек двумерного
арифметического пространства A1(x1,y1),A2(x2,y2),...An(xn,yn),....
Говорят, что последовательность {An} сходится к точке A(a,b), если
для любого ε>0 существует такое N(ε)>0, что для любого n>N(ε) точка An
будет находиться в ε-окрестности точки A или |xn-x0|<ε, |yn-y0|<ε.
Теорема 1. Соотношение lim An = A( a , b ) выполнено тогда и только
n→ ∞
тогда, когда
lim x n = a , lim y n = b .
n→∞
n →∞
85
Теорема 2 (теорема Кантора). Пусть имеется последовательность
вложенных друг в друга замкнутых квадратов, стороны которых параллельны координатным осям. Пусть длины сторон этих квадратов стремятся
к нулю. Тогда существует единственная точка A(ξ,η), которая принадлежит всем квадратам.
Замечание: при доказательстве использовать теорему Кантора о вложенных отрезках.
Теорема 3 (теорема Вейерштрасса). Пусть множество точек
A1(x1,y1),...,An(xn,yn),... является ограниченной последовательностью элементов пространства R2, т.е. для любых n имеем: |xn|<C, |yn|<C. Тогда из
этой последовательности можно выбрать сходящуюся подпоследовательность.
Доказательство. Данное множество заключено в квадрате |x|≤C',
|y|≤C'. Выберем в нем произвольную точку последовательности An1.
Разобьем этот квадрат на 4 равные части. Возьмем квадрат K2, которому принадлежит бесконечное число элементов последовательности. В
нем выберем точку An2 такую, что n2>n1. В свою очередь квадрат K2 разобьем на 4 равные части. Возьмем из полученных квадратов квадрат K3, которому принадлежит бесконечное множество членов исходной последовательности. В нем выберем точку An3 такую, что n3>n2.
Продолжая эту операцию неограниченно долго, получим последовательность сходящихся квадратов Kni,i=1...∞, имеющих одну предельную точку. Очевидно, что в соответствии с определением 7, эта точка
является пределом полученной последовательности Ani.
16.3. Предел функции двух переменных
Пусть M - бесконечное множество, принадлежащее R2, а A0(x0,y0) ее предельная точка.
Определение 8.(Определение Коши). Говорят, что lim f ( x , y ) = a , есx → x0
y → y0
ли для любого ε>0 существует такое dε>0, что для любой точки A(x,y) принадлежащей множеству M и находящейся в d-окрестности точки A0(x0,y0),
т.е. |x-x0|<d, |y-y0|<d, и A≠A0, будет |f(x,y)-a|<ε.
Определение 9 (Определение Гейне). Пусть для любой последовательности An(xn,yn) такой, что An принадлежит M, An≠A0 и An→A0,
справедливо соотношение lim f ( x n , y n ) = a . Тогда говорят, что функция
n →∞
f(x,y) имеет предел при стремлении x к x0, а y - к y0.
Определение 10. Пусть A0(x0,y0) - предельная точка множества M.
Рассмотрим вектор r=(cosα,sinα), начало которого находится в точке A0.
Пусть задана функция f(x,y). Введем функцию ϕ(t)=f(x0+t⋅cosα,y0+t⋅sinα).
86
Она описывает изменение исходной функции при движении из точки A0
вдоль вектора r.
Если существует предел lim ϕ(t), то он называется пределом функции f(x,y) по направлению (cosα, sinα).
Очевидно, что если существует предел функции f(x,y) в общем смысле, то существует предел по любому направлению. Обратное неверно!
2

Пример 1. Рассмотрим функцию z = f ( x, y ) = 1, x = y , x, y ≠ 0
0, при всех остальных
.
Найдем предел этой функции по направлению (cosα,sinα). Легко видеть,
что для любого α этот предел равен нулю, в то же время предел в общем
смысле не существует.
Замечание. Иногда двойной предел пытаются найти, совершив два
предельных перехода, т.е. считают, что
lim f ( x, y ) = lim  lim f ( x, y )  или lim f ( x, y ) = lim  lim f ( x, y ) 
x → x0
y → y0
x → x0
 y → y0

x → x0
y → y0
В общем случае это неверно.
87
y → y0
 x→ x0

17. Непрерывные и дифференцируемые функции
17.1. Непрерывные функции
Пусть A0(x0,y0) - предельная точка множества M, принадлежащая
этому множеству. Пусть на этом множестве определена функция f(x,y).
Определение 1.Пусть существует предел
lim f ( x , y ) = f ( x 0 , y 0 ) .
x → x0
y → y0
Тогда говорят, что функция f(x,y) непрерывна в точке A0.
Определение 1' (определение Коши). Функция f(x,y) является непрерывной в точке (x0,y0), если для любого ε>0 существует такое d>0, что как
только |x-x0|<d, |y-y0|<d, причем точка (x,y) принадлежит области определения функции, будет выполняться неравенство |f(x,y)-f(x0,y0)|<ε.
Упражнение 1. Сформулировать определение непрерывности по
Гейне и доказать эквивалентность всех трех определений.
Упражнение 2. Доказать непрерывность в точке суммы, произведения и частного двух непрерывных в этой точке функций. В случае
частного принять, что делитель нигде не обращается в ноль.
Теорема 1. Пусть функция z=f(x,y) определена на множестве M и непрерывна в точке A0(x0,y0). Пусть задана пара функций x=ϕ(u,v), y=ψ(u,v),
причем (u,v) принадлежит множеству H. Пусть заданная пара функций
отображает H в M. Пусть, кроме того, x0=ϕ(u0,v0), y0=ψ(u0,v0). Если функции ϕ и ψ непрерывны в точке (u0,v0), то сложная функция
z=f[ψ(u,v),ϕ(u,v)] определена на множестве H и непрерывна в точке
K0(u0,v0).
Доказательство. Возьмем такое ω(ε)>0, чтобы при |x-x0|<ω, |y-y0|<ω
было |f(x,y)-f(x0,y0)|<ε. По найденному ω определим d такое, что как только |u-u0|<d, |v-v0|<d будет |ϕ(u,v)-ϕ(u0,v0)|<ω и |ψ(u,v)-ψ(u0,v0)|<ω. Это
можно сделать в силу непрерывности функций ϕ и ψ ⇒ определение непрерывности выполняется. Теорема доказана.
17.2. Функции, непрерывные в области
Определение 2. Открытое множество называется связным, если любые две его точки можно соединить конечно-звенной ломаной, принадлежащей множеству.
Определение 3. Открытое связное множество называется областью.
Область вместе с границей называется замкнутой областью.
88
Упражнение 3. Доказать, что замкнутая область является замкнутым
множеством.
Теорема 2. Пусть функция z=f(x,y) непрерывна в замкнутой ограниченной области D. Тогда эта функция ограничена в указанной области.
Доказательство. Предположим, что функция неограничена в этой области. Тогда для с1 ∃ (•)(x1,y1)∈D: |f(x1,y1)|≥1; для с2 ∃ (•)(x2,y2)∈D: |f(x2,y2)|≥2;
…..; для сn ∃ (•)(xn,yn) ∈D: |f(xn,yn)|≥n; .......................
Рассмотрим последовательность {xn,yn}.
Поскольку все точки этой последовательности принадлежат замкнутому множеству, то она является ограниченной. По теореме Вейерштрасса
из нее можно выбрать сходящуюся подпоследовательность {xnk,ynk}, стремящуюся к некоторой точке A(ξ,η). Существенно, что эта точка принадлежит D.
В силу непрерывности функции f(x,y) имеем: lim f ( x nk , y nk ) = f ( ξ, η) .
k →∞
С другой стороны, из первоначального допущения имеем, что
f ( x nk , y nk ) > n k → ∞ . Получаем противоречие. Теорема доказана.
k →∞
Теорема 3. (О достижимости точных верхних граней).
Пусть функция z=f(x,y) непрерывна в замкнутой ограниченной области D. Пусть M=sup f(x,y); m=inf f(x,y). Тогда существуют две точки (x1,y1)
и (x2,y2), принадлежащие D, такие, что f(x1,y1)=M, f(x2,y2)=m.
Доказательство. Допустим, что точная верхняя грань не достигается.
Рассмотрим функцию ϕ(x,y)=1/[M-f(x,y)].
Очевидно, что она непрерывна, а, следовательно, ограничена, т.е.
|ϕ(x,y)|<C, где C - некоторое положительное конечное число. Тогда имеем:
f(x,y)<M-(1/C), что противоречит определению точной верхней грани.
Теорема 4. (О существовании нулей). Пусть функция z=f(x,y) непрерывна в открытой связной области D и пусть f(a,b)>0, а f(c,d)<0 (точки (a,b)
и (c,d) принадлежат D). Тогда существует точка (ξ,η) , принадлежащая D,
такая, что f(ξ,η)=0 (Без доказательства)
Доказательство. Соединим две точки (a,b) и (c,d) конечно-звенной
ломаной. Либо в одном из узлов функция обратится в ноль, либо на концах
одного из отрезков функция принимает значения разных знаков. Пусть это
будет в точках (x1,y1) и (x2,y2).
x = x1 + t ⋅ ( x2 − x1 ) 
Зададим этот отрезок параметрически:
 (0≤t≤1)
y = y1 + t ⋅ ( y 2 − y1 )
По теореме о сложной функции, функция одной переменной
z=f[x1+t(x2-x1), y1+t(y2-y1)] имеет значения разных знаков в точках t=0 и
t=1. По одномерной теореме ∃ точка t=g, в которой эта функция обращается в ноль. Следовательно, в точке (x=ξ=x1+g(x2-x1), y=η=y1+g(y2-y1)) исходная функция также обращается в ноль. Теорема доказана.
Теорема 5. (Теорема о промежуточных значениях).
89
Пусть в условиях теоремы 4 f(x1,y1)=a, f(x2,y2)=b. Тогда для любого c:
a<c<b существует точка (x0,y0), принадлежащая D, такая, что f(x0,y0)=c.
Доказательство. Составляем вспомогательную функцию v(x,y)=f(x,y)-c.
Далее, по теореме 4.
17.3. Дифференцируемые функции
Определение 1. Пусть функция z=f(x,y) определена в некоторой
окрестности точки (x0,y0). Пусть существует предел
f ( x0 + ∆x, y 0 ) − f ( x0 , y0 )
lim
.
(1)
∆x →0
∆x
Тогда говорят, что в точке (x0,y0) функция z=f(x,y) имеет частную
производную по x. Аналогично определяется частная производная по y.
Определение 2. Пусть функция z=f(x,y) определена в некоторой
окрестности точки (x0,y0) и пусть приращение функции
(2)
∆f = f ( x 0 + ∆x , y 0 + ∆ y ) − f ( x 0 , y 0 )
может быть представлено в виде
∆f=A∆x+B∆y+α(∆x,∆y)∆x+β(∆x,∆y)∆y,
(3)
где A, B - некоторые константы, а
(4)
lim α ( ∆ x , ∆y ) = 0; lim β( ∆x , ∆y ) = 0.
∆x → 0
∆y → 0
∆x → 0
∆y → 0
Тогда функция z=f(x,y) называется дифференцируемой в точке (x0,y0),
а A∆x+B∆y называется дифференциалом функции в этой точке. Дифференциал обычно записывается в следующем виде:
df=Adx+Bdy
(5)
Теорема 1. Если функция z=f(x,y) дифференцируема в точке (x0,y0),
то она непрерывна в этой точке.
Доказательство следует из соотношения (3).
Теорема 2. Если функция z=f(x,y) дифференцируема в точке (x0,y0), то
она имеет в этой точке обе частные производные, причем
z 'x = A; z 'y = B.
(6)
Доказательство. Положим в выражении (3) величину ∆y=0 (это
можно сделать, т.к. оно верно для любых малых ∆x и ∆y). Тогда разность
f(x0+∆x,y0+∆y)-f(x0,y0)=∆f=A∆x+α(∆x,∆y)∆x зависит только от ∆x. Разделим
обе части полученного выражения на ∆x и перейдем к пределу при ∆x→0:
f ( x0 + ∆x, y 0 ) − f ( x0 , y 0 )
lim
= lim[ A + α( ∆x, ∆y )] = A.
(7)
∆x →0
∆x →0
∆x
Аналогично можно получить предел для второй частной производной.
Замечание 1 к теореме 2. Из теоремы 2 следует, что константы A и B
определены единственным образом. Поэтому пишут df=f'xdx+f'ydy.
Замечание 2. Теорема, обратная к теореме 2, неверна.
90
2
Пример. Рассмотрим функцию f ( x , y ) = 1, если x = y ;
0, во всех остальных точках.
Легко проверить, что в точке (0,0) эта функция имеет обе частные
производные, причем f'x =f'y =0. Однако, функция в этой точке не дифференцируема и даже не является непрерывной.
Замечание 3. Очевидно, что теорема, обратная к теореме 1, также неверна.
Теорема 3. Пусть функция z=f(x,y) имеет обе частные производные в
окрестности точки (x0,y0) и пусть эти производные непрерывны в даной
точке. Тогда функция z=f(x,y) дифференцируема в точке (x0,y0).
Доказательство. Рассмотрим приращение функции
∆f=f(x0+∆x,y0+∆y)-f(x0,y0)=
=[f(x0+∆x,y0+∆y)-f(x0,y0+∆y)]+[f(x0,y0+∆y)-f(x0,y0)]=
=f'x(x,y0+∆y)dx+f'y(x0,ξ)dy.
Здесь мы воспользовались формулой Лагранжа для конечных приращений; x∈(x0,x0+∆x), ξ ∈(y0,y0+∆y). Поскольку, по условиям теоремы,
частные производные непрерывны в точке (x0,y0), то
f x' ( x0 , y + ∆y ) = f x' ( x0 , y 0 ) + α( ∆x, ∆y );

f y' ( x0 , h) = f y' ( x0 , y 0 ) + β( ∆x, ∆y )

(8)
lim α( ∆x, ∆y ) = 0; lim β( ∆x, ∆y ) = 0.
(9)
∆x →0
∆y →0
∆x →0
∆y →0
Соотношение (8) справедливо в силу непрерывности частных производных. Подставим его в выражение для приращения. Получим
∆f=f'xdx+f'ydy+αdx+βdy. Теорема доказана.
Определение 2'. Дифференциалом функции называется линейная относительно приращения координат функция, отличающаяся от полного
приращения функции на величину o(r).
17.4. Геометрический смысл дифференциала
Определение 3.
Пусть Q - график некоторой функции z=f(x,y). Пусть в некоторой
точке M0(x0,y0,z0) графика можно провести плоскость P такую, что
d (M )
(10)
lim
= 0.
M →M 0
M − M0
Здесь M - точка графика Q, |M-M0| - расстояние между точками M и
M0, d(M) - расстояние от точки M до плоскости P.
Тогда плоскость P называется касательной к графику Q в точке M0.
Теорема 4. Пусть функция z=f(x,y) дифференцируема в точке (x0,y0).
Тогда в этой точке можно провести касательную плоскость, уравнение ко(Без доказательства)
торой следующее: z-z0=f’x•(x-x0)+ f’y•(y-y0)
91
18. Дифференцирование сложной функции
18.1. Дифференцирование сложной функции
Теорема 1. Пусть функция z=f(x,y) определена в некоторой окрестности D точки (x0,y0). Пусть эта функция дифференцируема в точке (x0,y0).
Рассмотрим две функции: x=ϕ(t), y=ψ(t), α≤t≤β.
Пусть ϕ(t0)=x0, ψ(t0)=y0 и в точке t=t0 обе функции имеют производные. Тогда сложная функция W(t)=f[ϕ(t),ψ(t)] дифференцируема в точке
t=t0 и
W't=f'x•ϕt'(t0) + f'y•ψ't(t0)
(1)
Доказательство. В силу дифференцируемости функции z=f(x,y) имеем:
∆f=f'x∆x+f'y∆y+α∆x+β∆y
(2)
Пусть теперь в (2) ∆x и ∆y - приращения функций ϕ и ψ, вызванные
приращением аргумента t:
∆x = ϕ(t 0 + ∆t ) − ϕ(t 0 ) 
(3)

∆y = ψ(t 0 + ∆t ) − ψ(t 0 )
Тогда
∆W ∆f
∆x
∆y
∆y
∆y
=
= f x'
+ f y'
+α +β .
(4)
∆t
∆x
∆t
∆t
∆t
∆t
Пусть теперь в (4) ∆t стремится к нулю по некоторой последовательности значений. Тогда ∆x и ∆y также стремятся к нулю. Следовательно,
α,β→0 (в силу дифференцируемости функции f(x,y) в точке (x0,y0)). Переходя к пределу при ∆t→0, из (4) получаем (1). Теорема доказана.
Теорема 2. Пусть функция z=f(x,y) определена в некоторой области
G и дифференцируема в точке (x0,y0).
Пусть в области H определены, в свою очередь функции x=ϕ(u,v),
y=ψ(u,v), которые отображают H в G. Пусть точка (u0,v0) отображается в
точку (x0,y0). Если функции ϕ(u,v), ψ(u,v) имеют в точке (u0,v0) обе частные производные, то сложная функция W(u,v) = f[ϕ(u,v),ψ(u,v)] имеет
частные производные:
W'u=f'xϕ'u + f'yψ'u
(5)
W'v=f'xϕ'v + f'yψ'v
(6)
Доказательство. Этот результат прямо следует из теоремы 1. Можно воспользоваться формулой (1), считая последовательно, что t=u, t=v, и
фиксируя соответственно v и u.
Теорема 3. В условиях теоремы 2 потребуем, чтобы функции ϕ(u,v),
ψ(u,v) были дифференцируемыми в точке (u0,v0). Тогда сложная функция
(5) является дифференцируемой в точке (x0,y0). При этом
(7)
dW=(f'xϕ'u+f'yψ'u)du + (f'xϕ'v+f'yψ'v)dv
92
18.2. Инвариантность формы первого дифференциала
Замечание. Формула (7) может быть переписана следующим образом:
dW=f'x(ϕ'udu+ϕ'vdv)+ f'y(ϕ'udu+ϕ'vdv)=f'xdx+f'ydy
(8)
Правая часть (8) совпадает с дифференциадом внешней функции
z=f(x,y):
(9) Следуdz=f'xdx+f'ydy.
ет отметить, что смысл dx и dy в правых частях (8) и (9) различен. В правой
части (9) dx и dy - произвольные приращения аргументов.
В правой части (8) dx и dy - это дифференциалы функций ϕ и ψ, вычисленные в точке (u0,v0).
Тем не менее, совпадание правых частей (8) и (9) существенно используется в анализе и называется инвариантностью формы первого дифференциала. Можно, таким образом, всегда писать (9) независимо от природы dx и dy.
18.3. Теорема о смешанных производных
Рассмотрим функцию z=f(x,y), определенную и дифференцируемую
в области G. Ее частные производные сами являются функциями и можно
рассматривать операцию дифференцирования над этими функциями. Имеем:
(f'x(x,y))'x=f''xx(x,y)
(10)
(11)
(f'x(x,y))'y=f''xy(x,y)
(f'y(x,y))'x=f''yx(x,y)
(12)
(f'y(x,y))'y=f''yy(x,y)
(13)
Производные (11) и (12) называются смешанными производными.
Теорема 4. Пусть функция z=f(x,y) имеет в окрестности точки (x0,y0)
непрерывные смешанные производные (11) и (12). Тогда справедливо равенство
f''xy(x0,y0)=f''yx(x0,y0)
(13)
93
19. Экстремум функции многих переменных.
Минимаксные задачи.
19.1. Экстремумы функции нескольких переменных
Определение 1. Пусть в области D определена функция
z=f(x1,x2,...,xn) и пусть точка (x01,x02,...,x0n) является внутренней точкой
этой области.
Говорят, что функция z=f(x1,...,xn) имеет в точке (x01,...,x0n) максимум
(минимум), если существует такая δ-окрестность этой точки G, что во всех
точках этой окрестности выполняется неравенство
f(x1,x2,...,xn) ≤ (≥) f(x01,x02,...,x0n)
(1)
Если эту окрестность можно взять настолько малой, чтобы во всех ее
точках, кроме точки (x01,...,x0n), выполнялось строгое неравенство
f(x1,x2,...,xn) >( < ) f(x01,x02,...,x0n),
(2)
то говорят, что в этой точке имеет место собственный максимум (минимум); в противном случае максимум (минимум) называется несобственным.
Для обозначения максимума и минимума используется общий термин - экстремум.
Теорема 2. Пусть функция z=f(x1,...,xn) в точке (x01,..., x0n) имеет экстремум. Пусть в этой точке существуют частные производные
f'x1(x01,...,x0n),...,f'xn (x01,...,x0n). Тогда эти производные равны нулю.
Иначе говоря, обращение в ноль всех частных производных первого
порядка является необходимым условием существования экстремума.
Доказательство. Зафиксируем x2=x02, x3=x03,...,xn=x0n, сохраняя x1 переменной величиной. Тогда получим функцию одной переменой
z1=f(x1,x02,x03,...,x0n). Так как в точке x0 существует экстремум, то отсюда
следует, что экстремум имет место и по одной переменой, следовательно,
производная (dz1/dx1) равна нулю в этой точке. По определению частной
производной, имеем равенство
dz1
= f x'1 ( x01 ,..., x0 n ) .
(3)
dx1 x = x
1
01
Аналогично доказывается равенство нулю остальных частных производных.
Замечание 1. Эту теорему можно доказать, исходя из определения
первого дифференциала, т.к. кратко условие существования экстремума
можно записать следующим образом:
df(x1,...,xn)=f'x1 dx1+...+f'xn dxn =0
(4).
94
Отсюда получаем, что при равенстве нулю всех производных дифференуиал равен нулю. С другой стороны, для равенства нулю дифференциала при произвольных приращениях dx1,...,dxn необходимо равенство нулю всех частных производных.
Замечание 2. Иногда встречаются случаи, когда в некоторых точках
одна или несколько частных производных бесконечны или вовсе не существуют, в то время как остальные равны нулю. Подобные точки также следует причислять к точкам, подозрительным на экстремум.
Теорема 3 (достаточные условия экстремума в случае двух переменных). Пусть функция z=f(x,y) имеет все три производные второго порядка
и пусть точка M=(x0,y0) является стационарной точкой. Пусть A=f''xx(x0,y0),
B=f''xy(x0,y0), C=f''yy(x0,y0). Тогда, если A•C-B2>0, то функция имеет экстремум в точке M, причем, максимум, если A>0, и минимум, если A<0.
Если A•C-B2<0, то экстремума нет.
Если A•C-B2=0, то необходимо продолжать исследование.
Доказательство. Используем формулу Тейлора для функции двух
переменных, которую примем без доказательства. Она гласит, что приращение функции может быть представлено в следующем виде:
δz=f(x,y)-f(x0,y0)=df(x0,y0)+(1/2)d2f(x0,y0)+o(r2)
(5)
Т.к. точка (x0,y0) является стационарной, то первый дифференциал
равен нулю. Тогда
δz=(1/2)d2f(x0,y0)+o(r2)=
=(1/2)[f'xx'(x0,y0)dx2+2f''xy(x0,y0)dxdy+f''yy(x0,y0)dy2]+o(r^2).
В квадратной
скобке находится квадратичная форма относительно (dx,dy) с матрицей
f xx'' f xy''
I = ''
.
(6)
f yx f yy''
Эта квадратичная форма является положительно определенной, если
f'xx'>0, f''xxf''yy-(f''xy)2>0. Таким образом, имеем,
δz=(1/2)α(dx,dy)+o(r2),
(7)
где α(dx,dy)>0, если (6) - положительно определенная квадратичная форма.
Т.к. o(r2) убывает быстрее α(dx,dy), то при достаточно малых dx,dy
знак α будет определять знак δz.
Таким образом, если f'xx'>0, f''xxf''yy-(f''xy)2>0, то приращение δz будет
положительным, т.е. функция имеет минимум.
Аналогично, если f'xx'<0, f''xxf''yy-(f''xy)2>0, то приращение δz будет отрицательным, и функция имеет максимум в точке (x0,y0).
Если f''xxf''yy-(f''xy)2<0, то квадратичная форма не имеет знаковой определенности (может быть и отрицательной и положительной), а, следовательно, приращение может быть как положительным, так и отрицательным, т.е. экстремума нет.
95
Если все вторые производные равны нулю, то второй дифференциал
равен нулю, и необходимо рассматривать приращения более высокого порядка.
Пример 1. Исследовать на экстремум функцию z=2x3+xy2+5x2+y2.
Находим первые частные производные и приравниваем их к нулю:
6x2+y2+10x=0; 2xy+2y=0.
Из второго уравнения следует, что или y=0, или x=-1. Подставляя эти
значения по очереди в первое уравнение, получим четыре стационарные
точки: M1(0;0); M2(-5/3; 0); M3(-1;2); M4(-1;-2).
Вторые частные производные равны: z''xx=12x+10; z''xy=2y;
z''yy=2x+2.
В точке M1: A=10, B=0, C=2. B2-AC=-20<0 - точка экстремума (максимум).
В точке M2: A=-10, B=0, C=-4/3. B2-AC=-40/3<0 - точка экстремума (максимум).
В точке M3: A=-2, B=4, C=0. B2-AC=16<0 - экстремума нет.
В точке M4: A=-2, B=-4, C=0. B2-AC=16>0 – экстремума нет.
Пример 2. Найти точки экстремума функции z=x2-y2. Приравнивая
частные производные нулю, получаем: z'x=2x=0; z'y=-2y=0, следовательно,
x=y=0 – единственное решение.
Находим вторые производные: z''xx=2; z''xy=0; z''yy=-2.
B2-AC=4>0 - экстремума нет.
19.2. Понятие градиента
19.2.1. Производная по направлению
Определение 2. Пусть в каждой точке P некоторой области D задано
значение скалярной физической величины u. Например, это может быть
темепература точек неравномерно нагретого тела, плотность распределения электрических зарядов и т.д. Тогда говорят, что в области D задано
скалярное поле.
Примечание: если не оговорено заранее, то мы будем полагать, что
функция u не зависит от времени, т.е. поле является стационарным.
Определение 3. Пусть в трехмерной области D задана функция
u=u(x,y,z). Возьмем произвольную точку P(x,y,z) из D и некоторый луч λ,
из нее выходящий. Направление луча зададим направляющими углами
α,β,γ, которые он составляет с положительными направлениями осей
OX,OY,OZ соответственно. Если eλ - единичный вектор, направленный по
лучу λ, то его проекциями будут направляющие косинусы:
eλ = (cosα, cosβ, cosγ)
(8)
Пусть точка P1(x1,y1,z1) лежит на луче λ; расстояние P-P1 обозначим
через t. Проекции вектора PP1 на оси координат будут, с одной стороны,
96
равны tcosα, tcosβ, tcosγ, а с другой стороны, - разностям x1-x,y1-y,z1-z. Следовательно,
x1=x+tcosα; y1=y+tcosβ; z1=z+tcosγ
(9)
Рассмотрим теперь приращение функции u при переходе из точки P
в точку P1: ∆u=u(P1)-u(P)=u(x+tcosα,y+tcosβ,z+tcosγ)-u(x,y,z)
Составим разностное отношение ∆u/t. Если существует предел этого
разностного отношения при t→0:
u ( P1 ) − u ( P )
u( x + t cos α, y + t cos β, z + t cos γ ) − u( xP )
lim
= lim
,
t →0
t →0
t
t
то этот предел называется производной от функции u(x,y,z) по направле∂u ( x, y , z )
.
нию λ в точке P. Эту величину будем обозначать через
∂λ
Легко заметить, что
∂u ∂u
∂u ∂u
∂u ∂u
=
;
=
;
=
.
∂x ∂λ α =0 ∂y ∂λ β=0 ∂z ∂λ γ =0
Теорема 4. Если функция u(x,y,z) дифференцируема, то ее производная u' по любому направлению l существует и равна
∂u ∂u
∂u
∂u
= cos α + cos β + cos γ .
(10)
∂λ ∂x
∂y
∂z
Здесь cosα, cosβ, cosγ - направляющие косинусы луча λ.
Пример 3. Дана функция u=xyz. Найти ее производную по направлению PQ в точке P, если P=P(5,1,2), Q=Q(7,-1,3).
Находим частные производные:
u 'x = yz P = 2; u 'y = xz P = 10; u 'z = xy P = 5 .
Проекции вектора PQ равны 2, -2 и 1 соответственно. Модуль вектора PQ равен |PQ|= 4 + 4 + 1 = 3. Направляющие косинусы равны:
cosα=2/3; cosβ=-2/3; cosγ=1/3. Таким образом, uλ'=2(2/3)+10(-2/3)+1(1/3)= 11/3.
Знак минус указывает, что функция в данном направлении убывает.
19.2.2. Градиент
Определение 4. Градиентом функции u(x,y,z) называется вектор, проекциями которого служат значения частных производных этой функции,
т.е.
grad u( x, y, z ) = u x' i + u 'y j + u z' k
(11)
Очевидно, что вектор градиента изменяется от точки к точке. Каждой точке скалярного поля соответствует определенный вектор - градиент
этой функции. Пользуясь определением градиента, можно показать, что
производная по направлению равна скалярному произведению градиента
на единичный вектор этого направления:
97
uλ' = (grad u, eλ)
(11)
Иначе говоря, производная функции по данному направлению равна
проекции градиента функции на направление дифференцирования:
(12)
uλ' = |grad u|cosϕ
Здесь ϕ - угол между направлениями вектора градиента и лучом λ.
Отсюда следует, что производная по направлению максимальна, когда
направление луча совпадает с направлением вектора градиента.
Теорема 5. Направление градиента функции u(x,y,z) в каждой точке
совпадает с направлением нормали к поверхности уровня скалярного поля,
проходящей через эту точку.
Замечание:
поверхность
уровня
определяется
уравнением
u(x,y,z)=const=u0.
Доказательство. Уравнение нормали к этой поверхности в точке P0
имеет вид:
x − x0 y − y 0 z − z 0
= '
= '
(13)
u x'
uy
uz
P0
P0
P0
Отсюда следует, что направляющий вектор нормали, имеющий проекции u x' , u 'y , u z' , является градиентом функции u(x,y,z) в точке P0,
P0
P0
P0
что и требовалось доказать.
Свойства градиента
1) grad(u1+u2) = gradu1 + gradu2. 2) grad(Cu) = Cgradu; C - const.
3) grad(u1u2) = u1gradu2 + u2gradu1. 4) gradf(u) = fu'(u) gradu.
Упражнение 2. Доказать свойства 1)...4).
Пример 4. Пусть r=sqr(x2+y2+z2) - расстояние от точки до начала координат. Тогда градиент равен: grad r = rx'i+ry'j+rz'k = (xi+yj+zk)/r = r/r.
grad r направлен по радиус-вектору r и его модуль равен единице.
Пример 5. Пусть скалярное поле определено функцией q/r, где r
q
q r
q
определено в примере 2. Тогда grad  = − 2 grad r = − 2 .
r
r r
r
19.3. Задачи о наибольших и наименьших значениях
Пусть требуется найти наибольшее и наименьшее значения функции
z=f(x,y) в некоторой ограниченной области D, рассматриваемой вместе со
всоей границей. Если минимум или максимум достигается внутри области,
то такая точка заведомо является точкой экстремума. Может, однако, случиться и так, что минимум или максимум достигается на границе. Отсюда
следует следующее
Правило. Для того, чтобы найти наибольшее или наименьшее значение функции z=f(x,y) в замкнутой области, нужно найти все максимумы и
98
минимумы функции, достигаемые внутри этой области, а также наибольшее и наименьшее значение функции на границе области. Наибольшее из
всех этих чисел и будет максимальным значением функции, а наименьшее
- минимальным.
Пример 6. Найти наибольшее и наименьшее значение функции
2
z=2x -y+y2+7x, заданной в замкнутой области -3≤x,y≤3.
Решение. Имеем: z'x=4x-y+7=0; z'y=-x+2y=0.
Из системы уравнений имеем одну стационарную точку (-2,-1). Эта
точка принадлежит рассматриваемому квадрату.
Далее: z''xx=4; z''xy=-1; z''yy=2 и B2-AC= -7<0 - имеем точку минимума.
Рассмотрим поведение функции на границах области.
Фиксируем y=-3. На этой границе имеем функцию одной переменной
z=f(x,-3), заданной на интервале [-3,3]. Производная этой функции равна
4x+10 и равна нулю при x=-0.4. Следовательно, единственные значения x,
при которых функция может достичь экстремума - это x=-0.4 и концы отрезка: x=3, x=-3.
Аналогично рассуждая, получим следующую таблицу:
3 -2 -3 -0.4
3
-3
3
X
-3 -1
Y
3
3
3 -1 -3
-3 -3
-1.5
1.5
Z
15
7 39 -7 -3 -3.5 57 -5.25 36.75
Отсюда видно, что наибольшее значение достигается в точке (3,-3), а
наименьшее - в точке (-2,-1).
Этот пример был решен достаточно просто. Однако, во многих случаях, границы не удается выразить явной функцией. Тогда приходится
прибегать к понятию так называемого "условного" экстремума.
19.4. Условный экстремум. Метод неопределенных
множителей Лагранжа
Определение 5. Пусть задана функция z=f(x,y), определенная в некоторой области D. Пусть на переменные x и y наложено условие ϕ(x,y)=0.
Очевидно, что уравнение ϕ(x,y)=0 описывает некоторое подмножество области D. Если требуется найти экстремум функции z=f(x,y) на множестве
D, то говорят, что ищется условный экстремум.
Уравнение ϕ(x,y)=0 при этом называется "связью" или уравнением
связи.
В том случае, когда уравнение связи явно разрешимо относительно
одной из переменных, скажем, y, т.е. из уравнения ϕ(x,y)=0 можно получить явное выражение y=ψ(x), то задача на отыскание условного экстремума сводится к отысканию экстремума функции одной переменной
99
z=f[x,ψ(x)]. Подобная задача рассматривалась в примере 1 при отыскании
экстремума функции на границе области.
В некоторых случаях уравнение связи может быть задано параметрически: x=ϕ(t), y=ψ(t). Тогда задача на отыскание условного экстремума снова сводится к задаче отыскания экстремума функции одной
переменной z=f[ψ(t),ψ(t)].
Сформулируем в общем виде задачу на отыскание условного экстремума. Пусть задана функция
(14)
z=f(x1,x2,...,xn,y1,y2,...,ym)
от m+n переменных. Пусть необходимо найти экстремум функции (14),
если на переменные y1,y2,...,ym наложено m "связей":
ϕ1 ( x1 ,..., x n , y1, ...., y m ) = 0 

ϕ 2 ( x1 ,..., x n , y1, ...., y m ) = 0 
(15)

......................................... 
ϕ m ( x1 ,..., x n , y1, ...., y m ) = 0
Экстремум функции (14) при условии (15) называется условным экстремумом.
Для нахождения условных экстремумом применяется метод неопределенных множителей Лагранжа.
Теорема 6 (необходимый признак условного экстремума; метод неопределенных множителей Лагранжа). Пусть заданы функция (14) и условия связей (15). Пусть все функции являются дифференцируемыми в некоторой области D. Тогда уравнения (14) и (15) определяют некоторую
функцию z=f1(x1,x2,...,xn) от n переменных. Экстремум этой функции является условным экстремумом функции (14).
Для нахождения этого экстремума необходимо составить новую
функцию, называемую функцией Лагранжа:
Φ( x1 ,..., x n , y1 ,..., y m ) = f ( x1 ,..., xn , y1 ,..., y m ) +
m
∑ λ ϕ ( x ,..., x , y ,..., y
i
i
1
n
1
m
) (16)
i =1
Найдем частные производные функции (16) и приравняем их нулю.
Вместе с уравнениями связи получим систему из n+2m уравнений относительно n+2m неизвестных (x1,...,xn,y1,...,ym,λ1, λ2,...,λm):
100
Φ 'x1 ( x1 ,..., xn , y1, ...., y m ) = 0 

Φ 'x2 ( x1 ,..., x n , y1, ...., y m ) = 0

.....................................

'
Φ xn ( x1 ,..., xn , y1, ...., y m ) = 0
(17)

ϕ1 ( x1 ,..., x n , y1, ...., y m ) = 0 

ϕ 2 ( x1 ,..., xn , y1, ...., y m ) = 0 
......................................... 

ϕ m ( x1 ,..., xn , y1, ...., y m ) = 0 
Найденные точки (x1,...,xn,y1,...,ym) определяютя стационарные точки
функции z=f1, которые являются условными стационарными точками
функции (8).
Теорема 6 принимается без доказательства.
Пример 7. Найти наибольшее и наименьшее значения функции z=xy,
если x и y положительны и подчиняются уравнению связи x2/8+y2/2-1=0.
Составим функцию Лагранжа:
 x2 y 2 
Φ( x, y ) = xy + λ +
− 1 .
8
2


Вычислим и приравняем нулю частные производные:
Ф'x=y+λx/4=0; Ф'y=x+λy=0.
Исключая λ, получим 4y2-x2=0. Подставим x2=4y2 в уравнение связи:
y2=1 ==> y=1, x=2.
Функция z=xy при рассматриваемых значениях x и y положительна, а
в точках пересечения эллипса, определенного уравнением связи, с осями
координат ( 2 2 , 0 ), ( 0 , 2 ) равна нулю, следовательно, найденная точка
является точкой условного максимума. zmax=2.
Пример 8. Найти прямоугольный параллелепипед наибольшего объема, если его полная поверхность фиксирована и равна S.
Обозначим стороны параллелепипеда через x,y,z. Тогда его объем
равен V=xyz при условии, что xy+yz+zx=S/2.
Функция Лагранжа равна Ф(x,y,z)=xyz+λ(xy+yz+zx-S/2).
Находим и приравниваем нулю частные производные этой функции:
yz+λ(y+z)=0; xz+λ(x+z)=0; xy+λ(x+y)=0.
Вычитая эти уравнения друг из друга, получим:
(z+λ)(y-x)=0; (x+λ(z-y)=0; (y+λ)(x-z)=0.
Отсюда ясно, что x=y=z, т.е. искомый параллелепипед - куб. Его
3
размеры определяются из уравнения связи:
101
S
 S 2
x= y=z=
; V =  .
6
6
19.5. Метод наименьших квадратов
Рассмотрим экспериментальные данные, описывающие зависимость
между зависимой величиной “y” (признаком) и аргументов (фактором) “x”,
приведенные в табл. 1.
Таблица 1. Экспериментальные данные
x
y
1 1,146979
2 4,818166
3 3,157215
4 6,908846
5 7,106065
6 7,862332
7 9,599867
8 9,568208
9 9,672527
10 11,56423
Эти точки можно соединить между собой ломаной и интерполировать значения между точками по прямой. Однако, при проведении опыта
вторично, положения точек изменятся, и старые отрезки не будут соединять новые точки. Помимо этого, в процессе проведения ЛЮБОГО эксперимента будут иметь место ошибки.
В этой связи был предложен метод определения зависимости по данным исследования, названный «метод наименьших квадратов». Суть его в
следующем.
1. Определяется вид функциональной зависимости: прямая, парабола, гипербола и т.д. в виде y=f(x, a, b, c, d…), где a, b, c, d… - некоторые параметры.
2. Значения параметров подбираются таким образом, чтобы сумма
квадратов отклонений значений подобранной функции от экспериментальных значений при соответсвующих значениях фактора была наименьшей,
т.е. решается задача нахождения экстремума функции
n
S 2 ( a, b, c, d…) = ∑ ( yi − f ( xi , a, b, c, d…))2 → min
(18)
i =1
Здесь n – количество экспериментальных точек.
Данная задача сводится к решению следующей системы уравнений:
∂S 2
∂S 2
∂S 2
∂S 2
(19)
= 0;
= 0;
= 0;
= 0 ...
∂a
∂b
∂c
∂d
Рассмотрим случай линейной зависимости f ( x, a, b) = a ⋅ x + b .
Тогда система (19) будет иметь следующий вид:
102
n
n
n
 ∂S 2
= a ∑ xi2 + b ∑ xi − ∑ xi yi = 0

 ∂a
i =1
i =1
i =1
(20)
 2
n
n
 ∂S
 ∂b = a ∑ xi + n ⋅ b − ∑ yi = 0

i =1
i =1
Если подставить значения, приведенные в табл. 1, то решение системы (20) относительно параметров a, b имеет вид: a=1,0219; b=1,5198.
Экспериментальные точки и функция зависимости (уравнение регрессии) приведены на рис. 1.
Рис. 1. Экспериментальные данные и линия регрессии
103
ЧАСТЬ 5. ПОНЯТИЕ ОБ ИНТЕГРАЛЕ И ЕГО ПРИМЕНЕНИЯХ
20. Первообразная и неопределенный интеграл. Интегрирование подстановкой и по частям.
20.1. Неопределенный интеграл и его свойства
На практике часто возникает задача определения неизвестной функции, если нзвестна ее производная. Такая операция называется интегрированием, а функция, восстановленная по производной, называется первообразной.
Определение 1. Функция y=F(x) называется первообразной функцией
(или просто первообразной) для функции y=f(x) на некотором интервале,
если F'(x)=f(x) для любого x внутри этого интервала.
Пример 1. Для функции y=x4 первообразной будет функция
y=F(x)=x5/5, т.к. F'(x)=x4.
Можно заметить, что решением в примере 1 будет не только x5/5, но
x5/5+1. Более того, любая функция вида y=x5/5+C, где C=const, является
первообразной для функции y=x4. Этот факт обобщается следующей теоремой.
Теорема 1. Если функция y=F(x) является первообразной для функции y=f(x) на некотором интервале, то множество всех первообразных для
функции y=f(x) задается формулой y=F(x)+C, где C=const.
Доказательство. Пусть y=Ф(x) - некоторая первообразная для функции y=f(x), отличающаяся от функции y=F(x). Рассмотрим разность
v(x)=Ф(x)-F(x).
Пусть x1 и x2 - две произвольные точки внутри рассматриваемого интервала, причем x1<x2. По теореме Лагранжа найдется такая точка x:
x1<x<x2, что v(x2)-v(x1)=v'(x)(x2-x1).
Т.к. v'(x)=Ф'(x)-F'(x)=f(x)-f(x)=0, то и v'(x)=0. Следовательно,
v(x1)=v(x2). Ввиду произвольности выбора точек x1 и x2 получаем, что
v(x)=const, следовательно, Ф(x)=F(x)+C.
Теорема доказана.
Определение 2. Совокупность всех первообразных для функции
y=f(x) называется неопределенным интегралом от этойц функции и обозначается символом ∫ f ( x)dx .
Символ ∫ называется знаком интеграла, f(x) - подынтегральной функцией, f(x)dx - подынтегральным выражением, x - переменной интегрирования.
Если y=F(x) - некоторая первообразная, то можно записать:
104
∫ f ( x)dx = F ( x) + C.
1)
3)
5)
(
(1)
Правильность интегрирования проверяется дифференцированием.
Пример 1. ∫ ( 2 x − 7 ) dx = x 2 − 7 x + C , т.к. ( x 2 − 7 x + C )' = 2 x − 7.
Неопределенный интеграл имеет следующие свойства:
2) d ∫ f ( x )dx = f ( x )dx;
∫ f ( x )dx ' = f ( x );
)
(
)
4) ∫ df ( x ) = f ( x ) + C ;
∫ f '( x )dx = f ( x ) + C;
∫ C ⋅ f ( x )dx = C ⋅ ∫ f ( x )dx; 6) ∫ ( f ( x ) + g ( x ))dx = ∫ f ( x )dx + ∫ g ( x )dx.
Упражнение 1. Доказать свойства неопределенного интеграла.
Для упрощения работы с интегралами приведем основную таблицу
интегралов:
1)
∫ 0 ⋅ dx = С;
dx
= ln x + C;
x
5) ∫ cos xdx = sin x + C;
3)
∫
7)
∫ cos2 x = tgx + C;
9)
∫
dx
dx
1 − x2
x a +1
+ C; (a ≠ −1);
a +1
ax
4) ∫ a x dx =
ln a
6) ∫ sin xdx = − cos x + C;
2)
a
∫ x dx =
8)
∫ sin 2 x = −ctgx + C;
= arcsin x + C; 10)
dx
dx
∫ 1 + x2
= arctgx + C.
20.2. Непосредственное интегрирование
Этот метод заключается в сведении интеграла к табличным путем
использования основных свойств неопределенного интеграла.
Пример 2. Вычислить интеграл ∫ ( t 2 + 1) 2 dx.
Имеем: ( t 2 + 1) 2 = t 4 + 2 t 2 + 1. Подставляя новое подынтегральное
выражение, получаем:
t 5 2t 3
4
2
4
2
I = ∫ (t + 2t + 1)dt = ∫ t dt + 2 ∫ t dt + ∫ dt = +
+t +C
5 3
20.3. Интегрирование подстановкой (метод замены переменной)
В некоторых случаях интеграл ∫f(x)dx можно упростить, если ввести
новую переменную интегрирования, положив x=ϕ(t). Тогда
f(x)=f[ϕ(t)]; dx= ϕ '(t)dt и ∫ f ( x)dx = ∫ f (ϕ (t ))dt .
105
В окончательном результате возвращаемся к переменной x по формуле t= ϕ (x).
ex
Пример 3. Вычислить интеграл ∫ 2 dx .
x
Положим x=1/t. Тогда dx=-dt/(t2) и, следовательно,
1
 dt 
t
t
∫ t ⋅ e ⋅  − t 2  = − ∫ e dt = −e + C = −e x + C.
2
t
20.4. Метод интегрирования по частям
Известно правило дифференцирования произведения:
d(uv)=vdu+udv
или
udv=d(uv)-vdu
(2)
Интегрируя обе части равенста (2), получаем:
(3)
∫ udv = uv − ∫ vdu.
Формула (3) называется формулой интегрирования по частям.
Пример 4. Вычислить интеграл ∫ arctg xdx.
Положим: u=arctgx, dv=dx. Тогда du=dx/(1+x2), v=x.
Подставляя в (3), получим:
x
I = ∫ arctg xdx = x ⋅ arctg x - ∫
dx =
1 + x2
1 d (1 + x 2 )
1
= x ⋅ arctg x − ∫
=x ⋅ arctg x − ln(1 + x 2 ) + C.
2
2 1+ x
2
Пример 5. Вычислить интеграл ∫ xe x dx .
Положим: u=x, dv=exdx. Тогда du=dx, v=ex. Подставим в (3):
x
x
x
x
x
∫ xe dx = xe − ∫ e dx =xe − e + C.
106
21. Интегрирование рациональных функций.
21.1. Теоремы о многочленах
Определение 1. Пусть Q(x) - некоторый многочлен n-й степени с
действительными коэффициентами:
(1)
Q(x)=a0xn +a1xn-1+...+an-1x+ an.
Говорят, что число x=a является k-кратным корнем многочлена Q(x),
если выполняется соотношение
Q(x)=(x-a)kQ1(x),
(2)
где Q1(x) - некоторый многочлен степени (n-k), причем Q1(a)≠0.
Теорема 1 (теорема Безу). Для того, чтобы число x=a было корнем
многочлена (1) кратности p, необходимо и достаточно, чтобы этот многочлен делился без остатка на (x-a)p.
Упражнение 1. Доказать теорему Безу.
Лемма 1. Для того, чтобы число x=a являлось k-кратным корнем
многочлена Q(x), необходимо и достаточно, чтобы
(3)
Q(a)=0; Q'(a)=0; ...; Q(k-1)(a)=0; Q(k)(a)≠0.
Доказательство.
Необходимость. Пусть x=a - k-кратный корень многочлена Q(x). Тогда верно соотношение (2). Продифференцируем его k раз. Имеем:
Q'( x ) = k ( x − a ) k −1 Q1 ( x ) + ( x − a ) k Q1' ( x );
Q''( x ) = k ( k − 1)( x − a ) k − 2 Q1 ( x ) + C21k ( x − a ) k −1 Q1' ( x ) +
+ C22 ( x − a ) k Q1'' ( x );
.......................................................................
k!
Q ( k ) ( x ) = Q1 ( x ) k ! +...+ Cki ( x − a ) k − i Q1(i ) ( x ) +...+
i!
+ Ckk Q1k ( x )( x − a ) k .
Q'(x)=k(x-a)k-1Q1(x)+(x-a)k Q1'(x);
Q''(x)=k(k-1)(x-a)k-2Q1(x)+C(2,1)Q'(x)k(x-a) + k
Подставляя в полученные выражения значение x=a, получаем
утверждение леммы.
Достаточность. Пусть выполнены условия теоремы. Тогда x=a является корнем многочлена Q(x). Отсюда, по теореме Безу, имеем следующее
соотношение:
(4)
Q ( x ) = ( x − a ) p Q2 ( x )
при некотором p≥1. Ясно, что p=k. Действительно, если p>k, то
Q ( k ) ( a ) = 0 , что противоречит условию. Если же p<k, то Q ( p ) ( a ) ≠ 0 , что
также противоречит условию.
107
Теорема доказана.
Лемма 2. Пусть a=α+iβ - комплексный корень многочлена (1) кратности k. Тогда a*=α-iβ также является корнем кратности k.
Упражнение 2. Доказать лемму 2.
Замечание. Пусть a - комплексный корень многочлена Q(x) кратности k. Тогда справедливо соотношение Q ( x ) = [( x − α ) 2 + β 2 ]Q3 ( x ).
Здесь Q3(x) - некоторый вещественный многочлен.
Упражнение 3. Доказать это утверждение.
21.2. Разложение дробно-рациональных функций на сумму
простых дробей
Лемма 3. Пусть Q(x) - некоторый многочлен вида (1) с вещественными коэффициентами и x=a - его корень кратности k, так что
Q(x)=Q1(x)(x-a)k, причем Q1(a)≠0. Пусть P(x) - многочлен с вещественными
коэффициентами степени ниже n. Тогда справедливо представление
P( x )
A
P* ( x)
=
+
.
(5)
Q( x) ( x − a) k ( x − a) k −1 Q1 ( x)
Здесь A - некоторое вещественное число, а дробь в правой части правильная.
Доказательство. Пусть (5) верно. Тогда
P(x)-AQ1(x)=(x-a)P*(x)
Возьмем теперь A=P(a)/Q1(a). Тогда (5) - верно.
Следствие. Продолжая процедуру Леммы 3, получаем:
Ak
Ak − 1
A1
P( x)
P* ( x)
=
+
+...+
+
.
(6)
Q( x ) ( x − a ) k ( x − a ) k −1
( x − a ) Q1 ( x )
Лемма 4. Пусть a=α+iβ - k-кратный комплексный корень многочлена
(1). Тогда для правильной дроби P(x)/Q(x) всегда можно указать такие M и
N, что
P( x )
Mx + N
P* ( x)
=
+
.
(7)
Q( x) ( x − α ) 2 + β 2 [( x − α ) 2 + β 2 ]Q2 ( x)
причем все дроби правильные.
Следствие. В условиях леммы 4 левая часть выражение (7) представима в виде
Mk x + Nk
M k −1 x + N k −1
P( x)
=
+
+...+
Q( x ) [( x − α ) 2 + β 2 ]k [( x − α ) 2 + β 2 ]k − 1
M1 x + N 1
P* ( x)
+
+
.
( x − α ) 2 + β 2 Q* ( x )
Таким образом, мы доказали следующую теорему:
108
Теорема 2. Всякая вещественная правильная дробь представима в
виде
Ak
Ak −1
A1
B1
P( x )
=
+
+ ... +
+ ... +
+ ... +
Q( x ) ( x − a ) k ( x − a ) k −1
( x − a)
( x − b)
+
M px + N p
2
2 p
[( x − α ) + β ]
+ ... +
M 1 x + N1
2
( x − α) + β
2
.
(8)
21.3. Интегрирование рациональных функций
Теорема 2 позволяет свести вычисление интеграла от рациональных
функций к вычислению следующих стандартных интегралов:
dx
dx
1
I1 = ∫
I2 = ∫
= ln x − a + C;
=
+ C;
x−a
( x − a ) p − ( p − 1)( x − a ) p −1
I3 = ∫
I4 = ∫
1
x−α
= arctg
+ C;
β
( x − α)2 + β 2 β
dx
dx
= I k +1 =
x−α
+
2k − 1
2kβ 2 [( x − α ) 2 + β 2 ] 2kβ 2
[( x − α ) 2 + β 2 ]k +1
1
xdx
x−α 1
I5 = ∫
= arctg
+ ln[( x − α ) 2 + β 2 ] + C;
2
β
( x − α)2 + β2 β
1
xdx
I6 = ∫
=−
+ C.
2( p − 1)[( x − α ) 2 + β 2 ] p −1
[( x − α ) 2 + β 2 ] p
Ik ;
21.4. Примеры
Пример 1. Вычислить интеграл от функции y=(x-3)/(x3-x).
Разложение этой дроби на элементарные имеет вид:
x−3
A
B
C
= +
+
.
x( x − 1)( x + 1) x x − 1 x + 1
Приведем к общему знаменателю и приравняем коэффициенты при
соответствующих степенях x в левой и правой частях:
x-3=Ax2-A+Bx2+Bx+Cx2-Cx;
A+B+C=0, B-C=1, A=3 ⇒ A=3, B=-1, C=-2.
Таким образом,
x−3
dx
dx
dx
∫ x3 − x dx = 3∫ x − ∫ x − 1 − 2∫ x + 1 = 3ln ( x( − ln ( x − 1( − 2ln ( x + 1( + C.
Пример 2. Вычислить интеграл от функции y=(x-5)/(x3-3x2+4).
109
Имеем: x3-3x2+4=(x+1)(x-2)2. Тогда
A
B
C
Ax2 − 4Ax + 4A + Bx2 − Bx − 2B + Cx − 2C
=
+
+
=
.
2 x +1
2 x−2
2
( x + 1)(x − 2)
( x − 2)
( x + 1)(x − 2)
Приравнивая коэффициенты при соответствующих степенях x, получаем: A+B=0; -4A-B+C=1; 4A-2B-2C=-5.
Отсюда, A=-2/3; B=-1; C=2/3.
2 dx
dx
2 dx
2
1
2
+ ∫
= − ln x + 1 +
+ ln x − 2 + C .
∫ ydx = − 3 ∫ x + 1 − ∫
3
x−2 3
( x − 2) 2 3 x − 2
x −5
Пример 3. Вычислить интеграл от функции y=12/(x4+x3-x-1).
Имеем: x4+x3-x-1=(x+1)(x3-1)=(x+1)(x-1)(x2+x+1).
Разлагаем исходную дробь на простейшие:
12
A
B
Cx + D
=
=
+
+
x 4 + x3 − x − 1 x + 1 x −1 x 2 + x + 1
=
Ax 3 − A + Bx 3 + 2 Bx 2 + 2 Bx + B + Cx 3 − Cx + Dx 2 − D
.
( x + 1)( x − 1)( x 2 + x + 1)
Отсюда, A+B+C=0; 2B+D=0; 2B-C=0; -A+B-D=12 ⇒
⇒ A=-6, B=2, C=4, D=-4.
dx
dx
x −1
∫ ydx = − 6∫ x + 1 + 2∫ x − 1 + 4∫ x 2 + x + 1 dx = 6 ln x + 1 + 2 ln x − 1 + 4 I .
x −1
1
2x + 1
3
dx
=
I =∫ 2
dx = ∫ 2
dx − ∫ 2
x + x +1
2 x + x +1
2 x + x +1
1
2
x+ 1
= ln( x 2 + x + 1) −
+ C.
arctg
2
3
3
3⋅
2⋅
4
4
110
22. Интеграл Римана (определенный интеграл)
22.1. Интеграл Римана
Определение 1. Пусть функция y=f(x) определена на отрезке [a,b].
Разобьем этот отрезок на n частей:
(1)
a = x 0 < x1 < ... < x n −1 < x n = b.
Положим ∆xi = xi +1 − xi
Обозначим λ = max ∆xi . Назовем это число λ диаметром разбиения.
На каждом отрезке [xi, xi+1] выберем произвольную точку ξi и составим сумму
σ=
n −1
∑ f (ξ )∆x .
i
(2)
i
i =0
Сумма (2) называется интегральной суммой функции y=f(x), соответствующей разбиению (11) и выборке ξi.
Определение 2. Пишут
(3)
lim s = I ,
λ→0
если для любого ε>0 существует такое δ>0, что для любого разбиения с
диаметром λ<δ будет |I-s|<ε.
Определение 3. Пусть для некоторой функции y=f(x) существует предел (3). Тогда функция называется интегрируемой на отрезке [a,b] по Риману и пишут
b
I=
∫ f ( x)dx.
(4)
a
Замечание 1. Если функция y=f(x) не ограничена на отрезке [a,b], то
она заведоме не интегрируема.
Введем следующие обозначения:
(5)
M i = sup f ( x );
x i ≤ x ≤ xi + 1
mi = inf f ( x );
(6)
ωi=Mi-mi
Пусть снова фиксировано разбиение (1).
Определение 4. Интегральные суммы
(7)
xi ≤ x ≤ xi +1
S=
n−1
∑ M ∆x
i
i =0
i
и s=
n−1
∑ m ∆x
i
(8)
i
i =0
называются верхней и нижней суммами Дарбу, соответствующих данному разбиению.
111
Замечание 2. Очевидно, что s ≤ σ ≤ S . Кроме того, при фиксированном разбиении S = sup σ по всем выборкам этого разбиения;
s = inf σ по всем выборкам этого разбиения.
Замечание 3. Если дополнить разбиение (1) новыми точками, то
верхняя сумма Дарбу S может только уменьшиться, а нижняя сумма Дарбу
s может только увеличиться.
Упражнение 1. Доказать утверждения замечаний 2 и 3.
Отсюда следует вывод, что любая верхняя сумма Дарбу ограничена
снизу (например, любой нижней), а любая нижняя - ограничена сверху
(например, любой верхней). Таким образом, всегда существуют точные
грани:
I = inf S ; I = sup s .
Определение 5. Точная нижняя грань верхних сумм Дарбу называется верхним интегралом, а точная верхняя грань нижних сумм Дарбу
называется нижним интегралом.
Замечание 4. Все вышесказанное справедливо даже для разрывных
функций.
Теорема 1. Для того, чтобы функция y=f(x) была интегрируемой,
необходимо и достаточно, чтобы существова л и равнялся нулю предел
(9)
lim( S − s )
λ →0
Доказательство.
Достаточность. Пусть выполнено соотношение (9). Тогда, очевидно,
I = I = I . Пусть задано ε>0. Выберем δ(ε) такое, чтобы при λ<δ было |Ss|<ε. Тогда s≤σ≤S и s≤I≤S.
Изменив знак в первом неравенстве (-S≤-σ≤-s) и сложив его со вторым, получим: σ-S≤ I-σ ≤ S-σ ==> |I-σ|<ε для любого λ<δ и для любой выборки.
Необходимость. Пусть функция y=f(x) интегрируема. Тогда
-ε < I-σ < ε.
Фиксируем λ-разбиение и при этом разбиении возьмем точные верхние и нижние грани по всем выборкам. Тогда справедливы следующие соотношения: -ε ≤ I-S ≤ ε; -ε ≤ I-s ≤ ε.
Отсюда получаем, что |S-s|<2ε.
22.2. Равномерная непрерывность
Лемма (лемма Кантора). Пусть функция y=f(x) непрерывна на отрезке [a,b]. Тогда она равномерно напрерывна на этом отрезке, т.е. для любого ε>0 существует такое δ(ε)>0, что для любых x1,x2 из [a,b]: |x1-x2|<δ выполняется неравенство |f(x1)-f(x2)|<ε.
112
Доказательство. Допустим противное. Тогда найдется такое число
ε0>0 такое, что к нему δ подобрать нельзя. Это значит, что, взяв δ1=1, мы
найдем такие x1, x2, что |x1-x2|<δ, а |f(x1)-f(x2)|≥ε0.
Для δ2=1/2 мы найдем такие x1(2),x2(2), что
|x1(2)-x2(2)|<δ2, а |f(x1(2))-f(x2(2))|≥ε0.
Продолжая этот процесс, для любого δn=1/n мы найдем такие
x1(n),x2(n), что |x1(n)-x2(n)|<δn, а |f(x1(n))-f(x2(n))| ≥ε0.
Рассмотрим последовательность отрезков {x1(n), x2(n)}. Она ограничена, т.к. все точки принадлежат отрезку [a,b]. Очевидно, что эта последовательность сходится к одной точке x=ξ, принадлежащей отрезку [a,b]. Т.к.
функция y=f(x) непрерывна на отрезке [a,b], то для любого ε>0 при достаточно близких друг к другу точках x=ξ и x=x1(n) должно быть |f(x)f(x1(n))|<ε/2.
То же для точек x=ξ и x=x2(n). Тогда должно быть |f(x1(n))-f(x2(n))|<ε,
что противоречит исходной посылке доказательства.
Таким образом, непрерывная на отрезке функция равномерно непрерывна на этом отрезке.
Замечание. Теорема неверна для интервалов.
22.3. Интегрируемость непрерывной функции
Теорема 2. Пусть функция y=f(x) непрерывна на отрезке [a,b]. Тогда
n −1
она интегрируема на этом отрезке, т.е. lim
λ →0
b
∑ f (ξ )∆x = ∫ f ( x)dx.0
i
i =0
i
a
Доказательство.
Пусть задано ε>0. Выберем такое δ>0, чтобы для любых x1,x2: |x1x2|<δ было |f(x1)-f(x2)|<ε/(b-a). Это можно сделать в силу леммы Кантора.
Пусть теперь имеется некоторое λ-разбиение: λ<δ. Тогда:
n −1
n −1
∑ ϖ ∆x = ∑(M
i
i
i =0
i =0
∑
∑
i
− mi )∆xi .
По условию мы выбрали такое δ, что Mi-mi<ε/(b-a). Следовательно,
n −1
n−1
ε
ε(b − a)
ϖ i ∆xi ≤
∆xi =
= ε.
b−a
i =0
i =0 b − a
Теорема доказана.
Теорема 3. Пусть функция y=f(x) является ограниченной на [a,b] и
имеет конечное число точек разрыва. Тогда она интегрируема на этом отрезке.
Теорема 4. Пусть y=f(x) определена на [a,b] и монотонно возрастает
на этом отрезке. тогда она интегрируема.
113
22.4. Некоторые замечания об интегрируемых функциях
1. Пусть y=f(x) интегрируема на [a,b] и пусть отрезок [c,d] лежит
внутри отрезка [a,b]. Тогда функция y=f(x) интегрируема на [a,b].
2. На отрезке можно ввести ориентацию: a→b и b→a. Если b>a, то
можно ввести ориентированный отрезок [b,a] и рассматривать соответствующие разбиения и интегральные суммы. Очевидно, что σ[a,b]=-σ[b,a].
3. Пусть функция y=f(x) интегрируема на [a,b]. Пусть точки c1,c2,c3
принадлежат этому отрезку. Тогда справедлива формула:
c3
c2
c3
c1
c1
c2
∫ f ( x)dx = ∫ f ( x)dx + ∫ f ( x)dx .
4. Пусть функции y=f(x) и y=g(x) интегрируемы на [a,b]. Тогда функция y=f(x)+g(x) также интегрируема на [a, b] и
b
b
b
a
a
a
∫ { f ( x) + g( x)}dx = ∫ f ( x)dx + ∫ g( x)dx .
5. Справедливо соотношение
b
b
a
a
∫ αf ( x)dx = α∫ f ( x)dx.
6. Пусть функция y=f(x) интегрируема на [a,b] и пусть на этом отрезке f(x)≥0. Тогда
b
∫ f ( x)dx ≥ 0.
a
a
7. Пусть функции y=f(x) и y=g(x) интегрируемы на [a,b] и f(x)>g(x).
Тогда
b
b
a
a
∫ f ( x)dx ≥ ∫ g ( x)dx.
22.5. Теоремы о среднем
Лемма 2. Пусть функция y=f(x) неотрицательна, не равна тождественно нулю и непрерывна на отрезке [a,b] (b>a). Тогда
b
∫ f ( x)dx > 0.
a
Доказательство. Допустим, что для некоторой точки ξ=x0 : f(x0)=a>0.
Тогда найдется такая окрестность точки ξ=x0, что f(ξ)≥a/2. Отсюда получаем, что
114
ξ−δ
b
ξ+δ
b
∫ f ( x)dx = ∫ f ( x)dx + ∫ f ( x)dx + ∫ f ( x)dx.
a
ξ−δ
a
(9)
ξ+δ
Первое и третье слагаемые правой части (9) неотрицательны, в силу
неотрицательности функции y=f(x). Второе же слагаемое удовлетворяет
следующему неравенству:
ξ+ δ
∫
ξ+ δ
f ( x )dx ≥
ξ −δ
a
a
dx = ⋅ 2δ = aδ > 0.
2
2
ξ−δ
∫
Лемма доказана.
Теорема 5 (первая теорема о среднем). Пусть функции y=f(x) и
y=g(x) непрерывны на отрезке [a,b] и пусть g(x)≥0. Тогда существует такая
точка x=ξ ∈ [a,b], что
b
b
a
a
∫ f ( x)g ( x)dx = f (ξ)∫ g ( x)dx.
Доказательство.
1). Если функция y=g(x) тождественно равна нулю на [a,b], то теорема верна.
2). Если y=g(x) не равна тождественно нулю, то
b
∫ g ( x)dx > 0.
a
Пусть теперь m≤f(x)≤M,
mg(x)≤f(x)g(x)≤Mg(x).
Интегрируем его:
тогда
справедливо
неравенство
b
m≤
∫ f ( x) g ( x)dx
a
b
≤ M.
(10)
∫ g ( x)dx
a
По теореме о промежуточных значениях (4, т.11) существует точка
x=ξ из [a,b] такая, что f(ξ)=A, где A равно дроби в (10). Отсюда следует
утверждение теоремы.
115
23. Теоремы Барроу и Ньютона-Лейбница. Понятие площади.
23.1. Теоремы Барроу и Ньютона-Лейбница
Теорема 1. Пусть функция y=f(x) интегрируема на [a,b]. Возьмем
произвольную точку x из [a,b] и введем в рассмотрение функцию
x
F ( x) =
∫ f (t )dt.
(1)
a
Определенная таким образом функция непрерывна на отрезке [a,b].
Доказательство. Рассмотрим разность
dF (t 0 ) =
t0 + dt
t0
t 0 + dt
a
a
t0
∫ f (t )dt − ∫ f (t )dt = ∫ f (t )dt
Т.к. функция y=f(x) непрерывна, то она ограничена, т.е. |f(x)|<C0.
Считая, что dt>0, получаем: |dF|<dt*C0, что говорит о непрерывности
функции F(t).
Теорема 2 (теорема Барроу). Пусть в условиях теоремы 1 функция
y=f(x) непрерывна на [a,b]. Тогда функция y=F(x) дифференцируема на
[a,b] и справедлива формула F'(x)=f(x).
Доказательство. В самом деле. Рассмотрим приращение функции dF
и применим к нему теорему о среднем, тогда получим, что dF=f(ξ)dx, где ξ
принадлежит (x0, x0+dx).
Возьмем разностное отношение dF/dx=f(ξ) и устремим dx к нулю по
некоторой последовательности значений. Тогда неминуемо ξ→x0. В силу
непрерывности функции y=f(x) предел разностного отношения будет равен
f(x0). Теорема доказана.
Следствие. Всякая непрерывная на отрезке функция имеет первообразную. Она определяется формулой (1).
Теорема 3 (теорема Ньютона-Лейбница). Пусть функция y=f(x) непрерывна на отрезке [a,b] и пусть Ф(x) - какая-нибудь первообразная этой
функции. Тогда
b
∫ f ( x)dx = Φ(b) − Φ(a).
(2)
a
Доказательство. Мы знаем, что функция y=f(x) имеет как минимум
x
одну первообразную F(x): F ( x) =
∫ f (t )dt.
a
Очевидно, что Ф(x)=F(x)+C, где C - некоторая константа.
116
Имеем следующую цепочку: Φ(b) =
b
a
a
a
∫ f (t )dt + C; Φ(a) = ∫ f (t )dt + C .
b
Отсюда Φ(b) − Φ( a ) =
∫ f (t )dt.
a
Теорема 4 (вторая теорема о среднем). Пусть функция y=f(x) непрерывна на отрезке [a,b]. Пусть функция y=v(x) и ее производная y=v'(x)
также непрерывны на [a,b]. Если при этом v'(x)≥0, то существует такая
точка x=ξ из (a,b), что
b
ξ
b
a
a
ξ
∫ f ( x)v( x)dx = v(a)∫ f ( x)dx + v(b)∫ f ( x)dxb.
Доказательство. Преобразуем исходный интеграл и возьмем его по
частям:
'
b
b
x

x

I =  f (t )dt  v( x )dx = v(b ) f ( x )dx − v' ( x ) f (t )dt  dx =

 a

a 
a
a
a
b
∫∫
∫
∫
∫
b
b
∫
∫
= применим ттеоремуо среднем = v(b ) f ( x )dx − F (ξ) v' ( x )dx =
a
a
∫
ξ
b
ξ
∫ f ( x)dx ⋅ (v(b) − v(a)) = v(b)∫ f ( x)dx + v(a)∫ f ( x)dx.
a
a
ξ
a
b
= v(b ) f ( x )dx −
23.2. Интегрирование подстановкой и по частям
Теорема 5. Пусть функция y=f(x) непрерывна на отрезке [a,b] и пусть
функция u=v(t) непрерывно дифференцируема на [a,b] и отображает отрезок [a,b] на отрезок [α,β] так, что a=v(α) и b=v(β). Тогда
b
β
∫ f (u )du = ∫ f [v(t )]v&(t )dt .
a
(3)
α
Здесь точка над функцией означает дифференцирование по t.
Доказательство. Пусть Ф(u) - первообразная f(u). Тогда
b
∫ f (u)du = Φ(b) − Φ(a).
a
Очевидно, что Ф[v(t)] - первообразная от f[v(t)]v(t).
117
β
∫ f [v(t )]v&(t )dt = Φ(b) − Φ(a), но Ф[v(α)]=Ф(a), Ф[v(β)]=Ф(b). Теорема
α
доказана.
a
∫
Пример 1. Вычислить
a 2 − x 2 dx.
−a
Сделаем подстановку x = a sin t , −
π/2
π
π
≤ x ≤ . Имеем:
2
2
π/2
π/ 2
1 + cos 2t
ta 2 a 2
I = a cos tdt = a
dt =
+ sin 2t
= πa 2 .
2
2
2
−π / 2
−π / 2
−π / 2
∫
2
2
2
∫
Теорема 6. Пусть функции y=f(x) и y=g(x) имеют непрерывные производные на отрезке [a,b]. Тогда справедлива формула
b
b
a
a
b
∫ g ( x) f '( x)dx = g ( x) f ( x) − ∫ f ( x)g' ( x)dx.
a
23.3. Понятие площади плоской фигуры
Замечание. Предполагаем, что площадь многоугольника известна из
школьной программы.
Определение 1. Пусть имеется некоторая область G. Пусть имеется
последовательность многоугольников qn и Qn, таких, что все многоугольники qn принадлежат G, а Qn содержат G в себе. Пусть
lim Пл.q n = lim Пл.Qn = S .
n →∞
n→∞
Тогда область G называется квадрируемой, а число S называется
ее площадью.
Упражнение 2. Пусть существует две другие последователдьности
многоугольников q'n и Q'n, удовлетворяющие условиям Определения 1, и
пусть lim Пл.q' n = lim Пл.Q' n = S '. Доказать, что S=S'.
n →∞
n→∞
Упраженеие 3. Показать, что если квадрируемая область G разбита
на конечное число квадрируемых кусков Gi, так что
n
UG
i
= G,
(4)
i =1
то
n
∑ Пл.G
i
= Пл.G .
(5)
i =1
i=1
Лемма 1. Пусть имеется две последовательности квадрируемых областей qn и Qn (не многоугольников, в общем случае) и таких, что qn⊂G, а
118
Qn⊃G. Пусть lim Пл. q n = lim Пл. Q n = S . . Тогда область G квадрируема и
n→∞
n→∞
Пл.G=S.
Упражнение 4. Доказать лемму 1.
Теорема 7. Пусть функция y=f(x) непрерывна на [a,b]. Рассмотрим
криволинейную трапецию G(abBA).
Y
B
A
ξ1
a
ξ2
ξn b
X
b
S = Пл. G =
∫ f ( x)dx.
(6)
a
Доказательство. Возьмем некоторое разбиение отрезка [a,b] и в качестве вписанного многоугольника qn возьмем многоугольник, соответствующий нижней сумме Дарбу, а в качестве описанного многоугольника Qn
возьмем многоугольник, соответствующий верхней сумме Дарбу.
Поскольку функция y=f(x) непрерывна, то суммы Дарбу являются
интегральными суммами, причем
b
lim Пл.q n = lim Пл.Q n =
n→∞
n→∞
∫ f ( x)dx = S .
(7)
a
Теорема 8. Рассмотрим задачу вычисления площади в полярной системе координат. Пусть r=r(ϕ) - непрерывная положительная функция на
[α,β]. Тогда область G, ограниченная лучами ϕ=α и ϕ=β и графиком функции r=r(ϕ), квадрируема и
β
1 2
S=
r dϕ.
2α
∫
(8)
119
Доказательство. Разобьем
α=ϕ0<ϕ1<...<ϕn=β.
Введем обозначения:
ri = inf
ϕ i ≤ ϕ < ϕ i +1
отрезок
[α,β]
на
n
частей:
r ( ϕ ); Rri = sup r ( ϕ )
ϕ i ≤ ϕ < ϕ i +1
Пусть qn - объединение вписанных в подобласти Gn треугольников,
высоты которых равны соответственно ri, а Qn - объединение описанных
треугольников, высоты которых равны Ri соответственно. Тогда
n
1 2
Пл.q n =
ri δϕ
(9)
2
i =0
∑
n
1 2
Ri δϕ
(10)
2
i =0
Соотношения (9) и (10) являются нижней и верхней суммами Дарбу
функции (1/2)r2(ϕ), так что они имеют совпадающие пределы, а с другой
стороны, они являются площадями вписанных и описанных многоугольников. Следовательно, теорема верна.
Пл.Q n =
∑
120
24. Несобственные интегралы.
24.1 Несобственные интегралы
Определение 1. Пусть функция y=f(x) интегрируема на любом отрезке [a,A], где a - фиксировано, а a<A<+∞. Введем функцию
A
ϕ( A) =
∫ f ( x)dx.
a
Пусть существует предел lim ϕ( A) . Тогда говорят, что существует
A→ ∞
несобственный интеграл
∞
A
∫ f ( x)dx = lim ∫ f ( x)dx .
(1)
A→∞
a
a
a
Аналогично вводится интеграл
a
∫ f ( x)dx = lim ∫ f ( x)dx .
−∞
A→−∞
A
Наконец, вводится интеграл
+∞
B
−∞
A→ −∞
B → +∞ A
∫ f ( x)dx = lim ∫ f ( x)dx ,
в предположении, что функция y=f(x) интегрируема на любом отрезке
[A,B].
Пример 1. Рассмотрим несобственный интеграл
∞
A
dx
dx
=
lim
J=
.
(2 )
α
α
A→ ∞
x
x
1
1
∫
∫
1
(A−α+1 − 1). Если (-α+1)<0, то предел
1− α
(1) существует. Таким образом, при α>1 J=1/(α-1). При α<1 предел (2) не
существует, а при α=1 функция J(x) расходится как ln x.
Имеем, при α ≠ 1 : J ( A) = −
24.2. Критерий Коши
Теорема 1 (критерий Коши). Пусть функция y=f(x) интегрируема на
каждом конечном интервале [a,A], a<A<+∞. Для того, чтобы существовал
несобственный интеграл (2), необходимо и достаточно, чтобы для любого
ε>0 существовало такое число M(ε) такое, что для любых A',A''>M(ε) выA''
полнялось неравенство
∫ f ( x)dx < ε .
(3)
A'
121
Доказательство. 1. Необходимость. Пусть предел (1) существует.
Обозначим его через I. Пусть задано ε>0. Выберем M такое, чтобы при
всех A>M было
A
ε
∫ f ( x )dx − I < 2
a
Пусть теперь A',A''>M. Тогда
A''
A'
A'
A''
 A''
 
 






f ( x )dx =
f ( x )dx − f ( x )dx = I − f ( x )dx − I − f ( x)dx 

 
 

A'
a
a
a
a
 
 

Таким образом, неравенство (3) выполнено.
2. Достаточность. Пусть в условиях теоремы выполняется неравенство (3) выполнено. Покажем, что существует предел (1).
Воспользуемся определением предела по Гейне. Пусть A1,...,Аn,... произвольная числовая последовательность, стремящаяся к бесконечности.
Рассмотрим соответствующую последовательность значений функции
J(A). Докажем, что {J(An} сходится.
Пусть задано ε>0. Выберем M таким, чтобы при A',A">ε выполнялось
неравенство (6). По указанному M подберем такое N, чтобы при всех n>N
было An>M. Это можно сделать в силу того, что An→∞.
∫
∫
∫
Имеем теперь I n − I m =
∫
∫
An
Am
An
a
a
Am
∫ f ( x)dx − ∫ f ( x)dx = ∫ f ( x)dx < ε для любых n
и m>M в силу условий теоремы. Теорема доказана.
24.3. Абсолютно и условно сходящиеся интегралы
Лемма 1. Пусть функция y=f(x) интегрируема по Риману на отрезке
[a,b]. Тогда функция yˆ = f ( x ) также интегрируема на [a,b], причем
b
b
∫ f ( x)dx ≤ ∫ f ( x) dx
a
(4)
a
Определение 2. Пусть функция y=f(x) интегрируема по Риману на
∞
любом
отрезке
[a,A],
a<A<+∞.
Говорят,
что
интеграл
∫ f ( x)dx
a
сходится абсолютно, если сходится интеграл
∞
∫
f ( x ) dx .
a
Замечание. Это определение верно постольку, поскольку сходимость
второго интеграла влечет за собой сходимость первого (в силу критерия
Коши). Может случиться так, что первый интеграл сходится, а второй нет. Тогда говорят, что несобственный интеграл сходится условно.
122
24.4. Два признака сходимости несобственных интегралов
Теорема 2. Пусть неотрицательные функции y=f(x) и y=g(x) интегрируемы на каждом конечном отрезке [a,A], a<A<+∞ и пусть при этом
∞
f(x)≤g(x). Тогда из сходимости интеграла g ( x )dx следует сходимость инте∫
a
∞
∫
грала f ( x)dx , а из расходимости второго интеграла следует расходимость
a
первого.
Упражнение 2. Доказать теорему 2.
Замечание. Теорема 2 сохраняет силу, если неравенство f(x)≤g(x)
выполняется, начиная с некоторого x ≥ x0 > a.
Отсюда следует,
что
если
существует
предел
f ( x)
lim
= k ≠ 0 , то оба интеграла сходятся и расходятся одновременно.
x →∞ g ( x )
∞
Пример 2. Исследовать на сходимость интеграл
2x 2 + x − 1
dx .
4
x
+
1
1
∫
1 1
2+ − 2
1
x x < 3 , начиная с некоторого x .
Имеем: f ( x) = 2 ⋅
0
x
1+ x4
x2
Интеграл от правой части полученного неравенства сходится, следовательно, сходится интеграл от исходной функции.
Теорема 3(теорема Дирихле). Пусть функция y=f(x) непрерывна при
x>a, а
x
∫ f (t ) dt < C
при всех x>a. Пусть функция y=g(x) удовлетворяет сле-
a
дующим условиям: а) lim g ( x ) = 0 ;
x →∞
b) g'(x)≤ 0 (либо g'(x)≥0). Тогда
∞
∫ f ( x)g( x)dx сходится.
a
∞
Пример 3. Исследовать на сходимость интеграл
sin x
dx .
x
1
∫
x
Обозначим, f(x)=sin x; g(x)=1/x. Имеем:
∫ sin xdx ≤ 2,
g ' ( x ) < 0, g ( x ) → 0
1
при x→∞. Т.к. условия теоремы Дирихле выполняются, то интеграл сходится.
123
24.5. Несобственные интегралы от неограниченных функций
Определение 3. Пусть функция y=f(x) определена на полуинтервале
[a,b) и пусть в левой полуокрестности точки x=b функция не ограничена.
Тогда говорят, что функция y=f(x) имеет особенность в точке x=b.
Аналогично говорят об особенности на левом конце, а также на
внутренней точке.
Определение 4. Пусть функция y=f(x) интегрируема по Риману на
c
всяком отрезке [a,c], где a<c<b. Пусть существует предел lim
c →b − 0
∫ f ( x)dx .
a
Тогда говорят, что функция y=f(x) интегрируема в несобственном
смысле на отрезке [a,b].
Аналогично вводится интеграл на левом конце.
В случае особенностей внутри отрезка, несобственный интеграл ввоd
дится как сумма пределов lim
d →c −0
b
∫ f ( x)dx + lim ∫ f ( x)dx .
d →c + 0
a
d
Справедлив следующий критерий Коши:
b
Теорема 4. Для существования интеграла
∫ f ( x)dx необходимо и доa
статочно, чтобы для любого ε>0 существовало такое c, что для любых c1 и
c2
c2: c < c1,c2 < b выполнялось неравенство
∫ f ( x)dx < ε .
c1
Теорема 5. Если 0<f(x)<g(x), то сходимость интеграла от g(x) влечет
за собой сходимость интеграла от f(x).
f ( x)
= k > 0 , то оба инТеорема 6. В условиях теоремы 5, если lim
x→b −0 g ( x )
теграла сходятся и расходятся одновременно.
Теорема 7. Пусть функция y=f(x) непрерывна на полуинтервале
b
[a,b). Пусть существует несобственный интеграл
∫ f ( x)dx .
a
Пусть функция u=ϕ(t) непрерывно дифференцируема на полуинтервале [α,β). Пусть ϕ(α)=a и пусть значения функции u=ϕ(t) попадают
в полуинтервал [a,b). Если lim ϕ( t ) = b , то
t →β − 0
b
∫ f ( x)dx = ∫ f [ϕ(t )]ϕ& (t )dt .
(5)
a
124
ЧАСТЬ 6. ОБЫКНОВЕННЫЕ ДИФФЕРЕНЦИАЛЬНЫЕ
УРАВНЕНИЯ
25. Общие понятия.
25.1. Обыкновенное дифференциальное уравнение
При решении многих задач, возникающих на практике, не сразу удается найти функциональные соотношения между исследуемыми переменными. Например, второй закон Ньютона непосредственно не дает ответа на
вопрос о траектории движения тела, а дает соотношение между силой,
действующей на тело, и ускорением (т.е. второй производной пути):
dx
F = ma или F = m .
dt
В некоторых простейших случаях удается решить задачу движения
тела по полученному уравнению достаточно просто (например, в случае
равноускоренного прямолинейного движения), однако, в общем случае
необходимо применять специальные методы, которые мы и будем изучать.
На примере закона Ньютона мы видим, что могут существовать
уравнения, связывающие между собой не только исследуемые величины,
но и их производные. Исследованию подобных уравнений и посвящена
теория обыкновенных дифференциальных уравнений.
Определение 1. Если связь между величинами определяется уравнением, в которое входят не только эти величины, но и их производные, то
такое уравнение называется дифференциальным.
Определение 2. Если искомая функция связи зависит только от одного переменного, то дифференциальное уравнение называется обыкновенным.
Произвольное обыкновенное дифференциальное уравнение порядка
n имеет вид:
F(x, y',y'', ... , y(n)) = 0
(1)
Здесь F - некоторая функция от (n+2) переменных, а y(x) - функция
независимой переменной x: решение дифференциального уравнения, которое нужно найти.
Определение 3. Решением дифференциального уравнения (1) называется функция y(x), имеющая на некотором интервале (a,b) производные до
n-го порядка включительно и удовлетворяющая этому уравнению.
В общем случае, на разных интервалах существуют разные решения.
В дальнейшем будем рассматривать решения только на множестве
действительных чисел и это особо нигде не будет оговариваться.
Часто решение уравнения (1) называют интегралом или интегральной кривой этого уравнения.
125
25.2. Дифференциальное уравнение первого порядка
Изучение теории дифференциальных уравнений мы начнем с простейших случаев, а именно, с уравнений первого порядка:
F(x,y,y') = 0
(2)
Как правило, мы будем предполагать, что функция F(x,y,z) задана на
некоторой области трехмерного пространства D и непрерывна на D вместе
со своими производными Fx' и Fy' . В частности, область D может быть
всем трехмерным пространством (x,y,z).
Определение 4. Два алгебраических уравнения
F1(x,y,z)=0 и F2(x,y,z)=0
(3)
называются эквивалентными на области D, если из того, что точка (x,y,z)
удовлетворяет одному из этих уравнений, следует, что она удовлетворяет и
другому.
Соответственно, два дифференциальных уравнения
F1(x,y,y')=0 и F2(x,y,y')=0
(4 )
называются эквивалентными на области D, если эквивалентны на ней алгебраические уравнения (2).
Это означает, что решение одного изх дифференциальных уравнений
является решением и второго, и наоборот.
25.3. Задача Коши
В общем случае решение дифференциального
уравнение
не
единственно. Оно может зависеть от нескольких констант, а то и от произвольной функции.
При решении конкретных задач возникает вопрос о выделении нужного решения. Для этой цели существуют разные методы.
Одна из задач такого рода - задача Коши, имеющая следующую
формулировку:
Найти решение y=y(x) дифференциального уравнения первого порядка (2), удовлетворяющая начальному условию y(x0)=y0.
126
26. Дифференциальные уравнения первого порядка.
26.1. Уравнения первого порядка, разрешенные относительно
производной.
Обыкновенное дифференциальное уравнение первого порядка можно, разрешив относительно производной, представить в виде
dy
= f ( x, y)
(1)
dx
(следует иметь в виду, что когда говорят о степени, то подразумевается
степень производной).
Простейший пример такого уравнения:
dy
= f ( x)
dx
рассматривается в курсе интегрального исчисления. В этом простейшем
случае решение
y = ∫ f ( x )dx + C
содержит
произвольную постоянную, которая может быть определена, если известно значение y0=y(x0), тогда
y=
x
∫
f ( x )dx + y 0
x0
В дальнейшем будет показано, что при некоторых ограничениях,
налагаемых на функцию f(x,y) уравнение y' = f(x,y) также имеет единственное решение, удовлетворяющее условию y(x0)=y0, а его общее решение, т.е.
множество решений, содержащее все без исключения решения, зависит от
одной произвольной постоянной.
Дифференциальное уравнение y'=f(x,y) устанавливает зависимость
между координатами точки и угловым коэффициентом касательной к графику решения в той же точке. Зная (x,y) можно вычислить y'. Следовательно, дифференциальное уравнение рассматриваемого типа определяет
поле направлений (см. рис. 1). Задача интегрирования дифференциального
уравнения заключается в том, чтобы найти кривые, называемые интегральными кривыми, направление касательных к которым совпадает в
каждой точке с направлением поля.
127
y
x
Рис. 1.
Пример 1. Нарисовать поле направлений уравнения y'=y/x.
В каждой точке, отличной от точки (0,0), угловой коэффициент касательной к интегральной кривой равен отношению (y/x), т.е. совпадает с угловым коэффициентом прямой, направленной из начала координат в ту же
точку. Поле направлений представлено на рис. 2.2. Очевидно, что интегральными кривыми в данном случае будут прямые y=Cx, т.к. направление этих прямых совпадает с направлением поля.
y
x
Рис. 2.
Пример 2. То же для уравнения y'= -x/y.
Легко заметить, что угловой коэффициент касательной к искомым
интегральным кривым и то же из примера 1 в каждой точке удовлетворяют
условию ортогональности: k1*k2 = [(y/x)]*[-(x/y)] = -1. Следовательно, интегральные кривые в данном случае - окружности с центром в начале координат (см. рис. 3).
128
Рис. 3.
Замечание 1. Во многих задачах, в частности почти во всех задачах
геометрического характера, переменные x и y совершенно равноправны.
Поэтому, если было получено дифференциальное уравнение
dy/dx = f(x,y),
то наряду с ним совершенно естественно рассматривать уравнение
dx/dy = [1/f(x,y)]
Если оба этих уравнения имеют смысл, то они эквивалентны, за исключением точек, где f(x,y) обращается в ноль или бесконечность.
26.2. Уравнения с разделяющимися переменными
Определение 1. Дифференциальное уравнение вида
f2(y)dy = f1(x)dx
(2)
называют уравнением с разделенными переменными.
Функции f1(x) и f2(y) будем считать непрерывными. Предположим,
что y(x) является решением этого уравнения, тогда при его подстановке в
уравнение (2) получим тождество, интегрируя которое получим
(3)
∫ f 2 ( y )dy = ∫ f 1 ( x )dx + C,
где C - произвольная константа.
Таким образом, мы получили конечное уравнение (3), которому удовлетворяют все решения уравнения (2), причем каждое решение уравнения
(3) является решением уравнения (2), т.к. если некоторая функция y(x) при
подстановке обращает уравнение (3) в тождество, то продифференцировав
его получим, что y(x) обращает в тождество и уравнение (2).
Определение 2. Конечное уравнение Ф(x,y)=C, которое определяет
решение y(x) дифференциального уравнения как неявную функцию от x,
называется интегралом рассматриваемого дифференциального уравнения.
Если это конечное уравнение определяет все без исключения решения данного дифференциального уравнения, то оно называется общим интегралом расмматриваемого дифференцуиального уравнения.
Примечание. Задача считается решенной, даже если полученные интегралы не берутся в элементарных функциях.
129
Пример 3. Решить уравнение xdx+ydy=0.
Переменные разделены, следовательно можно интегрировать:
∫ xdx + ∫ ydy = C;
x 2 + y 2 = C.
Определение 3. Уравнения вида
ψ1(x)ϕ1(y)dx = ψ2(x)ϕ2(y)dy ,
в которых коэффициенты при дифференциалах распадаются на множители, зависящие только от x и только от y, называются дифференциальными
уравнениями с разделяющимися переменными, т.к. делением на ϕ1(y)ψ2(x)
они приводятся к уравнению с разделенными переменными:
ψ 1 ( x)
ϕ ( y)
dx = 2
dy .
ψ 2 ( x)
ϕ1 ( y)
Заметим, что деление на ϕ1(y)ψ2(x) может привести к потере частных
решений, обращающих в нуль это произведение. С другой стороны, если
функции ϕ1(y) и ψ2(x) могут быть разрывными, то возможно появление
лишних решений, обращающих в ноль множитель 1/[ϕ1(y)ψ2(x)].
Пример 4. Решить ДУ: dy/dx = y/x.
Разделяем переменые и интегрируем:
dy dx
dy
dx
=
; ∫
=∫
+ C; ln y = ln x + C; y = C1 x .
y
x
y
x
Если речь идет только о гладких решениях, то уравнение |y|=C|x|
(C>0) эквивалентно уравнению y= ±Cx или уравнению y=C1⋅x, где C1 может
принимать любые значения кроме ноля. Если же принять во внимание, что
при делении на y мы потеряли решение y=0, то можно считать, что в решении y=C1⋅x постоянная C1 может принимать и значение, равное 0.
Пример 5. Установлено, что скорость радиоактивного вещества пропорционально количеству x еще не распавшегося вещества. Найти зависимость x=x(t), если в начальный момент времени t=t0 x=x0. Коэффициент
пропорциональности равен k.
Дифференциальное уравнение процесса будет иметь вид:
dx/dt = -kx.
Разделяя переменные и интегрируя, получаем:
dx/x = -kdt; ln|x| = -kt + C.
Учитывая начальные условия, получим, что C=kt0-ln|x0|. Отсюда:
ln|x|-ln|x0|=-k(t-t0); x = exp[-k(t-t0)].
26.3. Уравнения, приводящиеся к уравнениям с разделяющимися переменными.
26.3.1. Уравнения вида dy/dx = f(ax+by)
Введем новую переменую z=ax+by. Тогда: dz/dx = a + b(dy/dx),
dz/dx= a + bf(z). Разделяя переменные, получим:
130
dz
= dx
a + b ⋅ f (z)
Интегрируя, получим:
dz
x=
+C
a + b ⋅ f ( z)
Пример 1. dy/dx=2x+y.
Полагая z=2x+y, получим: dy/dx=dz/dx-2. Таким образом, исходное
уравнение преобразуется к виду dz/dx - 2 = z.
Разделяя переменные и интегрируя, получаем:
dz
= dx; ln | z + 2 |= x + ln C.
z+2
Отсюда z = −2 + C e x .
Возвращаясь к исходным переменным, имеем: y = Cexp(x) - 2x - 2.
dy
1
=
+ 1.
Пример 2.
dx x − y
Полагая z=x-y, получим: dz/dx = 1 - dy/dx; 1 - dz/dx = 1 + 1/z;
dz/dx = -1/z; zdz = -dx; z2 = -2x + C; (x-y)2 = -2x + C.
∫
26.3.2. Уравнения вида dy/dx=f(y/x)
Сделаем подстановку z=y/x или y=zx. Тогда y’=xz’+z; xz’+z=f(z);
dz
dx
=
f ( z) − z x
Интегрируя, получаем:
dz
= ln | x | + ln C
f ( z) − z
или

dz 

x = C ⋅ exp
 f ( z) − z 
Пример 3. dy/dx = (y/x) + tg(y/x).
Полагая y=zx, получим: dy/dx=x(dz/dx)+z; x(dz/dx) + z = z + tg z;
cos(z)dz/sin(z) = dx/x; ln|sin(z)| = ln|x| + ln C; sin(z) = Cx; sin(y/x) = Cx.
∫
∫
Пример 4. (x+y)dx - (y-x)dy = 0.
Полагая y=xz, получим: dy = xdz + zdx или
(x+xz)dx + (xz-x)(xdz+zdx) = 0;
(1+2z-z2)dx + x(1-z)dz = 0; (1-z)dz/(1+2z-z2) + dx/x = 0.
Интегрируя, получим:
(1/2)ln|1+2z-z2| + ln|x| = (1/2)lnC или x2(1+2z-z2) = C; x2 + 2xy - y2 = C.
131
 a x + b1 y + c1 
dy

= f  1
dx
 a2 x + b2 y + c2 
Они преобразуются в уравнения, рассмотренные в пункте 18.3.2 путем переноса начала координат в точку пересечения (x1,y1) прямых
a1x+b1y+c1=0 и a2x+b2y+c2=0.
(1)
Действительно, свободный член в уравнениях этих прямых в новых
координатах X=x-x1, Y=y-y1, будет равен нулю; коэффициенты при текущих координатах остаются неизменными, а dy/dx = dY/dX, так что получим:
 a X + b1Y 
dY

= f  1
dX
a
X
+
b
Y
 2
2 
или
26.3.3. Уравнения вида
Y 

a1 + b1 

dY
X ,
= f
dX
a +b Y 
 2

2

X
что уже рассмотрено.
В случае параллельности прямых (1), коэффициенты при текущих
координатах пропорциональны, т.е. a1/a2 = b1/b2 = k.
Тогда можно записать:
dy
= F ( a1 x + b1 y ) ,
dx
т.е. имеем уравнение, рассмотренное в п.3.1.
Пример 5. dy/dx = (x-y+1)/(x+y-3).
Решая систему уавнений x-y+1=0 и x+y-3=0, получим, что x1=1, y1=2. Полагая x=X+1, y=Y+2, будем иметь дифференциальное уравнение dY/dX=(XY)/(X+Y).
Замена переменных z=Y/X или Y=zX дает: z+X(dz/dX)=(1-z)/(1+z);
(1+z)dz/(1-2z-z2)=dX/X.
Интегрируя, получаем: (-1/2)ln|1-2z-z2| = ln|X| -(1/2)lnC;
(1-2z-z2)X2 = C; X2-2XY-Y2=C. Окончательно:
x2 - 2xy - y2 + 2x + 6y = C1.
132
27. Линейные уравнения первого порядка
27.1. Линейные уравнения первого порядка
Определение 1. Линейным дифференциальным уравнением первого
порядка называется уравнение, линейное относительно неизвестной
функции и ее производной. Оно имеет вид
y' + p(x)y = f(x)
(1)
Функции p(x) и f(x) в дальнейшем будем считать непрерывными
функциями x в той области, в которой требуется проинтегрировать уравнение (1).
Определение 2. Уравнение (1) называется линейным однородным,
если f(x)=0.
В однородном линейном уравнении переменные разделяются:
dy/dx + p(x)y = 0
Отсюда: dy/y = -p(x)dx.
Интегрируя, получаем: ln | y |= − p ( x ) dx + ln C1 .
∫
Отсюда
( ∫ p( x )dx )
y = C exp −
(2)
При делении на y мы потеряли решение y=0, однако оно может быть
восстановлено в семействе решений (2), если считать, что C может принимать значение 0.
Для интегрирования неоднородного линейного уравнения (1) может
быть применен метод вариации постоянной. Применение этого метода заключается в следующем: сначала интегрируется соответствующее однородное уравнение, общее решение которого определяется формулой (2).
Полагая теперь, что C=C(x), т.е. допуская, что общее решение уравнения (1) может быть представлено в виде (2), где C - некоторая функция,
получим:
( ∫ p( x )dx )− C ( x ) p( x ) exp (− ∫ p( x )dx )
y ' = C ' ( x ) exp −
Подставляя в (1), получим:
(∫
)
(∫
)
C' ( x ) exp − p( x )dx − C ( x ) p( x ) exp − p( x )dx +
(∫
)
+ C ( x ) p( x ) exp − p( x )dx = f ( x )
или
(∫
dC
= f ( x) exp p( x)dx
dx
)
133
Таким образом C ( x ) =
∫ f ( x ) exp (∫ p ( x )dx ))dx + C
1
Общее решение уравнения (1) отсюда получается следующим:
( ∫ p( x )dx )+ exp (− ∫ p( x )dx )⋅ ∫ f ( x) exp (∫ p( x)dx )
y ( x ) = C1 exp −
В принципе путь решения может быть несколько проще: если известно полное решение однородного уравнения y0(x) и любое частное решение неоднородного y1(x), то общее решение неоднородного уравнения
есть сумма частного решения неоднородного уравнения и полного решения однородного, т.е. y(x) = y1 (x) + y0(x).
Пример 1. Решить уравнение dy/dx - y/x = x2.
Интегрируем соответствующее однородное уравнение: dy/dx - y/x =
0; dy/y = dx/x; y = Cx.
Считаем C=C(x), тогда y = xC(x), y'=C'x+C.
Подставим в уравнение и получим:
(dC/dx)x = x2, dC = xdx, C(x) = x2/2 + C1.
Общее решение равно y(x) = C1x + x3/2.
Пример 2. dy/dx -yctg(x) = 2xsin(x).
Интегрируем однородное уравнение:
dy/dx - yctg(x) = 0; dy/y = cos(x)dx/sin(x); y = Csin(x)
Варьируем постоянную: y = C(x)sin(x). y'=C'sin(x)+Ccos(x)
Подставив в исходное уравнение, получим: C'(x)=2x; C(x) = x2 + C1.
Таким образом, y(x) = x2sin(x) + C1sin(x).
27.2. Уравнение Бернулли
Уравнение Бернулли имеет вид
y '+ p ( x ) y = f ( x ) y n
(3)
или
dy
+ p( x) y1−n = f ( x)
(3')
dx
Произведем замену переменных y1-n=z, тогда z'= (1-n)y-n y'.
Подставляя в (3'), получим
1 dz
+ p( x ) z = f ( x ) ,
1 − n dx
т.е. уравнение Бернулли сведено к линейному уравнению.
Пример 3. dy/dx = y/(2x) + x2/y.
Преобразуем уравнение: 2ydy/dx = y2/(2x) + x2.
Положим z=y2, z'=2yy', а исходное уравнение станет следующим:
z'=z/x+x2, т.е. оно свелось к уравнению, рассмотренном в примере 1.
y −n
134
27.3. Уравнение Рикатти
Уравнение Рикатти имеет вид y' + p(x)y + q(x)y2 = f(x)
В общем виде оно не интегрируется в квадратурах, но может быть
преобразовано в уравнение Бернулли, если известно одно частное решение
этого уравнения y1(x).
Положим y=y1+z, тогда y1' + z '+ p ( x )( y1 + z ) + q ( x )( y1 + z ) 2 = f ( x ) ,
или, учитывая, что y1' + p ( x ) y1 + q ( x ) y1 2 = f ( x ) , получим
z '+ ( p ( x ) + 2 q ( x ) y 1 ) z + q ( x ) y 1 = f ( x )
2
Пример 4. dy/dx = y2 - 2/x2.
Одно частное решение можно найти достаточно легко: y1 = 1/x. Полагая y=z+1/x, получим: y'=z'-1/x2; z'-1/x2=(z+1/x)2-2/x2; z'= z2+2z/x.
Последнее уравнение является уравнением Бернулли.
27.4. Уравнения в полных дифференциалах
Рассмотрим диференциальное уравнение
M(x,y)dx + N(x,y)dy = 0
(4)
Иногда левая часть этого уравнения может быть полным дифференциалом некоторой функции двух переменных U(x,y):
dU(x,y) = M(x,y)dx + N(x,y)dy
Следовательно, уравнение (4) принимает вид
dU(x,y) = 0
Тогда решение уравнения (4) есть U(x,y) = C
Для того, чтобы левая часть уравнения (4) была полным дифференциалом, необходимо и достаточно, чтобы
M y ' ( x , y ) = N x ' ( x , y ) (условие Эйлера).
Если это условие выполнено, то
dU = Ux'dx + Uy'dy = M(x,y)dx + N(x,y)dy.
Отсюда, U x ' ( x , y ) = M ( x , y ); U ( x , y ) = M ( x , y )dx + C ( y ) .
∫
(При вычислении интеграла величина y рассматривается как константа, поэтому C(y) является произвольной функцией y).
Для определения функции C(y) дифференцируем найденную функцию U(x,y) по y, учитывая, что Uy'(x,y) = N(x,y):
U y '( x, y) = N ( x, y) =
M ( x , y ) dx + C ( y ) '
(∫
)
y
Из этого уравнения определяем C'(y). Интегрируя, найдем C(y) и,
следовательно, U(x,y).
Пример 5. (x+y+1)dx + (x-y2+3)dy = 0.
Левая часть уравнения является полным дифференциалом, т.к.
(x+y+1)y'=(x-y2+3)x'=1. Имеем: Ux'(x,y) = x+y+1; U(x,y) = x2/2+xy+x+C(y).
135
Uy'(x,y) = x+C'(y) = x-y2+3.
Отсюда, C'(y) = 3-y2; C(y) = 3y-y3/3+C1.
Таким образом, общий интеграл имеет вид: x2/2+xy+x+3y-y3/3+C1= 0.
В некоторых случаях уравнение (9) удается привести к уравнению в
полных дифференциалах, подобрав множитель µ(x,y) такой, что после
умножения на него левая часть уравнения (9) становится полными дифференциалом: dU(x,y) = [µ(x,y)M(x,y)]dx + [µ(x,y)N(x,y)]dy.
Такая функция µ(x,y) называется интегрирующим множителем.
Необходимо заметить, что умножение на µ может привести к лишним решениям, обращающим этот множитель в ноль.
Пример 6. xdx+ydy+(x2+y2)x2dx = 0.
Умножим на µ=1/(x2+y2). Тогда левая часть уравнения превратится
xdx + ydy
в полный дифференциал: 2
+ x 2 dx = 0 .
2
x +y
Интегрируя, получим: (1/2)ln(x2+y2) + x3/3 = lnC1. Умножая на два и
потенцируя, имеем: (x2+y2)exp(2x3/3) = C.
Замечание: во многих случаях этот множитель не всегда удается подобрать так легко. В общем случае, задача нахождения интегрирующего
множителя сводится к решению дифференциального уравнения в частных
производных, которое, как правило, имеет более трудоемкое решение.
27.5. Замена переменных
Иногда уравнение типа (9) может легко быть решено при переходе в
другую систему координат. Рассмотрим это на примере. Пусть уравнение
имеет вид:
( x − y )dx + ( x + y )dy
=0
x2 + y2
Сделаем замену переменных:
x = rcosϕ; y = rsinϕ
Тогда dx = cosϕdr - rsinϕdϕ; dy = sinϕdr + rcosϕdϕ. Подставим в уравнение:
r(cosϕ-sinϕ)(cosϕdr-rsinϕdϕ)+r(cosϕ+sinϕ)(sinϕdr+rcosϕdϕ)/r2 = 0
Раскроем скобки:
(1/r)[cos2ϕdr - cosϕsinϕdϕ - cosϕsinϕdr + sin2ϕdϕ +
+ cosϕsinϕdr + cos2ϕdϕ + sin2ϕdr + cosϕsinϕdϕ] = 0
Отсюда получаем:
dr + dϕ = 0; r + ϕ = C.
Возвращаясь к старым переменным, получаем:
y
x 2 + y 2 + arctg = C .
x
136
28. Теоремы существования и единственности решения уравнения
28.1. Ломаная Эйлера
Пусть дана задача Коши: найти решение дифференциального уравнения y'=f(x,y) при условии, что y(x0)=y0.
Пусть решение ищестся на отрезке [a=x0, b]. Разделим отрезок на n
равных частей точками x0=a, x1, ..., xn=b. Ширину каждого интервала обозначим через h=xi-1 - xi; xi = x0 + i*h.
Обозначими значения функции в каждой точке через yi=y(xi). На
каждом интервале заменим искомую функцию отрезком касательной в
начальной точке интервала. Тогда получим:
y'(x0)=f(x0,y0);
y1=y0+hy'(x0); y'(x1)=f(x1,y1);
y2=y1+hy'(x1); y'(x2)=f(x2,y2);
…………….............................................;
yi=yi-1+hy'(xi); y'(xi)=f(xi,yi);
…………….............................................
При стремлении h к нулю следует ожидать, что полученная ломаная
(ломаная Эйлера) неограниченно приближается к графику искомой интегральной кривой. Доказательство этого утверждения одновременно приведет нас к доказательству фундаментальной теоремы о существовании и
единственности решения данной задачи Коши.
Теорема 1. (Теорема о существовании и единствености решения задачи Коши).
Если в уравнении
y' = f(x,y)
(1)
функция f(x,y) непрерывна в прямоугольнике D:
D: x0-a≤x≤x0+a; y0-b≤y≤y0+b
и удовлетворяет в D условию Липшица:
|f(x,y1)-f(x,y2)|≤N|y1-y2|,
где N - постоянная, то существует единственное решение y=F(x) на интервале x0-H≤x≤x0+H уравнения (1), удовлетворяющее условию y(x0)=y0, где
H = max(a; b/M; 1/N), M = maxf(x,y) в D.
Теорема 2 (о непрерывной зависимости решения от параметра и от
начальных условий).
Если правая часть дифференциального уравнения y'=f(x,y,m) ( 5.3 )
непрерывна по m при m0≤m≤m1 и удовлетворяет условиям теоремы существования и единственности, причем постоянная Липшица не зависит от m,
то решение y=F(x,m) рассматриваемого уравнения, удовлетворяющее
условию y(x0)=y0, непрерывно зависит от m.
137
Теорема 3 (о дифференцируемости решения).
Если в окрестности точки (x0,y0) функция f(x,y) имеет непрерывные
производные до k-го порядка включительно, то решение y=F(x) уравнения
(1), удовлетворяющее начальному условию y(x0)=y0, в некоторой окрестности точки (x0,y0) имеет непрерывные производные до (k+1)-го порядка
включительно.
28.2. Особые точки
Определение 1. Точки (x0,y0), в окрестности которых решение уравнения (1), удовлетворяющее условию y(x0)=y0, не существует или решение
существует, но не единственно, называются особыми точками.
Определение 2. Кривая, состоящая сплошь из особых точек уравнения (1), называется особой.
Определение 3. Если график некоторого решения уравнения (1)
сплошь состоит из особых точек, то такое решение называется особым.
Для нахождения особых точек или кривых необходимо, прежде всего, найти множество точек, в которых нарушены условия теоремы о существовании и единствености решения, т.к. только среди них могут быть
особые.
Пример 1. Рассмотрим уравнение y'=2y/x.
Правые части данного уравнения и уравнения x'=x/2y разрывны в
точке x=0, y=0. Интегрируя уравнение y'=2y/x, получим y=Cx2 - семейство
парабол и y=0, а интегрируя уравнение x'=x/2y - еще и x=0 (см. рис. 1). В
начале координат имеется особая точка, именуемая узлом.
Пример 2. y'= - y/x.
Правые части данного уравнения и уравнения x'=-x/y разрывны в
точке x=0, y=0. Интегрируя, получим: y=C/x - семейство гипербол и y=0.
Интегрируя уравнение x'=-x/y получим еще и решение x=0. В начале координат - особая точка, именуемая седлом (см.рис.2).
Пример 3. y'=(x+y)/(x-y).
Правые части данного уравнения и уравнения x'=(x-y)/(x+y) разрывны в точке x=0, y=0.
Интегрируя исходное уравнение, получим:
y
x 2 + y 2 = C arctg ,
x
или, в полярных координатах, r=Cϕ - логарифмическая спираль.
Особая точка в начале координат - фокус (см.рис. 3.).
Пример 4. dy/dx = - x/y.
Правые части данного уравнения и уравнения x'=-y/x разрывны в
точке x=0, y=0.
138
Интегрируя, получаем: x2+y2=C - семейство окружностей с центром в
начале координат. Особая точка такого рода, т.е. особая точка, окрестность
которой заполнена семейством замкнутых интегральных кривых, называется центром (см.рис.4)
Здесь мы рассматривали нарушение первого условия теоремы существования и единственности. Рассмотрим случай нарушения второго условия - условия Липшица, которое требует существования ограниченной
частной производной fx'(x,y). Это условие чаще всего нарушается в точках,
в которых
1
(2)
=0
f x ' ( x, y )
Уравнение (2) в общем случае определяет некоторую кривую, в точках которой может быть нарушена единственность. Если единственность
нарушена, то кривая является особой, если же эта кривая окажется еще и
интегральной, то это - особое решение.
139
Возможно наличие нескольких ветвей указанного уравнения. Необходимо исследовать все.
Пример 5. Имеет ли уравнение y' = 3 ( y − x ) 2 + 1 особое решение?
Уравнение (2) дает y=x, а функция y=x удовлетворяет исходному
дифференциальному уравнению. Остается выяснить, нарушена ли единственность в точках этой кривой.
Заменой переменных z=x-y приводим исходное уравнение к уравнению с разделяющимися переменными, после чего находим решение:
y-x = (x-C)3/27.
(3)
Кривые семейства (3) проходят через точки графика решения y=x.
Следовательно, в каждой точке прямой y=x единственность нарушена и
функция y=x является особым решением.
Этот пример показывает, что одной непрерывности правой части
уравнения (1) недостаточно для единственности решения.
140
29. Линейные дифференциальные уравнения
рядка
n-го по-
Определение 1. Линейным дифференциальным уравнением n-го порядка называется уравнение, линейное относительно неизвестной функции
и ее производных, т.е. имеющее вид
a 0 ( x ) y ( n ) + a1 ( x ) y ( n −1) + a 2 ( x ) y ( n − 2 ) + ... + a n −1 ( x ) y '+ a n ( x ) y = ϕ ( x )
или
n
∑ a ( x) y
( n− j )
= ϕ( x) .
j
j =0
Если правая часть уравнения тождественно равна нулю, то уравнение называется линейным однородным, т.к. оно однородно относительно
неизвестной функции y и ее производных. Если коэффициент a0(x) не обращается в ноль ни в одной точке некоторого отрезка [a,b], то, разделив на
a0(x), приведем однородное линейное уравнение на этом отрезке к виду:
y(n) + p1(x)y(n-1) + ... + pn(x)y = 0
(1)
или
y
(n)
n
∑ p ( x) y
=−
( n− j )
j
j =1
Если коэффициенты pj(x) непрерывны на отрезке x∈[a,b], то в
окрестности любых начальных значений при x0∈[a,b] удовлетворяются
условия теоремы существования и единственности.
Заметим, что линейность и однородность уравнения сохраняется при
любом преобразовании независимого переменного x=ϕ(t), где ϕ(t) - произвольная n раз дифференцируемая функция, причем ϕ'(t)≠0 на рассматриваемом интервале изменения параметра t.
Линейность и однородность сохраняется также при линейном однородном преобразовании неизвестной функции y(x)=α(x)z(x), где z(x) - новая
неизвестная функция.
Запишем линейное однородное уравнение (1) кратко в виде
L[y] = 0
(2 )
где
L[y] = y
( n)
+
n
∑ p ( x) y
( n− j )
(3)
j
j =1
Определение 2. Выражение (3) называется линейным дифференциальным опрератором.
Линейный дифференциальный оператор обладает следующими свойствами:
141
1) Постоянный множитель выносится за знак дифференциального
оператора:
L[Cy] = CL[y];
2) Линейный дифференциальный оператор, примененный к сумме
двух функций y1 и y2, равен сумме двух результатов применения того же
оператора к каждой функции в отдельности: L[y1+y2] = L[y1] + L[y2].
Теорема 1. Если y1 является решением линейного дифференциального уравнения L[y]=0, то и Cy1, где C - произвольная постоянная, является
решением того же уравнения.
Теорема 2. Сумма y1+y2 решений y1 и y2 линейного однородного
уравнения L[y]=0 является решением того же уравнения.
Следствие: Линейная комбинация с произвольными постоянными
m
коэффициентами
∑C y
j
j
решений y1,...,ym линейного однородного уравне-
j =1
ния L[y]=0 является решением того же уравнения.
Теорема 3. Если линейное однородное уравнение L[y]=0 с действительными коэффициентами pj(x) имеет комплексное решение y=u(x)+iϕ(x),
где i - мнимая единица, то и действительная и мнимая его части в отдельности также являются решениями исходного уравнения.
Определение 3. Функции y1(x), y2(x), ..., yn(x) называются динейно зависимыми на некотором интервале [a,b], если существуют постоянные величины α1, α2, ..., αn такие, что на том же отрезке α1y1 + α2y2 + ... + αnyn = 0,
причем хотя бы одно из чисел αj≠0.
Если же написанное тождество справедливо лишь при
α1=α2=...=αn=0, то функции y1, y2,..., yn называются линейно независимыми.
Пример 1. Функции 1, x2, x3,..., xn линейно независимы на любом отрезке [a,b], т.к. тождество α1+α2x+α3x2+...+αn+1xn=0 возможно лишь, если
все числа αj равны нулю.
Если хотя бы одно из них отлично от нуля, то в левой части тождества стоял бы многочлен степени не выше n, который может иметь не более n корней и, следователдьно, обращается в нуль не более, чем в n точках
рассматриваемого отрезка.
Пример 2. Функции exp[kjx], j=1...n, где ki≠kj при i≠j, линейно независимы на любом отрезке [a,b].
Допустим, что рассматриваемые функции линейно зависимы. Тогда
n
справедливо тождество
∑α
j
exp(k j x) = 0 ,где хотя бы одно αj≠0, напри-
j =1
мер, αn≠0. Разделим тождество на exp(k1x) и продифференцируем, тогда
α2(k2-k1)exp[(k2-k1)x]+...+αn(kn-k1)exp[(kn-k1)x] = 0.
Деля полученное выражение на exp[(k2-k1)x] и дифференцируя, получим линейную зависимость между (n-2) показательными функциями. Продолжая этот процесс (n-1) раз, получим:
142
αn(k2-k1)(k3-k2)...(kn-kn-1)exp[(kn-kn-1)x] = 0.
Последнее невозможно, т.к. αn по предположению не равно нулю, а
ki≠kj при i≠j.
Теорема 3. Если функции y1, y2,..., yn линейно зависимы на отрезке
[a,b], то на этом отрезке определитель
y1,
y2
...
yn
y1 '
y 2 ' ... y n '
W ( y1 ,..., y n ) = y1 ' '
y 2 ' ' ... y n ' ' ,
...
...
( n −1)
1
( n −1)
2
...
...
( n −1)
n
y
y
... y
называемый определителем Вронского или вронскианом, тождественно
равен нулю.
Доказательство. Дано, что α1y1 + α2y2 + ... + αnyn = 0 на отрезке [a,b],
причем не все αi=0. Дифференцируя это тождество (n-1) раз, получим:
α1y1
+ α2y2 +...+ αnyn = 0;
α1y'1 + α2y'2 +...+ αny'n = 0;
α1y''1 + α2y''2 +...+ αny''n = 0;
...............................................
α1y1(n-1) + α2y2(n-1) + ...+ αnyn(n-1) = 0.
В результате имеем однородную линейную систему относительно
параметров αi. Т.к. по допущению имеем нетривиальное решение (не все α
равны нулю), то определитель системы, являющийся опрелителем Вронского, равен нулю.
Теорема 4. Если линейно независимые функции y1, y2, ..., yn являются
решениями однородного линейного уравнения (3) с непрерывными на [a,b]
коэффициентами pi(x), то определитель Вронского W[y1,y2,...,yn] не может
обратиться в нуль ни в одной точке отрезка [a,b].
Теорема 5. Общим решением на [a,b] однородного линейного уравнения (1) с непрерывными коэффициентами pi(x), является линейная комбинация
y=
n
∑C y
i
(4)
i
i =1
линейно независимых на том же отрезке частных решений yi, i=1...n с произвольными коэффициентами.
Доказательство. Данное уравнение на отрезке [a,b] удовлетворяет
условиям теоремы существования и единственности. Поэтому решение (4)
будет общим, если окажется возможным подобрать произвольные постоянные Ci так, чтобы удовлетворить произвольно заданным начальным
условиям:
(5)
y(x0)=A1; y'(x0)=A2; ...; y(n-1)(x0)=An.
143
Подставив общее решение (4) в начальные условия (5), получим систему из n линейных уравнений относительно Ci:
n

C i y i ( x0 ) = A1 
i =1

n

C i y i' ( x 0 ) = A2 

i =1
........................... 

n

C i y i( n −1) ( x0 ) = An 
i =1

В системе n неизвестных и n уравнений. Главный определитель системы есть определитель Вронского W(y1,...,yn) для n линейно независимых
решений. Следовательно, он не обращается в ноль, и система всегда имеет
решение, какова бы ни была правая часть (начальные условия).
Следствие. Максимальное число линейно независимых решений однородного линейного уравнения (1) равно его порядку.
Применение. Зная одно нетривиальное решение y1 однородного линейного уравнения (1), можно подстановкой
(6)
y = y1 udx
∑
∑
∑
∫
понизить порядок уравнения, сохранив его линейность и однородность.
Пример 3. xy''-xy'+y=0. Уравнение имеет очевидное частное решение
y=x. Понизим порядок подстановкой (6):
y = x udx ; y ' = udx + xu ; y ' ' = xu '+ 2u .
∫
∫
Отсюда:
x2u'+(2-x)xu=0; du/u=(x-2)dx/x; u=C1exp(x)/x2.
exp( x )


y = x udx = x C1
dx + C 2  .
2
x


Лемма 1. Два уравнения вида
y(n) + p1(x)y(n-1) + ... + pn(x)y = 0 и y(n) + q1(x)y(n-1) + ... + qn(x)y = 0, где
функции pi и qi непрерывны на отрезке [a,b], имеющие общую фундаментальную систему решений y1, y2, ..., yn, совпадают, т.е. pi(x)=qi(x) ∀i на
отрезке [a,b].
∫
∫
144
30. Линейные однородные уравнения с постоянными коэффициентами и уравнения Эйлера
30.1. Однородные линейные уравнения с постоянными коэффициентами
Рассмотрим линейное однородное уравнение с постоянными действительными коэффициентами:
a0y(n) + a1y(n-1) + ... + any = 0
(1)
Частное решение уравнени (1) попытаемся искать в виде y=exp(kx),
где k - неизвестная постоянная. Имеем:
y'=kexp(kx)=ky; y''=k(ky)=k2y; ... ; y(i) = kiy; ... ; y(n) = kny.
Подставим полученные результаты в исходное уравнение и получим:
y(a0kn + a1kn-1 + ... + an) = 0.
Сокращая на общий множитель y=exp(x), который нигде не обращается в нуль, получим:
(2)
a0kn + a1kn-1 + ... + an = 0
Определение 1. Алгебраическое уравнение (2) называется характеристическим уравнением дифференциального уравнения (1).
Характеристическое уравнение определяет те значения параметра k,
при которых функция y=exp(kx) является решением уравнения (1). Если
все корни характеристического уравнения ki, i=1...n различны, то, тем самым, найдено n линейно независимых решений exp(kix), i=1...n. Следовательно, общее решение уравнения (1) имеет вид:
y=
n
∑ C exp(k x) .
i
(3)
i
i =1
Здесь Ci - произвольные постоянные (константы интегрирования).
Описанный метод был впервые применен Л.Эйлером.
Пример 1. y''-3y'+2y=0.
Характеристическое уравнение имеет вид: k2-3k+2=0. Его корни:
k1=1, k2=2. Таким образом, общее решение есть y=C1exp(x)+C2exp(2x).
Пример 2. y'''-y'=0. Характеристическое уравнение имеет вид k3-k=0.
Его корни: k1 = 0, k2 = 1, k3 = -1. Общее решение данного дифференциального уравнения есть y=C1+C2exp(x)+C3exp(-x).
Примечание. Т.к. мы предполагали, что коэффициенты дифференциального уравнения являются действительными числами, то комплексные
корни могут появляться только комплексно-сопряженными парами:
k1 = α + βi; k2 = α - βi.
Комплексные решения, соответствующие этим корням, могут быть
заменены на два действительных решения, сответствующие действительной и мнимой частям одного из решений:
145
exp[(α + βi ) x] = exp(αx)[cos(βx) + i sin(βx)]
(4)

exp[(α − βi ) x] = exp(αx)[cos(βx ) − i sin(βx )]
Таким образом, паре комплексно-сопряженных корней соответствует два действительных решения:
exp(αx)cos(βx); exp(αx)sin(βx).
Пример 3. y''+4y'+5y=0.
Характеристическое уравнение имеет вид: k2+4k+5=0.
Его решение: k1 = -2+i, k2 = -2-i.
Решение дифференциального уравнения имеет вид y=C1y1+C2y2, где
y1=exp(-2x)cos(x), y2=exp(-2x)sin(x).
30.2. Случай кратных корней характеристического уравнения
Пусть среди корней характеристического уравнения (2) имеются
кратные, тогда набор чисел ki содержит меньшее, чем n количество разных
чисел. Отсюда вытекает утверждение, что множество решений вида
yi=exp(kix) не является полным.
Доказано следующее утверждение:
Пусть k=ki - корень характеристического уравнения (2) кратности m.
Тогда этому корню соответствует m линейно независимых решений вида:
y1=exp(kx), y2=xexp(kx), y3=x2exp(kx), ..., ym=xm-1exp(kx).
(5)
Пример 4. y'''-3y''+3y'-y=0.
Характеристическое уравнение имеет вид k3-3k2+3k-1=0 или
(k-1)3=0. Имеем один корень k=1 кратности 3. Следовательно, общее решение дифференциального уравнения имеет вид y = C1y1 + C2y2 + C3y3, где
y1=exp(x); y2=xexp(x); y3=x2exp(x). Окончательно получаем:
y = (C1 + C2x + C3x2)exp(x).
Пусть теперь характеристическое уравнение имеет комплексный корень k=p+qi кратности m. Тогда ему будут соответствовать 2m решений:
e px cos(qx), x e px cos(qx), x 2 e px cos(qx), ..., x m−1 e px cos(qx)
 (6)
e px sin(qx), x e px sin(qx), x 2 e px sin(qx), ..., x m−1 e px sin(qx) 
Пример 5. y''''+2y''+y=0.
Характеристическое уравнение имеет вид k4+2k2+1=0, (k2+1)2=0.
Его решение: k1 = k2 = i; k3 = k4 = -i.
Следовательно, решение имеет вид: y=(C1+C2x)cos(x)+(C3+C4x)sin(x)
146
30.3. Уравнения Эйлера
Определение 2. Уравнение вида
a0xny(n) + a1xn-1y(n-1) + ... + any = 0,
(7)
где все ai - постоянные, называется уравнением Эйлера.
Уравнение (7) заменой x=exp(t), x>0, преобразуется в линейное однородное уравнение с постоянными коэффициентами. Решение этого
уравнения следует искать в виде y=xk, где k - неизвестная постоянная.
Подставим эту замену в (7), сократим на xk и получим:
a0k(k-1)(k-2)...(k-n+1) + a1k(k-1)...(k-n+2) + ... +
(8)
+ aik(k-1)...(k-i+1) + ... + an = 0
Уравнение (8)
является
характеристическим уравнением для
уравнения Эйлера. Оно совпадает с характеристическим уравнением для
ДУ (дифференциального уравнения), полученного из исходного заменой
x=exp(t). Для каждого действительного корня кратности m получим следующий набор решений: exp(kt), texp(kt),..., tm-1exp(kt). Переходя к исходной переменной, получим набор решений:
(9)
xk , xkln(x), xkln2(x), ..., xklnm-1(x).
Для кратных комплексно-сопряженных корней k=p+qi получим
набор решений:
x p cos(q ln x); x p ln( x) cos(q ln x); ...; x p ln m−1 ( x) cos(q ln x)
 (10)
x p sin(q ln x); x p ln( x) sin(q ln x); ...; x p ln m−1 ( x) sin(q ln x) 
Пример 6. x2y''+(5/2)xy'-y=0.
Ищем решение в виде y=xk, тогда получим: k(k-1)+(5/2)k-1=0, k1=1/2,
k2 = -2. Следовательно, при x>0 решение имеет вид y = C1x1/2 + Cx-2 .
Пример 7. x2y''-xy'+y=0.
Характеристическое уравнение имеет вид: k(k-1)-k+1=0, (k-1)2=0.
Таким образом, общее решение имеет вид: y=[(C1+C2ln(x)]x
147
31. Линейные неоднородные уравнения
31.1. Общие сведения.
Определение 1. Уравнение вида
L[y] = f(x)
(1)
называется линейным неоднородным уравнением.
Если все коэффициенты pi(x) при i-х производных непрерывны на
отрезке [a,b], то уравнение (1) имеет единственное решение, удовлетворяющее начальным условиям
y(i)(x0) = y0(i) , i=1...n,
(2)
(i)
где y0 - любые действительные числа, а x0∈ [a,b].
Из двух основных свойств линейного оператора непосредственно следует:
1) Сумма y*+y1 решения y* неоднородного уравнения L[y]=f(x) и
решения y1 соответствующего однородного уравнения L[y]=0 является решением неоднородного уравнения: L[y*+y1]=L[y*]+L[y1]=f(x)+0=f(x).
2) Если yi является решением уравнения
L[y]=fi(x), i=1...m,
то функция
y=
m
∑α y
i
i
i =1
является решением уравнения
L[ y ] =
m
∑ α f ( x)
i
i
i =1
где αi - постоянные.
Доказательство очевидно.
Свойство 2) называется свойством суперпозиции или наложения.
3) Если уравнение
L[y] = U(x) + iV(x),
где все коэффициенты pi(x) и функции U(x), V(x) действительны, имеет
решение
y = u(x) + iv(x),
(3)
т.е действительная u(x) и мнимая части v(x) функции (3) являются соответственно решениями уравнений
L[y] = U(x); L[y] = V(x)
Это следует из следующей цепочки:
L[u+iv] = L[u]+iL[v] = U + iV ==> L[u] = U, L[v] = V.
Теорема 1. Общее решение на отрезке [a,b] уравнения (1) с непрерывными на том же отрезке коэффициентами pi(x) и правой частью f(x)
равно сумме общего решения y1 соответствующего решения однородного
148
уравнения и какого-нибудь частного решения y* неоднородного уравнения.
Пример 1. y''+y=x.
Частное решение можно легко найти: y*=x.
Общее
решение
однородного
уравнения
имеет
вид:
y1=C1cos(x)+C2sin(x).
Общее
решение
неоднородного
уравнения
равно
y=y1+y*=C1cos(x)+C2sin(x)+x.
31.2. Метод вариации постоянных
Если подбор частного решения неоднородного уравнения труден, но
общее решение однородного уравнения найдено, то можно проинтегрировать линейное неоднородное уравнение методом вариации постоянных. Он
заключается в следующем.
Пусть y=C1y1+...+Cnyn - общее решение однородного уравнения. Положим Ci=Ci(x) - некоторые неизвестные функции, т.е. заменим константы
на новые функции. Тогда получим:
n

C i' y i = 0

i =1

n

C i' y i' = 0

i =1

n


C i' y i''' = 0
(4)

i =1


.......... .........

n

C i' y i( n −1) = f ( x )
i =1


Пример 2. y''+y=1/cos(x).
Общее решение однородного уравнения есть y=C1cos(x)+C2sin(x).
Варьируем C1 и C2:
C1'cos(x) + C2'sin(x) = 0;
-C1'sin(x) + C2'cos(x) = 1/cos(x).
Умножим первое уравнение на sin(x), а второе - на cos(x) и сложим:
C2'=1. Отсюда, подставляя в первое уравнение, получим: C1' = sin(x)/cos(x).
Интегрируя, получим: C2 = x + B; C1 = ln|cos(x)| + A.
Общее решение, таким образом, следующее:
y = cos(x)ln|cos(x)| + xsin(x) + Acos(x) + Bsin(x)
∑
∑
∑
∑
149
31.3. Линейные неоднородные уравнения с постоянными
коэффициентами
Если правая часть неоднородного уравнения является многочленом
степени s, т.е.
a0y(n) + a1y(n-1) + ... + any = A0xs +...+As-1x + As
(5)
и an≠0, то существует частное решение уравнения (5) в виде полинома
степени s:
y* =
s
∑B x
s −i
i
i =0
Если уравнение (11) имеет нулевые последние коэффициенты левой
части, т.е. an=an-1=...=an-m+1, то характеристическое уравнение имеет корень k=0 кратности m, и частное решение следует искать в виде
y* = x
s
m
∑B x
s −i
i
i =0
Пример 3. y''+y=x2+x.
Частное решение ищем в виде: y*=B0x2+B1x+B2. Подставим его в
уравнение: 2B0 + B0x2 + B1x + B2 = x2 + x или B0 = 1; B1 = 1; 2B0 + B2 = 0.
Отсюда B0=1, B1=1, B2= -2.
Общее решение: y = C1cos(x) + C2sin(x) + x2 + x - 2.
Пример 4. y''+y'=x-2.
Частное решение ищем в виде: y*=x(B0x+B1). Тогда:
2B0 + 2B0x + B1 = x- 2.
Отсюда B0=1/2, B1=-3.
Общее решение: y = C1 + C2exp(-x) + x(x/2-3).
Если правая часть линейного дифференциального уравнения с постоянными коэффициентами имеет вид
f(x)=epx(A0xs +...+As-1x+As)
то, если p не является корнем характеристического уравнения, частное
решение следует искать в том же виде:
y*= epx(B0xs +...+Bs-1x+Bs)
Если же p является корнем характеристического уравнения кратности m (этот случай называется особым или резонансным), то частное решение ищется в виде
y*= xmepx(B0xs +...+Bs-1x+Bs)
Пример 4. y''-y=exp(x)(x2-1). y*=xexp(x)(B0x2+B1x+B2), т.к. k=1 - корень характеристического уравнения.
150
ЧАСТЬ 7. РЯДЫ
32. Числовые ряды
32.1. Основные понятия и определения
Определение 1. Рассмотрим последовательность
составим формальную сумму
чисел
∞
{an} и
(1)
∑ an
n=1
Эту сумму называют рядом, а числа an называют членами ряда.
Определение 2. Пусть задан ряд (1). Составим последовательность
n 

S
=
ai 
∑
 n
i =1 

(2)
Последовательность (2) называется последовательностью частных
сумм.
Определение 3. Ряд (1) называется сходящимся, если последовательность (2) его частных сумм сходится. При этом предел
(3)
lim S n
n →∞
называется суммой ряда и обозначается также символом
∞
S = ∑ an
(4)
n =1
Если предел (3) не существует, то ряд (1) называется расходящимся.
Пример 1. Ряд
∞
∑
n=1
2
расходится.
n
Имеем: S n > n = n ⇒ ряд расходится.
n
Теорема 1. (Критерий Коши). Для того, чтобы числовой ряд сходился, необходимо и достаточно, чтобы для любого ε > 0 существовало такое
N(ε), чтобы для любых n и m > N(ε) выполнялось:
m
∑ ak
<ε
(5)
k = n+1
или, что то же самое,
|S(m)-S(n)| < ε.
(6)
Доказательство. Т.к. данная теорема повторяет критерий Коши сходимости числовых последовательностей, а сходимость ряда определяется
через сходимость числовой последовательности его частных сумм, то теорема доказана.
Следствие. Если числовой ряд (1.1) сходится, то предел
151
lim a n = 0.
(7)
n→
Для доказательства достаточно в (6) положить m=n+1, тогда получим |am|<ε для любого m>N(ε).
Определение 4. Ряд (1) называется абсолютно сходящимся, если сходится ряд
∞
∑ an .
(8)
n=1
Это определение правомерно, поскольку сходимость ряда (8) влечет
за собой сходимость ряда (1).
Теорема 2. Пусть 0≤ak<bk. Тогда:
а) сходимость ряда
∞
∑ bk влечет за собой сходимость ряда
k =1
∞
∑ ak ;
k =1
б) если ряд из элементов ak расходится, то и второй ряд также расходится;
Доказательство. а). Пусть ряд из элементов bk сходится. Имеем следующее соотношение:
0≤
m
∑ ak ≤
k = n+1
m
∑ bk
< ε для любых n,m>N(ε).
k = n+1
б). Рассматривается аналогичное неравенство.
Упражнение. Показать, что ряд с неотрицательными членами сходится тогда и только тогда, когда его частные суммы ограничены сверху.
32.2. Условия (критерии) сходимости
Теорема 3. (Достаточные условия сходимости Коши). Пусть дан ряд
∞
∑ ak ,
k =1
a k ≥ 0.
(9)
Пусть существует предел
lim k a k = q .
(10)
k→∞
Если q<1, то ряд (9) сходится; если q>1, то ряд (9) расходится; если
q=1, то необходимы дополнительные исследования.
Доказательство. 1) Пусть q<1. Найдем такое ε>0, чтобы было: q+ε<1.
Из (10) следует, что как только k>N(ε), будет выполнено соотношение
(11)
q − ε < k ak < q + ε.
k
Из (11) следует, что ak<(q+ε) . Ряд, составленный из правых частей
этого выражения, сходится (это геометрическая прогрессия с показателем,
меньшим единицы). Поэтому, в соответствии с теоремой сравнения (теорема 2), сходится и ряд, составленный из ak.
2) Пусть q>1. Аналогично, существует такое ε>0, что q-ε>1. С
этим ε выполняется соотношение (11). Тогда имеем:
152
a k > q − ε > 1.
(12)
Отсюда, ak>1 при k>N(ε) ==> ряд расходится, т.к. нарушено необходимое условие сходимости.
∞
1
расходится, тогда как
3) Пусть q=1. Ранее мы видели, что ряд ∑
k =1 k
k
lim
k →∞
k
1
 1

= lim exp− ln k  = 1. С другой стороны, ряд
k k →∞
 2k

1
 2

= lim exp− ln k  = 1.
хотя lim k
2
 k

k →∞ k
k →∞
∞
∞
k =1
k =1
∞
∑
1
k =1 k
2
сходится,
Лемма. Рассмотрим два ряда: ∑ ak (а) и ∑ bk (б). Пусть ak>0 и bk>0
при k>N (N=const). Пусть выполнено соотношение
a k + 1 bk +1
при k>N
(13)
≤
ak
bk
Тогда из сходимости ряда (б) следует сходимость ряда (а).
Доказательство. Прежде всего можно считать, что указанные выше
неравенства верны при всех k, т.к. конечное число членов ряда на сходимость не влияет.
Перемножим все неравенства (13):
a2 a3
a
a
b b
b
b

⋅ ⋅. . .⋅ k ⋅ k +1 ≤ 2 ⋅ 3 ⋅. . .⋅ k ⋅ k +1 или
a1 a 2
a k −1 a k
b1 b2
bk −1 bk

(14)

a1

a k +1 ≤ b k +1

b1
Отсюда видно, что если ряд (б) сходится, то сходится и ряд (а).
Теорема 4. (теорема Даламбера). Пусть дан ряд (1) и пусть ak>0
начиная с некоторого k>N=const. Пусть существует предел
ak +1
(15)
= l.
lim
k → ∞ ak
(l - константа Даламбера). Если l<1, то ряд сходится; если l>1 - ряд
расходится; если l=1 - необходимы дополнительные исследования.
Доказательство. Пусть l<1. Возьмем такое ε, чтобы выполнялось неравенство l+e<1. При этом ε существует N1(ε) такое, что
a
(16)
l − ε < k +1 < l + ε при k>N1(ε)
ak
Правое неравенство из соотношения (16) дает:
a k +1 (1 + ε ) k +1
<
.
(17)
ak
(1 + ε ) k
153
Из неравенства (17) следует сходимость ряда (а) по лемме, ибо схо∞
∑ (1 + ε ) k
дится ряд
k =1
Пусть
теперь
Возьмем
l>1.
(18)
ε>0
такое,
что
l-ε>1.
Тогда
a k +1
> 1 − ε > 1 или a k +1 > (1 − ε ) a k > a k > . . . > a 1 , следовательно, члены
ak
ряда возрастают, в связи с чем ряд расходится.
Пусть теперь l=1. Рассмотрим примеры теоремы 3. Первый ряд расходится, а второй сходится, хотя l=1 для обоих рядов.
Теорема 5 (интегральный признак Коши). Пусть функция y=f(x) непрерывна и монотонно убывает на интервале [1, +∞). Пусть, кроме того,
функция f(x) неотрицательна, т.е f(x) ≥ 0. Тогда ряд
∞
∑ f (k )
(19)
k =1
сходится и расходится одновременно с несобственным интегралом
∞
∫ f (x)dx
(20)
1
Доказательство. Имеем: f(2)≤f(x)≤f(1) при 1≤x≤2 в силу монотонности
2
функции. Интегрируя, получаем: f ( 2) ≤ ∫ f ( x) dx ≤ f (1). Рассуждая анало1
3
гично, получим: f (3) ≤ ∫ f ( x)dx ≤ f ( 2) ... f ( n + 1) ≤
n+1
∫ f (x) dx ≤ f (n).
n
2
Сложим все полученные неравенства:
n+1
∑ f (k ) ≤
k =2
n+1
∫
f (x)dx ≤
n
∑ f (k ).
(21)
k =1
1
Пусть существует интеграл (20). Тогда из левого неравенства (21)
n
∞
k =2
1
следует оценка:
∑ f (k ) ≤ ∫ f (x)dx
∀n = 2,3, . . . Т.к. члены ряда неотри-
цательны, то частные суммы монотонно возрастают и ограничены сверху,
следовательно, существует их предел, значит, ряд сходится.
A
Пусть теперь сходится ряд (19). Рассмотрим функцию ϕ( A) = ∫ f ( x)dx . Она
1
монотонно возрастает по "A". В силу правого неравенства соотношения
(21) справедливо:
A
∞
1
k =1
∫ f ( x)dx ≤ ∑ f (k ). Таким образом, интеграл сходится.
154
∞
Пример. Рассмотрим ряд ζ(α)= ∑
1
k =1 k
α
. (это так называемая дзета-
функция Римана). Ряд сходится при α>1 и расходится при α≤1, посколь∞
1
ку этими свойствами обладает интеграл ∫ α dx .
1x
32.3. Абсолютно сходящиеся ряды
Замечания.
∞
∞
k =1
k =1
1. Пусть ряды ∑ ak (22) и ∑ bk (23) сходятся. Тогда сходится ряд
∞
∑ [α a k + β bk ]
(24)
k =1
2. Если ряды (22) и (23) сходятся абсолютно, то сходится абсолютно
и ряд (24).
Теорема 1. (Без доказательства). Пусть ряд (а) сходится абсолютно.
∞
Рассмотрим ряд ∑ ak′ (25), полученный из (22) произвольной перенумераk =1
цией членов ряда. Тогда ряд (25) сходится абсолютно и справедливо равенство
∞
∑ ak
k =1
=
∞
∑ a k′ .
(26)
k =1
Теорема 2 (теорема о перемножении абсолютно сходящихся рядов).
Рассмотрим два абсолютно сходящихся ряда (1) и (2). Составим бесконечную матрицу
a1b1 a 2 b1 . . . a n b1 . . .
a1b2
a 2 b2
. . . a n b2
...
...
a1bm
...
a 2 bm
... ...
. . . a n bm
...
...
...
... ... ... ...
Перенумеруем элементы этой матрицы одним индексом по одной
произвольной схеме. Пусть соответствующие числа будут ω1, ω2,...,ωl,...
Рассмотрим ряд
∞
∑ ωi
(27)
i=1
Ряд (27) сходится абсолютно и справедливо равенство
155
∞
∑ ωi =
∞
∞
n=1
k =1
∑ a n ⋅ ∑ bk
i =1
Доказательство. Рассмотрим частную сумму
N
∑ ω i . Существует
та-
i =1
N
кое N1, что
∑ ωi
i =1
≤
N1
N1
∞
∞
n =1
k =1
n =1
k =1
∑ a n ⋅ ∑ bk ≤ ∑ a n ⋅ ∑ bk
≤ С = const .
Отсюда следует, что ряд (2) сходится и притом абсолютно, следовательно, его сумма не зависит от порядка слагаемых. Теорема доказана.
Теорема 3 (теорема Лейбница). Пусть дан знакопеременный ряд
∞
∑ ( −1) k −1 ck ,
k =1
( ck > 0).
(28)
Пусть ck+1≤ ck, а lim ck = 0.
k →∞
Тогда ряд (28) сходится.
Доказательство. Рассмотрим четную частную сумму:
S2n=[c1-c2]+[c3-c4]+...+[c2m-1-c2m] > 0.
По условию теоремы эта величина состоит из неотрицательных слагаемых, поэтому и сама является неотрицательной и монотонно возрастающей.
С другой стороны
S2n=c1-[c2-c3]-[c4-c5]-...-[c2m-2-c2m-1]-c2m < c1
Таким образом, последовательность четных частных сумм монотонно возрастает и ограничена сверху.
Пусть lim S 2 n = S .
n →∞
Рассмотрим
последовательность
нечетных
S2n+1=S2n+c2n+1. lim S 2n +1 = lim S 2n + lim c2n +1 = S .
n→∞
n→∞
частных
сумм
n→∞
Отсюда следует, что ряд (28) сходится.
∞ ( −1) k −1
Пример. Рассмотрим ряд ∑
k =1
равна S=ln 2.
k
. Этот ряд сходится и его сумма
Теорема 4 (теорема Дирихле). Пусть дан ряд
∞
∑ a k bk .
(29)
k =1
Пусть выполнены следующие условия:
1) ∀n
n
∑ bk
k =1
= Bn ; Bn < C0 ;
156
2) ak>ak+1;
3) lim a k = 0.
k →∞
Тогда ряд (29) сходится.
Замечание: теорема Дирихле включает в себя теорему Лейбница как
частный случай.
Доказательство. Оценим отрезок ряда I =
bk=Bk-Bk-1: I =
m
∑ Bk a k −
k = n +1
m
∑ Bk −1 a k =
k = n +1
m
∑ Bk a k
−
k = n +1
m
∑ a k bk .
Учтем, что
k = n +1
m−1
∑ Bk a k +1 .
k =n
Отсюда получаем:
I = Bm a m − Bn a n+1 + ∑ Bk [a k − a k +1 ].
(30)
(Метод, который мы здесь использовали, называется преобразованием Абеля. Он аналогичен интегрированию по частям)
Зададим ε>0. Выберем такое N(ε), чтобы для любого k>N(ε) было:
|ak|<ε/(4C0). Это можно сделать в силу условия 3).
Согласно (30) мы теперь имеем:
m−1
ε
ε
I ≤ C0
+ C0
+ C 0 ∑ [ a k − a k −1 ] =
4 C0
4 C0
k = n +1
ε
ε
2ε
+ C0 ( a n +1 − a m ) ≤ + C 0
= ε.
2
2
4 C0
Таким образом, для любого ε>0 существует такое N(ε), что для лю=
m
бых n,m>N(ε) выполняется неравенство
∑ a k bk
k = n +1
157
< ε. Теорема доказана.
33. Функциональные последовательности и ряды
33.1. Определения
Рассмотрим последовательность функций {fn(x)},
(1)
определенных на множестве M.
Определение 1. Говорят, что последовательность (1) сходится на
множестве M, если для любого x0∈M соответствующая последовательность чисел fn(x0) сходится.
Пример 1. Пусть M - множество чисел 0≤x≤1, а последовательность
функций имеет вид: fn(x)=1; x; x2; x3; ...; xn; ....
Указанная последовательность сходится при 0≤x≤1, причем
0, 0 ≤ x < 1;
f
(
x
)
=

lim n
n→∞
1, x = 1.
Пример 2. Пусть fn(x) = 1/[n2+x2]; M: 0≤x≤1.
Легко проверить, что lim f n ( x ) = 0 ∀ x ∈ M.
n→ ∞
Определение 2. Говорят, что последовательность функций (1) сходится равномерно на M, если: a) она сходится в каждой точке M; b) если
ϕ(x) - предельная функция, то для любого ε>0 существует N(ε) такое, что
для любого n>N(ε) |ϕ(x)-fn(x)|<ε для любого x из M одновременно.
Графически это условие означает, что графики всех функций, начиная с некоторого номера N(ε), оказываются в ε-полоске предельной функции.
Определение 3. Рассмотрим ряд
∞
∑ f k ( x ),
(2)
k =1
члены которого суть функции, определенные на множестве M. Говорят,
что ряд (2) сходится равномерно на M, если последовательность его частn


ных сумм S n ( x ) = ∑ f k ( x ) сходится равномерно на множестве M.
k =1


Иначе говоря, ряд (2) сходится равномерно, если:
a) он сходится для любого x∈M;
b) если S(x) - сумма ряда, то для любого ε>0 существует N(ε) такое,
что для любого n>N(ε): |S(x)-Sn(x)|<ε для любого x из M.
33.2. Критерий Коши
Теорема 1. Для того, чтобы функциональная последовательность (1)
равномерно сходилась на множестве M, необходимо и достаточно, чтобы
для любого ε>0 существовало такое N(ε), что при n,m > N(ε) для любого x
из M: |fn(x)-fm(x)|<ε.
158
Доказательство.
a). Необходимость.
Пусть последовательность (1) сходится равномерно на M.
Пусть ϕ(x) - предельная функция. Пусть задано ε>0. Тогда существует N(ε) такое, что для любого n>N(ε) |fn(x)-ϕ(x)|<ε/2 для любого x из M.
Также для любого m>N(ε): |fm(x)-ϕ(x)|<ε/2.
Отсюда следует, что |fn(x)-fm(x)|<ε для любого x из M.
b). Достаточность.
Пусть задано ε>0. Возьмем N(ε) такое, чтобы при n,m>N(ε) было
|fn(x)-fm(x)|<ε/2 для любого x из M.
Зафиксируем временно x0 и устремим m к бесконечности:
-ε/2≤ fn(x)-ϕ(x) ≤ε/2.
Заметим, что это неравенство выполняется для любых x0 из M, если
только n>N(ε). Отсюда следует, что |fm(x)-ϕ(x)|<ε.
Теорема доказана.
33.3. Критерий Коши для функциональных рядов
Теорема 2. Для того, чтобы функциональный ряд (2) сходился равномерно на множестве M, необходимо и достаточно, чтобы для любого
ε>0 существовало N(ε) такое, что при n,m>N(ε) было:
m
∑ f k ( x).
k = n +1
Доказательство. Оно сводится к доказательству предыдущей теоремы. Достаточно рассмотреть функциональную последовательность
n


S
(
x
)
=
∑ f k ( x )
 n
k =1


и учесть, что
m
∑ f k ( x) =
k = n +1
m
∑ f k ( x) −
k =1
m
∑ f k ( x ) = S m ( x) − S n ( x).
k =n
33.4. Достаточные условия Вейерштрасса
Теорема 3. Пусть дан функциональный ряд (2), члены которого
определены на множестве M. Пусть |fk(x)|<ck, где ck - некоторая числовая
последовательность. Пусть числовой ряд
∞
∑ сk
(3 )
k =1
сходится. Тогда ряд (2) также сходится, причем равномерно, на множестве M.
159
Доказательство. Имеем:
m
m
k = n +1
k = n+1
∑ f k ( x) ≤ ∑
f k ( x) ≤
m
∑ ck
< ε ∀n, m > N ( ε ).
k = n +1
Теорема доказана.
Пример 3. Исследовать на равномерную сходимость ряд
∞ ln( k + x )
∑ 2 2 на отрезке 0≤x≤1.
k =1 k + x
ln( k + x ) ln( k + 1)
k
1
Имеем: 0 ≤
≤
≤ 2 = 3/ 2 .
2
2
2
k +x
k
k
k
-3/2
Т.к. ряд, составленный из слагаемых k сходится, то функциональный ряд сходится равномерно на указанном отрезке.
33.5. Теоремы о равномерно сходящихся рядах
Теорема 4. Пусть члены ряда (2) суть непрерывные функции на [a,b]
и пусть ряд (2) сходится равномерно на [a,b]. Тогда сумма ряда - непрерывная функция на [a,b].
Доказательство.
Фиксируем некоторое x0 из [a,b] и рассмотрим разность: S(x)-S(x0) =
S(x) - Sn(x)+ Sn(x) - Sn(x0)+ Sn(x0) - S(x0)
Отсюда: |S(x)-S(x0)|<=|S(x) - Sn(x)|+|Sn(x) - Sn(x0)|+|Sn(x0) - S(x0)|
Пусть теперь задано ε>0. Выберем n столь большим, чтобы для любого x∈[a,b] было | S(x) - Sn(x)|<ε/3.
При найденном фиксированном n найдем такое δ>0, чтобы при |xx0|<δ было | Sn(x) - Sn(x0)|<ε/3.
Теперь получаем: | S(x)-S(x0)| < ε/3 + ε/3 + ε/3 = ε.
Таким образом, теорема доказана.
Теорема 5. Пусть дан ряд (2), сумма которого равна S(x). Если члены
ряда суть непрерывные на [a,b] функции и ряд сходится равномерно на
[a,b], то для любых c и d∈[a,b]:
d
∞ d
c
k =1 c
∫ S ( x)dx = ∑ ∫ f k ( x)dx
(4 )
Доказательство.
Рассмотрим функцию суммы S(x) и последовательность частичных
сумм Sn(x).
Очевидно, что S(x) = Sn(x)+[S(x)-Sn(x)]. По теореме 4: S(x) - непрерывная функция, следовательно, она интегрируема. Тогда
d
n d
d
c
k =1 c
c
∫ S ( x)dx = ∑ ∫ f k ( x)dx + ∫ [S ( x) − Sn ( x)]dx.
Обозначим второй интеграл через rn.
160
Пусть задано ε>0. Выберем N(ε) такое, что при n>N(ε):
|S(x)-Sn(x)|<ε/(b-a).
d
ε
dx < ε.
Тогда rn < ∫
b
−
a
c
d ∞


f
(
x
)
dx
=
f
(
x
)
Таким образом, lim ∑ ∫ k

.
∑
k
∫

n→∞ k =1 c
c k =1
Замечание: Требование равномерной сходимости существенно.
Теорема 6. Пусть дан ряд (2), причем функции fk(x) непрерывно
дифференцируемы на [a,b]. Пусть исходный ряд сходится. Пусть также
равномерно сходится формально продифференцированный ряд
n d
∞
∑ f k′ ( x) = σ( x ).
(5)
k =1
Пусть сумма ряда (2) S(x) является дифференцируемой функцией.
Тогда S'(x) = σ(x).
Доказательство. Т.к. ряд (5) сходится равномерно, то его можно проинтегрировать на [a,x], x≤b:
x
∞ x
∞
∞
a
k =1a
k =1
k =1
∫ σ( x)dx = ∑ ∫ f k′ ( x)dx = ∑ f k ( x) − ∑ f k ( a ) = S ( x) − S ( a ).
Заметим, что σ(x) непрерывна на [a,b] по теореме 4, но тогда S(x)
дифференцируема. Дифференцируя полученное равенство, получаем:
S'(x)=σ(x). Теорема доказана.
Пример 4. Вычислить сумму ряда:
∞
∑ nx n , если |x|<1.
n=1
Имеем следующую цепочку преобразований:
∞
∞
∞
∞ d
n
n −1
n −1
= x ∑ nx
= x∑ xn =
∑ nx = ∑ x nx
n =1
n =1
n =1
n =1 dx
(
=x
)
(
)
d ∞ n
d  x 
(1 − x ) + x
x
x =x 
=
.
=x
∑
dx n =1
dx  1 − x 
(1 − x ) 2
(1 − x ) 2
161
34. Степенные ряды. Аналитические функции.
34.1. Степенные ряды
Рассмотрим ряд
∞
∑ ck ( z − z0 ) k .
(1)
k =0
Здесь ck - произвольные комплексные числа; z0 - комплексная константа; z - произвольное комплексное число.
Ряд (1) называют степенным рядом.
В дальнейшем, если особо не оговаривается, будем считать, что z0=0.
Это всегда можно сделать заменой переменно z’=z-z0.
Ниже будем рассматривать ряды вида
∞
∑ ck z k .
(2)
k =0
Теорема 1 (теорема Абеля). Пусть ряд (2) сходится при некотором
z=z1. Тогда для любого z: |z|<|z1| ряд (2) сходится абсолютно.
Доказательство. Поскольку ряд (2) сходится, то lim ck z1k = 0. Следоk →∞
k
вательно, существует N такое, что при k>N: |ck||z1| < 1.
Пусть теперь z фиксировано из условия |z|<|z1|. Имеем:
|ckzk|=|ck(z1k)(zk/z1k)|= |ckz1k ||z/z1|k < c0qk, где q=|z/z1| < 1.
Поскольку ряд, составленный из bk=q сходится, то по теореме сравнения сходится, причем абсолютно, исследуемый ряд.
34.2. Круг сходимости
Рассмотрим степенной ряд (2). Пусть D - множество тех z, при которых ряд сходится. Если множество D неограничено, то по теореме Абеля,
ряд (2) сходится вообще при любых значениях z, притом абсолютно.
В этом случае говорят, что радиус сходимости ряда равен бесконечности.
Пусть теперь D - ограниченное множество. Обозначим
R = sup |z| (z∈D)
(3)
Число R называется радиусом сходимости ряда (2).
Из теоремы Абеля следует:
a) если |z|<R - ряд (2) сходится абсолютно;
b) если |z|>R - ряд (2) расходится.
Круг |z|<R называется кругом сходимости.
Теорема 2 (теорема Коши). Пусть дан степенной ряд (2) и пусть существует предел
(4)
lim k ck = χ.
k →∞
162
Тогда R = 1/χ. Более того, если χ=0, то R=∞; если χ=∞ - R=0.
Доказательство.
Применим к ряду (2) при фиксированном z признак Коши. Пусть
lim k
k →∞
ck z k = χ z .
Предположим вначале, что χ≠0 и χ≠∞.
Если χ|z|<1, то ряд сходится. Отсюда, при |z|<1/χ ряд сходится абсолютно.
Если χ|z|>1, то в силу теоремы Абеля ряд не сходится абсолютно, а
значит, он вообще не сходится.
Таким образом, R=1/χ.
Пусть теперь χ=0, тогда для любых z: χ|z|=0, следовательно, ряд сходится при любых z и R=∞.
Если χ=∞, то χ|z|>1 для любых z≠0 и R=0.
Пример 1. Найти радиус сходимости ряда
∞
∑ zk .
k =0
k
Имеем: χ = lim k 1 = 1 ⇒ R = 1.
k →∞
Если |z|<1, то ряд сходится; если |z|>1 - ряд расходится.
Заметим, что на границе круга сходимости ряд расходится.
∞ k
z
Пример 2. Найти радиус сходимости ряда ∑ 2 .
k =0k
k
1
Имеем: χ = lim
= 1 ⇒ R = 1.
2
k →∞ k
На границе круга |z|=1 ряд сходится абсолютно.
k
34.3. Интегрирование и дифференцирование степенных рядов
Теорема 3. Рассмотрим вещественный степенной ряд
∞
∑ ak x k .
(5)
k =0
Пусть R - его радиус сходимости. Интервал (-R,+R) называется интервалом сходимости ряда (5). Пусть |x|≤r<R. Тогда на отрезке [-r,r] ряд
сходится равномерно.
Теорема 4. Сумма степенного ряда (5) S(x) непрерывна в каждой
точке интервала сходимости (-R,R).
163
Теореме 5. Пусть ряд (5) имеет интервал сходимости (-R,R). Пусть
S(x) - его сумма и пусть отрезок [c,d] принадлежит интервалу сходимости.
d
Тогда справедливо соотношение ∫ S ( x)dx =
c
∞ d
∑ ∫ ak x k dx.
(6)
k = 0c
x k +1
.
k
+
1
k = 00
k =0
Теорема 6. Пусть ряд (5) имеет радиус сходимости R. Тогда формально продифференцированный ряд
∞ x
Замечание: полагая c=0, d=x, получим: ∑ ∫ ak x k dx =
∞
∑ ak
∞
∑ ak kx k
(7)
k =0
и формально проинтегрированный ряд
∞
x k +1
a
(8)
∑ k k +1
k =0
имеют тот же радиус сходимости.
Теорема 7. Пусть R - радиус сходимости степенного ряда (5) и S(x) его сумма. Тогда S(x) внутри интервала сходимости является дифференцируемой функцией и справедливо равенство:
S '( x ) =
∞
∑ ak kx k
(9)
k =0
Замечание: очевидно, что результаты теоремы 7 можно применять к
одному и тому же ряду неограниченное количество раз, т.е. если ряд дифференцируем, то он дифференцируем неограниченное количество раз.
Упражнение 1. Доказать теоремы 3...7
34.4. Аналитические функции
Определение 1. Пусть функция f(x) определена в некоторой окрестности точки x0 и имеет в ней производные любых порядков. Тогда такую
функцию называют неограниченно дифференцируемй в точке x0.
Определение 2. Пусть функция f(x) бесконечно дифференцируема в
точке x0. Тогда ряд
f ( k ) ( x)
(10)
∑ k ! ( x − x0 ) k
называется рядом Тейлора функции f(x).
Определение 3. Пусть функция f(x) имеет сходящийся ряд Тейлора в
некоторой окрестности точки x0. Функция называется аналитической в
164
точке x0, если в этой окрестности сумма ее ряда Тейлора равна самой
функции.
Теорема 8. Пусть f ( x ) =
n
∑ a k ( x − x0 ) k
(11)
k =0
на интервале |x-x0|<ω. Это разложение единственно, причем ak =
f ( x0 )
и
k!
ряд с необходимостью является рядом Тейлора.
Доказательство. Рассмотрим разложение (11). Положим x=x0, тогда
a0=f(x0). Дифференцируем обе части равенства (11). Получим:
f'(x)=a1+2a2(x-x0)+...
Полагая x=x0, получим, что a1=f'(x0)=f'(x0)/1!
Дифференцируя второй раз, получим:
f''(x) = 2a2 + 3⋅2⋅a3(x-x0) + ...
Отсюда, a2 = f''(x0)/2!
Произведя эту операцию k раз, получим, что ak =
f ( x0 )
.
k!
Теорема доказана.
Замечание. Всякий сходящийся степенной ряд является рядом Тейлора своей суммы.
Суммы степенных рядов с ненулевым радиусом сходимости всегда
являются аналитическими функциями.
Пример 3. Бесконечно дифференцируемая функция, не являющаяся
аналитической.

 1 
exp  − 2  , x ≠ 0
Рассмотрим функцию f ( x ) = 
. Имеем:
 x 
0, x = 0

 1
 1
exp − 
exp − 
2
2
f ( x) − f (0)
f '( x) − f '(0)
f '(0) = lim
= lim  x  = 0; f ''( x) = lim
= lim  x  = 0
x
x
x
x4
x→0
x→0
x→0
x→0
и т.д.
Все производные этой функции в нуле равны нулю, т.е. ее ряд
Тейлора равен нулю, в то время как
сама функция нулю равна только
при x=0.
1
0,9
0,8
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0
-6
165
-4
-2
0
2
4
6
35. Разложение элементарных функций в ряды Тейлора.
Применение рядов в приближенных вычислениях.
35.1. Разложение элементарных функций в ряды Тейлора
Теорема 1. Пусть функция f(x) имеет (n+1) производную на отрезке
[x0,b]. Если эти производные ограничены, то справедливо равенство
f ( x0 )
f ( n ) ( x0 )
f ( x ) = f ( x0 ) +
( x − x0 ) +...+
( x − x0 ) n + Rn , (1)
1!
n!
где
f (n +1) (ξ)
Rn =
( x − x0 ) n +1 −
(2)
(n + 1)!
остаточный член в форме Лагранжа.
Если lim Rn = 0 ∀x ∈[ x0 , b], то функция f(x) раскладывается на отn→ ∞
резке [x0,b] в ряд Тейлора:
∞
f ( k ) ( x0 )
f ( x) = ∑
( x − x0 ) k .
k!
k =0
Доказательство.
Замечание: если выполняется условие
f ( k ) ( x ) ≤ C ∀x ∈[ x0 , b],
(3)
(4)
то справедливо стремление к нулю остаточного члена (2).
Покажем, что из (4) следует (3).
Выберем натуральное m такое, что |b-x0|/m = q < 1. Тогда имеем:
n +1
m
C b − x0
b − x0
b − x 0 b − x0
b − x0
Rn ≤
=C
⋅
⋅
⋅...⋅
≤
( n + 1)!
m!
m+1 m+ 2
n +1
≤ C ⋅ C1 ⋅ q n + 1− m
→ 0.
n→∞
Все наши рассуждения справедливы и для случая, когда b<x0.
Пример 1. Построить ряд Тейлора функции f(x) = exp(x)=ex.
Имеем:
f n ( x ) = exp( x ) ∀ x .
exp(ξ ) n +1
Выберем x0=0. Тогда: Rn =
x →0 ∀ x p ∞.
( n + 1)!
n →∞
Более того, при x ≤ b = const это стремление равномерно.
Таким образом,
166
∞
xk
exp( x) = ∑ .
k =0 k !
Пример 2. Рассмотрим функции f(x)=sin x, g(x)=cos x.
Имеем: f ( k ) ( x ) ≤ 1, g ( k ) ( x ) ≤ 1.
(5)
Все производные ограничены и непрерывны, следовательно, остаточный член стремится к нулю при n → ∞ и функции раскладываются в
ряд Тейлора. Легко показать, что при x0=0
∞
∞
(−1) k x 2 k +1
( −1) k x 2 k
sin x = ∑
; cos x = ∑
(6)
(
2
k
+
1
)!
(
2
k
)!
k =0
k =0
Упражнение 1. Показать, что
∞
∞
x 2 k +1
x2k
sh x = ∑
; ch x = ∑
(7)
(
2
k
+
1
)!
(
2
k
)!
k =0
k =0
Упражнение 2. При помощи рядов Тейлора приведенных выше доказать формулу Эйлера:
(8)
exp iz = e iz = cos z + i sin z .
Здесь i - мнимая единица; z - произвольное комлексное число.
Замечание: все полученные ряды имеют радиус сходимости R = ∞ и
сходятся при любом комплексном z (согласно теореме Абеля).
Следует отметить, что именно ряды Тейлора являются основанием
для непрерывного продолжения функций на комплексную область. Более
того, с помощью рядов Тейлора определяются функции от матриц и объектов более сложного порядка.
35.2. Ряды в приближенных вычислениях
a). Вычисление числа π.
Рассмотрим ряд Тейлора функции y=arctg x: arctg x =
(−1) k x 2 k +1
.
∑
k = 0 2k + 1
∞
π ∞ (−1) k
=∑
.
В точке x=1 этот ряд сходится. Отсюда следует, что
4 k = 02 k + 1
Полученный ряд сходится очень медленно. Например, для вычисления числа π с точностью до ε=0.000001 необходимо 2×106 слагаемых.
Очевидно, что проведение расчетов по полученной формуле совершенно бессмысленно, так как накопление ошибок округления приведет к
тому, что после двух миллионов операций деления и сложения результат
может оказаться сколь угодно далеким от истинного. Попытаемся подойти
по другому. Рассмотрим, например, α такое, что tgα=1/5. Тогда:
167
2 tg α
5
120
;
= ; tg 4α =
1 − tg α 12
119
π
tg 4α − tg
π

4 = 1 .
tg 4α −  =

4  1 + tg 4α ⋅ tg π 239
4
Отсюда имеем: 4α - π/4 = arctg(1/239); π = 16α - 4arctg(1/239);
π = 16arctg(1/5) - 4arctg(1/239)
Используя ряд для арктангенса, получим:
∞
∞
(−1) k
( −1) k
π = 16 ∑
− 4∑
.
2 k +1
2 k +1
(
2
k
+
1
)5
(
2
k
+
1
)
239
k =0
k =0
Полученные ряды сходятся очень быстро. Достаточно взять всего
четыре слагаемых первого ряда и два - второго.
Вычисляя с точностью до седьмого знака, получим: π = 3.141592
b). Вычисление логарифмов.
Ряд Тейлора для функции y=ln(1+x) в окрестности нуля выглядит
∞
(−1) k +1 x k
; x < 1.
следующим образом: ln(1 + x) = ∑
k
k =0
При x=1 ряд также сходится и его сумма равна ln2.
Легко заметить, что ряд сходится очень медленно. Это не дает возможности использовать его в практических расчетах.
Получим более подходящую формулу.
∞ k
x
Заменяя x на -x, получим: ln(1 − x) = − ∑ ; x < 1.
k =0 k
tg 2α =
∞ 2 k +1
1+ x
x
= 2∑
.
Вычитая два ряда друг из друга, получим: ln
1− x
2
k
+
1
k =0
Именно эта формула используется для вычисления логарифмов от
натуральных чисел. Например, полагая x=1/3, получим:
∞
1
.
(2 k + 1)
k =0 3
Полученный ряд сходится очень быстро. Для вычисления ln 2 с точностью до 10-5 достаточно взять всего пять слагаемых: ln 2 = 0.693146
Вообще, полагая x=1/(2m+1), где m - натуральное число, получим:
∞
1
ln(m + 1) = ln m + 2 ∑
.
2 k +1
k = 0( 2 k + 1)( 2m + 1)
c). Численное интегрирование.
ln 2 = 2 ⋅ ∑
2 k +1
168
x
sin x
dx.
x
0
Т.к. ряд для функции sin x известен, то, поделив его на x, получим
sin x ∞ ( −1) k x 2 k
=∑
.
ряд для подынтегральной функции:
x
(
2
k
+
1
)!
k =0
Этот ряд имеет бесконечный радиус сходимости.
x
∞
sin x
( −1) k x 2 k +1
Интегрируя, получаем:
∫ x dx = ∑ (2k + 1) ⋅ (2k + 1)! .
k =0
0
Пример 3. Вычислить интеграл
∫
1/ 2
Пример 4. Вычислить интеграл
dx
∫ 1 + x4 .
0
Прямое интегрирование дает:
1/ 2
dx
1
x2 + 2x + 1
2
2x
=
+
ln
arctg
.
∫ 1 + x4 4 2 x2 − 2x + 1 4
2
−
1
x
0
Полученное выражение громоздко и неудобно для вычислений.
1
= 1 − x 4 + x8 − x12 +...
С другой стороны:
4
1+ x
1/ 2
dx
1
1
1
1
Интегрируя, получаем: ∫
= −
+
−
+...
4
5
9
13
2
1
+
x
5
⋅
2
9
⋅
2
13
⋅
2
0
Первые два члена ряда дают I = 0.4932...
При этом ошибка не превосходит δ=(1/9)/(2^9)=0.0002...
d). Решение дифференциальных уравнений.
Пример 5. Решить задачу Коши: y ' = xy 2 + 1; y (1) = 0.
Дифференцируем его:
y'' = y 2 + 2 xyy'; y''' = 4 yy'+2 x( y') 2 + 2 xyy '';
y IV = 6( y') 2 + 6 yy''+6xy ' y ''+2 xyy'; ...
Полагая во всех этих уравнениях последовательно сверху вниз x=1,
получим: y'(1)=1; y''(1)=0; y'''(1)=2; yIV(1)=6; ... Используя общую формулу
( x − 1) 3 ( x − 1) 4
+
+...
ряда Тейлора, получаем: y = ( x − 1) +
3
4
169
Часть 8. ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ
36. Введение.
36.1. Предмет курса.
Теория вероятностей - это математическая наука, позволяющая по
вероятностям одних случайных событий находить вероятности других
случайных событий, связанных каким-либо образом с первыми.
Здесь сразу же возникает вопрос, что такое случайное событие и что
такое вероятность?
До настоящего времени во всех курсах, которые изучались в школе и
институте, мы имели дело с детерминированными событиями, т.е. такими,
наступление или ненаступление которых определялось известными факторами. Например, если электрическая лампа подключается к источнику тока, то ее рабочий элемент нагревается и начинает испускать свет.
Отсюда можно дать определение.
Определение 1. Событие, которое вызывается точно определенными
факторами с одной стороны, и не происходит, если эти факторы отсутствуют, называется детерминированным (предопределенным).
Отрицание этого определения дает нам определение случайного события.
Определение 2. Событие, которое может происходить при наличии
некоторых факторов, а может и не происходить, причем заранее невозможно предсказать исход опыта, называется случайным событием.
Часто сразу и не удается определить, является ли какое-то событие
случайным или детерминированным. Например, включая и выключая лампочку сотни и тысячи раз, мы наблюдаем появление света при включении
и его исчезновение при выключении. Наступает, однако, какой-то момент
времени, когда при включении лампы в сеть свет не появляется. Таким образом, происходит нарушение предполагаемой нами детерминированной
связи между событиями "Выключатель включен" и "Лампа светит". Сразу
же появляется ответ: лампа должна быть исправна. Тогда появляется более
сложная детерминированная связь: если "Выключатель включен" и "Лампа
исправна", то "Лампа светит".
Если событие "Выключатель включен" вполне однозначно, т.е. мы
его либо включили, либо нет, то событие "Лампа исправна" не может быть
нами установлено однозначно до включения лампы и проверки всей цепи.
Более того, заранее невозможно предсказать ни момент выхода лампы из
строя, ни того, какая лампа из любого набора выйдет из строя первой. Таким образом, событие "Лампа исправна" является случайным событием,
170
поскольку невозможно установить факторы, приводящие к его наступлению или не наступлению (т.е. появлению события "Лампа неисправна").
Два последних события являются не только случайными, но и взаимно дополняющими друг друга.
Определение 3. Пусть в результате проведения некоторого эксперимента, состоящего из последовательности опытов, производится наблюдение за исходами этих опытов. Пусть в результате каждого опыта может
произойти одно и только одно событие из некоторого множества событий
Ω. Тогда множество Ω называется полным множеством событий (данного
опыта), а события ω1,ω2,...,ωn называются элементарными событиями (данного опыта). Очевидно, что ω1∪ω2∪... ∪ωn=Ω.
Определение 4. Если в результате опыта возможно лишь два исхода:
A и B, A∪B=A+B=Ω, то такие события называются взаимно дополняющими друг друга.
Обратим теперь внимание на то, что некоторые события появляются
очень редко, а другие, напротив, почти всегда. Так, лампа почти всегда загорается, когда мы включаем ее, а, скажем, незагорание лампы происходит
крайне редко.
Рассмотрим еще один пример. Пусть у нас имеется игральная кость:
равносторонний куб, на каждой грани которого нанесено одно из чисел от
1 до 6. Когда мы бросаем кость, она вращается и при падении на стол ложится некоторой гранью вверх. Ясно, что угадать цифру, которая будет
вверху, невозможно. Даже если мы сумеем описать начальные условия и
дать им численные значения с абсолютной точностью (что невозможно), то
случайные флуктуации плотности воздуха, движения воздушных масс
приведут к тому, что при достаточно длительном полете кости невозможно
будет предсказать грань, которая окажется наверху.
Но не только невозможность описания всех действующих факторов
приводит нас к понятию случайного события. Еще в начале века была создана наука "Квантовая механика", одним из основных постулатов которой
была невозможность предсказания поведения любого достаточно малого
объекта, в частности, элементарных частиц. Их поведение можно рассматривать только в массе и говорить только о возможности того или иного события.
Для численного описания возможности появления того или иного
события служит понятие "Вероятность". Оно определяется разными способами, но всегда выполняются следующие требования:
1) вероятность p достоверного события равна 1;
2) вероятность p невозможного события равна 0;
3) вероятность любого события не меньше 0 и не больше 1;
4) чем больше вероятность некоторого события, тем чаще оно
наблюдается.
171
Определение 5. Вероятностью называется численная мера, определяющая частоту появления события.
36.2. Алгебра событий
Пусть Ω - полное множество событий некоторого опыта. Пусть
Ω=ω1∪ω2∪... ∪ωn. Сопоставим каждому элементарному событию ωi число
n
pi такое, что
∑ pi
i =1
= 1, pi ≥ 0∀i.
Тогда эти числа назовем вероятностями соответствующих событий.
Вопрос о том, как определяются конкретные значения величин pi в данной
конкретной задаче, лежит за пределами теории вероятностей как чисто математической задачи. Информация о вероятности того или иного события
должна быть получена из других источников.
Наиболее распространенный подход, согласующийся со сказанным
выше, заключается в следующем.
Пусть в одинаковых условиях повторяется один и тот же опыт, заключающийся в наблюдении за появлением некоторого события A. Пусть
N - число проведенных опытов, n - число появлений события A. Тогда вероятность события A есть число p(A), определяемое следующим образом:
n
p ( A ) = lim .
(1)
N →∞ N
Иногда вероятность событий может быть определена следующим
образом. Пусть с точки зрения наблюдателя нет возможности дать предпочтение тому или иному событию. Тогда каждому из таких событий приписывается одинаковая вероятность. Если эти события образуют полное
множество событий, то вероятность каждого из них равна
p=1/N
(2)
где N - количество событий, называемых элементарными.
Например, рассмотрим игральную кость. Пусть событие ωi заключается в том, что выпадает i очков. Очевидно, что события ω1,ω2,...,ω6 образуют полную группу событий, т.к. при любом бросании возможен один и
только один исход. Никаких оснований полагать, что одна грань будут выпадать чаще других, у нас нет. В связи с этим каждому событию припишем
одинаковую вероятность, равной p=1/6.
Рассмотрим теперь сосуд с газом. В качестве события ωi будем рассматривать событие, заключающееся в том, что i-я молекула попадает в
верхнюю стенку. В связи с неразличимостью молекул газа полагаем, что
эта вероятность одинакова для всех молекул.
Часто возникает необходимость рассмотрения более сложных событий.
172
Пример 1. Найти вероятность того, что при бросании пары костей
выпадет в сумме 9 очков.
Обозначим через δi событие, заключающееся в том, что на первой
кости выпало i очков, а через εi - то же для второй кости. Тогда событие A
- в сумме выпало 9 очков, заключается в следующем:
A=δ3+ε6 или δ4+ε5 или δ5+ε4 или δ6+ε3. В качестве элементарных событий здесь выступает пара событий {δi,εj}. Всего таких событий N=36,
значит их вероятности равны p=1/36. Событие A включает в себя 4 элементарных события. Воспользовавшись формулой (1), получаем:
p(A)=n(A)/N=4/36=1/9.
Пример 2. Найти вероятность появления четной суммы очков при
бросании пары игральных костей.
Событие A может быть представлено как сумма (объединение) двух
событий: A=B∪C. B - "на первой кости четное количество очков" и "на
второй кости четное количество очков"; C - "на первой кости нечетное количество очков" и на второй кости нечетное количество очков". Всего
возможно N=36 исходов. Нас удовлетворяет из них (3*3)+(3*3)=18. Отсюда p(A)=18/36=1/2.
Из вышеизложенного следует, что одной из важнейших задач в теории вероятностей является задача определения числа элементарных событий и число этих событий, входящих в интересующее нас событие.
173
37. Элементы комбинаторики.
37.1. Предварительные сведения
Пары. Из m элементов a1,a2,...,am и n элементов b1,b2,...,bn можно образовать m⋅n пар {ai,bj}, содержащих по одному элементу из каждой группы.
Доказательство. Составим из этих пар прямоугольную таблицу
(наподобие таблицы умножения) с m строками и n столбцами так, чтобы
пара {ai,bj} стояла на пересечении i-й строки и j-го столбца. Тогда каждая
пара появляется один и только один раз и утверждение доказано.
Пример 1. Карты для бриджа. В качестве множеств элементов берутся 4 масти и 13 значений соответственно. Каждая карта определяется своей
мастью и значением, так что существует 4⋅13 различных карт.
Комбинации. Дано n1 элементов a1,...,an1, n2 элементов b1,...,bn2, ..., nr
элементов x1,...,xnr; число возможных комбинаций {ai,bj,...,xk}, содержащих
по одному элементу каждого типа, равно n1⋅n2⋅...⋅nr.
Доказательство. Если r=2, то утверждение сводится к предыдущему.
Если r=3, то рассматриваем пару {ai,bj} как элемент нового типа. Существует n1⋅n2 таких пар и n3 элементов ck. Каждая тройка {ai,bj,ck} в свою
очередь, является парой, состоящей из {ai,bj} и элемента ck. Отсюда, число
троек равно n1⋅n2⋅n3. Далее по индукции.
Замечание. Многие применения основаны на следующей переформулировке последней теоремы: при r последовательных выборах (решениях) с ровно nk возможными исходами на k-м шаге можно получить
n1⋅n2⋅... ⋅nr различных результатов.
Пример 2. Классификация по многим признакам. Предположим, что
люди классифицируются по полу, семейному положению и профессии.
Различные категории имеют роль элементов. Если имеется 17 профессий,
то всего будет 2⋅2⋅17=68 классов.
Пример 3. Размещение r шаров по n ящикам. Для r шаров имеем r
независимых выборов, поэтому r шаров можно разместить в n ящиках nr
различными способами. Рассматривая грани игральной кости как "ящики",
получим, что при бросании r раз игральной кости имеется 6r возможных
исходов. Если нас интересует появление единицы, то в 5r исходов единица
не появилась. Тогда вероятность того, что при r бросаниях единица не появилась ни разу, равна (5/6)r. Вероятность появления 1 при r бросаниях
равна 1-(5/6)r (при шести бросаниях вероятность появления единицы равна
1-(5/6)6=0.665).
174
37.2. Упорядоченные выборки
Рассмотрим множество или "генеральную совокупность" из n элементов a1,a2,...,an. Упорядоченной выборкой объема r, извлеченной из данной генеральной совокупности, называется любое упорядоченное множество aj1,aj2,...,ajr из r его элементов. Для наглядности можно представить,
что элементы выбираются один за другим. В этом случае возможны два
варианта:
1) Выбор с возвращением. Здесь каждое извлечение делается из полной генеральной совокупности, так что один и тот же элемент может быть
выбран несколько раз. Такие выборки - упорядоченные множества, в которых допускаются повторения.
2) Выбор без возвращения. Здесь элемент, выбранный однажды, исключается из генеральной совокупности, так что выборка превращается в
упорядоченное множество без повторений. Очевидно, что в этом случае
объем выборки r не может превосходить объем генеральной совокупности
n.
При выборе с возвращением каждый из r элементов может быть выбран n способами, так что число возможных выборок будет nr. При выборе
без возвращения мы имеем n возможных исходов для первого элемента,
(n-1) исход для второго элемента, ..., (n-r+1) для r-го элемента. Таким образом, всего существует n⋅(n-1)⋅...⋅(n-r+1) выборок. Произведения такого типа
появляются очень часто, поэтому удобно ввести обозначение
r
(n ) r = ∏ ( n − i + 1) =
i =1
n
∏i
i = n − r +1
= n ⋅ ( n − 1)⋅...⋅( n − r + 1).
(1)
Ясно, что (n)r=0, если r>n.
Следствие. Число различных перестановок из n элементов равно n!
n
n ! = ∏ i = 1 ⋅ 2 ⋅ 3⋅...⋅n.
(2)
i =1
Перестановкой называется выборка объема r=n, извлекаемая без
возвращения. Эта выборка включает в себя всю генеральную совокупность
и представляет собой переупорядочение ее элементов.
Пример 4. Из генеральной совокупности объема n извлекается случайная выборка с возвращением объема r. Найти вероятность события, состоящего в том, что ни один элемент не появляется дважды, т.е. что наша
выборка могла быть получена также выбором без возвращения.
Решение. Всего существует nr различных выборок, из которых (n)r
удовлетворяют указанному условию. Предполагая, что все исходы имеют
одинаковую вероятность, получаем, что вероятность отсутствия повторений равна p=(n)r/nr.
175
Пример 5. Пусть генеральная совокупность состоит из десяти цифр
0,1,2,...,9. Каждая последовательность из пяти цифр представляет собой
выборку объема r=5. Всего таких выборок может быть 105=100000. Тогда
вероятность того, что все пять последовательных случайных цифр различны, равна p=(10)5/105=0.3024.
Пример 6. Если n шаров случайным образом размещаются в n ящиках, то вероятность того, что все ящики заняты, равна p=n!/nn.
Это очень маленькая величина. Для n=7 имеем p=0.00612... Отсюда,
например, следует, что если в некотором городе каждую неделю происходит 7 автомобильных катастроф в неделю, то (в предположении, что
все возможные распределения по дням недели равновероятны) практически все недели будут содержать дни, в которые произошло не менее
двух катастроф, и в среднем только в одной из 165 недель катастрофы будут равномерно распределены по дням. Это дает основание для истинности высказываний о том, что любые катастрофы имеют обыкновение к
группированию.
Для n=6 p=0.01543... Это говорит, сколь маловероятно, что при шести бросаниях кости выпадут все грани.
Пример 7. Лифт начинает движение с r=7 пассажирами и останавливается на n=10 этажах. Какова вероятность того, что все пассажиры выйдут
на разных этажах? Здесь мы введем довольно грубое допущение, что все
возможные комбинации выхода пассажиров из лифта равновероятны. Тогда p=(10)7/107=0.06048.
Если такое событие однажды произошло, то нужно считать это исключительным явлением и ставить 300 против 1, что подобное не повторится.
Пример 8. Дни рождения. Дни рождения r человек образуют выборку объема r из совокупности всех дней года. В первом приближении можно считать, что в году 365 дней и рождаемость постоянна. Имеем, вероятность того, что все r дней рождения различны, равна
( 365) r 
1  
2  
3  
r − 1
p=
=
1
−
⋅
1
−
⋅
1
−
⋅
...
⋅
1
−







 . ( 2.3 )

365 
365 
365 
365 
365r
Численные результаты удивительны. Так для r=23 человек мы имеем
p<0.5, т.е. для 23 человек вероятность того, что, по крайней мере, у двоих
совпадут дни рождения, превышает 1/2.
37.3. Подмножества и разбиения
Рассмотрим подмножество объема r из заданной генеральной совокупности, состоящей из n элементов. Произвольная нумерация элементов
этого подмножества превращает его в упорядоченную выборку объема r, и
обратно, каждая такая выборка может быть получена указанным путем.
176
Т.к. r элементов можно занумеровать r! различными способами, отсюда
следует, что число упорядоченных выборок объема r в r! раз больше, чем
число подмножеств объема r. Поэтому число подмножеств объема r равно
n!
Cnr =
.
(4)
r !( n − r )!
Таким образом, доказана следующая теорема.
Теорема. Генеральная совокупность из n элементов имеет Cnr различных подмножеств объема r≤n.
Пример 9. Найдем вероятность того, что при случайном размещении
r шаров по n ящикам в заданном ящике будет ровно k шаров.
Всего размещений nr. k шаров можно разместить C rk способами в
этом ящике. Остальные (r-k) шаров можно разместить в оставшихся (n-1)
ящиках (n-1)r-k способами. Отсюда следует, что искомая вероятность равна
k
r −k
1
1

k
r−k
k  1
p = Cr ⋅ r ⋅ ( n − 1)
= Cr ⋅   ⋅  1 − 
.
 n 
n
n
Это частный случай так называемого биномиального распределения.
Теорема. Пусть r1,r2,...,rk - целые числа, такие, что r1+r2+...+rk=n
(ri≥0). Число способов, которыми генеральную совокупность из n элементов можно разделить на k упорядоченных частей (разбить на k подмножеств), из которых первая содержит r1 элементов, вторая r2 элементов и
т.д., равно
n!
N=
.
(5)
r1 ! r2 !... rk !
Доказательство.
Число (5) можно переписать в следующем виде:
N = Cnr1 ⋅ Cnr2− r ⋅...⋅Cnrk− r − r
1
1
2 − ...− rk −1
Имеем: вначале мы должны выбрать r1 элементов из n; из оставшихся (n-r1) элементов мы выбираем вторую группу размера r2 и т.д. После образования (k-1)-ой группы остается (n-r1-r2-...-rk-1)=rk элементов, образующих последнюю группу. Таким образом, теорема доказана.
Пример 10. При игре в бридж 52 карты делятся на 4 равные группы,
поэтому число различных раскладов равно 52!⋅(13!)-4=(36...)⋅1028. Найдем
теперь вероятность того, что каждый игрок имеет туза.
4 туза можно упорядочить 4!=24 способами и каждый порядок представляет одну возможность получения одного туза каждым игроком.
Оставшиеся 48 карт можно распределить (48!)⋅(12!)-4 способами. Искомая
вероятность равна
24⋅48!⋅(134)/52!=0.105...
177
37.4. Гипергеометрическое распределение
Пусть в генеральной совокупности из n элементов имеется n1 элементов красного цвета и n2=n-n1 черного. Случайным образом выбирается
группа из r элементов. Найдем вероятность q(k) того, что выбранная группа будет содержать ровно k красных элементов. Здесь 0≤k≤min(n1,r).
Выбранная группа состоит из k красных и (r-k) черных элементов.
Красные элементы могут быть выбраны Cnk1 различными способами, а черные - Cnr−−nk1 способами. Т.к. любой выбор красных элементов может комбинироваться с любым выбором черных, имеем
q (k ) =
Cnk1 ⋅ Cnr−−nk1
Cnn1
.
(6)
или
q(k ) =
Crk1 ⋅ Cnn1−−r k
Cnn1
.
Это распределение используется для проверки качества изделий.
178
38. Условная вероятность. Статистическая независимость.
38.1. Условная вероятность
Предположим, что в генеральной совокупности из N человек N(A)
страдают дальтонизмом и N(H) являются женщинами. Обозначим через A
и H соответственно события, состоящие в том, что случайно выбранный
человек страдает дальтонизмом или что он является женщиной. Тогда
P(A)=N(A)/N; P(H)=N(H)/N.
Сосредоточим теперь внимание на подмножестве, состоящем из
женщин. Вероятность того, что лицо, случайно выбранное из этого подмножества, страдает дальтонизмом, равна N(AH)/N(H), где N(AH) - число
женщин-дальтоников. Для обозначения такого понятия принято выражение P(A/H): вероятность события A (дальтонизм) при условии события
H(случайно выбранное лицо является женщиной).
В символической записи:
P(A/H)=P(AH)/P(H)
(1)
Определение 1. Пусть H - событие положительной вероятности. Для
любого события A будем писать
P(A/H)=P(AH)/P(H)
(2)
Так определенная величина будет называться условной вероятностью A при условии H.
38.2. Полная вероятность
Пусть H1,H2,...,Hn - множество взаимно исключающих событий, таких, что одно из них непременно произойдет, т.е.
n
n
∑ H i = U H i = Ω.
i =1
(3)
i =1
Здесь Ω - пространство элементарных событий.
Множество событий Hi назовем полной системой гипотез. Событие
A может осуществиться, таким образом, только одновременно с некоторым Hi, следовательно, можно записать:
A = AH 1 U AH 2 U . . .U AH n .
(4)
Поскольку события AHi попарно несовместны, их вероятности
складываются. Учитывая, что P(AHi)=P(A/Hi) ⋅P(Hi), суммируя, получаем:
P (A) = ∑ P(A/ H i ) ⋅ P (H i ).
(4)
179
Эта формула имеет важное значение, поскольку во многих случаях
оценка условной вероятности P(A/Hi) оказывается проще, чем прямое
нахождение P(A).
Пример 1. Выбор без возвращения. Из генеральной совокупности,
содержащей n элементов 1,2,...,n, извлекается упорядоченная выборка.
Пусть i и j - два различных элемента. Какова вероятность того, что вторым
извлеченным элементом будет j (событие A), если первым извлеченным
элементом был i (событие H)?
Ясно, что P(AH)=1/[n(n-1)] и P(A/H)=1/(n-1).
Пример 2. Распределение по признаку пола. Рассмотрим семьи с
двумя детьми. Обозначим буквами b (boy) и g (girl) мальчика и девочку соответственно. На первом месте будем указывать старшего ребенка. Имеем
4 возможности: bb, bg, gb, gg. Это 4 элементарных события. Припишем
каждому из них вероятность 1/4. Какова вероятность того, что оба ребенка
мальчики (событие A), если известно, что в семье уже есть мальчик (событие H)? Событие AH означает bb, а H означает bb или bg или gb. Поэтому P(A/H)=1/3. Интересно, что большинство людей ожидают ответа
P=1/2. Это правильный ответ на вопрос: мальчик выбран случайным образом и оказалось, что он из семьи с двумя детьми; какова вероятность того,
что второй ребенок мальчик?
38.3. Статистическая независимость
В общем случае условная вероятность P(A/H) не равняется вероятности P(A). Грубо говоря, информация о том, произошло или нет событие
H, меняет наше отношение к возможности наступления события A. Только
в том случае, когда P(A/H)=P(A), эта информация не позволяет сделать
никаких выводов об A. В этом случае мы будем говорить, что A статистически (стохастически) не зависит от H. Это может быть записано следующим образом:
P(AH)=P(A)⋅P(H)
(5)
Это равенство симметрично относительно A и H и показывает, что
если A статистически не зависит от H, то и H статистически не зависит от
A. Таким образом, мы получили следующее
Определение 2. Два события A и H называются статистически независимыми, если имеет место равенство (5).
Пример 3. Бросаются две игральные кости. События "единица на
первой кости" и "четное число очков на второй" независимы, т.к. вероятность их одновременного осуществления (3/36=1/12) равна произведению
их вероятностей (1/6 и 1/2).
180
38.4. Формула Байеса
Формула полной вероятности (4) позволяет вывести еще один важный результат, имеющий многочисленные приложения.
Теорема. Пусть H1,H2,...,Hn - полная система гипотез. Пусть A - некоторое событие, для которого P(A)≠0. Тогда справедлива следующая
формула, называемая формулой Байеса:
P (H k ) P (A/ H k )
P (H k / A) = n
.
(6)
∑ P (H i ) P (A/ H i )
i =1
Доказательство. Имеем: P(Hk/A)=P(AHk)/P(A). Далее:
A=AH1+AH2+...+AHn.
Т.к. в результате имеем несовместные события, то
P(A)=P(AH1)+...+P(AHn) или P(A)=P(H1)P(A/H1)+...+P(Hn)P(A/Hn).
С одной стороны: P(AHk)=P(A)P(Hk/A).
С другой стороны: P(HkA)=P(Hk)P(A/Hk).
Т.к. AHk=HkA, то P(A)P(Hk/A)=P(Hk)P(A/Hk).
Отсюда
P (H k ) P (A/ H k )
P (H k / A) =
,
P (A)
или
P (H k ) P (A/ H k )
P (H k / A) = n
.
∑ P (H i ) P (A/ H i )
i =1
Пример 4. Даны три урны. В 1-й - 1 белый и 4 черных шара; во второй - 3 белых и 2 черных шара; в 3-1 - 2 белых и 3 черных шара. Урны
одинаковы. Из неизвестной урны взят белый шар. Какова вероятность того, что это была 1-я урна?
Событие A - выбор белого шара; Hi - шар взят из i-й урны. Имеем:
P(Hi)=1/3 (i=1...3); P(A/H1)=1/5; P(A/H2)=3/5; P(A/H(3)=2/5.
Событие A произошло:
1 1
⋅
1
3
5
P(H 1 / A) =
= .
1 1 1 3 1 2 6
⋅ + ⋅ + ⋅
3 5 3 5 3 5
Формула Байеса имеет важное значение для задач контроля качества.
Рассмотрим следующий пример.
Пример 5. В цехе работает 4 станка. Каждый из них выпускает ni
(i=1...4) число деталей в смену. Процент бракованных изделий для каждого
станка составляет соответственно mi. В потоке случайным образом отобра181
на деталь, оказавшаяся бракованной. Какова вероятность того, что она выпущена i-м станком?
ni=100, 150, 200, 250; mi=1, 2, 5, 2.
Система гипотез Hi - брак выпущен i-м станком; событие A - брак
выпущен; событие A/Hi - брак обнаружен на i-м станке при его проверке.
n i mi
Имеем: P (H i ) =
;
4
∑ n j mi
j =1
P(H1)=0.05263; P(H2)=0.15789; P(H3)=0.52632; P(H4)=0.26316.
P(A/H1)=0.01; P(A/H2)=0.02; P(A/H3)=0.05; P(A/H4)=0.02.
P(H1)P(A/H1)+...+P(H4)P(A/H4)=0.0352633;
P(H1/A)=0.0149; P(H2/A)=0.0895; P(H3/A)=0.7463; P(H4/A)=0.1493.
182
39. Схема последовательных независимых испытаний.
Биномиальное распределение.
39.1. Схема последовательных независимых испытаний
Определение 1. При практическом применении теории вероятностей
часто приходится встречаться с задачами, в которых один и тот же опыт
или аналогичные явления повторяются неоднократно. Если в результате
опыта могут повторяться 2 или несколько исходов A1,A2,...,An, причем они
образуют полную группу событий, и вероятности их появления не зависят
от номера опыта, то эта последовательность опытов называется схемой последовательных независимых испытаний.
39.2. Испытания Бернулли
Определение 2. Повторные независимые испытания называются испытаниями Бернулли, если каждое испытание имеет только два возможных
исхода, и вероятности исходов остаются неизменными для всех испытаний.
Обычно исходы называют "успехом" и "неудачей", а их вероятности
обозначают соответственно через p и q. Очевидно, что числа p,q>0 и
p+q=1.
Пространство элементарных событий каждого отдельного испытания
состоит из двух точек У (успех) и Н (неудача). Пространство n испытаний
Бернулли содержит 2n точек или последовательностей из n символов У и
Н; каждая точка представляет собой один из возможных исходов составного испытания. Поскольку испытания независимы, вероятности перемножаются. Иначе говоря, вероятности любой конкретной последовательности
есть произведение, полученное при замене символов У и Н на p и q соответственно. Таким образом,
P(УУНУН...ННУ)=ppqpq...qqp.
Примеры. Наиболее известным примером испытаний Бернулли являются последовательные бросания симметричной монеты. Здесь p=q=1/2.
Если монета несимметрична, то по прежнему считаем последовательные
бросания независимыми и тем самым получаем модель испытаний Бернулли с произвольной вероятностью успеха. Повторные извлечения шаров
из урны с одним и тем же набором шаров представляют собой схему испытаний Бернулли.
Часто встречаются более сложные исходы, но нам для применения
схемы Бернулли необходимо только четко определить, что считать успехом, а что неудачей.
183
Так, десятка, валет, дама, король и туз одной масти при игре в покер
или две единицы при бросании пары костей могут представлять собой
успех. Называя остальные исходы неудачей, получаем испытания Бернулли с p=1/(649740) и p=1/36 соответственно.
Примечание. Схема испытаний Бернулли - это теоретическая модель,
и только опыт может показать, подходит ли она для описания конкретных
наблюдений. Философ К. Марбе (K. Marbe) разделяет мнение несведущих
людей, считающих, что после 20 последовательных выпадений герба появление решетки становится более вероятным. Это убеждение возникает изза того, что природа наделяется памятью или - в наших терминах - отрицается статистическая независимость последовательных испытаний. Утверждение Марбе не может быть опровергнута логически, но отвергается потому, что она не подтверждается эмпирически.
При проведении выборок, при промышленном контроле качества и
т.д. схема испытаний Бернулли представляет собой идеальную модель, хотя никогда полностью не соответствует действительности. Причины, по
которым выпуск продукции не укладывается в схему Бернулли таковы:
машины меняются, поэтому вероятности не остаются постоянными; в работе машин есть некоторое постоянство и, следовательно, появление
длинных серий отклонений похожего типа более вероятны, чем если бы
исходы были действительно независимыми. Однако, с точки зрения контроля качества желательно, чтобы этот процесс соответствовал схеме Бернулли, и важно то, что в определенных границах этого можно добиться.
Тогда цель текущего контроля - обнаружить на ранней стадии значительные отклонения от идеальной схемы, указывающей на предстоящие неприятности.
39.3. Биномиальное распределение
Обозначим через n общее количество проведенных опытов. Пусть
нас интересует вероятность того, что было k успехов.
Рассмотрим событие A="n испытаний закончились k успехами и (n-k)
неудачами". Это событие содержит столько элементарных событий, сколько существует способов размещения k букв на n местах, т.е. Cnk точек.
Каждая точка имеет вероятность pkqn-k.
Таким образом, доказана следующая теорема:
Теорема. Пусть P(k;n,p) - вероятность того, что n испытаний Бернулли с вероятностями успеха p и неудачи q=1-p закончились k успехами и nk неудачами. Тогда
(1)
P ( k ; n , p ) = Cnk p k q n − k .
n
Примечание: в частности, q есть вероятность того, что успехов не
будет, а вероятность того, что будет хотя бы один успех, равна 1-qn.
184
Пример. Сколько испытаний с вероятностью p=0.01 нужно провести,
чтобы вероятность хотя бы одного успеха была не меньше 1/2?
Здесь мы ищем наименьшее целое число n, для которого 1-0.99≥1/2.
Имеем: 1/2 ≥ 0.99n; -1≥nlog 0.99 ; n ≥ 70.
39.4. Максимальная вероятность и хвосты
Из (1) видно, что
P ( k ; n, p)
( n − k + 1) p
( n + 1) p − k
(2)
=
=1+
.
P ( k − 1; n, p)
kp
kq
Отсюда видно, что вероятность P(k;n,p) больше предыдущей для
k<(n+1)p и меньше для k>(n+1)p. Если (n+1)p=m - целое число, то
P(m;n,p)=P(m-1;n,p). Существует только одно целое число m такое, что
(n+1)p-1 < m ≤ (n+1)p
(3)
и мы получаем следующую теорему.
Теорема. При изменении k от 0 до n члены P(k;n,p) сначала монотонно возрастают, затем монотонно убывают, достигая наибольшего значения
при k=m; если же m=(n+1)p, то наибольшее значение достигается дважды:
P(m-1;n,p)=P(m;n,p).
39.5. Закон больших чисел
Пусть Sn - число успехов в n испытаниях. Интуитивно ясно, что величина Sn/n (средняя доля успехов) должна стремиться к p (вероятность
успеха).
Рассмотрим следующую цепочку неравенств.
n
P{Sn ≥ r} = ∑ P(i; n, p).
(4)
i =r
Т.к. члены ряда (4) убывают быстрее геометрической прогрессии со
знаменателем 1-(r-np)/rq, то P{Sn=r}≤P(r;n,p)rq/(r-np).
С другой стороны, P(r;n,p) не больше, чем (r-np)-1, поэтому
P{Sn≥r}≤rq/(r-np)2, если r>np
(5)
2
Согласно (5) имеем: P{Sn>n(p+ε)}≤1/(nε ).
С другой стороны, аналогично, P{Sn<n(p-ε)}≤1/(nε2).
Отсюда получаем, что
S

(6)
P  n − p < ε  → 1 ∀ε > 0.
n


Это утверждение является классической формой закона больших чисел.
185
Предостережение. Стало обычным делать из закона больших чисел
выводы, которые определенно из него не следуют. В первую очередь это
связано с тем, что предел (6) определен как предел вероятности, но не предел числа.
Пусть Петр и Павел бросают симметричную монету 10 000 раз. Принято считать, что Петр будет впереди приблизительно половину времени.
Но это неверно. При большом количестве различных игр с бросанием монеты есть основания ожидать, что в любой фиксированный момент времени число появлений герба больше приблизительно в половине всех случаев. Однако, почти наверняка победивший игрок был впереди практически
в течение всей игры.
39.7. Приближение Пуассона
Формула (1) во многих случаях является практически неприменимой. Это происходит, если n велико и/или p (q) мало. Введем новое
обозначение: λ=np.
Имеем следующую цепочку: P(0;n,p)=(1-p)n=(1-l/n)n.
Переходя к логарифмам и используя разложение Тейлора, находим:
logP(0;n,p)=nlog(1-λ/n)=-λ-λ2/(2n)-...
При больших n отсюда получаем, что
P(0;n,p)~e-λ
(7)
Из (2) для произвольного k и достаточно большого n имеем:
P ( k ; n , p)
λ − ( k − 1) p λ
(8)
=
≈ .
P ( k − 1; n, p)
kq
k
Отсюда последовательно получаем:
P (1; n, p) ≈ λP (0; n, p) ≈ λ exp( − λ );
1
λ2
P (2; n, p) ≈ λP(1; n, p) ≈ exp( − λ );
2
2
......................................................;
(9)
λ
λk
P ( k ; n, p) ≈ P ( k − 1; n, p) ≈
exp( − λ ).
k
k!
Выражение (9) является классическим пуассоновским приближением
для биномиального распределения. В силу большой важности этого приближения введем обозначение
λk
p( k ; λ ) = exp( − λ ).
(10)
k!
Примеры.
186
а). Какова вероятность того, что в группе из 500 человек ровно k родилось 1 января? Если эти 500 человек выбраны случайно, то можно применить схему из 500 испытаний Бернулли с вероятностью успеха p=1/365.
Для Пуассоновского приближения положим λ=500/365=1.3699...
Теоретические биномиальные вероятности и их пуассоновские приближения приведены ниже:
k
0
1
2
3
4
5
6
P(k;n,p) 0.2537 0.3484 0.2388 0.1089 0.0372 0.0101 0.0023
0.2541 0.3481 0.2385 0.1089 0.0373 0.0102 0.0023
p(k;λ)
б) Предположим, что при производстве шурупов используется статистический контроль качества и поэтому законно применение схемы испытаний Бернулли. Если вероятность того, что шуруп окажется дефектным, равна p=0.015, то вероятность того, что коробка со 100 шурупами не
содержит брака, равна (0.985)100=0.22061. Соответствующее пуассоновское
приближение дает exp(-1.5)=0.22313, что достаточно точно для большинства применений. Теперь поставим вопрос: сколько шурупов должно быть
в коробке, чтобы вероятность обнаружить в ней, по крайней мере, 100 недефектных шурупов была не меньше 0.8? Если 100+x - искомое число шурупов, то x - небольшое целое. Чтобы применить пуассоновское приближение для n=100+x испытаний, нужно положить λ=np, но np~100p=1.5. Теперь задача свелась к нахождению наименьшего целого числа x, для которого
p(x)=exp(-1.5)(1+1.5/1+...+(1.5x)/x!)≥0.8.
Для x=1 имеем p1=0.56; для x=2 - p2=0.809.
Итак, необходимо иметь 102 шурупа в коробке.
187
40. Случайные числа. Дискретные распределения и их характеристики.
40.1. Случайная величина
Во многих источниках на равных основаниях используют термины
"случайное число" и "случайная величина". Мы в дальнейшем будем использовать оба этих термина.
Определение 1. Функция, определенная на пространстве элементарных событий, называется случайной величиной.
Ниже мы будем использовать следующие обозначения:
X - случайная величина;
Xj, j=1...n множество значений случайной величины X;
ξ - реализация случайной величины X (исход опыта, значение принимаемое случайной величиной в конкретном опыте, наблюдении).
Пусть X - случайная величина, а x1,...,xn,... - ее значения. Совокупность всех элементарных событий, на которых X принимает фиксированное значение xj, образует событие ξ=xj; его вероятность обозначается через
P(ξ=xj).
Определение 2. Функция
f(xj)=P(ξ=xj)
(1)
называется распределением вероятностей (рядом распределения) случайной величины X. (иногда используется термин "закон распределения").
Очевидно, что
f ( x j ) ≥ 0 ∀j ,
n
∑ f ( x j ) = 1.
(2)
j =1
Рассмотрим теперь две случайные величины X и Y, определенные
на одном пространстве элементарных событий и обозначим их значения
соответственно x1,...,xj,... и y1,...,yk,...; их реализации - через ξ и η. Пусть соответствующие распределения вероятностей будут f(xj) и g(yk). Совокупность точек, для которых выполнены оба условия ξ=xj и η=yk, образуют
событие, вероятность которого обозначим через P{ξ=xj,η=yk}.
Определение 3. Функция
P{ξ=xj,η=yk}=pjk (j,k=1,2,3,...)
(3)
называется совместным распределением вероятностей случайных величин
X и Y.
Очевидно, что
p jk ≥ 0,
∑ p jk = 1.
(4)
j,k
Кроме того,
188
∀j:
∑ p jk = P{ξ = x j } = f ( x j ); 

(5)

∀k : ∑ p jk = P{η = y k } = f ( y k ) 
j

Понятие совместного распределения переносится аналогично на системы из более чем двух случайных величин.
k
40.2. Условная вероятность
Условная вероятность события η=yk при условии ξ=xj [f(xj)≠0] записывается в виде
p jk
(6)
P{η = y k ξ = x j } =
.
f (x j )
Функция (6) называется условным распределением случайной величины Y при заданном X и обозначается P{Y|X}. В общем случае условная
вероятность (6) отличается от функции g(yk). Это означает, что по известным значениям X можно сделать некоторые выводы о значениях Y и
наоборот. Тогда говорят, что две случайные величины статистически связаны (зависят друг от друга). Наибольшая степень зависимости будет при
наличии детерминированной функциональной связи между этими величинами.
Пример 1. Производится четыре выстрела по мишени. Вероятность
попадания при каждом выстреле равна p=0.3. Построить ряд распределения случайной величины числа попаданий в мишень.
Используем биномиальное распределение: p ( ξ = n ) = C4n p n (1 − p ) 4 − n
(n=0,1,2,3,4 - число попаданий в мишень при 4-х выстрелах).
В результате вычислений получим:
n
0
1
2
3
4
0.2401
0.4116
0.2646
0.0756
0.0081
p(ξ=n)
40.3. Математическое ожидание
Определение 4. Пусть X - случайная величина, принимающая значения x1,...,xj,... с вероятностями f(x1),..., f(xj),... Математическое ожидание,
или среднее, случайной величины X определяется формулой
∞
E( X) ≡ Eξ ≡ M ( X) ≡ Mξ = ∑ xi f ( xi ).
i =1
(7)
при условии, что ряд в правой части абсолютно сходится. В этом случае
говорят, что X имеет конечное математическое ожидание.
189
Иногда удобно представить себе вероятности как пределы частот,
наблюдаемых в повторных опытах. Такое представление приводит к следующей интуитивной трактовке понятия математического ожидания.
Пусть некоторый опыт повторяется при неизменных условиях n раз, и
пусть x1,x2,...,xn - наблюдающиеся в действительности значения величины
1 n
X. При больших значениях n среднее значение ∑ xi должно быть близко
n i =1
к Mξ. Законы больших чисел придают этому описанию точный смысл.
Теорема 1. Каждая функция ϕ(x) определяет новую случайную величину ϕ(X). Если ϕ(X) имеет конечное математическое ожидание, то
M (ϕ(x)) =
∞
∑ ϕ( xk ) f ( xk ).
(9)
k =1
Ряд в правой части сходится тогда и только тогда, когда M(ϕ(X))
существует. Для любой постоянной α справедливо соотношение
M(αX)=αM(X).
Теорема 2. Если случайные величины X1,...,Xn имеют математические ожидания, то математическое ожидание их суммы равно сумме их
математических ожиданий:
∞  ∞
M ∑ ξi  = ∑ Mξi .
(10)
 i =1  i = 1
Доказательство. Достаточно доказать (10) для двух случайных величин X и Y. Имеем:
Mξ + Mη = ∑ x j p jk + ∑ y k p jk = ∑ ( x j + y k ) p jk ,
j,k
j,k
j,k
что по определению является математическим ожиданием суммы.
Замечание. Аналогичная теорема о произведении математических
ожиданий неверна.
Теорема 3. Если X и Y - независимые случайные величины с конечными математическими ожиданиями, то их произведение является случайной величиной с конечным математическим ожиданием:
M(ξη)=Mξ⋅Mη
(11)
Доказательство. Имеем:
M( ξη) = ∑ x j y k f ( x j ) g ( y k ) = ∑ x j f ( x j ) ⋅ ∑ y k g ( y k ),
j,k
j
j,k
причем перестановка членов возможна в силу абсолютной сходимости рядов.
190
40.4. Дисперсия
Определение 5. Пусть X - случайная величина с распределением f(xj)
и пусть r≥0 - некоторое целое число. Если математическое ожидание величины xr, т.е.
M(ξ r ) = ∑ x rj f ( x j ),
(12)
j
существует, то оно называется моментом порядка r случайной величины X.
Моменты играют важную роль, но мы ограничимся моментами первого и второго порядков.
Математическое ожидание является моментом первого порядка, который имеет обозначение
µ=Mξ
(13)
Заменим значение случайной величины ее отклонением от математического ожидания: η=ξ-µ. Т.к. имеет место неравенство
(ξ−µ)2≤2(ξ2+µ2), момент второго порядка величины X-µ существует, если
существует Mξ2, и определяется по формуле
M[( ξ − µ ) 2 ] = ∑ ( xi2 − 2µxi + µ 2 ) f ( xi ) = 

i
(14)

2
2
2
2

= Mξ − 2µMξ + µ = Mξ − µ .
Определение 6. Пусть X - случайная величина, имеющая момент второго порядка Mξ2, и пусть µ - ее математическое ожидание. Определим величину, называемую дисперсией случайной величины X, формулой
Var X=DX=Dξ=M[(ξ−µ)2]
(15)
Положительное значение корня квадратного из этого числа называется стандартным отклонением σ (средним квадратическим отклонением)
случайной величины X.
Пример 2. Вычислить математическое ожидание и дисперсию числа
появления событий в последовательности из n независимых испытаний.
В соответствие с биномиальным распределением имеем:
n
n
n
d 
Mξ = ∑ iCni p i q n − i = p ∑ iCni p i −1q n − i = p ∑ Cni  p i  q n − i =
 dp 
i=0
i =1
i =1
d n i i n −i
d
Cn p q
= p ( p + q ) n = np( p + q ) n − 1 = np.
∑
dp i = 0
dp
Учтем теперь, что в нашем случае, когда мы имеем дело с вероятностями, p+q=1. Тогда получаем, что Mξ=np.
Повторяя дважды примененный выше прием, получим, что дисперсия Dξ=npq.
=p
191
Пример 3. Вычислить математическое ожидание и дисперсию распределение Пуассона.
∞
∞
λi
λi −1
d ∞ λi
Mξ = ∑ i exp( −λ ) = λ exp( −λ ) ∑ i
= λ exp( − λ ) ∑ =
dλ i = 0 i !
i = 0 i!
i =1 i !
d
exp( λ ) = λ.
dλ
Таким образом, Mξ=λ.
Аналогичным образом можно получить, что Dξ=λ.
Достаточно очевидно следующее свойство дисперсии. Пусть ξ - реализация случайной величины X, а η реализация случайной величины Y,
причем η=aξ+b. Тогда
Dη=D(aξ+b)=a2Dξ
(16)
При исследовании случайных (и не только случайных) величин выбор начала отсчета и единицы измерения достаточно произволен. Часто за
начало отсчета удобно брать среднее, а за единицу измерения - стандартное отклонение. Тогда, если случайная величина X имеет математическое
ожидание µ и дисперсию σ2, то X-µ имеет нулевое среднее и дисперсию σ2,
~ X−µ
поэтому случайная величина X =
имеет нулевое среднее и единичσ
ную дисперсию. Она называется нормированной случайной величиной. На
~
языке физики переход от X к X трактуется как введение безразмерной величины.
= λ exp( − λ )
40.5. Ковариация; дисперсия суммы
Пусть X и Y - две случайные величины, определенные на одном пространстве элементарных событий. Тогда X+Y и XY - тоже случайные величины, и их распределения могут быть найдены путем простой группировки членов совместного распределения X и Y. Наша цель состоит теперь
в вычислении Var (X+Y).
Введем понятие ковариации.
Определение 7. Ковариация случайных величин X и Y определяется
формулой
Cov(X,Y)=M[(ξ−µ(x))⋅(η−µ(y))]=M(ξη)-µ(x)µ(y)
(17)
Это определение имеет смысл, если X и Y имеют конечные дисперсии.
Ранее мы получили, что для независимых случайных величин имеет
место соотношение Mξη=MξMη. Тогда имеет место
Теорема 4. Если случайные величины X и Y независимы, то
Cov(X,Y)=0.
192
Замечание: обратное утверждение неверно.
Теорема 5. Если случайные величины X1,X2,...,Xn имеют конечные
дисперсии σ12,σ22,...,σn2 и Sn=X1+X2+...+Xn, то
n
Var(S n ) = D(S n ) = ∑ σ i2 + 2 ∑ Cov( X j , X k ).
i =1
(18)
j<k
В частности, если все случайные величины попарно независимы, то
n
D(S n ) = ∑ σ i2 .
(19)
i =1
Пример 4 . Пусть дано биномиальное распределение с вероятностями p и q=1-p соответственно. Поставим в соответствие успеху число 1, а неудаче - число 0. Рассмотрим серию испытаний. В k-м испытании
случайная величина I(k) может принимать значения 1 и 0 с вероятностями
p и q соответственно. Ее математическое ожидание равно M(I)=1⋅p+0⋅q=p.
Дисперсия равна
D(I)=12⋅p+02⋅q-p2=p-p2=p(1-p)=pq.
Рассмотрим сумму
случайных величин
Sn=I(1)+I(2)+...+I(n). Т.к. испытания независимы, то и величины I(k)
тоже независимы. Математическое ожидание Sn есть математическое ожидание числа успехов в серии из n испытаний. Оно равно
M (S n ) = ∑ M ( I( k )) = np.
Дисперсия этого числа равна D(S n ) = ∑ D( I( k )) = npq.
Этот же результат был получен с большими трудностями в примере 2.
40.6. Коэффициент корреляции
Определение 8. Пусть X и Y - две произвольные случайные величины
со средними µ(x) и µ(y) и ненулевыми дисперсиями σ(x) и σ(y). Введем со~ ~
ответствующие нормированные случайные величины X и Y . Их ковариация называется коэффициентом корреляции случайных величин X и Y и
обозначается r(X,Y):
Cov( X, Y)
~ ~
(20)
r ( X, Y) = Cov( X, Y) =
.
σ( x)σ( y)
Ясно, что коэффициент корреляции не зависит от выбора начала координат и единиц измерения, т.е. для любых произвольных постоянных
a,b,c,d, где a,c>0, имеем:
r(aξ+b,cη+d)=r(ξ,η)
(21)
С физической точки зрения коэффициент корреляции можно рассматривать как безразмерную ковариацию.
Коэффициент корреляции отличен от нуля, если случайные величины зависимы. Обратное неверно!!! Возможны случаи, когда коэффициент
193
корреляции равен нулю, а величины связаны детерминированной функциональной связью.
Теорема 6. Всегда |r(ξη)|≤1, причем r(ξη)= ±1 только тогда, когда
существуют постоянные a и b такие, что справедливо равенство η=aξ+b, за
исключением, быть может, тех значений X, которые принимаются с нулевой вероятностью.
40.7. Неравенства Чебышева и Колмогорова
Теорема 7. Для произвольного t>0 справедливо следующее неравенство, называемое неравенством Чебышева:
(22)
P{|ξ |≥t}≤Mξ2)/t2
В частности, если математическое ожидание равно µ, то
P{|ξ−µ|≥t}≤Dξ/t2
(23)
Теорема 8 (неравенство Колмогорова).
Пусть X1,X2,...,Xn - взаимно независимые случайные величины с математическими ожиданиями µi и дисперсиями σk2. Положим
Sk=X1+X2+...+Xk,
mk=M(Sk)=µ1+µ2+...+µk,
sk2=D(Sk)=σ12+...+σk2.
Для каждого t>0 вероятность того, что одновременно выполняется n
неравенств
P{|Sk-mk|<t⋅sk}≥1−t2 (k=1,2,...,n)
(24)
При n=1 эта теорема сводится к неравенству Чебышева.
194
41. Распределение Пуассона. Нормальное распределение.
41.1. Распределение Пуассона
Ранее мы рассматривали распределение Пуассона лишь как удобное
приближение для биномиального распределения в случае больших n и малых p. Факты, однако, показывают, что распределению Пуассона подчиняются многие события. Это является частным случаем утверждения, что
существует ограниченное количество распределений, описывающих реальные процессы. Три основных распределения охватывают подавляющее
количество случайных процессов. Это нормальное или гауссово распределение, биномиальное распределение и распределение Пуассона.
Рассмотрим последовательность происходящих с течением времени
случайных событий, таких как радиоактивный распад или вызовы на телефонной станции. Каждое событие можно представить точкой на временной
оси. Нас интересует распределение этих точек.
Представим себе единичный интервал времени, разделенный на n
подинтервалов длиной 1/n. Заданную конечную совокупность точек в этом
интервале можно рассматривать как результат случайного процесса, при
котором каждый подинтервал имеет одну и ту же вероятность p того, что в
нем содержится одна или несколько точек совокупности. Подинтервал является либо занятым, либо пустым, и из предположения о независимости
неперекрывающихся интервалов времени вытекает, что мы имеем дело с
испытаниями Бернулли: вероятность получить ровно k занятых подинтервалов равна P[k ; n, p] = Cnk p k q n−k . Полагая, что n стремится к бесконечности, мы делаем эту дискретную модель все более и более точной.
При этом вероятность того, что весь интервал вообще не содержит точек
совокупности, должна стремиться к конечному пределу. Но весь интервал
не содержит точек тогда и только тогда, когда ни один подинтервал не занят, а вероятность последнего события равна [1-p]n . Переходя к логарифмам, мы видим, что эта величина стремится к пределу одновременно с n·p.
Случай n·p→∞ невозможен, так как он означал бы, что в сколь угодно малый интервал попадают бесконечно много точек совокупности. Поэтому в
нашей модели неизбежно существует такое число λ, что n·p→λ. В этом
случае вероятность иметь ровно k занятых подинтервалов стремится к
p(k;λ)=exp(-λ)· (λk)/k!
В приложениях единичный интервал времени необходимо заменить
интервалом произвольной длины t. Если разделить его на подинтервалы
длиной 1/n, то вероятности p(n) останутся прежними, но число подинтервалов равно nt. Переход к пределу даст ту же формулу, только λ заменяется на λt. Это приводит нас к интерпретации величины
195
( λt ) k
exp(−λt )
(1)
k!
как вероятность иметь ровно k точек в фиксированном интервале времени
длины t. В частности, вероятность того, что в интервале длины t не будет
ни одной точки, равна p(0;λt)=exp(-λt). Вероятность иметь одну или более
точек равна p=1-exp(-λt).
Параметр λ - физическая постоянная, которая определяет плотность
точек на временной оси.
Предположим, что некоторый физический эксперимент повторяется
большое число N раз, и что каждый раз подсчитывается число событий в
интервале фиксированной длины (число распадов атомов некоторого вещества; число выходов из строя определенной аппаратуры; число телефонных соединений; число появления в потоке высокого уровня брака и
т.д.). Пусть Nk - количество экспериментов, в которых наблюдалось ровно
k событий. Тогда
N1+N2+N3+...=N
(2)
Общее число наблюдавшихся событий равно
T=N1+2N2+3N3+4N4+...
(3)
Среднее число наблюдавшихся в одном опыте событий равно T/N.
При больших N оправдано ожидание того, что
Nk=N×p(k;λt)
(4)
Подставляя (4) в (3), находим:
T=N[p(1;λ)+2p(2,λ)+3p(3,λ)+...]=Nexp(-λt)(λt)[1+λt+(λt)2/2!+...]=Nλt (5) Отсюда,
λt=T/N
(6)
Пример 1. Книга в n страниц содержит в среднем λ опечаток на
страницу. Оценить вероятность того, что хотя бы на одной странице будет
более k опечаток.
Решение. Применяем распределение Пуассона.
Вероятность того, что на странице ровно i опечаток, равна p(i;λ). Вероятность того, что опечаток более k равно
p ( k , λt ) =
p=
N
∑ p (i , λ )
(7)
i = k +1
Здесь N=λn (максимально возможное количество опечаток). Строго
говоря, суммирование необходимо производить до бесконечности, но реально опечаток может быть не более N.
41.2. Нормальное приближение для биномиального распределения
Определение 1. Функция, определяемая формулой
196
 x2 
1
(8)
exp − 
2
2π


называется плотностью нормального распределения; ее интеграл
x
 x2 
1
(9)
Φ( x ) =
exp −  dx
2π −∞  2 
ϕ( x ) =
∫
называется нормальной функцией распределения.
Эти функции играют огромную роль в теории вероятностей и математической статистике.
Лемма 1. Ф(+∞)=1. Это утверждение эквивалентно утверждению,
что площадь под графиком функции y=ϕ(x) равна 1.
Доказательство. Имеем
2
∞
 ∞
 ϕ( x)dx =


 −∞
 −∞
∫
∞
1
∞
∞
 x2 + y 2 
dxdy.
exp −
2 

−∞
∫ ∫ϕ(x)ϕ( y)dxdy= ∫ ∫
−∞
−∞
Перейдем к полярным координатам. Получим:
2π
 r2 
1
dγ exp − rdr = 1 .
2π 0
 2
Теорема 1 (локальная теорема Муавра-Лапласа). Пусть вероятность
некоторого события A постоянна и равна p: 0<p<1. Тогда вероятность
P(n,m) того, что в n испытаниях это событие наступит ровно m раз, удовлетворяет следующему соотношению:
npq P( n, m)
m − np
lim
= 1 . Здесь x( m ) =
.
2
n →∞
 x ( m) 
1
npq

exp −
2
2π


Теорема 2. Интегральная теорема Лапласа.
Пусть m - число наступления события в n независимых испытаниях,
в каждом из которых вероятность этого события равна p, причем 0<p<1.
Тогда равномерно относительно a и b (a<b) при n→∞ имеет место соотношение:
b


 x2 
m − np
1
lim P  a <
< b =
exp  − dx
(11)
∫
2
npq
2
π


a


Пример 2. 1000 раз бросаем монету. Какова вероятность того, что
она выпала 520 раз? (n=1000,m=520,p=1/2)
Применяем локальную теорему Муавра-Лапласа.
∫ ∫
Вычисляем: npq = 1000 ⋅ 0.5⋅ 0.5 =15.811388
520 − 1000 ⋅ 0.5
xm =
= 1.264911; ϕ( xm ) = 0.17926 . P(n, m)=0.01337166
1000 ⋅ 0.5 ⋅ 0.5
197
Пример 3. В условиях примера 2 найти вероятность того, что монета
выпадет от 400 до 600 раз?
Применяем интегральную теорему Муавра-Лапласа.
Вычисляем: np=500; вводим x=(m-np)/ npq .
a=x(m=400)=-2× 10 ; b=x(m=600)=2× 10 ;
P(400<m<600)=2Ф(2 10 )=0.999999...
При использовании этих теорем необходимо обращать внимание на
тот факт, что при больших n абсолютная ошибка в определении вероятности может стать сколь угодно малой, в то время как относительные ошибки, особенно в случае вычисления малых вероятностей, в это же время могут быть сколь угодно велики. Поэтому при проведении расчетов необходима сугубая осторожность, особенно, если результаты расчетов будут
применяться на практике.
198
42. Непрерывные случайные величины. Функция распределения. Плотность вероятности. Характеристики
случайных чисел.
42.1. Функция распределения
Ранее мы ввели понятие "закон распределения". Помимо этого важного понятия в теории вероятностей используется также понятие "функция
распределения".
Определение 1. Пусть X - некоторая случайная величина. Определим
функцию, называемую функцией распределения, следующим образом:
F(x)=P(ξ<x)
(1)
Если рассматривать значение случайной величины как точку на числовой оси, то значение функции распределения F(x) равна вероятности того, что случайная величина в результате опыта примет значение ξ, лежащее левее точки x.
Для дискретной случайной величины функция распределения вычисляется следующим образом:
F ( x ) = ∑ P ( ξ = xi )
(2)
ξ< x
Запись 'ξ<xi' означает, что суммирование производится по всем тем
значениям xi, которые меньше x.
Из выражения (2) следует, что для дискретных случайных величин
функция F(x) является разрывной, возрастает скачками при переходе через
точки x=xi, а величина скачка равна соответствующей вероятности P(ξ=xi).
Функция распределения обладает следующими свойствами.
1). F(x) - неотрицательная функция, заключенная между 0 и 1. Это
следует из ее определения через вероятность.
2). F(x) - неубывающая функция.
Пусть x1≤x2. Покажем, что F(x1)≤F(x2).
F(x2)=P(ξ<x2)=P[(ξ<x1)∪(x1≤ξ<x2)]=P(ξ<x1)+P(x1≤ξ<x2);
F(x2)=F(x1)+ P(x1≤ξ<x2).
Т.к. второе слагаемое в правой части неотрицательно, то функция
распределения - неубывающая.
3). F(-∞)=0; F(+∞)=1.
При неограниченном перемещении точки x влево попадание случайной величины левее становится невозможным событием. Наоборот, при
перемещении точки x вправо попадание случайной величины левее точки x
становится достоверным событием.
4). Вероятность того, что случайная величина окажется в полузамкнутом интервале [x1,x2) равна
199
P(x1≤ξ<x2)=F(x2)-F(x1)
Доказательство.
(3)
A
C
B
Обозначим события: A - ξ<x1; B - ξ<x2; C - x1≤ξ<x2.
Очевидно, что B=A∪C=A+C. Т.к. A∩C=AC=0, т.е. они являются
несовместными
событиями,
то
P(B)=P(A)+P(C)
или
P(ξ<x2)=P(ξ<x2)+P(x1≤ξ<x2), отсюда F(x2)=F(x1)+P(x1≤ξ<x2). Утверждение
доказано.
42.2. Непрерывная случайная величина
Определение 2. Пусть мощность множества элементарных событий
равна мощности континуума. Сопоставим каждому подмножеству множества элементарных событий некоторое действительное число. В общем
случае множество значений образованной таким образом функции также
имеет мощность континуума. Назовем эту функцию непрерывной случайной величиной.
Очевиден тот факт, что вероятность P(ξ=x) в случае непрерывной
случайной величины равна нулю. Это связано с тем, что множество значений имеет мощность континуума.
Наиболее общей характеристикой такой случайной величины является функция распределения, определенная выше, однако, она имеет тот
недостаток, что по ней трудно наглядно судить о характере распределения
в разных точках. Более наглядной является функция, которая называется
функцией плотности вероятности. Она определяется следующим образом.
Вычислим вероятность попадания случайной величины X на участок
[x, x+δx):
P(x≤ξ<x+δx)=F(x+δx)-F(x)
Составим отношение
P( x ≤ξ< x +δx) F ( x +δx) − F ( x)
=
δx
δx
Перейдем к пределу при δx→0, тогда получим
200
P( x ≤ξ< x +δx)
F( x +δx) −F( x)
lim
=lim
= F′( x)
δx→0
δx→0
δx
δx
(4)
Обозначим F'(x)=f(x).
Определение 3. Функция f(x)=F'(x), определенная как предельный
переход (4) называется функцией плотности вероятностей или просто,
плотностью распределения.
Определение 4. График функции плотности вероятности называется
кривой распределения.
Вероятность попадания случайной величины на элементарный участок δx равна приращению δF(x) функции распределения. С другой стороны, это приращение равно, с точностью до малых второго порядка,
F'(x)δx=f(x)δx. Если рассмотреть сумму
∑ f ( x ) δx , то она представляет
a≤ xk <b
k
собой значение вероятности попадания в некоторый отрезок [a, b), а преb
дел этой интегральной суммы равен интегралу
∫ f ( x )dx
и дает точное
a
значение вероятности попадания в промежуток [a, b):
b
P(a ≤ x<b)= lim ∑ f ( xx ) δxk = ∫ f ( x ) dx
δxk →0
k
(5)
a
Из определения функции распределения следуют следующие соотношения:
F ( x) =
x
∫ f ( t ) dt
(6)
−∞
b
∫ f ( x ) dx = F (b) − F (a)
(7)
a
+∞
∫ f ( x ) dx = 1
(8)
−∞
201
42.3. Примеры непрерывных случайных величин
1. Равномерное (равновероятное) на [a,b] распределение.
Если случайная величина с равной вероятностью может попасть в
любую точку отрезка [a,b], то ее функция плотности равна
 1
, a≤ x≤b

f ( x) =  b − a
(9)
0, x < a or x > b
Функция распределения имеет вид
F ( x) =
x
∫
−∞
x
f ( x ) dx = a ≤ x ≤ b = ∫ f ( x)dx =
a
x−a
b−a
Если x<a, то F(x)=0; если x>b, то F(x)=1.
2. Показательное или экспоненциальное распределение.
Этому распределению подчиняются, например, интервалы времени
между последовательными выходами из строя однотипных приборов; времена между последовательными вызовами в телефонной станции; времена
ремонта сложной техники; время между последовательными прибытиями
автобусов на остановку и т.д., и т.п.
Функция плотности имеет вид:
λ exp ( −λx ) , x ≥ 0
f ( x) = 
0, x < 0
(10)
Функция распределения равна F(x)=1-exp(-λx), x≥0; F(x<0)=0.
3. Нормальное или гауссово распределение.
В общем случае функция плотности имеет вид:
f ( x) =
1
exp
2πσ
−( x −a )
2
2 σ2
(11)
Эта функция определена для любых x и конечных значений параметров a и σ.
x
Функция распределения равна F(x)= F ( x ) =
1
exp
∫
2πσ −∞
−( x − a )
2 σ2
2
dx
Если использовать введенные нами ранее функции ϕ(x) и Ф(x) (см.
формулы (8),(9)), то получим:
 x−a
F(x) =Φ

 σ 
(12)
202
Тогда вероятность попадания случайной величины X в интервал [b,c]
равна
c−a
b−a
P (b ≤ x ≤ c ) = F (c) − F (b) = Φ 
 − Φ

 σ 
 σ 
Следствие:
ε
P ( x − a < ε ) = 2Φ  
σ
(13)
(14)
42.4. Многомерные случайные величины
Определение 5. Пусть Ω - множество элементарных событий; F множество всех подмножеств множества Ω. Если каждому элементу множества F поставлено в соответствие некоторое число P, называемое вероятностью, то говорят, что задано вероятностное пространство (Ω,F,P).
Пусть на вероятностном пространстве определены несколько случайных величин X1,X2,...,Xn. Набор значений всех этих случайных величин
можно рассматривать как радиус-вектор, координаты которого равны значениям соответствующих случайных величин:
ξ=(ξ1,ξ2,...,ξn)
(15)
Этот радиус-вектор определен на n-мерном пространстве.
Пусть B - некоторое подмножество этого пространства.
Определение 6. Совместным законом распределения n случайных
величин X1,X2,...,Xn называется вероятность попадания точки ξ в некоторое
n-мерное многообразие B:
P(ξ;B)=P(ξ ∈ B)
(16)
Задание совместного распределения в случае дискретных случайных
величин уже было рассмотрено в лекции 5.
В случае непрерывных случайных величин определяющим понятием
является функция распределения:
(17)
F(x1,x2,...,xn)=P(ξ1<x1,ξ2<x2,...,ξn<xn)
По аналогии с одномерной плотностью вводится многомерная плотность P(X)=P(x1,x2,...,xn):
x1
x2
xn
−∞
−∞
−∞
F(x1, x2 ,..., xn ) = ∫ dt1 ∫ dt2 K ∫ P( t1,t2 ,L,tn ) dtn
Определение 7. Случайные величины X1,...,Xn называются независимыми, если для любых числовых множеств B1,...,Bn, для которых определены вероятности событий Ci={ξi ∈Bi}, имеет место равенство:
n
P(C1,...,Cn)= ∏ P(C i )
(19)
i =1
203
Иначе говоря,
если вероятность попадания вектора ξ=(ξ1,...,ξn)
в область B=B1×B2×...×Bn равна произведению вероятностей Pi попадания
случайной величины ξi в область Bi, то случайные величины называются
независимыми.
Для независимых случайных величин функция распределения равна
произведению функций распределения каждой из величин. То же для
функций плотности.
42.5. Свертка распределений
Пусть даны две случайные величины X и Y. Пусть случайная величина Z определяется как сумма: ζ=ξ+η.
Пусть P1(x), P2(y) - соответствующие плотности. Вычислим плотность P(z), если X и Y - независимы.
Имеем, учитывая, что совместная плотность равна произведению соответствующих плотностей в силу независимости X и Y:
Fz (z) = P(x + h < z) =
+∞
z
∫∫ P(x)P ( y)dxdy = ∫ P(x)dx ∫ P ( y)dy
1
2
1
x+ y,z
−∞
2
−∞
Сделав замену во внутреннем интеграле y=u-x и изменив порядок
интегрирования, получим:
z
+∞
−∞
−∞
Fz (z) = P(x + h < z)= ∫ du ∫ P1(x)P2 (u − x)dx
Дифференцируя по z, приходим к формуле свертки:
+∞
Pz (z)= ∫ P1(x)P2 (z − x)dx = P1 × P2
(20)
−∞
42.6. Математическое ожидание
Исходя из определения математического ожидания как усредненного
по вероятности набора значений, можно получить следующее выражение
для вычисления этой величины:
+∞
MX= ∫ xf ( x)dx
(21)
−∞
Так же как и в случае дискретных случайных чисел, математическое
ожидание характеризует некоторое среднее значение. Необходимо, правда,
заметить, что математическое ожидание практически никогда, за исключением случаев симметричных распределений, не совпадает с максимумом
204
функции плотности. Свойства математического ожидания, введенного по
формуле (21) те же, что и для математического ожидания дискретной случайной величины.
42.7. Дисперсия
Дисперсия непрерывной случайной величины может быть введена
как усредненный по вероятности квадрат отклонения ее от математического ожидания:
Dξ =
+∞
∫ ( x − M ξ)
2
f ( x )dx
(22)
−∞
Если существуют соответствующие интегралы, то
Dξ =
+∞
∫
x 2 f ( x )dx − ( M ξ )
2
(22')
−∞
Дисперсия характеризует степень отклонения случайной величины
от среднего значения. Чем больше дисперсия, тем выше вероятность появления больших отклонений, чем она меньше, тем меньше и вероятность
отклонений. На практике она характеризует ширину интервала наиболее
часто наблюдаемых значений.
Пример 1. Вычислить математическое ожидание и дисперсию равновероятного распределения.
Имеем:
b
x
1 x2
a+b
Mξ = µ = ∫
dx =
=
b−a
(b − a ) 2 a 2
a
b
(23)
b
x2
1 x3
a 2 + ab + b 2
2
Mξ = ∫
dx =
=
b−a
3
(b − a ) 3 a
a
b
a2 + ab + b2 ( a + b) ( b − a)
Dξ =
−
=
3
4
12
2
(24)
2
(25)
Пример 2. Вычислить математическое ожидание экспоненциального
распределения.
Имеем: M ξ =
+∞
∫
x λ e − λ x dx = 1 / λ
(26)
0
Mξ =
2
+∞
∫ x λe
2
−λx
dx = 2 / λ 2
(27)
0
205
2
1
1
− 2 = 2
(28)
2
λ
λ
λ
Упражнение 1. Доказать, что у нормального распределения Mξ=a,
2
Dξ=σ .
Dξ=
42.8. Корреляция
По аналогии с дискретными случайными величинами введем следующие характеристики совместного распределения двух величин.
Определение 8. Ковариацией двух случайных величин называется
величина, определяемая следующим образом:
cov(ξ,η)=M[(ξ-Mξ)(η-Mη)]
(29)
Из определения ковариации и свойств математического ожидания
следует, что
cov(ξ,η)=M(ξη)-MξMη
(30)
Если случайные величины независимы, то их ковариация равна нулю. Обратное неверно.
Очевидно, что cov(ξ,ξ)=Dξ.
Определение 9. Коэффициентом корреляции двух случайных величин называется число r, определяемое следующим образом:
cov(ξ, η)
r=
(31)
DξDη
206
43. Предельные теоремы
43.1. Индикатор события
Определение 1. Пусть A - некоторое событие. Функция I(A;ω), определяемая соотношением
1, ω ∈ A;
I(A;ω)= 
(1)
0, ω ∉ A,
называется индикатором события A.
Аналогом этой функции мы уже пользовались в примере 4, лекция 5.
Основные свойства индикатора:
1. I(A) - суммируемая дискретная случайная величина.
2. M[I(A)]=P(A).
3. I(A)k=I(A) для любого целого k. Если Ã- отрицание (дополнение
A), то I(Ã)=1-I(A).
I(AB)=I(A)*I(B); I(A+B)=I(A)+I(B).
Пример 1. Т.к.
A+B=A∪B=A+BÃ, то I(A+B)=I(A)+I(BÃ)=
=I(A)+I(B)×I(Ã)=I(A)+I(B)[1-I(A)]=
=I(A)+I(B)-I(AB).
Отсюда получаем, что
P(A+B)=M[I(A+B)]=P(A)+P(B)-P(AB).
43.2. Неравенство Чебышева
Приведенные в этом разделе неравенства позволят нам оценивать
ряд полезных характеристик случайных чисел.
Теорема 1. Для любого натурального k и для любой случайной величины X, имеющей соответствующий момент порядка k, справедливо следующее неравенство, называемое неравенством Маркова: k
P(|ξ|≥δ)≤
( )
Mξ
k
(2)
δk
Доказательство. Обозначим
A={|ξ|≥δ}, тогда |ξ|k ≥ I(A)*|ξ|k ≥ I(A)δk. Отсюда получаем:
M(|ξ|k) ≥ δkM(I(A)) = δkP(A).
Теорема доказана.
Полагая k=2 и заменяя ξ на ξ-Mξ, получим неравенство Чебышева:
P(|ξ-Mξ|≥δ)≤ Dξ/δ2.
Пример 2. Пусть производится n независимых измерений неизвестной величины a. Ошибки измерения считаются случайными незави207
симыми величинами Xi, i=1...n, такими, что M[ξi]=0, т.е. нет систематических погрешностей, а Dξi=b2. Тогда ошибка измерения неизвестной величины путем оценки ее средним значением, равна:
1 n
ηn= ∑ ξ1 ;
n 1
1 n
2
Dηn= 2 ∑ Dξ1 = b / n
n 1
Оценим число измерений, при котором ошибка ηn не превышает δ с
заданной, достаточно большой вероятностью p (обычно величину p выбирают в пределах 0.9...0.999). Тогда
P(|ηn|<δ)=p=0.99 или P(|ηn|≥δ)=0.01=1-p. По неравенству Чебышева
имеем:
Dηn b 2
b2
= 2 или n≥
P(|ηn|≥δ)≤
δ2
nδ
(1 − p ) δ2
43.3. Закон больших чисел
Определим для каждого n дискретные случайные величины ξi,
i=1...n, независимые в совокупности и принимающие значения 1 или 0 с
вероятностями p и q=1-p соответственно. Положим µn=ξ1+ξ2+...+ξn.
Таким образом, имеем схему Бернулли из n независимых испытаний,
а µn - число успешных исходов.
Следующее утверждение есть простейший вариант закона больших
чисел.
Теорема 2 (теорема Бернулли). Для любого положительного числа ε
справедливо следующее соотношение:

 µn
lim
P
−
p
<
ε

 =1
n →∞
 n

(3)
Доказательство. Доказательство немедленно следует из неравенства
Чебышева и соотношения
P(|µn/n-p|<ε)=1-P(|µn/n-p|≥ε)
Необходимо доказать, что вероятность в правой части стремится к
нулю.
Из неравенства Чебышева следует, что
µ
 D (µ n / n )
lim P  n − E < ε  ≤
→0
2
n→∞
n→∞
n
n
ε


208
Полученное неравенство есть закон больших чисел в форме А.Я.
Хинчина.
Теорема 3 (закон больших чисел).
Пусть ξi, i=1...n - независимые, одинаково распределенные случайные величины и пусть Dξi<∞ для любого i. Положим Sn=ξ1+ ξ2+...+ξn,
Mξi=E. Тогда для любого ε>0 справедливо следующее соотношение:
 Sn

lim
P
−
E
≥
ε

=0
n→∞
n


(4)
Замечание. Закон больших чисел может быть также применен в следующих случаях:
1. При n→∞ D(ξ1+...+ξn)/n2 →0.
2. Случайные величины попарно независимы и имеют ограниченные
дисперсии.
43.4. Центральная предельная теорема
В этом разделе мы рассмотрим простейшую формулировку центральной предельной теоремы.
Закон больших чисел указывает, что доля mn/n успешных испытаний
в серии из n независимых испытаний с постоянной вероятностью успеха p
в одном испытании стремится по вероятности при возрастании n к p. Однако, это утверждение не дает нам никакой информации о том, как апроксимировать распределение дискретной случайной величины µn при больших n.
µ − M µn
Рассмотрим дискретную случайную величину µ% n = n
, где
Dµ n
µn=ξ1+...+ξn, a ξi=1, если в i-м испытании был успех, и равно нулю в противном случае.
Справедлива следующая теорема.
Теорема 3. Если случайные величины ξi, i=1...n независимы, P(ξi=1)=
=1-P(ξi=0)=p, то
t
t
 µ − Mµ

−
1
n
n
lim P 
< x =
e 2 dt
∫


Dµn
2π −∞


2
(4)
Оценка точности этого приближения дается соотношением
| Pµ̃ñ <x - Ф(x) | ≤(p2+q2)/ npq ≤ 1/ npq .
Подобная теорема справедлива и для непрерывных распределений.
Рассмотрим Пример 3. Найдем функцию плотности распределения суммы
209
трех независимых случайных величин, каждая из которых равномерно
распределена на отрезке [-1,+1].
Решение. Плотности этих случайных величин равны
1 / 2, x ∈ [−1,+1];
P(x)= 
0, x ∉ [−1. + 1].
По теореме свертки для суммы η2=ξ1+ξ2 плотность равна
 0, x > 2

1
p( η2 ; x )= ∫ p(u ) p( x − u )du = ∫ p( x − u )du = ( x + 2) / 4, x < 0
2 −1
−∞
( 2 − x ) / 4, x > 0

+∞
+1
Полученное распределение называется распределением Симпсона.
Для суммы трех величин получим через свертку полученной функции и плотности вероятности исходной величины:
0, x > 3

2
( x + 3) / 16, −3 ≤ x ≤ −1
P( ξ1 + ξ 2 + ξ3 , x ) = 
2
(3 − x ) / 8, x < 1

2
( x − 3) / 16,1 ≤ x ≤ 3
Если мы продолжим этот процесс, то график полученной функции
будет все больше и больше напоминать график функции плотности нормального распределения.
Теорема 4. Если случайные величины ξ1,ξ2,...,ξn независимы, одинаковы, распределены и имеют конечную дисперсию σ2, то при n→∞
2
t
−
1
ξ1 +K+ξn − na 
P
< x →
e 2 dt
∫
σ n
2π −∞


x
равномерно по x для любого x, где a=Mξ.
Теорема 5 (теорема Ляпунова). Пусть ξi, i=1...n - независимые случайные величины. Положим
n
n
n
i =1
i =1
i =1
3
An= ∑ Mξ i ; Bn= ∑ Dξ i ; Cn= ∑ M(ξ i − Mξ1 ) .
(C n / B n ) = 0 , то при n→∞
Если lim
n →∞
x
t
ξ1 +K+ξn − An 
−
1
P
< x →
e 2 dt
∫
Bn
2π −∞


2
210
Пример 3. Вероятность и частота.
Оценим, насколько сильно может отличаться частота от вероятности
в серии из n испытаний Бернулли.
Согласно центральной предельной теореме
P(|µn/n-p|>ε)=
σ
+∞ t 2
t2
 µ − np 

−
−
1
1
n 
n
2
2
P
>σ
→
e
dt
+
e
dt
=
2
Φ
−σ=−ε



= 
∫
pq
2π −∞
2π ∫σ
 npq



Здесь параметр σ=ε
n
.
pq
Окончательно,

η 
n 
η
P n −ε< p < n +ε =1− 2Φ−ε
 ≥1− 2Φ −2ε n (pq≤1/4).
n 
n
 pq 
(
)
Таким образом, зная ηn в n испытаниях, можно построить интервал
[ηn/n-ε, ηn/n+ε], который будет покрывать истинное (неизвестное априори)
значение p с любой заданной вероятностью 1- 2Ф(-ε n ) = 1 - α.
Пример 4. Среднее арифметическое.
− ε n 
 ξ + K + ξn

P 1
> ε  =2Ф 

σ
n




Для ε n /σ=3 вероятность
P(|ηn|<ε n /σ)=1-2Ф(-3)=0.997.
Это так называемое правило "трех сигма".
211
ЧАСТЬ 9. ЭЛЕМЕНТЫ МАТЕМАТИЧЕСКОЙ СТАТИСТИКИ
44. Статистические оценки параметров распределения
44.1. Оценки и их свойства
Пусть проводится эксперимент, целью которого является определение некоторой, неизвестной до опыта, величины. Пусть с целью повышения надежности результатов опыта измерения проводятся n раз, причем мы предполагаем, что как условия проведения опыта, так и приборы
не меняются от одного измерения к другому. В результате будет получен
набор из n чисел xi, i=1...n.
Если провести второй опыт с n независимыми измерениями, то будут
получен второй набор чисел, отличающийся от первого.
Процесс из n независимых измерений можно рассматривать как получение реализации некоторой случайной величины. Рассматривая последовательность опытов, в каждом из которых проводится n измерений. Тогда измерение под соответствующим номером i можно рассматривать как
реализацию xi случайной величины Xi. При этом все величины Xi имеют
одинаковую функцию распределения P(ξ<x)=F(x).
Определение 1. Назовем выборкой объема n набор из n независимых
случайных величин с одинаковой функцией распределения.
Пусть по выборке объема n необходимо найти неизвестный параметр
λ закона распределения P(ξ<x)=F(λ,x).
Определение 2. Назовем оценкой неизвестного параметра λ произвольную функцию n неизвестных λ̃=λ[x1,x2,...,xn].
Значения этой функции будем рассматривать как приближенное значение параметра λ. Оценка определяется по значениям выборки. Не любая
оценка будет близкой к оцениваемому параметру λ.
Определение 3. Оценка называется несмещенной, если математическое ожидание оценки равно оцениваемому параметру.
Определение 4. Оценка называется состоятельной, если при n→∞
для любого ε>0 выполняется следующее соотношение: P(|λ-λ|<ε)→1.
Свойство несмещенности означает, что оценка не имеет систематических погрешностей. Свойство состоятельности обеспечивает
сближение оценки с оцениваемым параметром при увеличении числа измерений.
Пример 1. Оценка математического ожидания.
212
Пусть нас интересует значение математического ожидания некоторой случайной величины. Пусть в результате измерений получена выборка
xi, i=1...n объема n. Положим, что дисперсия существует.
Возьмем в качестве оценки математического ожидания µ=Mξ величину
a=[x1+x2+...+xn]/n,
(1)
т.е. среднее арифметическое.
Т.к. измерения независимы и имеют одинаковые математические
ожидания и дисперсии, то
1 n
1
Ma = ∑ M ξ1 = ( nµ ) = µ .
n i =1
n
(2)
Таким образом, среднее арифметическое является несмещенной
оценкой параметра µ (математического ожидания).
Дисперсия величины a равна
1 n
nDξ Dξ
Da = 2 ∑ Dξ1 = 2 =
(3)
n i =1
n
n
Da Dξ
→ 0 или P(|a-µ|<ε)→1, n→∞.
Отсюда получаем: P(|a-µ|≥ε)≤ 2 =
ε
nε 2 n→∞
Таким образом, среднее арифметическое является состоятельной
оценкой математического ожидания (если существует конечная дисперсия
у исследуемой случайной величины).
Для оценки дисперсии случайной величины используется величина
2
S , равная
1 n
2
x
−
a
(
)
S= ∑ i
n i =1
2
(4)
Можно показать, что математическое ожидание этой оценки равно
M(S2)=
n −1
Dξ
n
(5)
Таким образом, средний квадрат отклонения от среднего значения
является смещенной оценкой дисперсии. Для получения более точной
оценки дисперсии следует использовать формулу
1 n
2
x
−
a
(
)
S=
∑ i
n − 1 i =1
2
(6)
Упражнение 1. Доказать формулу (5) и показать, что математическое
ожидание оценки (6) равно дисперсии Dξ.
213
44.2. Распределение средней арифметической и оценки дисперсии в выборках из нормальной совокупности
Теорема 1. Если случайная величина X подчиняется нормальному
закону распределения с параметрами Mξ=µ, Dξ=σ2, а X1, X2,...,Xn - ряд последовательных независимых наблюдений над случайной величиной X,
каждое из которых имеет те же характеристики, что и X, то выборочное
среднее x̃=[x1+...+xn]/n также подчинена нормальному закону с параметрами Mξ̃=µ; Dξ̃=δ2/n.
Следствие: величина
t=
x% − µ
n
σ
(7)
имеет стандартное нормальное распределение, т.е. ее математическое ожидание равно нулю, а дисперсия - единице.
Пример 2. Контролируется длина штампованных деталей, причем
распределение длины имеет нормальное распределение. Найти вероятность того, что средняя длина x̃ деталей, отобранных случайным образом,
отклонится от математического ожидания более чем на 2 mm, если дисперсия случайной величины X равна σ2=9 mm2, а количество деталей в выборке n=16.
Решение. Обозначим математическое ожидание случайной величины
X через µ. Случайная величина x̃ имеет нормальное распределение с параметрами µ и Dx̃=σ2/16. Найдем вероятность того, что |x̃-µ|≥2. Имеем:
 −2 n x% − µ
2 n
P
<
n
<
 =P(-8/3<t<8/3)=
P(|x̃-µ|<2)=P(-2<x̃-µ<2)= 
σ
σ
σ


=Ф(8/3)-Ф(-8/3) = Ф(8/3)-[1-Ф(8/3)]=2Ф(8/3)-1=2×0.9966 - 1 = 0.9922.
Таким образом, P(|x̃-µ|≥2)=1-0.9922=0.0078, т.е. практически можно
быть уверенным, что среднее значение отклоняется от математического
ожидания не более чем на 2 mm.
Приведенные выше результаты справедливы, если известна дисперсия случайной величины X, что, как правило, не соблюдается. Часто можно определить только выборочную дисперсию S2. Можно показать, что величина
T=
x% − µ
n
2
S
(8)
имеет так называемое распределение Стьюдента, таблицы которого
широко распространены.
Что касается оценки дисперсии выборки, то эта величина подчиняется распределению Пирсона χ2, точнее величина
214
nS 2
2
2 имеет распределение χ n с n степенями свободы, а величина
σ
nS% 2
2
2 имеет распределение χ n−1 с (n-1) степенями свободы.
σ
n
1
2
Здесь S2= ∑ ( xi − µ ) - математическое ожидание известно;
n i =1
n
1
2
( xi − x% ) - математическое ожидание неизвестно.
S̃2=
∑
n − 1 i =1
44.3. Доверительный интервал и доверительная вероятность
Оценка неизвестного параметра генеральной совокупности одним
числом (например, математического ожидания средним значением) называется точечной оценкой. Как правило, эта оценка ненадежна, поскольку
нет ответа на вопрос о вероятности отклонения ее от истинного значения.
В связи с этим требуется метод построения так называемого доверительного интервала.
Задача интервального оценивания формулируется следующим образом: по данным выборки построить числовой интервал, относительно которого можно сказать, что искомое значение параметра находится внутри
этого интервала с заранее заданной вероятностью, которая называется доверительной вероятностью.
Определение 5. Доверительным интервалом [λ1, λ2] для параметра λ
называют такой интервал, относительно которого можно с заранее заданной вероятностью p=1-α, близкой к единице, утверждать, что он содержит неизвестное значение параметра λ, т.е.
P(λ1<λ<λ2)=1-α
(9)
Здесь P-доверительная вероятность; α-доверительный уровень или
уровень значимости.
Чем уже доверительный интервал, тем точнее оценка искомого параметра. Наоборот, если доверительный интервал широк, то результатами,
возможно, пользоваться нельзя.
В общем случае границы доверительного интервала могут меняться
от выборки к выборке.
Чем меньше α (т.е. чем больше доверительная вероятность), тем шире доверительный интервал.
215
Решить, какую доверительную вероятность задать для оценивания
доверительного интервала, невозможно только из требований теории вероятностей. Например, если доверительный интервал определяет поле допуска, то α - доля брака. Если мы имеем дело с электрическими лампами,
то вероятность брака 0.01 не является чрезмерно большой, но та же доля
брака в тормозной системе автомобиля недопустима.
44.4. Построение доверительного интервала для математического ожидания при известной дисперсии
1 n
Оценкой математического ожидания является среднее x̃= ∑ xi
n i =1
Если случайная величина имеет нормальное распределение с параметрами Mξ=µ, Dξ=σ2, то x̃ также имеет нормальное распределение с паx% − µ
n распределена с параметрами
раметрами µ, σ2/n. Величина t=
σ
Mt=0, Dt=1.
Таким образом, вероятность любого отклонения x̃ от µ может быть
вычислена по формуле
 x% − µ

P
n < Z p  = Φ(Z p )
 σ

(10)
Здесь Zp - p-квантиль нормального распределения (квантилем называется функция, обратная функции распределения).
Задавая доверительную вероятность p=1-α по таблицам квантилей
нормального распределения можно найти величину Zp: p=Ф(Zp). Тогда доверительный интервал для математического ожидания следующий:
x% −
σ⋅ Z p
n
< µ < x% +
σ⋅ Z p
(11)
n
Пример 3. Случайная величина имеет нормальное распределение с
известным σ=2. Найти доверительный интервал для оценки математического ожидания µ по выборочному среднему, если объем выборки n=16, а
доверительная вероятность равна p=1-α=0.95.
Решение. По таблице функции, обратной к Ф(x), находим
Z(0.95)=1.96. Далее:
σ⋅ Z p
n
=
2 ⋅1.96
= 0.98
16
Следовательно, доверительный интервал для оценки µ есть
x̃-0.98< µ< x̃+0.98.
216
44.5. Построение доверительного интервала для математического ожидания при неизвестной дисперсии
Как было отмечено ранее, величина t =
x% − µ
σ
n имеет распределе-
ние Стьюдента tn. Величина S2 определяется по формуле (6).
Это распределение, также как и нормальное, является симметричным.
Зададим доверительную вероятность p=1-α. Зная объем выборки n
по таблицам распределения Стьюдента находим t=t(n,p) такое, что
 x% − µ

P
n < t  =1− α
 S

Отсюда получаем, что доверительный интервал для µ определяется
следующим образом:
x% − t
S
S
< µ < x% + t
n
n
(12)
Пример 4. Построить доверительный интервал для оценки неизвестного математического ожидания µ при n=9, p=0.95, x̃=6, S=3.
По таблицам квантилей распределения Стьюдента найдем
t=t(9;0.95)=2.31. Отсюда t
3
S
= 2.31 ⋅
= 2.31
n
9
Таким образом, получаем 3.69<µ<8.31.
Если бы мы имели дело не с оценкой дисперсии S2, а с самой дисперсией, то при σ=S (в соответствие с примером 3) получили бы:
4.02<µ<7.96.
Как видим, точное знание уменьшает доверительный интервал. Вообще, любая информация повышает точность.
Замечание. При объеме выборки более 100 вместо распределения
Стьюдента используют нормальное распределение, поскольку возникающая в этом случае ошибка мала.
44.6. Построение доверительного интервала для дисперсии
nS 2
Ранее было отмечено, что случайная величина
имеет распредеσ2
ление Пирсона χ2n−1 с (n-1) степенями свободы.
Рассмотрим методику построения доверительного интервала.
217
Доверительный интервал определяется из следующего уравнения:
 2 nS 2

P  χ1 <
< χ 22  = 1 − α = p
2


(13)
Величины χ12 и χ 22 выбираем таким образом, чтобы
P(χ2<χ12)=P(χ2>χ22)=α/2.
Т.к. таблицы распределения Пирсона содержат только вероятности
2
P (χ > χ k2 ,α ) , то χ12 и χ22 найдем из условий
P(χ2>χ12) = 1 - α/2; P(χ2>χ22) = α/2
(14)
Отсюда имеем доверительный интервал
nS 2
nS 2
2
<σ < 2
2
χ2
χ1
(15)
Пример 5. Построить доверительный интервал с вероятностью
p=0.96 для дисперсии σ2 случайной нормально распределенной величины,
если S2=10, n=20.
Имеем: α=1-p=0.04; p2=α/2=0.02; p1=1-α/2=0.98; k=n-1=19.
Далее: χ22=χ(19;0.02)2=33.7; χ12=χ(19;0.98)2=8.6.
Отсюда: 5.935 < σ2 < 23.256
218
45. Проверка статистических гипотез
45.1. Понятие статистической гипотезы
Определение 1. Под статистической гипотезой понимают всякое высказывание о генеральной совокупности, проверяемое по выборке.
Статистические гипотезы подразделяют на гипотезы о параметрах
распределения и гипотезы о законах распределения.
Задача статистической проверки гипотезы о параметре распределения формулируется следующим образом.
Пусть f(x,θ) - закон распределения случайной величины X, зависящий от одного параметра θ. Предположим, что необходимо проверить гипотезу о том, что θ=θ0. Назовем эту гипотезу нулевой и обозначим ее H0.
Гипотезу о том, что θ=θ1, назовем конкурирующей (или альтернативной)
гипотезой и обозначим H1. Таким образом, перед нами стоит задача проверки гипотезы H0 относительно конкурирующей гипотезы H1 на основании выборки, состоящей из n независимых наблюдений xi, i=1...n над случайной величиной X.
Все возможное множество выборок объема n можно разделить на два
непересекающихся подмножества O и W таких, что проверяемая гипотеза
H0 должна быть отвергнута, если наблюдаемая выборка попадет в подмножество W, и принята, если выборка принадлежит подмножеству O.
Подмножество W называют критической областью, подмножество O
- областью допустимых значений.
Основные принципы построения критической области W (а, значит,
и однозначно с ней связанной области O) были сформулированы Е. Нейманом и Э. Пирсоном. Основным фактором здесь является возможным появление двух видов ошибок:
1). Ошибка первого рода состоит в том, что нулевая гипотеза отвергается, в то время как она верна.
2). Ошибка второго рода состоит в том, что принимается нулевая гипотеза, в то время как верна альтернативная.
Приняты следующие обозначения: α - вероятность ошибки первого
рода; β - вероятность ошибки второго рода.
Можно доказать, что при фиксированном объеме выборки выбор
критической области W позволяет сделать сколь угодно малой величиной
либо α, либо β (но нельзя уменьшить их одновременно).
219
45.2. Проверка гипотезы о равенстве центров распределения двух совокупностей при известной дисперсии
Часто оказывается, что среднее значение одной выборки заметно отличается от среднего в другой выборке. Возникает вопрос: вызвано ли это
отличие какими-то значимыми факторами или естественными флуктуациями реализации случайной величины?
В промышленности задача сравнения средних возникает при статистическом регулировании технологического процесса.
Сформулируем задачу.
Пусть имеются две независимые случайные величины X и Y, подчиняющиеся нормальному распределению. Пусть имеются две независимые
выборки из генеральных совокупностей X и Y соответственно. Необходимо проверить нулевую гипотезу H0, заключающуюся в том, что MX=MY,
относительно альтернативной гипотезы H1, состоящей в том, что MX≠MY.
Предположим, что дисперсии DX=σ12 и DY=σ22 известны.
В качестве оценок математических ожиданий MX и MY примем соответствующие средние x̃ и ỹ. Как известно, средние x̃ и ỹ имеют нормальное распределение с параметрами MX,DX/n1 и MY, DY/n2 соответственно.
Здесь n1 и n2 - объемы выборок.
Выборки независимы, поэтому x̃ и ỹ также независимы и случайная
распределение,
причем
величина x̃-ỹ также имеет нормальное
2
2
D(x̃-ỹ)=Dx̃+Dỹ=σ1 /n1+σ2 /n2.
Если гипотеза H0 справедлива, то M(x̃-ỹ)=0, следовательно, нормированная разность
x% − y%
z=
(1)
σ12 σ 22
+
n1 n2
подчиняется нормальному закону с математическим ожиданием,
равным нулю, и дисперсией, равной единице.
Зададим доверительную вероятность p=1-α. По таблице обратного
нормального распределения определим квантиль Zp, который разделяет
множество значений z на область допустимых значений и критическую область. Если |z|<Zp, то принимается нулевая гипотеза о равенстве средних, в
противном случае нулевая гипотеза отвергается.
Если σ1=σ2=σ, то критическая область определяется неравенством
220
x% − y%
σ
1 1
+
n1 n2
> Zp .
Вероятность α отвечает событиям, которые при данных условиях исследования считаются невозможными. Чем меньше α, тем меньше вероятность отклонить проверяемую гипотезу, если она верна (совершить ошибку первого рода); с уменьшением уровня значимости α увеличивается риск
принять проверяемую гипотезу, когда она неверна (увеличивается вероятность совершить ошибку второго рода).
При проверке гипотезы о равенстве центров распределения двух
нормальных совокупностей при заданном уровне значимости α контролируется лишь ошибка первого рода, но нельзя сделать вывод о степени риска, связанного с принятием неверной гипотезы.
Пример 1. В результате двух серий измерений с количеством наблюдений n1=25 и n2=50 получены следующие результаты: x̃=9.79, ỹ=9.60.
Можно ли с надежностью p=0.99 объяснить это расхождение случайными
причинами, если известно, что дисперсия постоянна и σ=0.30.
Вычисляем нормированную разность z по формуле (1):
z =
9.79 − 9.6
1
1
0.3
+
25 50
= 2.59 .
Критическое значение Zp=2.576. Т.к. |z|>Zp, то с надежностью 99%
можно считать расхождение значимым.
Замечание: для значений |z|<Zp нельзя утверждать, что гипотеза подтвердилась. Можно только признать допустимость нулевой гипотезы для
данной выборки. Вообще, с помощью проверки статистической гипотезы
можно только отвергнуть ее, но не доказать.
45.3. Проверка гипотезы о равенстве центров распределения
двух совокупностей при неизвестной дисперсии
В условиях предыдущего раздела составим следующую нормированную разность, полагая неизменной дисперсию:
x% − y%
t=
n +n
S xy 1 2
n1n2
(2)
221
где x̃, ỹ - средние, а Sxy - оценка среднего квадратического отклонения по
двум выборкам;
S =
2
xy
( n1 − 1) Sx2 + ( n2 − 1) S y2
(3)
n1 + n2 − 2
1 n1
1 n2
2
2
2
S =
( xi − x% ) ; S y =
( yi − y% ) .
∑
∑
n1 − 1 i =1
n2 − 1 i =2
2
x
Если гипотеза о равенстве средних справедлива, то случайная величина t (см.(2)) имеет t-распределение Стьюдента с числом степеней свободы k=n1+n2-2.
Выбрав доверительную вероятность p=1-α, по таблице распределения Стьюдента можно определить критическое значение tk;α, для которого P{|t|>tk;α}=α. Если вычисленное значение |t|>tk;α, то с надежностью
p=1-α можно считать расхождение средних значимым.
Пример 2. Пусть в результате контроля двух выборок получено:
n1=25, n2=50, x̃=9.79, ỹ=9.60, Sx=0.28, Sy=0.33. Оценить значимость расхождения средних.
Рассчитываем уточненную оценку дисперсии по формуле (3):
24⋅ 0.282 + 49 ⋅ 0.332
Sxy =
= 0.31.
73
Вычисляем статистику t по формуле (2):
t=
0.19
= 2.47 .
24 + 49
0.31 ⋅
24 ⋅ 49
Вероятности p=0.99 и числу степеней свободы k=73 в таблице tраспределения соответствует значение tk;α=2.65.
Т.к. t<tk;α, то с надежностью 99% нельзя считать расхождение средних значимым.
45.4. Проверка гипотезы о равенстве дисперсий двух совокупностей
Гипотезы о дисперсиях имеют важное значение в технике, т.к. измеряемая дисперсией величина рассеивания характеризует такие исключительно важные показатели, как точность машин, приборов, технологических процессов и т.д.
Рассмотрим две независимые случайные величины X и Y, каждая из
которых имеет нормальное распределение с дисперсиями σ12 и σ22 соответ222
ственно. Пусть из генеральных совокупностей X и Y извлечены две независимые выборки объемами n1 и n2. Проверим гипотезу H0 о том, что
σ1=σ2.
Пусть для оценки дисперсии σ12 служит выборочная дисперсия S12, а
для оценки σ22 служит S22. Следовательно, задача проверки нулевой гипотезы сводится к сравнению выборочных дисперсий.
Случайная величина
S 12
F= 2
(4)
S2
имеет распределение Фишера.
При вычислении статистики F всегда предполагается, что S1>S2. Если это условие не выполняется, достаточно перенумеровать выборки:
первую сделать второй, а вторую - первой.
Имеются таблицы распределения Фишера, в которых приведены
значения F(α;k1,k2), для которых
P{F > F(α;k1,k2)}=α
(5)
Число степеней свободы k1=n1-1; k2=n2-1.
Таким образом, задача проверки гипотезы о равенстве дисперсий
сводится к следующей последовательности действий:
1. Вычислить выборочные дисперсии S12 и S22.
2. Найти значение статистики F=S12/S22.
3. Выбрать уровень значимости α и по таблицам распределения Фишера найти критическое значение F(α;k1,k2)
4. Если F>F(α;k1,k2), то нулевая гипотеза о равенстве дисперсий отвергается. Если F<F(α;k1,k2), то наблюдения не противоречат нулевой гипотезе.
Пример 3. На двух токарных станках обрабатываются втулки. Отобраны две выборки с каждого станка объемом n1=10 и n2=15 штук каждая.
По данным выборок рассчитаны выборочные дисперсии S12=9.6; S22=5.7.
Проверить гипотезу о том, что станки имеют различную точность. Уровень
значимости α=0.05.
Вычисляем значение статистики F=9.6/5.7=1.68. Число степеней
свободы k1=10-1=9, k2=15-1=14.
По таблицам распределения Фишера находим:
F(0.05;9,14)=2.65.
Т.к. F<F(0.05;9,14), то гипотеза о равенстве дисперсий не противоречит опытным данным. Следовательно, нет необходимости в регулировке.
223
46. Определение закона распределения.
46.1.Критерий Пирсона (χ2-квадрат)
Во многих практических задачах точный закон распределения исследуемой случайной величины неизвестен, т.е. является гипотезой, которая требует статистической проверки.
Пусть X - исследуемая случайная величина. Пусть требуется проверить нулевую гипотезу о том, что эта случайная величина подчиняется закону распределения F(x). Для проверки гипотезы произведем выборку из n
независимых наблюдений над случайной величиной X. По выборке можно
построить эмпирическое (опытное) распределение F̃(x) исследуемой случайной величины. Сравнение эмпирического F̃(x) и теоретического (предполагаемого) F(x) распределений производится с помощью специальных
критериев согласия: Пирсона (χ2), Колмогорова (ω), информационного (Jc)
и других.
В данном разделе рассмотрим применение критерия Пирсона и введем ряд новых понятий.
Разобьем всю область изменения X на r интервалов δ1,δ2,...,δr и подсчитаем количество значений (элементов) mi, i=1...r, попавших в каждый
из интервалов δi. Вектор mi называется эмпирической гистограммой. Процесс определения этого вектора называется построением гистограммы.
Полагая известным теоретический закон распределения F(x), всегда
можно определить вероятности pi попадания значений случайной величины X в интервал δi. Тогда теоретическое число значений случайной величины X, попавших в интервал δi, можно вычислить как npi, где n – объем
выборки. Результаты проведенных расчетов объединяются в таблицу, подобную табл.1.
Таблица 1.
Интервалы
δ1
δ2
δi
δr
…
…
Эмпирические m1
m2
mi
Mr
…
…
частоты mi
Теоретические np1
np2
npi
Npr
…
…
частоты npi
Очевидно, что m1+m2+...+mr=n, а p1+...+pr=1. Если эмпирические
частоты сильно отличаются от теоретических, то проверяемую гипотезу
следует отвергнуть, иначе - принять.
Критерием значимости отклонения эмпирических частот от теоретических является статистика
224
r
( mi − npi )
i =1
npi
χ2 = ∑
2
(1)
Эта статистика имеем распределение Пирсона с k=r-s-1 степенями
свободы. Здесь s - число параметров распределения F(x), рассчитанных по
выборке.
Правило применения критерия Пирсона сводится к следующему.
1). Выбирается уровень значимости α. Рассчитывается число степеней свободы k. По таблицам распределения Пирсона определяют критическое значение χ2k ;α .
2). По формуле (1) рассчитывается значение критерия χ2.
Производится сравнение. Если χ2>χ2k;α, то нулевую гипотезу о совпадении эмпирического и теоретического распределений отвергают. В
противном случае, нулевая гипотеза не противоречит наблюдениям.
Очевидно, что при проверке гипотезы о законе распределения контролируется лишь ошибка первого рода.
Замечание: необходимым условием применения критерия Пирсона
является наличие в каждом интервале не менее 5...10 наблюдений. Если
количество наблюдений в отдельных интервалах мало, то имеет смысл
объединить соседние интервалы.
Пример 1. На телефонной станции производилось наблюдение за
числом X неправильных соединений в минуту. Наблюдения в течение часа
дали следующие результаты: 3 3 1 1 4 2 4 2 0 3 0 2 2 0 2 1 4 3 3 1 4 2 2 1 1 2
1 0 3 4 1 3 2 7 2 0 0 1 3 3 1 2 4 2 0 2 3 1 2 5 1 1 0 1 1 2 2 1 1 5.
Определить среднее x̃ и среднее квадратическое отклонение S числа
неправильных соединений в минуту и проверить соответствие наблюдений
закону Пуассона по критерию Пирсона при уровне значимости α=0.05.
Решение. Упорядочим результаты наблюдений и построим гистограмму (см. табл.2):
Таблица 2.
xi
0
1
2
3
4
5
6
7
mi
8
17 16 10 6
2
0
1
Обозначим через x̃ среднее число неправильных соединений в минуту: x̃=(1/60)×(0×8+1×17+2×16+3×10+4×6+5×2+6×0+7×1)=2
Вычислим выборочную дисперсию S2:
1 60
2
S = ∑ mi ( xi − x% ) = 2.1 .
59 i =1
2
Необходимое условие распределения Пуассона x̃=S2 практически
2 m −2
e
выполняется. Запишем теоретический закон Пуассона в виде Pm =
m!
225
Имеем: P0=0.1353; P1=0.2707; P2=0.2707; P3=0.1804; P4=0.0902;
P5=0.0361; P6=0.0120; P7=0.0034.
Сведем полученные результаты в табл.3.
Таблица 3.
i
0
1
2
3
4
5
6
7
xi
0
1
2
3
4
5
6
7
mi
8
17
16
10
6
2
0
1
npi 8.1
16.24 16.24 10.82 5.41 2.166 0.72 0.204
Объединим столбцы 5,6 и 7, т.к. в них малы частоты. Тогда получим
следующую табл.4.
Таблица 4.
i
0
1
2
3
4
5
xi
0
1
2
3
4
5 и более
mi
8
17
16
10
6
3
npi 8.1
16.24 16.24 10.82 5.41 3.09
Вычислим значение критерия Пирсона:
(8−81
. )2 (17 −1624
. )2
(3−309
. )2
χ=
+
+K+
= 02
.
81
.
1624
.
309
.
2
Количество интервалов r=6. По выборке вычислен один параметр
распределения (математическое ожидание), поэтому число степеней свободы равно k= 6-1-1=4. По таблице распределения Пирсона при уровне
значимости α=0.05 и числе степеней свободы k=4 находим χ24;0.05=9.5. Т.к.
χ2<χ24;0.05, то оснований отвергнуть проверяемую гипотезу, у нас нет.
46.2. Информационный критерий Jc
Прежде всего, необходимо ввести ряд новых терминов, таких как энтропия и информация.
Понятие "энтропия" было введено изначально в термодинамике и
статистической физике как мера неопределенности или мера хаотичности
системы. Ее можно определить как логарифм числа состояний (в случае
равноправности всех состояний):
H=log K,
(2)
где K - число состояний.
В такой форме понятие энтропии было использовано в математической статистике Р.В.Л. Хартли.
Дальнейшее развитие этого понятия и общего подхода, носящего
название "информационного", в математической статистике, тории связи и
кибернетике связано с именами К. Шеннона и Н. Винера. Они поставили
понятие "информация", тесно связанное с энтропией, в один ряд с такими
фундаментальными понятиями, как "масса", "энергия", "время" и т.п.
226
С точки зрения математической статистики информацию и энтропию
можно представить следующим образом.
Пусть имеется полиномиальный процесс, характеризуемый вероятностями состояний pi, i=1...n, p1+...+pn=1. Тогда информация, получаемая в результате одного опыта, равна
Ii=-log pi,
(3)
где pi - вероятность состояния, которое явилось исходом опыта.
Математическое ожидание информации, которое может быть получено в результате бесконечной серии опытов, называется энтропией случайного процесса:
n
H = M ( I ) = −∑ pi log pi
(4)
i =1
Информация и энтропия, введенные выше, обладают следующими
свойствами.
1. I(p=1)=0; I(p→0)→∞.
Информация, получаемая при наблюдении достоверного события
равна нулю, в то время как маловероятное событие дает большое количество информации.
Таким образом, именно маловероятные события, т.е. отклонения от
нормального хода процесса, дают основной объем информации, необходимый для управления.

H
 p j = 1;
2.


p
=
0
∑
=0
i
i≠ j

Это свойство говорит о том, что неопределенность детерминированного процесса равна нулю.
1


3. H  pi = , ∀i  ≥ H  pi : ∑ pi = 1
n


Равенство достигается в том и только в том случае, когда все вероятности равны друг другу. Иначе говоря, случайный процесс с одинаковыми
вероятностями имеет максимальную неопределенность из всех с тем же
числом состояний.
Для непрерывных случайных величин данное выше определение энтропии непригодно, поскольку в этом случае имеется бесконечно много
состояний с нулевыми вероятностями. Можно, однако, ввести энтропию и
в этом случае.
Пусть случайная величина X имеет функцию плотности вероятности
w(x). Пусть точность измерений равна δx. Тогда вероятность того, что X
примет значение, равное xi (i=1...k, где k - количество полученных состояний при данной ширине интервала дискретизации δx) равна
(5)
pi=w(xi)δx
227
Здесь использовано свойство так называемого "порога различимости". Это фундаментальное понятие, фиксирующее тот факт, что
все значения случайной величины X, отличающиеся друг от друга меньше,
чем на δx, неразличимы, а, следовательно, это различие не играет никакой
роли при управлении процессами.
Энтропия, с учетом принципа порога различимости, равна
k
H (δx) = −∑ w( xi ) δx ln  w( xi ) δx 
i =1
k
или
(6)
k
H (δx ) = −∑  w ( xi ) ln w ( xi )  δx − ln δx ∑ w ( xi )δx
i =1
i =1
Устремляя δx к нулю, получим:
+∞
H ( δx → 0) = − ∫ w ( x ) ln  w ( x ) dx − ln δx
(7)
−∞
Выражение (7) является достаточно широко известной приближенной формулой расчета энтропии непрерывного распределения при дискретизации его на интервалы шириной δx. Тем не менее, здесь можно заметить ряд принципиальных недостатков, связанных с тем, что как w(x), так и
δx являются размерными величинами. В связи с этим можно поставить два
вопроса:
1) Как определить логарифм размерной величины?
2) По определению энтропии, она зависит только от количества состояний и их вероятностей, а из формулы (7) следует, что она зависит и от
единиц измерения. Каким образом согласовать формулу (7) и определение
энтропии?
Необходимо отметить, что подобные вопросы часто возникают при
анализе литературы, посвященной применению теории информации в математической статистике. Предлагается следующий подход: рассматривать
только нормированные на стандартное (среднее квадратическое) отклонение величины. Тогда (7) примет следующий вид:
+∞
H ( δx ) = − ∫ w% ( x ) ln  w% ( x ) dx − ln ( δx / σ )
(8)
−∞
Здесь σ2 - дисперсия случайной величины X, а w̃(x) - плотность вероятности нормированной случайной величины X̃=X/σ.
В дальнейшем большую роль будут играть энтропийные параметры
распределений h и a2:
h=−
+∞
∫ w ( x ) ln  w ( x ) d x
−∞
228
(9)
a2 =
a = −
2
+∞
∫ w ( x ) ln
2
 w ( x )  d x
(10)
−∞
Здесь w(x) - функция плотности нормированной случайной величины.
Значения параметров h и a2 некоторых распределений приведены в
табл. 5.
Таблица 5.
Значения энтропийных параметров некоторых классов распределений
Распределение
Функция
h
a2
плотности
2
Нормальное
1.4189380
2.5133850
1 −x
2π
e
2
Экспоненциальное
Релея
e , x≥0
Максвелла
xe , x≥0
π 2 − x2
xe
2
-x
−
2
x
2
2
1
0.9420343
2
1.2986621
1.1012690
2.4757259
Пусть теперь поставлена задача определения закона распределения
некоторой случайной величины X.
Предположим, что множество значений непрерывной случайной величины X разбито на конечное число k интервалов Ai: [xi-1,xi], i=1...k+1, где
xi - граничные точки интервалов. Пусть pi, i=1...k - соответствующие значения теоретической (предполагаемой) вероятностной функции, так что
pi=P(x ∈Ai); p1+...+pk=0.
Согласно теории информации, система с конечным количеством состояний имеет энтропию H, определяемую по формуле (4).
Пусть дана выборка объемом n. Пусть по выборке определена гистограмма с постоянной шириной интервалов разбиения δx=S, где S - среднее
квадратическое отклонение, рассчитанное по выборке.
Пусть mi, i=1...k - гистограмма разбиения. Тогда в качестве оценки
вероятности служит величина
p̃i=mi/n
(11)
Рассчитаем оценку энтропии по выборке:
k
H% = −∑ pi ln pi
(12)
i =1
Можно показать, что величина
229
Jc =
H − H%
(13)
a2 − h2
n
имеет нормальное распределение с параметрами (0, 1) в случае совпадения теоретического и эмпирического распределений.
Оценка критического значения Jc, при котором выбирается нулевая
гипотеза о совпадении эмпирического и гипотетического распределений,
дается квантилем нормального распределения Zp.
Пусть задана доверительная вероятность p=1-α. По таблице нормального распределения находим критическое значение Zp. Если |Jc|>Zp, то
нулевая гипотеза отвергается. В противном случае, нет оснований отвергнуть ее.
Пример 2. Дана выборка объемом n из 100 чисел, имеющих нормальное распределение. Проверялась гипотеза о принадлежности выборки
генеральной совокупности, подчиняющейся нормальному распределению.
Уровень значимости α=0.05.
В результате обработки данных были получены следующие результаты, сведенные в табл.6 и табл.7.
Таблица 6.
Числовые значения параметров выборки
Максимальное значе- Минимальное значение Среднее
квадратичение
ское отклонение
2.990
-2.526
1.021
Таблица 7.
Эмпирические частоты и энтропия
i
1
2
3
4
5
6
Энтропия H~
mi
8
25
42
21
3
1
1.392
Энтропия H̃ рассчитывалась по формуле
k =6
m m 
%
H = −∑ i ln  i 
 n 
i =1 n
(14)
По табл.5 определим h, a2 и разность a2-h2: h=1.4149; a2=2.5134; a2-h2=0.5.
По формуле (13) вычислим значение статистики Jc=0.38. По таблицам нормального распределения при уровне значимости равным α=0.05,
получим Zp=1.96. Т.к. |Jc|<Zp, то нулевая гипотеза принимается.
230
47. Корреляционно-регрессионный анализ
Статистическое исследование технологических процессов в настоящее время является одним из важнейших инструментов при разработке систем управления процессами. Знание связей между параметрами позволяет
выделить ключевые параметры, влияющие на качество готовой продукции.
Если же в процессе исследований удается получить достаточно надежную
функциональную связь между параметрами готового изделия и технологическими параметрами, а также между самими технологическими параметрами, то уравнения связей могут быть включены в систему управления для
расчета ожидаемых значений выходных параметров при известных параметрах технологического процесса.
Сеть связей и набор уравнений связи является математической моделью технологического процесса. Настоящая лекция посвящена проблеме
построения такой модели.
47.1. Регрессия. Основные положения регрессионного анализа
Знание статистической зависимости между случайными переменными имеет важное практическое значение: с ее помощью можно прогнозировать значение зависимой случайной переменной в предположении, что
независимая переменная примет определенное значение. Однако, поскольку понятие статистической зависимости относится к усредненным условиям, прогнозы не могут быть безошибочными. Применяя некоторые вероятностные методы, как будет показано далее, можно вычислить вероятность
того, что ошибка прогноза не выйдет за определенные границы.
Важнейшая задача корреляционного анализа - определить форму
связи между переменными. Это означает выявить механизм формирования
зависимой переменной. При изучении статистических зависимостей форму
связи можно характеризовать функцией регрессии (линейной, квадратичной, показательной и т.д.).
Условное математическое ожидание M(Y/X) случайной переменной
Y, рассматриваемое как функция X, т.е. M(Y/X)=ϕ(X), называется функцией регрессии случайной переменной Y относительно X (или функцией регрессии Y по X). Точно такое же условное математическое ожидание
M(X/Y) случайной переменной X называется функцией регрессии X по Y.
Ниже будет показано, каким образом происходит расчет регрессии.
Статистические связи между переменными можно изучать методами
корреляционного и регрессионного анализов. С помощью этих методов
решают разные задачи; требования, предъявляемые к исследуемым переменным, в каждом методе различны.
231
Основная задача корреляционного анализа - выявление самого факта
наличия связи между случайными параметрами путем точечной и интервальной оценок коэффициентов парной корреляции, вычисления и проверки значимости множественных коэффициентов корреляции. Корреляционный анализ позволяет также оценить функцию регрессии одной случайной
переменной на другую.
Предпосылки применения корреляционного анализа следующие:
1) исследуемые переменные величины должны быть случайными;
2) случайные величины должны иметь совместное нормальное распределение.
Рассмотрим простейший случай корреляционного анализа - двумерную модель.
При совместном двумерном нормальном распределении функция регрессии Y на X имеет вид:
M (Y / X ) = M (Y ) + ρ
σ( y )
 X − M ( X ) 
σ( x) 
(1)
Регрессия X на Y имеет вид:
M (X /Y ) = M (X ) + ρ
σ( x)
Y − M (Y ) 
σ( y )
(2)
Можно показать, что оценкой коэффициента корреляции является
следующая величина:
n
r=
∑( x
i =1
i
− x )( yi − y )
(3)
n ∗ Sx ∗ Sy
Здесьx,y - средние значения величин X и Y, а S2x, S2y - оценки дисперсий.
Тогда по опытным данным определяется эмпирическая функция регрессии:
Sy
(x − x)
Sx
Sx
x ( y) = x + r ( y − y )
Sy
 y ( x) = y + r
(4)
(5)
Таким образом, в корреляционном анализе на основе оценок параметров двумерной нормальной совокупности получаем оценки тесноты
связи между случайными переменными и можем оценить регрессию одной
переменной на другую. Особенностью корреляционного анализа является
строго линейная зависимость между переменными.
232
Пример 1. Исследуется зависимость величины накладных расходов
предприятия от объема выполненных работ. В результате исследований
были составлены таблицы вида: Объем работ (Y) - Накладные расходы (X).
По этим таблицам были рассчитаны следующие величины:
Средние
значенияx=4.9(млн.руб.);y=47.4(млн.руб.);
Средние
квадр. отклон. Sx=1.74(млн.руб.); Sy=13.4(млн.руб.);
Коэффициент корреляции r=0.67.
Отсюда получаем уравнения регрессии:
y(x) = 47.4 + 5.16(x-4.9) = 22.116 + 5.16×x
x(y) = 4.9 + 0.09(y-47.4) = 0.634 + 0.09×y
При оценке регрессии одним из важнейших моментов является
оценка значимости связи. В случае линейной парной связи, как было рассмотрено выше, значимость связи проверяется по значимости коэффициента корреляции.
Пусть подлежит проверке нулевая гипотеза H0, соответствующая
предположению о том, что коэффициент корреляции равен нулю. Если эта
гипотеза верна, то статистика
t=
n −1
1 − r2
(6)
имеет распределение Стьюдента с k=n-2 степенями свободы.
Для проверки нулевой гипотезы по уровню значимости α и числу
степеней свободы k по таблицам распределения Стьюдента находят критическое значение tk;α: P{|t|>tk,α}=α.
Если |t|>tk,α, то нулевую гипотезу об отсутствии корреляционной связи между X и Y следует отвергнуть. Переменные следует в этом случае
считать зависимыми.
При |t|<tk,α нет оснований отвергнуть нулевую гипотезу. Переменные
считают независимыми.
В примере 1 r=0.67, объем выборки n=150, t=16.39.
Пусть доверительная вероятность равна p=0.95. Тогда уровень значимости равен α=0.05. Число степеней свободы равно k=150-2=148. Имеем:
t(148;0.05)=1.96. Таким образом, связь между параметрами X и Y значима.
47.2. Множественный корреляционный анализ
Пусть теперь имеется не два, а большее количество параметров.
Очевидно, что схема взаимосвязей существенно усложняется. Тем не менее, возможно построить эту схему, используя понятие корреляции.
Пусть имеется множество технологических параметров Xi, i=1...n.
Предполагается, что многомерная случайная величина Z={Xi, i=1...n}
подчиняется многомерному нормальному распределению. В этом случае
связь между случайными величинами определяется коэффициентами кор233
реляции. Обозначим Rij - парный коэффициент корреляции между величинами Xi и Xj.
Пусть дана выборка объемом m. По этой выборке можно вычислить
оценки коэффициентов парной корреляции следующим образом: _
1) вычисляются средниеxi, средние квадратические отклонения Si:
2
1 m
1 m
2
j


x
=
x
;
S
=
x
−
x
 i
∑ ij i m − 1 ∑
i .
 i
m j =1
j =1
Здесь xij - j-е значение i-й случайной величины.
2) вычисляются ковариации Cov[Xi,Xj]=Mij:
M ij
m
2
1
=
x
−
x
[
]
∑ ik i  x jk − x j 
m − 2 k =1
3) вычисляются коэффициенты парной корреляции: Rij =
M ij
Si S j
4) Для проверки гипотезы о незначимости отклонения коэффициентов парной корреляции от нуля вычисляется t-статистика для каждого Rij: tij =
m−2
1 − Rij2
Если |tij|>tm-n-2,α, то коэффициент корреляции считается значимым.
По матрице значимых коэффициентов парной корреляции строится
схема взаимодействия технологических параметров. Эта схема является
основой для разработки модели ТП и схемы контроля.
Следует иметь в виду, что квадрат коэффициента корреляции Rij2
определяет меру связи. Он говорит о том, какую долю вариации параметра
с номером j определяет вариация параметра с номером i. Иными словами,
значение коэффициента корреляции R=0.9 означает, что 81% изменения
выходного параметра объясняется изменением входного параметра и лишь
19 % этого изменения можно объяснить влиянием других факторов.
Часто требуется узнать степень влияния сразу нескольких, если не
всех, параметров технологического процесса на значение выходного параметра изделия. В этом случае применяется такое понятие, как коэффициент множественной корреляции.
Пусть X1 - выходной параметр изделия. Коэффициент множественной корреляции R, определяющий влияние всех параметров Xi,
i=1...n на выходной параметр X1 вычисляется следующим образом:
R = 1−
1
M 11M 11−1
(7)
234
Здесь M - ковариационная матрица (она еще называется матрицей
центральных моментов); M −1 - матрица, обратная матрице центральных
моментов.
Значимость коэффициента множественной корреляции проверяется
также по статистике Стьюдента с m-n-2 степенями свободы:
t=
m−n−2
1 − R2
47.3. Регрессионный анализ
Задачей корреляционного анализа является выявление значимых связей между параметрами технологического процесса. Для целей автоматического управления необходимо знать не только тесноту и значимость связей, но и коэффициенты возможной функциональной связи. Оценка коэффициентов функциональных связей и является задачей регрессионного
анализа.
Рассмотрим подробнее задачу построения функциональной связи.
Пусть при анализе технологического процесса было установлено,
что выходной параметр Y может зависеть от нескольких параметров
X2,X3,...,Xn. Для единообразного описания будем считать, что Y=X1. Пусть
из некоторых соображений физики процесса обработки и других объективных факторов следует, что входные и выходной параметры имеют
функциональную связь
Y=X1=φ(X2,...,Xn)
(8)
Очевидно, что уравнение (2) практически никогда не может выполняться абсолютно точно. Это связано с тем, что невозможно учесть все
факторы, влияющие на ход технологического процесса. Например, при
операции "вытяжка" на качество готового изделия может влиять и влияет
неоднородность материала, как по плотности, так и по твердости. Эти факторы нельзя учесть в принципе, т.к. для их включения в модель формирования такого параметра как "разностенность" необходимо подвергать исследованию каждую точку заготовки, что неминуемо приведет к ее разрушению, не говоря уже о высокой стоимости подобного анализа.
Можно, разумеется, исследовать статистические характеристики
упомянутых величин в каждой новой партии исходного материала, но тогда уже наше знание становится неточным. Таким образом, уравнение (8)
имеет ограниченную точность априори.
Для определения коэффициентов уравнения (8) полагают, что оно
состоит из двух слагаемых:
X1=φ(X2,...,Xn)+ε(a,b,c...),
(9)
235
где ε(a,b,c...) - слагаемое, определяющееся неучтенными факторами. С
точки зрения математической статистики эту добавку можно рассматривать как случайную величину, вносящую погрешности в точное значение,
определенное при помощи функции φ.
В дальнейшем мы полагаем, что функция φ и добавка ε таковы, что
систематическая погрешность равна нулю, т.е. математическое ожидание
Mε=0.
Пусть дана выборка объема m. Пусть по результатам выборки получена матрица значений xij, i=1...n, j=1...m.
Составим величину
δ = ∑  x1 j − ϕ ( x2 j ,K , xnj ) 
m
2
(10)
j =1
или
δ = ∑ ( y j − y% j )
m
2
(11)
j =1
Здесь x1j=yj - значения выходного параметра, а ỹj=φ(x2j,...,xnj) - значения выходного параметра, рассчитанные по формуле (8), исходя из текущих значений входных параметров.
Задача исследователя заключается в том, чтобы при заданном виде
функциональной связи подобрать такие параметры функции φ, чтобы минимизировать сумму (10), которая представляет собой сумму квадратов
отклонений рассчитанных значений выходного параметра от их точных
значений. Можно показать, что статистика δ является достаточно эффективной при построении уравнения регрессии.
Можно строить уравнение регрессии исходя из требования минимизировать модуль максимального отклонения и т.д.
В дальнейшем мы будем исходить из требования минимизации суммы квадратов отклонений.
Метод построения уравнения регрессии в таком виде называется методом наименьших квадратов.
Рассмотрим метод наименьших квадратов для случая линейной связи. В этом случае имеем следующую форму уравнения регрессии:
n
Y = X 1 = A + ∑ Bi X i + ε
(12)
i =2
Пусть Xij - матрица опытных данных. По этой матрице можно вычислить следующие статистические характеристики выборки:
1 m
1) Средние значения: xi = ∑ xij .
m j =1
236
2
1 m
S
=
x
−
x
2) Средние квадратические отклонения:
∑ ( ij i )
m − 1 j =1
2
i
1 m
3) Ковариации: Cov( X i , X j ) =
∑ ( xik − xi ) ( x jk − xk )
m − 2 k =1
M ij
4) Коэффициенты парной корреляции Rij =
Si S j
M 1−i 1
5) Коэффициенты Bi уравнения регрессии: Bi = − −1 .
M 11
6) Коэффициент множественной корреляции R=R(Y;X2,...Xn):
R = 1−
1
M 11M 11−1
n
7) Коэффициент A уравнения регрессии:
8) Остаточная дисперсия σ2:
σ2 =
A = x1 − ∑ Bi xi
i=2
1
δ
2
( yi − y%i ) =
∑
m − n − 1 i=1
m − n −1
m
Значимость уравнения регрессии в целом проверяется по критерию
σ2
Фишера F: F = 2 . По уровню значимости α и степеням свободы k1=m-nS1
1 и k2=m-1 по таблицам распределения Фишера находится критическое
значение F(α;k1,k2). Если рассчитанное значение F меньше критического, то
принимается гипотеза об адекватном описании уравнением регрессии реального процесса. В противном случае уравнение регрессии считается неверным.
Помимо оценки уравнения регрессии в целом, необходимо проводить оценки значимости каждого коэффициента уравнения регрессии. Для
этого рассчитываются (n-1) статистик Стьюдента:
ti =
Bi
σ2 M 11−1
(i=2…n)
Эти статистики имеют распределение Стьюдента с числом степеней
свободы k=m-2. Таким образом, если ti<tα;k, то i-й коэффициент уравнения
регрессии является незначимым. В этом случае параметр Xi удаляют из
модели, и производится перерасчет коэффициентов уравнения регрессии и
коэффициента
множественной
корреляции.
237
ЧАСТЬ 10. ТЕОРИЯ СИСТЕМ МАССОВОГО ОБСЛУЖИВАНИЯ
48. Процессы и цепи Маркова.
48.1. Понятие стохастического процесса. Марковское
свойство
При изучении любой системы основными характеристиками ее являются понятия состояния и процесса перехода из одного состояния в другое. Процесс функционирования системы может рассматриваться как процесс изменения состояний ее в течение времени.
Мы будем рассматривать стохастические системы, когда состояние
описывается одним или несколькими параметрами, которые изменяют
свои значения непредсказуемо, но вероятности изменений известны.
Число возможных состояний системы может быть конечным или
счетным. Тогда каждое состояние может быть индексировано натуральным
числом: E0, E1,..., Em,...
С другой стороны, параметр вероятностного (стохастического) процесса (время) может также быть непрерывным или дискретным. В последнем случае смена состояний может происходить только в заранее определенные моменты времени. Если эти моменты времени пронумерованы, то
можно говорить о состояниях E0n, E1n,..., Ein,... Здесь первый индекс говорит о номере состояния, а второй - номере момента времени.
Для непрерывного времени имеем состояния, зависящие от номера
состояния и непрерывного параметра времени t: Ei(t).
Процессы с конечным или счетным числом состояний называются
случайными цепями.
Обозначим через χt случайный процесс с непрерывным или дискретным временем. Этот процесс можно рассматривать как многомерную
случайную
величину
с
множеством
случайных
значений
E0(t),E1(t),...,Ei(t),.... Ei(t) в разных приложениях принимает разные значения: число клиентов в парикмахерской в зависимости от времени дня; число простаивающих станков в зависимости от порядкового дня года; число
программ в ЭВМ в зависимости от времени, прошедшего с начала смены и
т.д.
Случайный процесс определяется кроме набора возможных состояний еще и рядом распределения, как любая случайная величина, с одним
отличием, что ряд распределения зависит, в общем случае еще и от времени, которое можно рассматривать как дополнительную размерность случайной величины. Определим для конкретного t:
238
P(χt=xi)= P(E=Ei|t=ti)
(1)
Здесь xi - значение параметра состояния Ei; E - обобщенное состояние. Тогда ряд распределений имеет вид
F(x1,...,xn;t1,...,tn) =P[χ(ti)=xi, i=1...n]
(2)
Выражение (2) соответствует вероятности реализации случайного
процесса. Аналогично можно записать и выражение для функции распределения.
Как можно видеть, изучение случайных процессов в общем случае
достаточно затруднительно, т.к. ряд распределений и функция распределения имеют чрезвычайно сложный вид. Можно, однако, используя некоторые свойства отдельных случайных процессов, получить достаточно простые выражения, пригодные для практического использования. В других
же случаях приходится использовать очень трудоемкие математические
дисциплины, такие, как спектральный анализ и тому подобные.
Определение 1. Обозначим через P(x1, x2; t1, t2)=P[χ(t1)=x1, χ(t2)=x2] вероятность перехода из состояния x1, которое было в момент времени t1, в
состояние x2 в момент времени t2> t1.
Если вероятность перехода зависит только от состояний x1, x2 и моментов времени t1, t2, но не зависит от истории развития процесса до момента времени t1, то такой процесс называется марковским.
Формально марковское свойство может быть записано следующим
образом: P[x1, x2; t1, t2| xt, t<t1]=P[x1, x2; t1, t2], т.е. условные вероятности перехода равны безусловным (свойство независимости от предыстории).
48.2. Цепи Маркова
Пусть дана система, состояния которой
суть Ei, i=0,1,..., причем изменения этих состояний могут происходить только в определенные
моменты времени 0,1,... Пусть Pin обозначает вероятность состояния Ei в
момент времени n. Совокупность вероятностей Pin, соответствующая некоторому моменту времени n, может быть представлена вектором в пространстве с числом измерений, равным числу возможных состояний системы, причем
∑P
in
= 1 ∀n .
i
Предположим, что переход из одного состояния в другой зависит
только от двух этих состояний, т.е. паре Ein, Ej,n+1 можно поставить в соответствие условную вероятность Pi,j;n того, что система за один шаг переходит из состояния i в состояние j.
Вероятности Pi,j;n называются вероятностями перехода цепи Маркова (переходными вероятностями). Если переходные вероятности не зависят от времени, т.е. Pi,j;n=Pi,j, то такая цепь Маркова называется однородной.
239
Цепь Маркова считается заданной, если задано распределение вероятностей начального состояния системы, т.е. задано Pi;0, i=0,1,... и матрица
вероятностей перехода (переходная матрица ||Pi,j||).
Пример 1. Пусть имеется три лотерейных круга A, B, C, каждый из
которых разбит на три неравных сектора Ai, Bi, Ci, i=1...3 с центральными
углами αi, β, γi соответственно, причем углы нормированы так, что
αi+βi+γi=1. Случайным образом выбирается один из кругов и приводится
во вращение. В зависимости от того, какой сектор остановится напротив
стрелки, следующим приводится во вращение соответствующий круг.
Состояния этой системы: E1=A, E2=B, E3=C.
Переходные вероятности:
P11=α1, P12=β1, P13=γ1
P21=α2, P22=β2, P23=γ2
P31=α3, P32=β3, P33=γ3
 α1 β1 γ1 


P
=
α
β
γ
Переходная матрица
 2 2 2
α β γ 
 3 3 3
Часто цепь Маркова изображается графом переходов. Для нашего
случая он имеет вид, представленный на рис.13.1.
2
p22
p21
p12
p11
1
p23
p32
p13
p31
3
p33
Рис..1. Граф переходов примера 1.
Пример 2. Заметим, что для непрерывного процесса с непрерывным
временем только экспоненциальное распределение обладает марковским
свойством, т.е. отсутствием последействия. Функция распределения экспоненциального распределения равна F(t)=P(ζ<t)=1-e-at. Найдем функцию
распределения величины t (например, время ожидания автобуса при условии, что его ждут уже τ времени):
240
P( τ<ζ < t + τ) 1− e−a(t+τ) −1+ e−aτ
P( ζ < t + τ ζ = τ) =
=
=1− e−aτ
−aτ
P( ζ > τ)
e
Как видим, функция распределения времени ожидания не зависит от
времени предыдущего ожидания. Этот вывод справедлив для интервалов
времени между последовательными отказами одного и того же устройства
(вероятность отказа не зависит от срока безотказной работы) и других случайных процессов.
Пусть, например, заготовки на обработку поступают в соответствии
с экспоненциальным распределением, т.е. промежутки времени между
двумя соседними поступлениями имеют функцию распределения
F(t)=1-e-at. Очевидно, что в произвольный момент времени t оставшийся
промежуток времени до момента поступления очередной заготовки имеет
то же распределение, что и весь промежуток в целом.
Переходные
вероятности
находятся
следующим
образом:
-adt
Pn,n+1=1-e =a×dt+o(dt), т.е. вероятность поступления одной заготовки за
время dt приблизительно равна a×dt.
48.3. Переходные и предельные вероятности. Стационарное распределение
Обычно различают поведение системы в переходном и установившемся режимах. Переходной режим обычно наблюдается в первое время функционирования системы, когда происходит заполнение оборудования, складских емкостей и т.д. В конце концов, по истечении достаточно
длительного времени, наступает стационарный режим, характеризующийся установившимся режимов без больших отклонений в ту или иную сторону.
Рассмотрим задачу определения стационарных вероятностей. Ее еще
можно определить как задачу нахождения асимптотических значений вероятностей состояний при t стремящимся к бесконечности.
Пусть Rij - переходная матрица. Если стационарные вероятности существуют, то для них справедливо соотношение
Pi = ∑ R ji Pj
(2)
j
Соотношение (2) аналогична задаче на нахождение собственного
вектора матрицы R. Следует, правда заметить, что здесь обязательно требуется выполнение условия нормировки:
∑P
i
= 1.
i
Для нахождения стационарных вероятностей следует в системе (2)
одно из уравнений (любое) следует заменить условием нормировки.
241
В случае цепей Маркова с непрерывным временем аналогом уравнений (2) выступают дифференциальные уравнения А.Н. Колмогорова:
P (i; t + dt ) = ∑ P ( j; t ) R ( j , i; dt )
(3)
j
Здесь P(j;t) - вероятность того, что система в момент времени t находится в состоянии j; R(j,i;dt) - вероятность перехода из состояния j в состояние i за время dt.
Пример 3. Для примера 1 рассмотрим уравнения для переходных вероятностей:
P(A)=P(A)α1+P(B)α2+P(C)α3
P(B)=P(A)β1+P(B)β2+P(C)β3
P(C)=P(A)γ1+P(B)γ2+P(C)γ3
Кроме этих трех уравнений необходимо использовать уравнение
нормировки P(A)+P(B)+P(C)=1, подставив его вместо любого из трех вышенаписанных.
Пример 4. Для примера 2 имеем уравнения Колмогорова:
 P ( 0;t + dt ) = P ( 0;t )(1 − adt )

 P (1;t + dt ) = P ( 0;t ) adt + P (1;t )(1 − adt )

................................................
 P i;t + dt = P i − 1;t adt + P i;t 1 − adt
) (
)
( )(
)
 (
................................................

или
 P0′ = −aP0
 ′
 P1 = −aP1 + aP0

......................
 P′ = −aP + aP
i
i −1
 i
......................
(4)
(5)
Если считать, что в начальный момент времени заготовки отсутствовали, т.е. что P(0;0)=1, то решение системы (5) следующее:
( at )
P(i;t ) =
i!
i
e − at ,
(6)
т.е. получено распределение Пуассона.
242
Для нахождения стационарных вероятностей из уравнений Колмогорова необходимо приравнять все производные нулю и добавить уравнение нормировки.
49. Системы массового обслуживания.
49.1. Системы массового обслуживания
Системы массового обслуживания (СМО) представляют собой вероятностные модели различных производственных, транспортных, вычислительных объектов. Так, например, любой станок или транспортная система
города представляют, с точки зрения теории, один класс объектов, называемый СМО.
Система массового обслуживания, в общем случае, характеризуется
наличием следующих элементов: 1) источник заявок или требований на
обслуживание; 2) очередь; 3) обслуживающий аппарат (ОА).
Источник - это объект, который генерирует заявки на обслуживание.
Например, это поток заготовок, поступающий на вход технологической
линии. Источник характеризуется следующими параметрами: 1) тип (конечный или бесконечный; если источник конечный, то он определяется
емкостью, задающей максимальное количество заявок, поступающих в
СМО); 2) распределение интервалов времени между поступлениями заявок.
Очередь - это объект, в котором заявки дожидаются обслуживания.
Очередь характеризуется емкостью. Заявка, поступающая в момент полного заполнения очереди, не принимается и игнорируется. Например, попытка связаться по телефону с другим городом при помощи автоматической
связи в момент полного заполнения канала связи будет проигнорирована;
потребуется сделать новую попытку.
Обслуживающий аппарат - используется для моделирования ресурсов, запрашиваемых заявками. Например, это цех или автобус или ЭВМ и
т.д. ОА характеризуется двумя параметрами: 1) количество каналов обслуживания (этот параметр характеризует количество одновременно обслуживаемых заявок; например, токарный станок имеет один канал обслуживания, автобус - 30...100, телефонная станция, в зависимости от емкости
и разветвленности кабельной сети, 2...10000 и т.д.); 2) распределение времени обслуживания заявки каждым каналом.
Источник, обычно, не считается элементом СМО. Предполагается,
что источник моделирует внешнее окружение. Таким образом, СМО содержит очередь и обслуживающий аппарат.
Система массового обслуживания, содержащая только одну очередь
и один обслуживающий аппарат, называется однофазной.
СМО, имеющая более одной фазы обслуживания, называется сетью.
243
В сети каждая однофазная СМО является источником заявок для
других. Если, кроме того, существуют внешние источники заявок и/или заявки могут покидать сеть, то она называется открытой. В противном случае сеть является замкнутой.
Примеры открытой и замкнутой сетей приведены на рис. 1.
2
2
p22
p22
p21
p01
p12
p21
p12
p11
p11
1
p23
p32
1
p23
p32
p13
p13
p31
p31
3
p30
3
p33
p33
а)
b)
Рис. 1. a) - открытая сеть; b) - закрытая сеть.
49.2. Однофазные СМО
Введем описание сокращенных обозначений для однофазных СМО.
В их основе лежит трехбуквенное обозначение вида A/B/m, где A и B описывают соответственно интервалы времени между поступлениями последовательных заявок и распределение времени их обслуживания; m - число
каналов обслуживания. A и B принимают следующие значения:
M - экспоненциальное (показательное) распределение;
Er - распределение Эрланга порядка r;
D - детерминированное;
G - распределение общего вида.
Иногда указывают емкость очереди K и емкость источника заявок
M. В этом случае используется пятибуквенное обозначение A/B/m/K/M.
При отсутствии одного из двух последних индексов его значение предполагается сколь угодно большим.
Распределение времени между соседними требованиями обозначается A(t)=P(время между последовательными требованиями<t). Обычно предполагается, что промежуток времени между последовательными
заявками является случайной величиной, полностью описываемой функцией распределения (ФР) A(t). Аналогично определяется распределение
времени обслуживания заявок: B(x)=P(время обслуживания меньше x).
244
Среднее время между поступающими заявками обозначим t̃, а величину λ=1/t̃ назовем интенсивностью поступления заявок в систему. Среднее время обслуживания обозначим x̃, а интенсивность обслуживания µ=1/x̃. Отметим, что
x% =
+∞
+∞
−∞
−∞
∫ xb( x )dx; t% = ∫ ta(t )dt
(1)
Здесь a(t)=A'(t), b(x)=B'(x) - функции плотности вероятности величин t и x.
49.3. Ресурсы и их характеристики
Любая сложная система, которую приходится моделировать, характеризуется составляющими ее компонентами. К таким компонентам относятся: 1) автобусы, ремонтные депо, шоферы, ремонтники, станки в случае
транспортной системы; 2) склады, бункеры-накопители, автоматические
линии, цехи, рабочие, наладчики, транспортная система в случае промышленного предприятия.
Эти компоненты системы называются ресурсами. Каждый ресурс
имеет собственные атрибуты, называемые параметрами.
При рассмотрении любой системы возникает проблема деталировки
ее компонент, а именно, сколь мелко надо дробить ее с целью вычленения
значимых компонент? Ответ зависит от решаемой задачи и требуемой точности, что приводит к необходимости решать этот вопрос индивидуально
для каждой задачи.
Ресурс характеризуется параметрами, например, автоматическая роторная линия характеризуется количеством рабочих позиций и скоростью
вращения (возможно, еще и максимальным усилием) ; токарный станок
характеризуется временем обработки детали и т.д.
Если рассматривать какой-либо ресурс на протяжении некоторого
времени, то можно обнаружить, что в некоторые моменты он используется
интенсивно, а иногда совсем не используется. Например, станок может
простаивать из-за отсутствия заготовок, а может быть и так, что заготовки
сотнями ждут своей очереди на обработку. Поскольку потребность в ресурсе, в общем случае, возникает в случайные моменты времени, заявка
может получить ресурс в свое распоряжение, а может и не получить. В последнем случае заявка вынуждена ожидать освобождения ресурса другими
заявками. Такие конфликты вызывают задержку в обработке и снижают
производительность системы.
Таким образом, ресурсы конечны и их исчерпывание приводит к
ограничению производительности системы. Ресурсы можно увеличить, затрачивая больше денежных средств, или можно экономить, уменьшая производительность.
245
Ресурсы часто могут быть зависимы друг от друга. Например, установка новых роторных линий для производства патронов приведет к повышению нагрузки на автоматические прессы, заготавливающие рондоли.
Может случиться так, что эти прессы не смогут обеспечить загрузку новых
роторных линий. Такая ситуация называется ситуацией ограничения. Ресурс, вызывающий ограничения в работе системы, называется узким местом.
Моделью ресурса является обслуживающий аппарат СМО.
Характеристики ресурсов приведены в табл. 1.
Таблица 1. Основные классы характеристик ресурсов.
Класс
Характеристика
Общее определение
Емкость
Количество позиций на ро- Количество одновременно
торе
обслуживаемых заявок
Вместимость автобуса
Продуктивность Пропускная способность
Количество заявок, обраПроизводительность
батываемых в единицу
времени
Реактивность
Время ответа на воз- Время между поступленидействие
ем управляющего воздейВремя прохождения заго- ствия и ответом системы
товки по ТП
Использование
Коэффициенты использо- Отношение времени исвания оборудования
пользования
указанной
части системы к длительности интервала наблюдения
Коэффициент использования ресурса Ки выражается безразмерным
числом. Ресурсы, имеющие единичную емкость, исчерпываются при Ки=1,
чему соответствует 100%-ая занятость ресурса.
В то же время, технологический ротор может иметь Ки=N>1, что соответствует использованию в среднем N рабочих блоков за время наблюдения.
Помимо Ки существует также относительная потребность в ресурсе
ρ. Она определяется отношением интенсивности запросов ресурса к его
производительности. ρ также безразмерная величина и не обязательно равна Ки. ρ никогда не может превышать Ки.
Эффективность использования ресурса определяется отношением
ρ/Ки. Обычно не стремятся к 100%-й эффективности, поскольку она редко
достигается прежде, чем будет исчерпан какой-либо ресурс, а это, в свою
очередь, приводит, как будет показано ниже, к бесконечным задержкам
обслуживания.
246
К характеристикам надежности относят Тн - среднее время наработки на отказ; Тв - среднее время восстановления; Тг - коэффициент готовности (Тг=Тн/(Тн+Тв)).
49.4. Формула Литтла
Для систем общего вида G/G/m с произвольной дисциплиной обслуживания справедливо соотношение, называемое формулой Литтла:
N = λT
(2)
гдеN - среднее число заявок в системе; T - среднее время пребывания заявок в системе; λ - интенсивность поступления заявок в систему. В однофазной СМО отсутствуют взаимные блокировки ресурсов, поэтому потребность в ресурсе равна коэффициенту использования и определяется
равенством ρ=λ/µ=λx̃, где µ- интенсивность обслуживания. Из последнего
выражения видно, что ρ определяет среднее число заявок в ОА.
49.5. Процессы гибели и размножения
Один из важнейших случаев цепей Маркова известен под названием
процесса гибели и размножения. Этот процесс может быть с дискретным
или непрерывным временем, а определяющее его условие состоит в том,
что допускаются переходы только в соседние состояния.
Рассмотрим процесс гибели и размножения с непрерывным временем. Такой процесс является моделью изменений в численности популяции.
Процесс находится в состоянии Ek, если объем (численность) популяции равен k; переход в состояние Ek-1 соответствует гибели одного члена
популяции, а переход в состояние Ek+1 - рождению.
Этот процесс можно рассматривать как модель СМО, в которой Ek
соответствует k заявок в системе, а переход в состояние Ek-1 или Ek+1 - уходу заявки из системы или ее приходу.
Для процесса гибели и размножения с множеством состояний 0, 1,
2,... должны выполняться следующие условия:
1) p1=P(+1;δt;k)=λkδt+o(δt);
2) p2=P(-1;δt;k)=µkδt+o(δt);
3) p3=P(+0;δt;k)=1-λkδt+o(δt);
4) p4=P(-0;δt;k)=1-µkδt+o(δt).
Здесь P(+i;δt;k) - вероятность i рождений за время δt при условии,
что численность популяции равна k; P(-i;δt;k) - вероятность i гибели при
тех же условиях.
Согласно этим условиям кратные рождения, кратные гибели и одновременные рождения и гибели в течение малого промежутка времени за247
прещены в том смысле, что вероятность этих кратных событий имеет порядок малости o(δt2). Это свойство вытекает из свойства экспоненциального распределения, как было показано выше.
Найдем вероятность того, что объем популяции в некоторый момент
времени равен k: p(k,t)=P[xt=k].
Рассмотрим изменение объема популяции в промежутке времени
(t,t+δt). В момент времени t+δt процесс будет находиться в состоянии E(k),
если произошло одно из трех взаимно исключающих друг друга и образующих полную группу событий:
1) в момент времени t объем популяции равнялся k и за время δt состояние не изменилось;
2) в момент времени t объем популяции равнялся k-1 и за время δt
родился один член популяции;
3) в момент времени t объем популяции равнялся k+1 и за время δt
погиб один член популяции.
Тогда вероятность того, что в момент времени t+δt процесс будет
находиться в состоянии Ek, равна
p(k;t+δt)=p(k;t)[1-λkδt+o(δt)][1-µkδt+o(δt)]+p(k-1;t)[λk-1δt+o(δt)]+
+p(k+1;t)[µ(k+1)δt+o(δt)]
(3)
Приведенное равенство имеет смысл только при k>0, поскольку популяция не может состоять из (-1) члена. Граничное равенство при k=0
имеет вид:
p(0;t+δt)=p(0;t)[1-λ0δt+o(δt)]+p(1;t)[µ1δt+o(δt)]
(4)
Кроме того, должно выполняться условие нормировки
∞
∑ p(k; t ) = 1
(5)
k =0
Выделяя в уравнениях (3) и (5) p(k) и деля на δt, получим:
p(k; t + δt ) − p(k; t )
=-[λk+µk]p(k;t)+λk-1p(k-1;t)+µk+1p(k+1;t)+o(δt)
δt
Переходя к пределу при δt→0, имеем:
k = 0: p'(0,t) = -λ0p(0; t) +µ1p(1; t)


(6)
k > 0: p'(k,t) = -[λk +µk ]p(k; t) + λk−1p(k −1; t) + µk+1p(k +1; t) 
Таким образом, рассматриваемый вероятностный процесс описывается системой линейных дифференциальных уравнений. Эти уравнения можно получить непосредственно на основе диаграммы состояний (см.
рис. .2).
λ0
0
λ1
µ2
λn
λn−1
2
1
µ1
λ2
n
µ3
248
µn
µn+1
Рис. 2. Процесс гибели и размножения.
Состояние Ek обозначается овалом, в котором записывается число k.
Переходы между состояниями обозначаются стрелками, на которых представлены интенсивности переходов.
Разность между интенсивностью, с которой система попадает в состояние Ek, и интенсивностью, с которой она покидает его, должна равняться интенсивности изменения потока в этом состоянии.
Интенсивность потока в состояние Ek: λk-1p(k-1)+µk+1p(k+1).
Интенсивность потока из состояния Ek: [λk+µk]p(k).
Разность между ними равна эффективной интенсивности потока вероятностей в состояние Ek: p'(k)=λk-1p(k-1)+µk+1p(k+1)-[λk+µk]p(k).
Решение этой системы в общем виде невозможно. Модель даже простой системы является чрезвычайно сложной и трудно анализируемой. Если рассматривать СМО более сложного вида, то вычислительные трудности будут еще более высокими. Поэтому обычно рассматривают решения
системы (3)-(4) в установившемся режиме при t→∞, p'(k;t)→0,
p(k;t)→p(k)=const.
49.6. Процесс чистого размножения
Для этого процесса µk=0, λk=λ=const. Его можно рассматривать как
модель потока заявок, поступивших в СМО. Система уравнений для этого
процесса имеет вид:
p'(0,t) = -λp(0,t) (k = 0)



p'(k,t) = -λp(k,t) +λp(k-1) (k=1,2,...)
(7)
Пусть начальные условия следующие:
1, k = 0
p(k;0) = 
(8)
0, k > 0
Тогда p(0;t)=e-λt и при k=1 получим: p'(1;t)=-λp(1;t)+λe-λt.
Решение этого уравнения есть p(1;t)=λte-λt. По индукции можно получить, что
( λt )
p( k ;t ) =
k!
k
e −λt , k,t≥0
(9)
Таким образом, вероятности распределены по закону Пуассона.
Процесс Пуассона занимает центральное место в исследованиях
СМО. Это связано, во-первых, с его упрощающими аналитическими и вероятностными свойствами; во-вторых, он описывает многие реальные
249
процессы, являющиеся следствием совокупного эффекта большого числа
индивидуальных событий.
50. Анализ СМО в установившемся режиме
50.1. Система M/M/1 в установившемся режиме
Уравнения состояния процесса гибели и размножения в установившемся режиме имеют вид:
0 = - (λk + µk )p(k) + λk−1p(k −1) + µk+1p(k +1)(k > 0)

(1)
0 = −λ0p(0) + µ1p(1)(k = 0)

Для их составления можно воспользоваться диаграммой состояний,
удовлетворяющей условию сохранения: в каждом состоянии входящий поток должен быть равен исходящему потоку.
Интенсивность потока из состояния Ek: (λk+µk)p(k).
Интенсивность потока в состояние Ek: λk-1p(k-1)+µk+1p(k+1).
(2)
Т.к. эти потоки равны, то λk-1p(k-1)+µk+1p(k+1)=[λk+µk]p(k)
Перепишем (1) в виде: λk-1p(k-1)-µkp(k)=λkp(k)-µk+1p(k+1).
Определим: gk=λkp(k)-µk+1p(k+1). Видно, что gk-1=gk, т.е. gk есть константа по k. Поскольку g0=0, то gk=0. Отсюда имеем, что
λkp(k)µk+1p(k+1)=0. Тогда p(k+1)=p(k)λk/µk+1. Окончательно,
k
p( k ) = p ( 0 ) ∏
i =1
λi −1
µi
(3)
Неизвестную константу p(0) находим из условия нормировки:
p( 0 ) =
1
λ
1 + ∑∏ i −1 i
k =1 i =1 µ1
∞
(4)
k
Отметим, что процесс будет иметь установившийся режим, если
p(0)>0, т.е. система время от времени будет опустошаться. В противном
случае заявки будут накапливаться в СМО до бесконечности.
Рассмотрим СМО типа M/M/1. Для нее λk=λ, µk=µ. На рис. 15.1
приведена диаграмма интенсивностей переходов для этой системы.
250
λ
λ
0
λ
2
1
µ
λ
λ
n
µ
µ
µ
µ
Рис. 1. Диаграмма интенсивностей переходов системы M/M/1.
Подставляя λ и µ в (3), получаем:
λ
p( k ) = p ( 0 )  
µ
k
(5)
Значение p(0) находится из (4):
k
∞

λ 
p ( 0 ) = 1 + ∑   
k =1  µ  


−1
(6)
Если обозначить ρ=λ/µ <1, то p(0) =1-ρ, p(k)=(1-ρ)ρk
(7)
50.2. Система M/M/m в установившемся режиме
Рассмотрим систему с m обслуживающими аппаратами. Для нее
процесс гибели и размножения можно сформулировать в следующем виде:
λk=λ, µk=min(kµ,mµ).
(8)
Диаграмма интенсивностей переходов будет иметь вид, представленный на рис. 15.2.
λ
0
λ
λ
2
1
µ
2µ
λ
λ
m-1
3µ
(m-1)µ
mµ
Рис. 15.2. Диаграмма интенсивностей переходов системы M/M/m.
Решение полученной системы разбивается на две части. При k≤m:
k
λ 1
λ
p( k ) = p ( 0 ) ∏ = p ( 0 )  
i =1 iµ
 µ  k!
k
(9)
При k>m:
k
λ
1
p( k ) = p ( 0 )  
k −m
 µ  m!m
(10)
251
Таким образом,
k

mp )
(
 p ( 0)
,k ≤ m

k
!
p( k ) = 
ρk m

 p ( 0 ) m ! m , k > m
(11)
Здесь ρ=[λ/(mµ)]<1.
Задавая различные значения λk и µk можно учесть конечные размеры
накопителя, например:
λ , k < K
λk= 
; µk=µ.
0, k > K
Здесь K - максимальное количество заявок в очереди (все последующие заявки получат отказ и покинут систему без обслуживания, пока не
произойдет разгрузка системы).
Можно учесть конечное число источников нагрузки M, если
λ M−k , k ≤ M
λk= 
; µk=µ.
0, k > M
(интенсивность поступления заявок от каждого источника λ. Если в
системе k заявок, то M-k находится в числе поступающих).
50.3. Характеристики системы M/M/1. Число заявок в системе
Среднее число заявок в системе определяется как математическое
ожидание случайной величины числа заявок в СМО:
∞
∞
∞
N = ∑kp( k ) = ∑kp( 0) ρ = (1 −ρ) ∑kρk .
k
k =0
k =0
k =0
Ряд можно преобразовать следующим образом:
∞
∞
∑p = ∑kρ
k
k=0
k
k=1
∞
= ρ∑kρk−1
k=1
Т.к. ряд абсолютно сходящийся (мы полагаем, что ρ<1), то
∞
∞
d k d ∞ k d 1 
k−1
kp
=
ρ = ∑ρ = 

∑
∑
d
ρ
d
ρ
d
ρ
1
−
ρ
k=1
k=1
k=1


Отсюда, N =
ρ
1− ρ
(12)
252
50.4. Характеристики системы M/M/1. Время пребывания в
системе
Значение этого параметра приведем без доказательства, основываясь
исключительно на формуле Литтла: T =
N
1
=
.
λ µ (1 − ρ )
Легко заметить, что при ρ→1 длина очереди и среднее время пребывания заявок в системе неограниченно возрастают. Таким образом, стремление увеличить коэффициент загрузки оборудования приводит к перегрузкам его, увеличению межоперационных запасов и увеличению времени технологического цикла. Более того, если рассчитать мощности предприятия, исходя из единичного коэффициента использования, то это неминуемо приведет к срыву договорных обязательств.
51. Стохастические сети.
51. 1. Особенности сетей СМО
Рассмотрим системы с многофазным обслуживанием, представляющие собой сети узлов, каждый из которых является СМО с накопителем для формирования очереди. Заявки поступают в систему в различных точках, ждут обслуживания в очередях и, покинув один узел, поступают в другой для дальнейшего обслуживания.
Важным аспектом при анализе сетей является топологическая структура сети, определяющая возможные переходы между узлами. Большое
значение имеет описание потоков с помощью основных вероятностных
процессов.
Например, в последовательной цепочке СМО требование, покидающее один узел, сразу попадает в другой. При этом промежутки времени
между последовательными уходами требований из первого узла, равны
промежуткам времени между последовательными поступлениями их в
следующий узел.
Рассмотрим СМО, состоящую из двух последовательных узлов
(рис..1).
λ Очередь 1
µ
Очередь 2
||||||
OA1
||||||||
Рис.1. Система из двух последовательных узлов.
253
OA2
Пусть поток, входящий в узел 1, является пуассоновским с интенсивностью λ. Узел 1 является СМО типа M/M/1 с интенсивностью обслуживания µ. Можно показать, что если µ>λ, то функция распределения времени между уходами заявок из первого узла является экспоненциальной с
параметром λ. Таким образом, поток заявок, выходящий из первого узла,
имеет те же характеристики, что и поток заявок, входящих в этот узел.
Этот результат обобщается теоремой Берке.
Теорема (теорема Берке). Исходящий поток СМО типа M/M/m с
пуассоновским входящим потоком с параметром λ и интенсивностью обслуживания µ в каждом из каналов является пуассоновским с тем же параметром λ. Более того, система M/M/m является единственной системой с
обслуживанием в порядке поступления, обладающей этим свойством.
Из теоремы Берке следует, что сеть, состоящая из последовательно
соединенных узлов, может быть разложена на отдельные узлы, и каждый
узел может быть исследован независимо от других.
51.2. Открытые сети
Рассмотрим сеть общего вида, содержащую n узлов. Каждый i-й узел
состоит из mi обслуживающих приборов (каналов) с показательным распределением времени обслуживания с параметром µi. В каждый узел извне
поступает поток требований с интенсивностью γi. Покидая i-й узел, требование с вероятностью rij поступает в j-й узел. Вероятность того, что после
обслуживания в i-м узле требование покинет систему, равна
1−
n
∑ rij
j =1
Для вычисления полной интенсивности потока требований в заданный узел необходимо просуммировать потоки (пуассоновские), поступающие извне, и потоки (необязательно пуассоновские), поступающие от
других узлов сети.
Пусть λi - полная интенсивность потока, входящего в i-й узел. Тогда
λi = γi +
n
∑ λ j r ji
(1)
j =1
Необходимо отметить, что для всех узлов должно выполняться условие λi < miµi.
В результате получаем систему из n уравнений с n неизвестными λi.
Ее решение дает суммарную интенсивность потока, поступающего в каждый узел. Из-за возможности возврата заявок в узел, в котором они уже
были, нарушается пуассоновская природа потоков, входящих в узлы сети.
Несмотря на это каждый узел ведет себя как независимая СМО типа
M/M/m с входящим пуассоновским потоком с параметром λi. Состояние
254
рассматриваемой системы с n узлами характеризуется вектором
K=(k1,k2,...,kn), где ki - число заявок в i-м узле.
Обозначим P(k1,k2,...,kN) - вероятность стационарного состояния сети; Pi(ki) - вероятность того, что в состоянии равновесия в i-м узле находится ki заявок. Тогда справедлива следующая теорема.
Теорема Джексона. Совместное распределение вероятностей состояний по всем узлам сети равна
n
P( K ) = ∏ Pi ( k i )
(16.2)
i =1
Здесь Pi(ki) представляют собой стационарные вероятности для системы M/M/m.
51.3. Замкнутые сети
Достаточно важный случай представляет собой сеть, в которой циркулирует постоянное число заявок, которые не покидают сеть и не могут
войти в нее извне. Это соответствует схеме Джексона, в которой
n
∑ rij = 1,
j =1
γ i = 0 ∀i .
Между компонентами вектора состояний P(k1,k2,...,kn) имеется следующая зависимость: k1+k2+...+kn=K, где K - число циркулирующих в сети
заявок.
В замкнутой сети множество состояний конечно и равно числу способов размещения K заявок по n узлам, т.е. равно
( n + K − 1)!
Сnn+−1K −1 =
( n − 1)! K !
Например, для сети из n=3 узлов, в которой находится две заявки,
общее число состояний будет равно 4!/(2!2!)=6. Это множество состояний
будет следующим:
{(2,0,0), (0,2,0), (0,0,2), (1,1,0), (1,0,1), (0,1,1)}
Стационарное распределение заявок доля замкнутой сети описывается следующим образом.
По теореме Джексона совместное распределение сети P(K) пропорционально произведению
n
∏ Pi ( ki ) .
i =1
Для СМО типа M/M/m:
255
k

 λ i  i −1
 Pi ( ki ) = Pi ( 0)  βi ( ki )
µ 

 i

k ! , k ≤ mi

βi ( k ) = 
k −m
mi ! mi i , k > m

Тогда совместное распределение вероятностей замкнутой сети есть
что
λi =
k
1 n  λ i  i −1
P( K ) =
∏   βi ( ki )
G K i =1 µ i 
Здесь GK - константа нормализации.
Необходимость введения константы нормализации вытекает из того,
система
уравнений
для
определения
интенсивностей
n
∑ λ j r ji ,
j =1
i = 1...n , является вырожденной.
51.4. Примеры сетей
Пример 1. Рассмотрим сеть, представленную на рис. 2.
γ
CMO1
γ1
CMO2
1-r21
Рис. 2. Пример открытой сети.
Найти интенсивность выходного потока γ1 и коэффициент использования каждого узла, если γ=1, µ1=4, µ2=5, r21=0.5 .
Решение. Определим интенсивности потоков:
λ1=γ+λ2·r21λ2; λ2=λ1.
Отсюда, λ1=γ/(1-r21)=2, λ2=2.
Коэффициенты использования:
ρ1=λ1/µ1=0.5;
ρ2=λ2/µ2=0.4.
Интенсивность выходного потока равна γ1=λ2(1-r21) =1.
Пример 2. Рассмотрим замкнутую сеть, приведенную на рис. 3.
256
Канал2
µ1
||||||
||||||||
OA2
µ2
Канал1
µ1
OA1
r11
Рис. 16.3. Пример замкнутой стохастической сети.
Дано: число узлов n=2, число заявок в сети K=3; интенсивность обслуживания в первом узле равна µ1=1, число параллельных каналов m1=2;
интенсивность обслуживания во втором узле µ2=2, число каналов m2=1.
Число состояний сети равно (K+n-1)!/[(n-1)!K!]=4. Эти состояния:
{(3,0), (0,3), (1,2), (2,1)}.
Матрица вероятностей переходов имеет вид:
r11 r12
0.6 0.4
R=
=
r21 r22
1
0
Запишем уравнения равновесия:
λ = λ r + λ r
1 11
2 21
 1

 λ 2 = λ1r12 + λ 2 r22
Система приводится к следующему виду:
 λ1 = 0.6λ1 + λ 2

 λ 2 = 0.4λ1
Примем временно λ1=1, λ2=0.4.
Тогда x1=λ1/µ1=1, x2=λ2/µ2=0.2.
Общая формула вероятностей состояния сети:
k
1 n xi i
∏
P( K )= P(K ) =
GK i =1 βi (ki )
257
Здесь GK = ∑
n
k
xi i
∏ β (k )
i =1 i i
Сумма при вычислении константы нормализации берется по всем состояниям.
В результате расчетов получим: β1(3)=4, β1(2)=2, β1(1)=1, β1(1,0)=1;
β2(i)=1, i=0...3; GK=0.398.
Вероятности
состояний
равны: P(3,0)=0.628, P(0,3)=0.021,
P(1,2)=0.100, P(2,1)=0.251.
Найдем теперь характеристики узлов сети, которыми являются загрузка, интенсивность потока заявок, среднее число заявок в узлах и среднее время пребывания заявок в узле.
Для одноканального узла загрузка определяется как вероятность его
занятости
∑ P(K )
ρi =
∑k
j = K , ki > 0
или как дополнительная вероятность того, что он свободен
∑ P(K )
ρi = 1 −
∑k
j = K , ki = 0
Для рассматриваемого примера
ρ2=P(0,3)+P(1,2)+P(2,1)=0.372.
Или: ρ2=1-P(3,0)=0.372.
Для многоканального узла загрузка равна среднему числу занятых
каналов:
K
ρi= ρi = ∑ α i (ki )Pi (ki )
ki
Здесь αi(ki) - число занятых каналов в i-м узле при условии, что в нем
находится ki заявок.
Для рассматриваемого примера ρ1=1·0.100+2·0.352+2·0.628=1.86.
Зная загрузку, легко рассчитать интенсивность потока, проходящего
через СМО узла:
λi=ρi/µi; λ2=0.744, λ1=1.86, λ2/λ1=0.4.
Среднее число требований в узле можно определить из выражения
K
 ki = ∑ ki Pi (ki )
ki =1
Получаем:
k1ср=3·P(3,0)+2·P(2,1)+1·P(1,2)=2.485;
258
k2ср=3·P(0,3)+2·P(1,2)+1·P(2,1)=0.514.
Для расчета среднего времени пребывания заявки в узле можно воспользоваться формулой Литтла: ti=ki/λi.
Тогда:
t1=1.336; t2=0.691.
51.5. Замечания
С ростом числа узлов и числа заявок в сети резко возрастает трудоемкость расчетов. Возможно моделирование сети, дающее очень хорошие
результаты, но требующее иногда много машинного времени. Моделирование осуществляется на языке программирования GPSS (GPSSV) (см.
книгу Шрайбер Т. Моделирование на GPSS. - М.: Машиностроение, 1980.).
Можно также использовать систему имитационного моделирования
Extend: http://www.imaginethatinc.com
259
ЧАСТЬ 11. ЗАДАЧИ ЛИНЕЙНОГО И НЕЛИНЕЙНОГО
ПРОГРАММИРОВАНИЯ
52. Постановка задачи линейного программирования
Определение 1. Математическое программирование – это раздел математики, занимающийся поиском экстремумов в выпуклой области.
Определение 2. Линейное программирование – подраздел математического программирования, занимающийся поиском экстремумов линейных функций на выпуклых многогранниках.
Определение 3. Нелинейное программирование – подраздел математического программирования, занимающийся поиском экстремумов нелинейных функций в выпуклых областях.
Рассмотрим следующую задачу.
Имеется 150 л жидкости А и 150 л жидкости Б. Для получения одной
бутыли смеси 1 нужно взять 2 л жидкости А и 1 л жидкости Б, а для получения одной бутыли смеси 2 нужно взять соответственно 1 л жидкости А и
4 – жидкости Б.Смесь 1 продаётся по цене 2 ден. единицы, а смесь 2 – 3
ден. единицы за одну бутыль. Сколько нужно приготовить бутылей каждой
смеси, чтобы общая их стоимость была наибольшей, при условии, что число бутылей со смесью 2 не менее числа бутылей со смесью 1?
Сформулируем экономико-математическую модель исходной экономической задачи.
Введём следующие обозначения: х 1- количество бутылей первой смеси; х 2 - количество бутылей второй смеси. Стоимость бутылей первой смеси составляет 2х 1 ден. единиц, а второй смеси - 3х 2 ден. единиц, т. е. необходимо максимизировать целевую функцию (общую стоимость):
f(X) = 2х1 + 3х2 → max.
Помимо указанной функции мы имеем ряд ограничений.
1-е ограничение: можно потратить не более 150 л жидкости А.
В математической форме оно имеет вид: 2 x1 + x2 ≤ 150
2-е ограничение: можно потратить не более 150 л жидкости В.
В математической форме оно имеет вид: x1 + 4 x2 ≤ 150
3-е ограничение: число бутылей со смесью 2 не менее числа бутылей
со смесью 1.
В математической форме оно имеет вид: x1 − x 2 ≤ 0
4-е ограничение: количество бутылей не может быть отрицательным.
В математической форме оно имеет вид: x1 ≥ 0, x2 ≥ 0
Таким образом, получаем следующую задачу:
(1)
f(X) = 2х1 + 3х2 → max
при условиях
260
2 x1 + x2 ≤ 150

 x1 + 4 x2 ≤ 150

 х1 − х2 ≤ 0
 x1 ≥ 0, x2 ≥ 0
(2)
Сформулированную выше задачу можно решить графически, т.к. у
нас всего две переменные.
Прежде всего, необходимо на плоскости (x1, x2) отобразить область,
удовлетворяющую имеющимся ограничениям (рис. 1).
Рис. 1. Область допустимых решений.
Ограничения х 1, 2 ≥ 0 означают, что область решений будет лежать в
первой четверти декартовой системы координат.
Первое ограничение по запасам жидкости А: 2 x1 + x2 ≤ 150
Решением этого неравенства является полуплоскость, лежащая ниже
прямой 2х 1 + х 2 = 150 (I), проходящей через точки (0;150) и (75;0).
Второе ограничесние по запасам жидкости В: x1 + 4 x2 ≤ 150
Решением этого неравенства является полуплоскость, лежащая ниже
прямой х 1 + 4х 2 = 150 (II), проходящей через точки (0;37,5) и (150;0).
Третье ограничение определяет связь между количеством бутылей:
261
x1 − x 2 ≤ 0
Решением этого неравенства является полуплоскость, лежащая выше
прямой х 2 = х 1 (III). Эта прямая проходит через начало координат и пересекается с прямой II в точке D с координатами (30;30).
Общее множество точек для всех областей – треугольник ADO.
Рассмотрим множество прямых f( X )=const, т.е. 2х1 + 3х2=const.
Все эти прямые параллельны друг другу. На каждой прямой на всех
ее точках целевая функция остается постоянной.
Построим прямую 2х1 + 3х2=0. Она изображена на рис. 1. пунктирной
прямой.
Для определения направления движения к оптимуму построим вектор нормали к этой прямой: n=(2;3). Этот вектор одновременно является
вектором градиента (см. раздел 11.2) целевой функции (1).
Начнем перемещение пунктирной прямой вдоль вектора нормали
(градиента). Чем дальше мы сумеем ее увести, сохраняя хотя бы одну точку в области допустимых решений, тем больше будет значение целевой
функции.
В данной задаче движение прямой до её пересечения с точкой D с
координатами (30;30); далее она выходит из области допустимых решений.
В этой точке достигается максимум целевой функции.
Итак, max f(X) = 2·30 +3·30 =150 ден. единиц и достигается при х 1=30
и х 2 =30.
Рассмотренная выше задача является частным случаем задачи линейного программирования (ЗЛП), которая формулируется следующим образом.
Найти вектор X=(x1, x2,.., xn)Т, обеспечивающий наибольшее
(наименьшее) значение линейной формы
L( X) =
n
∑c j x j
(3)
j =1
при условиях
n
∑ aij x j ≤ bi (i = 1...m) ,
(4)
j =1
и обязательном дополнительном условии о неотрицательности всех переменных, т.е.
(5)
xj ≥ 0 ∀ j
Остановимся на других формах записи этой задачи.
Обозначим через A=||aij|| матрицу коэффициентов системы уравнений (4), через B=||bi|| - вектор-столбец правых частей системы (4), а через
C=||cj|| - вектор-столбец коэффициентов линейной формы (3), то можно записать задачу в матричной форме:
262
L(X) = CTX → max (min)
(3.1)
при условиях
AX ≤ B
(4.1)
и
xj ≥ 0 ∀ j.
Определение 1. Вектор X, удовлетворяющий ограничениям задачи,
называют планом, а совокупность таких векторов - множеством планов.
Множество планов является выпуклым многогранником.
Определение 2. Множество планов называют замкнутым, если его
граница принадлежит этому множеству.
Определение 3. Точка X множества называется его вершиной или
крайней точкой, если ее нельзя поместить внутри отрезка, соединяющего
какие-то две точки множества, т.е. представить в виде
X = λX1+(1-λ)X2 , 0 ≤ λ ≤ 1 .
Множество планов нашей задачи ограничено m+n гиперплоскостями
и количество вершин не превышает числа сочетаний из m+n по n .
Определение 4. Выпуклое замкнутое множество с конечным числом
вершин называется выпуклым многогранником.
Определение 5. План называется опорным, если он обращает в равенство хотя бы n независимых ограничений (4)-(5) (в вершине пересекаются
хотя бы n граничных гиперплоскостей).
Поиск опорного плана сводится к выбору из m+n соответствующих
уравнений с n неизвестными подсистемы n уравнений. Если эта подсистема разрешима (определитель соответствующей матрицы коэффициентов
отличен от нуля) и полученное решение удовлетворяет остальным ограничениям, то это решение является опорным планом.
Отсюда напрашивается вывод, что понятия опорного плана, крайней
точки и вершины множества планов тождественны и оптимальный план
всегда является опорным.
Поскольку компоненты опорного плана обращают в равенство хотя
бы n из имеющихся m+n ограничений, то в (5) не более m ограничений будут выполняться в форме неравенств. Отсюда можно утверждать, что число положительных компонент опорного плана не превышает m. Так если,
например, решается задача с 5 неотрицательными переменными при 3
ограничениях, то в ее оптимальном плане могут быть положительными не
более 3 компонент.
Определение 6. Система m векторов Aj при положительных компонентах опорного плана называется базисом этого плана (эта система линейно независима и знание базиса автоматически определяет соответствующий опорный план).
Определение 7. Опорный план, содержащий ровно m положительных компонент, называется невырожденным, в противном случае - вырожденным (здесь m - число независимых ограничений в (3)).
263
53. Симплекс-метод решения задач линейного программирования
Симплекс-метод основан на упорядоченном переборе опорных планов (упорядоченность обеспечивается монотонным изменением значения
целевой функции при переходе к очередному плану).
Пусть стоит задача максимизации целевой функции (51.3) или
(51.3.1) при условиях (51.4) или (51.4.1).
Предположим, что нам удалось найти опорный план X0, в котором,
например, первые m компонент отличны от нуля:
0
X 0 = ( x10 , x20 ,..., xm
,0,...,0)
(1)
и соответствующий базис Б=(A1,A2,…,Am).
Попытаемся выбрать другую систему базисных векторов с целью построения нового опорного плана, в котором k-я переменная ( k > m ) принимает значение Θ > 0 :
X(Θ) = ( x1 (Θ), x2 (Θ),..., xm (Θ),0,..., Θ,...,0)
Подставляя (1) в (51.4), получим:
(2)
m
∑ A j x 0j = B
(3)
j =1
Подставив (2) в (51.4), получим:
m
∑ A j x j (Θ) + A k ⋅ Θ = B
(4)
j =1
Разложим вектор Ak по векторам исходного базиса:
Ak =
m
∑ Z jk A j
(5)
j =1
В общем случае для получения коэффициентов такого разложения
придется решать систему m уравнений с m неизвестными, которая имеет
единственное решение, поскольку базисные векторы линейно независимы
и соответствующая матрица имеет ненулевой определитель. Заметим, что в
ситуации, когда базисные векторы являются единичными (образуют единичную матрицу), искомые коэффициенты совпадают с компонентами исходного вектора.
После ряда преобразований, получаем представление первых m компонент нового плана:
x j (Θ) = x 0j − Θ ⋅ Z jk , j = 1...m
264
(6)
Естественно потребовать неотрицательность компонент нового плана. Так как нарушение неотрицательности может возникнуть лишь при
Zjk>0, то значение нужно взять не превышающим наименьшего из отношений X0j к положительным Zjk.
Если к тому же учесть, что число положительных (базисных) компонент опорного плана должно оставаться равным m, то одну из первых m
(ненулевых) компонент исходного плана обращаем в нуль выбором
Θ = min
x 0j
(7)
Z jk > 0 Z jk
Если обозначить Zˆ k =
m
∑ c j Z jk ,
j =1
∆ k = Zˆ k − ck , то целевая функция
примет вид
(8)
L( X( Θ )) = L(X 0 ) − Θ ⋅ ∆ k
Отсюда можно сделать следующие выводы:
1. Если все ∆k≥0, то выбранный план для задачи максимизации является оптимальным. Для задачи на минимум признак оптимальности - неположительность всех ∆k (критерий оптимальности).
2. Если обнаруживается некоторое ∆k<0 и хотя бы одно из значений
Zjk>0, то переход к новому плану увеличит значение целевой функции.
3. Если обнаруживается некоторое k<0, но все Zjk≤0, то линейная
форма задачи не ограничена по максимуму; неограниченность по минимуму устанавливается аналогично при k>0 и всех Zjk≤0.
Предположение о том, что базисными являются первые m компонент
плана, не является принципиальным, и указание диапазона по j от 1 до m
можно заменить на указание о принадлежности к базису "j∈Б".
Если все опорные планы задачи являются невырожденными (число
положительных компонент равно m), то Θ отлично от нуля и переход к новому плану изменяет значение целевой функции, что гарантирует достижение экстремума за конечное число шагов. При наличии вырожденных
планов возможно т. н. зацикливание (возврат к ранее рассмотренным планам).
Рассмотрим в качестве примера решение симплекс-методом задачи
раздела 51.
Найти максимум целевой функции
f(X) = 2х1 + 3х2 → max
при условиях
265
2 x1 + x2 ≤ 150

 x1 + 4 x2 ≤ 150

 х1 − х2 ≤ 0
 x1 ≥ 0, x2 ≥ 0
Шаг 1. Приведем задачу к канонической форме, т.е. добавим в ограничения новые неотрицательные переменные с коэффициентами +1 или -1
так, чтобы неравенства превратились в равенства:
2 x1 + x2 + x3 = 150

 x1 + 4 x2 + x4 = 150

 х1 − х2 + x5 = 0
 x1 , x2 , x3 , x4 , x5 ≥ 0
В целевую функцию эти переменные включим с коэффициентом 0:
f(X) = 2х1 + 3х2+ 0х3+ 0х4+ 0х5
Шаг 2. Выбор начального базиса и заполнение начальной симплекстаблицы.
В качестве начального базиса выберем линейно независимые векторы матрицы коэффициентов ограничений, включающие в себя новые независимые переменные. Тогда начальное базисное решение будет иметь вид:
X=(0, 0, 150, 150, 0)Т
Заполним начальную таблицу:
Базис
Переменные задачи
bi
x1
x2
x3
x4
x5
x3
2
1
1
0
0
150
x4
1
4
0
1
0
150
x5
1
-1
0
0
1
0
∆
-150
-150
0
0
0
Первый столбец (кроме последней строки) содержит наименования
базисных переменных. Следующие 5 столбцов – коэффициенты aij при переменных в ограничениях. Последний столбец содержит коэффициенты
правой части ограничений bi.
Последняя строка (∆) содержит симплекс-разности, которые на первом шаге равны коэффициентам целевой функции, взятым с обратным
знаком.
Шаг 3. Проверка текущего решения на оптимальность.
Критерием оптимальности является выполнение условия неотрицательности всех симплекс-разностей ∆. Если это условие выполнено, то текущее решение оптимально.
В нашем случае имеются две отрицательные разности: в столбцах x1
и х2. Решение неоптимально.
266
Шаг 4. Выбор направления улучшения решения и определение параметра Θ.
В нашем случае два отрицательных значения ∆ дают два возможных
направления улучшения. Выберем столбец с минимальным значением отрицательной разности (в нашем случае имеем две равные величины -150).
Для улучшения решения выберем второй столбец.
Тем самым мы вводим в базис новый элемент x2.
После выбора направления
1
− Z 0j = Z 2 = A 2 = 4
−1
необходимо проверить, чтобы среди элементов вектора A2 был хотя бы
один положительный элемент. В противном случае целевая функция неограничена на множестве решений и ЗЛП неразрешима.
Вычисляем параметр
b
Θ = min i , j = 2, i = 1...3
aij > 0 aij
bi > 0
Т.к. во втором столбце среди коэффициентов при x2 только два поb
b
150
150
ложительных, то получим Θ1 = 1 =
= 150; Θ 2 = 2 =
= 37.5
a12
1
a22
4
Θ = min( Θ1 , Θ 2 ) = 37.5
Итак, элемент x2 заменяет элемент x4 в базисе. Поделим на 4 всю
вторую строку и запимшем новую симплекс-таблицу:
Базис
Переменные задачи
bi
x1
x2
x3
x4
x5
x3
2
1
1
0
0
150
x2
0.25
1
0
0.25
0
37.5
x5
1
-1
0
0
1
0
∆
-150
-150
0
0
0
Операциями над строками в целом необходимо добиться, чтобы в
столбце x2 выше и ниже строки x2 остались одни нули (см. раздел «Линейная алгебра», метод Гаусса): из строки x1 вычтем строку x2; к строке x5
прибавим строку x2; к строке ∆ прибавим 150 строк x2:
Базис
Переменные задачи
bi
x1
x2
x3
x4
x5
x3
1.75
0
1
-0.25
0
112.5
x2
0.25
1
0
0.25
0
37.5
x5
1.25
0
0
0.25
1
37.5
∆
-112.5
0
0
0
0
267
В соответствии с шагом 3 видим, что полученное решение неоптимально. Аналигично предыдущему шагу, вводим в базис элемент x1.
В строке x1 также делим свободные коэффициенты на коэффициенты
в столбце x1:
b
b
b
112.5 450
37.5
37.5
Θ1 = 1 =
=
; Θ2 = 2 =
= 150; Θ 3 = 3 =
= 30 = min
a11 1.75
7
a21 0.25
a31 1.25
Итак, вводим элемент x1 в базис вместо элемента x5. Поделим все коэффициенты новой строки x1 на 1.25:
Базис
Переменные задачи
bi
x1
x2
x3
x4
x5
x3
1.75
0
1
-0.25
0
112.5
x2
0.25
1
0
0.25
0
37.5
x1
1.00
0
0
0.20
0.80
30
∆
-112.5
0
0
0
0
Обнуляем все коэффициенты в столбце x1 за исключением коэффициента a31: из строки x3 вычтем строку x1, умноженную на 1.75; из строки
x2 вычтем строку x1, умноженную на 0.25; к строке ∆ прибавим 112.5 строк
x1 :
Базис
Переменные задачи
bi
x1
x2
x3
x4
x5
x3
0
0
1
-0.60
-1.40
60
x2
0
1
0
0.20
-0.20
30
x1
1
0
0
0.20
0.80
30
∆
0
0
0
22.5
90
Все разности в строке ∆ неотрицательны, следовательно, мы получили оптимальное решение. Как видно, оно совпадает с полученным графически: x1=30; x2=30; x3=60; x4= x5=0.
268
54. Метод искусственных переменных
Пусть задача приведена к канонической форме и компоненты вектора правой части неотрицательны. Если в системе векторов коэффициентов
при переменных (матрице А) обнаруживается подсистема, образующая
единичную подматрицу, то эти векторы образуют базис опорного плана и
вектор правой части определяет базисные компоненты этого плана.
Если такой единичной подматрицы не обнаруживается, то либо придется перебирать все подсистемы m уравнений с m неизвестными в надежде обнаружить неотрицательные решения, либо прибегнуть к методу искусственного базиса.
В последнем случае в ограничения добавляют неотрицательные т. н.
искусственные переменные так, чтобы возникла единичная подматрица
коэффициентов, и эти переменные включают в линейную форму с коэффициентом +М для задачи минимизации и с коэффициентом - М для задачи минимизации, где М>0 - сколь угодно большое число.
Полученная М-задача решается до получения оптимального плана.
Если в оптимальном плане М-задачи значения искусственных переменных равны нулю, то значения остальных компонент образуют оптимальный план исходной задачи.
Если в оптимальном плане М-задачи значение хотя бы одной из искусственных переменных отлично от нуля, то исходная задача не имеет
ни одного плана (ее ограничения противоречивы).
Рассмотрим следующую задачу:
ЦФ = 100 y1 + 150 y2 + 200 y3 → min;
10 y1 + 20 y2 + 15 y3 ≥ 15

20 y1 + 10 y2 + 10 y3 ≥ 10
y , y , y ≥ 0
 1 2 3
Умножим целевую функцию на (-1), сведя задачу к поиску максимума новой функции, и неравенства сведем к равенствам вычитанием неотрицательных новых переменных:
F = − ЦФ = −100 y1 − 150 y2 − 200 y3 + 0 ⋅ y4 + 0 ⋅ y5 → max;
10 y1 + 20 y2 + 15 y3 − y 4 = 15

20 y1 + 10 y2 + 10 y3 − y5 = 10
y , y , y , y , y ≥ 0
 1 2 3 4 5
Начальный единичный базис отсутствует. Введем две новые искусственные нулевые переменные и включим их в линейную форму с коэффициентом (-M), где М – сколь угодно большое положительное число.
269
F = − ЦФ = −100 y1 − 150 y 2 − 200 y3 + 0 ⋅ y 4 + 0 ⋅ y5 − M ⋅ y6 − M ⋅ y7 → max;
10 y1 + 20 y 2 + 15 y3 − y 4 + y6 = 15

20 y1 + 10 y 2 + 10 y3 − y5 + y7 = 10

 y1 , y2 , y3 , y 4 , y5 ≥ 0
 y6 , y7 = 0
Составим первую симплекс-таблицу:
Коэффициенты в уравнениях
Базис y1
y2
y3
y4
y5
y6
y7
bi
y6
10
20
15
-1
0
1
0
15
y7
20
10
10
0
-1
0
1
10
∆
100
150
200
0
0 M
M
Фиктивные переменные y6 и y7 не могут войти в базис, т.к. не несут
смысла. Возьмем минимальное значение ∆ (это столбец y1). Выберем минимальное значение дроби b/a = 10/20; строка y7. Поделим ее на 20 и создадим нули выше и ниже:
Коэффициенты в уравнениях
Базис y1
y2
y3
y4
y5
y6
y7
bi
y6
0
15
10
-1
0.5
1
-0.5
10
y1
1
0.5
0.5
0 -0.05
0
0.05
0.5
∆
0
100
150
0
5 M
M
Возьмем минимальное значение ∆ (это столбец y2). Выберем минимальное значение дроби b/a = 10/15; строка y6. Поделим ее на 15 и создадим нули выше и ниже:
Коэффициенты в уравнениях
Базис y1 y2
y3
y4
y5
y6
y7
bi
Y2
0
1 0.66667 -0.06667 0.0333 0.06667 -0.0333 0.066667
y1
1
0 0.16667 0.03333 -0.0667 -0.3333 0.06667 0.166667
∆
0
0 83.3333 6.66667 1.6667 M
M
Итак, получили: y1=0.166667, y2=0.666667, y3=y4=y5=y6=y7=0.
Значение целевой функции достигает минимума в этой точке и оно
1
350
= 116.66667
равно ЦФ = 100 ⋅ + 150 ⋅ 2 + 200 ⋅ 0 =
3
6
3
270
55. Двойственные задачи. Экономический смысл
двойственных переменных
Пусть стоит задача максимизации линейной формы
L(X)=CTX
(1)
при условиях
AX ≤ B
(2)
X≥0
(3)
Задача минимизации линейной формы
~
(4)
L( Y ) = B T Y
при условии
AT Y ≥ C
(5)
называется сопряженной к задаче (1)-(3). Обе задачи образуют
пару двойственных задач.
Из этого примера можно усмотреть и т. н. симметричную
пару
Установим ряд частных выводов.
1. Пусть X и Y - некоторые планы задач. Тогда
~
L(X) = CTX ≤ (ATY )TX = YTAX = YTB =BTY = L( Y ) ,
~
т.е. для любых планов L(X) ≤ L(Y ) .
2. Пусть для планов X* и Y* имеет место равенство
CTX*= BTY*.
Тогда CTX ≤ BTY* = CTX*, т.е. при X=X* достигается максимум L(X). C учетом BTY ≥ CTX* = BTY* делаем вывод об оптимальности планов X* и Y*.
3. Пусть линейная форма сопряженной задачи не ограничена
снизу. Тогда существует план Y такой, что BTY < -M, где M > 0 сколь угодно велико.
Если существует хотя бы один план X исходной задачи, то
T
C X ≤ BTY < -M, чего при конечных значениях X не может быть.
Отсюда можно получить следующее утверждение.
Первая теорема двойственности:
Если одна из двойственных задач разрешима, то разрешима
и сопряженная задача. При этом для оптимальных планов X* и
271
Y* этих задач имеет место равенство значений целевых линейных форм CTX*= BTY*.
Если линейная форма одной из задач не ограничена, то
ограничения сопряженной задачи противоречивы. Если в одной
из задач противоречивы ограничения, то в другой задаче либо не
ограничена линейная форма, либо противоречивы ограничения.
m
Определение. Условия xi ≥ 0 ∀i и ∑ aij yi ≥ c j ∀j называют паi =1
рой двойственных условий. Условие называют свободным на некотором плане, если оно выполняется как строгое неравенство (в
противном случае его называют закрепленным).
Вторая теорема двойственности:
Если пара двойственных задач разрешима, то для их оптимальных планов в каждой паре двойственных условий одно является свободным и другое-закрепленным.
Рассмотрим пример.
Предприятие производит продукты двух видов: А и Б. Цена
реализации единицы каждого вида продуктов и затраты сырья
при производстве, а также имеющиеся запасы сырья представлены в следующей таблице:
Тип сырья
Товар
Запас сырья
А
Б
S1
10
20
100
S2
20
10
150
S3
15
10
200
Цена
15
10
Задача сводится к следующему: найти максимальное значение линейной формы (целевой функции)
ЦФ = 15 x1 + 10 x2 → max
при условиях
10 x1 + 20 x2 ≤ 100

20 x1 + 10 x2 ≤ 150

15 x1 + 10 x2 ≤ 200
 x1 , x2 ≥ 0
272
Эта
задача
имеет
решение:
 20 5  350
ЦФmax = ЦФ ,  =
= 116.66667
3
3
3


Двойственная задача имеет вид:
ЦФ = 100 y1 + 150 y2 + 200 y3 → min;
10 y1 + 20 y2 + 15 y3 ≥ 15

20 y1 + 10 y2 + 10 y3 ≥ 10
y , y , y ≥ 0
 1 2 3
Она решена в разделе 53:
1
350
ЦФmin = 100 ⋅ + 150 ⋅ 2 + 200 ⋅ 0 =
= 116.66667
3
6
3
Можно сделать два полезных вывода:
- если в исходной задаче нет условия неотрицательности на
некоторую переменную, то построенное по коэффициентам при
этой переменной ограничение сопряженной задачи выполняется в
форме равенства;
- если некоторое (основное) ограничение исходной задачи
задано равенством, то двойственного условия сопряженной задачи не существует.
При решении экономических задач линейного программирования можно дать следующую экономическую интерпретацию
пары двойственных задач.
Обозначим xj - объем производства j-го вида продукта, bi запас i-го вида сырья, aij - затраты i-го вида сырья на производство единицы j-го продукта и cj - стоимость единицы j-го продукта.
Необходимо максимизировать выручку от продажи произведенной
n
∑ aij x j ≤ bi ,
j =1
продукции
L( X ) =
n
∑ c j x j при
условиях
j =1
i = 1...m .
Если интерпретировать yi как объективную оценку стоимости единицы i-го сырья, то стоимость ресурсов, затраченных на
производство единицы j-го продукта, должна быть не меньше
273
объявленной стоимости и общая стоимость затраченного сырья
должна быть минимальной.
Отсюда
появляется
задача
минимизации
L(Y ) =
m
∑ bi yi → min при условиях
i =1
m
∑ aij yi ≥ c j ,
i =1
j = 1...n .
Здесь первая теорема двойственности утверждает равенство
стоимости затраченных ресурсов и объявленной стоимости произведенной продукции. Вторая же теорема двойственности
утверждает, что, если при некотором i выполняется неравенство
n
∑ aij x j < bi , то i-е сырье не является лимитирующим и объектив-
j =1
ная его стоимость yi=0.
Таким образом, в рассмотренной постановке двойственная
задача является математической формулировкой объективной
оценки всех производственных факторов.
274
56. Транспортная задача
56.1. Постановка задачи
Пусть имеется m поставщиков некоторого продукта в количествах ai
(i = 1 .. m) и n потребителей этого продукта в количествах bj (j = 1 ... n).
Пусть при этом соблюдается условие баланса
n
m
∑ ai = ∑ b j
i =1
(1)
j =1
Пусть известны стоимость сij перевозки единицы продукта от i-го поставщика к j-му потребителю. Если обозначить через xij соответствующие
объемы перевозок, то задача сведется к нахождению плана перевозок, минимизирующего суммарную их стоимость
n m
L( X ) = ∑ ∑ cij xij → min
(2)
i =1 j =1
при условиях
m
∑ xij = ai ,
j =1
n
∑ xij = b j , xij ≥ 0
i =1
∀i , j
(3)
Полученная задача представляет частный случай общей линейной
программы с m + n + m·n ограничениями на m·n переменных.
Отметим некоторые особенности этой задачи, выделяющие ее среди
произвольных линейных программ.
1. Транспортная задача имеет непротиворечивую систему ограничений.
В подтверждение этого заявления достаточно взять набор значений
ai b j
xij =
(4)
m
∑ ai
i =1
и подстановкой в (3) с учетом (1) убедиться, что он является планом.
2. Линейная форма транспортной задачи ограничена как сверху, так
и снизу, что является следствием ограниченности множества планов:
0 ≤ xij ≤ min( ai , b j ) ∀i, j
Отсюда следует,что транспортная задача имеет оптимальный план.
3. Поскольку ограничения (3) с учетом (1) линейно зависимы, то одним из них можно пренебречь. Следовательно, опорный план транспорт275
ной задачи имеет не более m+n-1 положительных компонент (если их
число равно m+n-1, то опорный план называется невырожденным).
4. Важной особенностью опорных планов транспортной задачи является их целочисленность при целых значениях ai и bj.
Если условие баланса (1) нарушено (открытая модель), то задачу
можно свести к закрытой модели вводом фиктивного (m + 1)-го поставщика или фиктивного (n+1)-го потребителя с объемом поставки/потребления
соответственно am +1 =
n
m
j =1
i =1
∑ b j − ∑ ai > 0
m
или bn +1 = ∑ ai −
i =1
n
∑b j > 0
с нуле-
j =1
выми стоимостями перевозок.
Если обозначить через ui (i=1 ... m) и vj (j=1...n ) двойственные переменные, то сопряженная задача будет состоять в максимизации линейной
формы
m
L( U, V ) = ∑ ai vi +
i =1
n
∑b jv j
(5)
j =1
при условиях
(6)
ui+vj≤cij ∀i,j
Заметим, что многие задачи можно описать в терминах классической
транспортной задачи или ее аналога с требованием максимума "затрат".
В последнем случае сопряженная задача будет состоять в минимизации (5) при условиях ui+vj≥cij ∀i,j
56.2. Выбор начального опорного плана
Идея всех методов поиска начального опорного плана заключается в
установке максимального возможного объема перевозки, т.е. минимума из
предложения и спроса xij = min( ai , b j ) ∀i, j .
Самым простейшим из методов поиска начального опорного плана
является "метод северо-западного угла", отправной точкой для которого
является левый верхний угол таблицы.
Рассмотрим пример. Два предприятия получают сырье с четырех
складов.
Вектор потребностей A=(2300; 1400)Т,
вектор запасов B=(1000; 1300; 1200)T.
Матрица стоимостей перевозок единицы продукции имеет вид:
 80 215


С = 100 108 
102 68 


276
Т.к. сумма потребностей превышает сумму запасов на 200 единиц,
введем фиктивного поставщика, с объемом запасов в 200 единиц и стоимостью перевозок ко всем потребителям, равной нулю.
Задачу можно представить следующей таблицей.
Потребители
Объем
D
E
Поставщики запасов
A
1000
80
215
B
1300
100
108
C
1200
102
68
F
200
0
0
2300
1400
Потребности
Составим первый опорный план, начиная с левой верхней клетки
матрицы перевозок (заполняем план перевозок, используя метод северозападного угла). Пока не обращаем внимания на стоимость перевозок, а
только на объем.
Потребители
ПоставщиОбъем
D
E
ки
запасов
Остаток
A
1000
1000
0
0
B
1300
1300
0
0
C
1200
0
1200
0
F
200
0
200
0
2300
1400
Спрос
Начнем с первой строки, заполняя клетку A-D: поставщик А имеет
1000 ед. сырья, а требуется 2300. Возьмем от него все. Естественно, что
потребителю Е от поставщика А ничего не достанется.
Остается потребность в 1300 ед., которые можно получить от поставщика В, тем самым забрав у него все. Потребителю Е от него опять
ничего не достанется. Столбец D ниже обнуляем, т.к. потребность первого
потребителя полностью удовлетворена.
Третья и четвертые строки заполняются почти автоматически: потребитель Е получает от поставщика С 1200 ед. сырья, а от поставщика F –
остальные 200.
Можно придумать и другие модификации этого метода. В частности, метод минимального элемента матрицы стоимостей определяется
правилом первоочередного выбора перевозки на самом "дешевом" маршруте.
В нашем случае получится тот же самый опорный план со стоимостью перевозок 291600.
Оптимальность решения проверим по условиям (6).
Для каждой заполненной ячейки матрицы перевозок составим уравнение: ui+vj=cij, где cij – стоимость перевозки единицы груза:
277
u1 + v1 = 80

u 2 + v1 = 100

u3 + v2 = 68
u 4 + v2 = 0
У нас 6 переменных и четыре уравнения
Положим v2=v1=0. Тогда u4=0, u3=68, u2=100, u1=80.
Условие оптимальности ui+vj-cij ≤0 выполняется для всех клеток,
следовательно, мы нашли одновременно оптимальное решение.
Какой из методов поиска опорного плана лучше? Однозначного ответа нет: при машинной реализации метод северо-западного угла проще по
своему алгоритму и имеет ряд преимуществ, связанных с проблемой вырожденности. При ручном решении в большинстве случаев предпочтение
следует отдать методу минимального элемента матрицы.
56.3. Метод Д.Данцига последовательного улучшения плана
Данный метод представляет компактную форму обычной симплексной процедуры.
Пусть найден некоторый начальный опорный план. Согласно второй
теореме двойственности, этот план будет оптимальным, если для его базисных компонент xij > 0 условия сопряженной задачи выполняются в виде
ui+ vj = сij и для остальных компонент - в виде ui+ vj ≤ сij.
Поэтому m+n-1 базисным компонентам выбранного плана сопоставляется система m+n-1 уравнений ui+ vj = сij с m+n неизвестными, которая
решается с точностью до константы (берем, например, u1=0).
Если все ∆ij = ui+ vj = сij ≤ 0, то выбранный план оптимален.
Если же нашлось ∆kp > 0, то план не оптимален и подвергается перестройке к плану c ненулевым значением соответствующей компоненты.
Полагаем xkp= Q >0 и ищем т.н. минимизирующую цепочку по базису так,
чтобы новый набор значений xij удовлетворял требованиям предложения и
спроса. Затем выбираем максимальное допустимое Q, сохраняя неотрицательность компонент нового плана.
56.4. Задача о назначении персонала
Пусть имеется m категорий претендентов в количестве ai (i=1...m) и n
групп вакантных должностей по bj (j=1...n) в каждой.
Известны оценки сij использования претендента i-й категории на
должности из j-й группы.
278
Задача поиска распределения с максимальной суммарной эффективностью приводит к задаче, отличающейся от транспортной лишь требованием максимизации целевой функции.
Мы рассмотрели самые основы методов и постановок решения
транспортных задач. Учитывая высокую трудоемкость решения, задачи такого типа следует решать на ЭВМ.
57. Целочисленное программирование
При решении многих задач (планирование мелкосерийного производства, распределение кораблей по путям сообщения, выработка суждений типа "да-нет" и т.п.) нецелочисленное решение не имеет смысла. Попытка тривиального округления до целых значений приводит либо к
нарушению ограничений задачи, либо к недоиспользованию ресурсов.
В случае двухмерной задачи проблема решается относительно просто путем выявления всех целочисленных точек, близких к границе множества планов, построения "выпуклой целочисленной оболочки" (выпуклого множества планов, содержащего все целочисленные планы) и решения задачи над этим множеством.
В общем случае выдвигается идея последовательного отсечения
нецелочисленных оптимальных планов: обычным симплексным методом
отыскивается оптимальный план и, если он нецелочисленный, строится
дополнительное ограничение, отсекающее найденный оптимальный план,
но не отсекающее ни одного целочисленного плана.
Эта идея, принадлежащая Д. Данцигу и Р.Гомори, впервые была
представлена в форме дополнительного ограничения:
(1)
∑ x j ≥1
j∉Б
(сумма небазисных компонент оптимального плана должна быть отлична
от нуля; хотя бы одна из небазисных компонент должна быть ненулевой).
В самом деле, оптимальный план с нулевыми значениями небазисных
компонент этому условию не удовлетворяет, что подтверждает отсечение
этого плана от исходного множества.
К сожалению, для абсолютного большинства задач скорость сходимости процесса таких отсечений мала. Потому Р.Гомори предложена другая форма дополнительного ограничения. Так, если компонента плана,
определяемая k-ым уравнением системы ограничений, нецелочисленна, то
добавляется ограничение
(2)
f k = ∑ f kj x j − S * , S * ≥ 0
j∉ Б
где fk - дробная часть компоненты плана (правой части ограничения) и fkj 279
дробная часть коэффициента при xj (целая часть числа - наибольшее целое,
не превышающее это число; дробная часть числа равна разности между
числом и его целой частью), S* - новая дополнительная переменная.
Например, если ограничение имеет вид
17 4
6
8
8
= x1 − x3 + x4 + x5 − x9
3 3
5
5
5
то дополнительное ограничение принимает вид
1 4
4
3
2
= x1 + x3 + x4 + x9 − S , S ≥ 0 .
3 3
5
5
5
Можно уменьшить объем преобразований, если руководствоваться
следующими правилами:
1. выбирать в качестве базового для построения дополнительного ограничения уравнение, определяющее компоненту плана с наибольшей
дробной частью;
2. для ввода в базис опорного плана расширенной задачи выбирать переменную, для которой достигается минимум из отношений абсолютных значений ∆j к значениям fkj;
3. если одна из ранее введенных дополнительных переменных вошла в
базис, ее и соответствующее ей уравнение можно отбросить (эта ситуация связана с появлением более жесткого условия, перекрывающего действие ранее введенного).
Появление дополнительного ограничения и дополнительной переменной вновь приводит к проблеме выбора начального опорного плана
расширенной задачи и к использованию с этой целью искусственной переменной. Следует заметить, что если при поиске переменной, исключаемой
из базиса, значение Θ (определяемое с учетом дополнительного ограничения) соответствует этому ограничению, то можно отказаться от использования искусственной переменной (она все равно выведется из базиса на
этом же шаге решения).
Заметим, что для целочисленных программ может обнаружиться отсутствие целочисленных планов (противоречивость ограничений).
Для предложенного здесь метода доказана конечность процесса отсечений, но число этих отсечений непредсказуемо (вполне может обнаружиться быстрое решение задач с десятками переменных и ограничений и
фантастически длительное для задач небольших размеров).
280
58. Нелинейное программирование
58.1. Специфика нелинейных программ и методы их решения
Многообразие методов решения линейных программ имеет в своей
основе идею упорядоченного перебора опорных планов (вершин) исходной или сопряженной задачи. Для нелинейных же программ простого метода решения, подобного симплексному, нет по многим причинам.
Во-первых, множество планов может оказаться невыпуклым или
иметь бесконечное количество "вершин".
Во-вторых, искомые экстремумы могут достигаться как на границе
множества планов, так и внутри его.
В-третьих, в нелинейных программах возникает проблема поиска
глобального экстремума среди множества локальных.
Каждая нелинейная программа требует индивидуального подхода,
учитывающего ее специфику.
Существующие методы нелинейного программирования можно подразделить на следующие основные классы.
Градиентные методы, в основе которых лежит свойство градиента
функции (см. раздел 11.2) как указателя направления наибольшего роста
функции в окрестности точки.
Так при отсутствии ограничений одна из простейших разновидностей градиентных методов - метод наискорейшего спуска предлагает выбрать некоторую точку (план) Xk и начальный шаг hk, вычислить градиент
функции в выбранной точке grad F(Xk) и осуществить переход по градиенту (при максимизации) с выбранным шагом. Если значение функции в новой точке больше предыдущего, новая точка принимается за исходную, и
повторяется такая же процедура. При попадании в точку с меньшим значением уменьшается шаг (например, вдвое) и переход повторяется от исходной точки. Переходы продолжаются до достаточно малого шага.
Рассмотрим пример. Пусть необходимо решить систему уравнений
(x2+1)(y-2)=3,y=ln(x+1).
Эту систему можно заменить задачей минимизации функции
F ( x, y ) = [( x 2 + 1)( y − 2) − 3]2 + [ y − ln( x + 1)]2
(если система имеет решение, то искомый минимум равен нулю).
Градиент
этой
функции
определяется
вектором
grad F ( x, y ) =
= {2 ⋅ [( x 2 + 1)( y − 2) − 3] ⋅ 2 ⋅ x ⋅ ( y − 2) − 2 ⋅ [ y − ln( x + 1)] /( x + 1);
2 ⋅ [( x 2 + 1)( y − 2) − 3] ⋅ ( x 2 + 1) + 2 ⋅ [ y − ln( x + 1)]}
281
Выбираем начальную точку M0(2,1) и шаг h=1. Значение функции
F(M0)=64.77236, градиент в этой точке grad F(M0) =(63.65141, -78.9542),
нормированный градиент (вектор единичной длины, составленный из компонент, деленных на корень из суммы их квадратов)
gradн F(M0) = (0.627625, -0.77852).
Смещаемся в направлении, обратном градиенту (ищем минимум), с
выбранным шагом в точку М1:
R ( M 1 ) = R ( M 0 ) + grad н F ( M 0 ) = ( 2 − 0.627625;1 + 0.77852 ) = (1.37;1.78)
Здесь R(A) – радиус-вектор точки А.
Вычисляем и находим, что F(M1)=14.877 < F(M0).
Аналогичный переход с учетом gradн F(M1) = (0.176, -0.984) приводит в точку М2(1.197, 2.763), где
F(M2)= 3.955, gradн F(M2) = (-0.994, -0.113).
Переход в очередную точку М3(2.190, 2.876) дает F(M3) = 6.935 >
F(M2). Уменьшаем шаг вдвое (h=0.5) и получаем точку М4(1.759, 1.982),
где F(M4)=11.24, gradн F(M4) = (-0.034, -0.999). Очередной переход приводит в точку с большим значением функции, поэтому приходится еще
уменьшать шаг и т.д.
Есть и более эффективные переходы по градиенту, связанные с выбором различного шага по разным координатам или с автоматическим
определением шага (при каждом переходе решается задача поиска экстремума функции в заданном направлении). Однако, гарантии нахождения
глобального экстремума нет (при разных начальных точках или шагах
можно получить разные решения для многоэкстремальных функций).
Градиентные методы для задач с ограничениями, где при смещениях
по градиенту приходится сталкиваться с опасностью "выскочить" за пределы допустимого множества решений, существенно усложняются (модифицированный метод Ньютона, методы возможных направлений Зойтендейка, сопряженных градиентов, проектируемых градиентов Розена и др.).
Существует обширная литература по численному анализу, где значительное внимание уделяется градиентным и другим итерационным методам, но тем не менее решение нелинейных задач оптимизации при наличии ограничений иногда весьма затруднительно.
Часто применяют методы статистических испытаний, иначе называемых методы Монте-Карло. Для реализации этого метода отыскивается nмерный параллелепипед, включающий в себя множество планов, и затем
моделируются N случайных точек с равномерным законом распределения
в параллелепипеде (практически во всех программных средах предусмотрено наличие соответствующих датчиков псевдослучайных чисел).
В точках, попавших во множество планов, вычисляются значения
функции, и запоминается точка текущего экстремума. После этого берется
параллелепипед меньших размеров с центром в найденной точке, и в нем
282
вновь моделируются N случайных точек. Процесс такого стохастического
моделирования заканчивается при малых размерах параллелепипеда. Методы Монте-Карло имеют преимущество над моделированием на детерминированной сетке, так как их точность имеет порядок 1
и не зависит
N
от размерности задачи.
Методы Монте-Карло используются только для машинного счета,
т.к. просто реализуются. Они обычно применяются при поиске начального
приближения для градиентных методов.
К другим методам нелинейного прораммирования относятся также
методы динамического программирования, сводящие многомерную задачу
оптимизации к последовательности задач меньшей размерности, и методы
выпуклого программирования, реализующие поиск минимума выпуклой
функции или максимума вогнутой на выпуклом множестве планов. Если
множество планов - выпуклый многогранник, то эти методы допускают
использование симплексного метода.
Наиболее эффективно эти и другие методы решения действуют для
так называемых сепарабельных функций, т.е. функций, представимых в
виде суммы функций одной переменной
F(x1, x2, .. ,xn) = f1(x1) + f2(x2) + ... + fn(xn).
При решении многих задач нелинейного программирования определенный эффект дает метод множителей Лагранжа (см. раздел 11.4).
Сам по себе метод множителей Лагранжа не дает существенного эффекта из-за необходимости решать, как правило, нелинейную систему
уравнений; он не гарантирует тип отыскиваемого экстремума, кроме глобальных дает и множество локальных экстремумов, но полезен при генерации идей и создании методов нелинейного программирования.
58.2. Теорема Куна-Таккера
Пусть стоит задача минимизации F(X) при условиях
(1)
f i ( X ) ≤ 0, i = 1...m ,
X≥0,
(2)
где X - n-мерный вектор; F(X) и fi(X) - выпуклые функции, что обеспечивает выпуклость множества планов и единственность искомого минимума
(функция считается выпуклой в некоторой точке, если главные миноры
матрицы вторых производных положительны).
Введем функцию Лагранжа
Φ( X, λ ) = F ( X ) +
m
∑ λ i f i ( X)
(3)
i =1
Теорема Куна-Таккера: вектор X* ≥ 0 является решением поставленной задачи тогда и только тогда, когда существует вектор λ* ≥ 0 такой, что
при всех X ≥ 0 и λ ≥ 0 выполняется неравенство
283
(4)
Φ( X* , λ ) ≤ Φ( X* , λ * ) ≤ Φ( X, λ * )
*
*
Так как функция Лагранжа в точке (X , λ ) принимает минимум по X
и максимум по λ, то эта точка называется седловой и эта теорема называется теоремой о седловой точке или теоремой о минимаксе.
Как частный случай условий Куна-Таккера могут быть построены
двойственные задачи линейного программирования.
Так при минимизации линейной формы CTX при условиях AX ≥ B,
X≥0 функция Лагранжа имеет вид
Ф(X, λ) = CTX + λT(AX - B)
(5)
Условия Куна-Таккера в этом случае выглядят следующим образом:
 ∂Φ
T
T ∂Φ
T
T
 ∂X = C − A λ ≥ 0; X ∂X = X C − A λ = 0; X ≥ 0;
(6)

∂
Φ
∂
Φ
T
T

(
)
 ∂λ = B − AX ≤ 0; λ ∂X = λ B − AX = 0; λ ≥ 0
Отсюда получаем с учетом XTC = CTX, λTB = BTλ, XTAT λ = λTAX,
что в седловой точке достигается минимум по X и максимум по λ, причем
CTX=BTλ, AX≥B, ATλ≤C, X ≥ 0, λ ≥ 0.
(
)
58.3. Квадратичное программирование. Метод Вулфа-Фрэнка
Рассмотрим задачу минимизации квадратичной функции n переменных
F(X)=CTX+XTDX → min
(7)
при линейных ограничениях
AX ≤ B, X≥0,
(8)
где A - матрица размерности m × n , C, X - n-мерные векторы, B - mмерный вектор, D - положительно-определенная n × n - мерная квадратная
матрица (матрица называется положительно определенной, если положительны ее главные миноры, см. раздел 34.3). Так целевая функция
F ( X ) = 7 x1 − 3 x2 + 22 x12 − 8 x1 x2 + x22 − 10 x1 x3 + 12 x2 x3 + 40 x32
Может быть представлена в виде (7), если
7
22 − 4 − 5
C= −3; D= − 4
1
6 .
0
− 5 6 40
Положительная определенность матрицы D и линейность ограничений (множество планов выпукло) позволяют использовать теорему КунаТаккера.
Функция Лагранжа здесь имеет вид:
(9)
Φ(X,λ
λ) = CTX + XTDX + λ(AX-B)
284
и условия Куна-Таккера приводятся к форме:
 ∂Φ
T
T ∂Φ
 ∂X = C + 2DX + A λ ≥ 0; X ∂X = 0; X ≥ 0;
(10)

∂
Φ
∂
Φ
T

 ∂λ = AX − B ≤ 0; λ ∂X = 0; λ ≥ 0
Если ввести векторы ослабляющих переменных V и Y, то выражения
(1) примут вид:
C + 2DX + A T λ − V = 0; X T V = 0; X ≥ 0; V ≥ 0
(11)

T
AX − B + Y = 0; λ Y = 0; λ ≥ 0; Y ≥ 0
С учетом неотрицательности переменных можно поставить задачу
минимизации (до нуля) функции
g(X,λ,Y,V) = XTV + λTY
(12)
при условиях
2DX+ATλ-V=-C,
(13)
AX + Y = B
(14)
(15)
X, λ,Y,V ≥ 0
Если обозначить
WT=(XT,λT,YT,VT)
то (12)-(15) будут приведены к виду
RW = S, W ≥ 0,
(16)
где
−C
2D A T 0 − E
R=
; S=
(17)
B
A
0 E 0
Метод П. Вулфа и М. Фрэнка сводит решение задачи к форме, допускающей применение симплексной процедуры.
Здесь отыскивается некоторый опорный план W0. Если g(W0) = 0, то
этот план оптимален. В противном случае отыскивается градиент
(18)
grad g(W0) = (VT, YT, λT, XT)
и его компоненты на один шаг симплексного преобразования (перехода к
другому опорному плану) принимаются за коэффициенты "линейной формы". После выбора нового опорного плана выполняются вышеописанные
рассуждения.
58.4. Задача о формировании портфеля ценных бумаг
Основные выводы, к которым пришла сегодня классическая портфельная теория можно сформулировать следующим образом:
Эффективное множество содержит те портфели, которые одновременно обеспечивают и максимальную ожидаемую доходность при фиксированном уровне риска, и минимальный риск при заданном уровне ожида285
емой доходности. Предполагается, что инвестор выбирает оптимальный
портфель из портфелей, составляющих эффективное множество.
Оптимальный портфель инвестора идентифицируется с точкой касания кривых безразличия инвестора с эффективным множеством.
Диверсификация обычно приводит к уменьшению риска, так как
стандартное отклонение портфеля в общем случае будет меньше, чем
средневзвешенные стандартные отклонения ценных бумаг, входящих в
портфель.
Соотношение доходности ценной бумаги и доходности на индекс
рынка известно как рыночная модель.
Доходность на индекс рынка не отражает доходности ценной бумаги
полностью. Необъясненные элементы включаются в случайную погрешность рыночной модели.
В соответствии с рыночной моделью общий риск ценной бумаги состоит из рыночного риска и собственного риска. Диверсификация приводит к усреднению рыночного риска. Диверсификация может значительно
снизить собственный риск.
1. Таким образом, можно сформулировать следующие основные постулаты, на которых построена классическая портфельная теория:
2. Рынок состоит из конечного числа активов, доходности которых
для заданного периода считаются случайными величинами.
3. Инвестор в состоянии, например, исходя из статистических данных,
получить оценку ожидаемых (средних) значений доходностей и их
попарных ковариаций ы степеней возможности диверсификации
риска.
4. Инвестор может формировать любые допустимые (для данной модели) портфели. Доходности портфелей являются также случайными величинами.
5. Сравнение выбираемых портфелей основывается только на двух
критериях - средней доходности и риске. Инвестор не склонен к
риску в том смысле, что из двух портфелей с одинаковой доходностью он обязательно предпочтет портфель с меньшим риском.
Ясно, что на практике строгое следование этим положениям является
очень проблематичным. Однако, по нашему мнению, оценка портфельной
теории должна основываться не только на степени адекватности исходных
предположений, но и на успешности решения с ее помощью задач управления инвестициями. В последние десятилетия использование портфельной теории значительно расширилось. Все большее число инвестиционных
менеджеров, управляющих инвестиционных фондов применяют ее методы
на практике, и хотя у нее имеется немало противников, ее влияние постоянно растет не только в академических кругах, но и на практике, включая
российскую. Присуждение Нобелевских премий по экономике ее создателям и разработчикам является свидетельством этого.
286
Рассмотрим задачу формирования портфеля ценных бумаг по Марковицу.
Постановка задачи. Инвестор может вложить определенную сумму
денег в приобретение пакетов акций нескольких (n) компаний. На основании анализа рынка и характеристик ценных бумаг было установлено, что
средние значения ставок дохода равны соответственно mi, i=1…n, а их
стандартные отклонения (которые, собственно, и являются риском ценной
бумаги) - σi, i=1…n. Также необходимо знать зависимости характеристик
ценных бумаг друг от друга, которые выражаются через ковариационную
матрицу (COV) или матрицу коэффициентов парной корреляции (R=||rij||, i,
j=1…n).
Тогда доходность (или эффективность) портфеля ценных бумаг
определяется как
n
m p = ∑ xi mi .
(19)
i =1
Риск портфеля (или стандартное отклонение ставок дохода по портфелю) рассчитывается следующим образом:
σ p = σ 2p = X T ⋅ COV ⋅ X =
=
n
∑x
i =1
2
i
n −1
⋅σ + 2 ⋅ ∑
2
i
i =1
n
∑x
j =i +1
i
⋅ x j ⋅ rij ⋅ σ i ⋅ σ j
.
(20)
Здесь и выше вектор XT=(x1, x2, …, xn) – вектор долей инвестиций,
помещенных в каждый из видов актива (портфельные веса).
В модели Марковица допустимыми являются только стандартные
портфели (без коротких позиций). Это приводит к следующим ограничениям:
n
∑ xi = 1,
i =1
xi ≥ 0 ∀i .
(21)
Теперь можно сформулировать задачу: сформировать портфель минимального риска с доходностью не ниже заданной.
Целевая функция:
σ p = σ 2p = X T ⋅ COV ⋅ X ⇒ min
Ограничения:
n

m
=
 p ∑ xi mi ≥ mmin

i =1
n

 ∑ xi = 1, xi ≥ 0 ∀i
i =1
287
(22)
(23)
59. Понятие о динамическом программировании
59.1. Многошаговые процессы принятия решений
В самых различных областях деятельности приходится иметь дело с
необходимостью поэтапного принятия решений для достижения некоторой
конечной цели. Элементарными примерами такого рода процессов могут
служить любые игры с целью достижения максимального возможного выигрыша, управление космическим кораблем путем поэтапной корректуры
режимов с целью поддержания заданного удаления от Земли, все виды хозяйственной деятельности и т.п.
Если для одношаговых процессов принимаемые решения, как правило, относительно просты, то в многошаговых процессах структура решения несравнимо сложнее. Так, если в лесном хозяйстве руководствоваться
критерием максимального удовлетворения потребностей страны или получения максимальной прибыли в текущем году без учета перспективы, то
оптимальное решение сведется к требованию "руби побольше". Такая недальновидная политика и привела человечество к ситуации, когда в итоге
хищнического отношения к природным ресурсам загублены реки, леса,
воздух, негде хранить отходы промышленного производства, возникла
необходимость добычи ряда минералов из старых отвалов и т. д.
Во многом эта политика объясняется как субъективными причинами,
так и отсутствием глубокого знания законов развития природы и общества,
отсутствием достоверной информации об изучаемой системе, без чего
трудно предвидеть последствия принимаемых решений.
Сегодня у цивилизованных людей не возникает сомнений в необходимости использования для управления сложными системами методов математического моделирования, которое подчас дает решения, неожиданные не только для начинающего, но и для опытного руководителя.
Очевидно, что никакая математическая модель не может описать
действительность с исчерпывающей полнотой (как утверждал небезызвестный Козьма Прутков, "нельзя объять необъятное"). Более того, рост
сложности модели требует более сложного математического аппарата ее
анализа.
Потому, согласно Р. Беллману, "ученый должен идти прямой и узкой
тропой между Западнями Переупрощения и Болотом Переусложения".
Последствия переупрощения очевидны, учет же большого количества факторов приводит к известному "проклятию размерности", делающему задачу выбора оптимальной политики практически неразрешимой.
Для иллюстрации математических проблем, возникающих при исследовании многошаговых процессов принятия решений, рассмотрим следующую идеализированную задачу.
288
Пусть имеется x денежных единиц, часть которых y используется для
закупки оборудования типа А, а оставшаяся часть (x-y) - для закупки оборудования В. В течение периода эксплуатации закупленное оборудование
дает доход, определяемый значениями некоторых функций g(y) и h(x-y) соответственно, который используется для удовлетворения каких-либо потребностей. По истечении периода оборудование продается "в утиль" за
ay+b(x-y) денежных единиц, которые в очередном периоде используются
для закупки оборудования указанных типов. Требуется найти политику
разделения денежных ресурсов, которая обеспечивала бы получение максимального дохода за n периодов.
При n=1 доход зависит от начального ресурса x, выбора y и равен
R1(x,y) = g(y) + h(x-y),
(1)
где y выбирается в интервале от 0 до x.
Очевидно, что максимальный доход в одношаговом процессе при
начальном денежном ресурсе x равен
(2)
R1( x ) = max ( g ( y ) + h( x − y ) )
0≤ y ≤ x
При n=2 суммарный доход зависит от начального ресурса x, выборов
в первом и втором периодах y и y1:
R2 ( x , y , y1 ) = (g ( y ) + h( x − y ) ) + (g ( y1 ) + h( x1 − y1 ) ) , (3)
где x1 = α ⋅ y + β ⋅ ( x − y ); 0 ≤ y ≤ x; 0 ≤ y1 ≤ x1 .
Аналогично при любом n>1 доход за n периодов складывается из дохода в первом периоде и суммарного дохода в последующих n-1 периодах
Rn ( x , y , y1 ,..., y n −1 ) = g ( y ) + h( x − y ) +
где
n −1
∑ ( g ( y k ) + h( x k
k =1
− y k )) , (4)
x1 = α ⋅ y + β ⋅ ( x − y ); xk = α ⋅ yk −1 + β ⋅ ( xk −1 − yk −1 );
0 ≤ y ≤ x; 0 ≤ y1 ≤ x1; ...; 0 ≤ yk ≤ xk ; k = 2...( n − 1)
Следовательно, задача поиска максимального дохода в n-шаговом
процессе при заданном начальном денежном ресурсе x сводится к максимизации функции n неизвестных y, y1,…, yn-1 при указанных ограничениях,
т.е. к задаче математического программирования.
Если функции g(x) и h(x) линейны, то возникает задача линейного
программирования, и нет принципиальных преград для ее решения. Если
же они нелинейны, то возникает ряд неприятных осложнений, связанных в
первую очередь с проблемой размерности.
Решение одномерной задачи не представляет ни малейших затруднений. Здесь можно воспользоваться аппаратом производной - при конкретном значении x найти производную функции по x, приравнять ее нулю,
решить полученное уравнение с целью найти т.н. "критические" точки и
289
вычислить значения функции в критических точках, принадлежащих заданному диапазону, и в двух граничных точках.
При n>1 использование аппарата производных, наряду с необходимостью решения системы уравнений, требует дополнительного анализа, не
находится ли максимум на границе. Прямое табулирование едва ли реально (если для одномерной задачи потребуется провести вычисления в 100
точках, то здесь объем вычислений имеет порядок 100n).
Если же величина исходного ресурса заранее точно неизвестна и
имеется лишь информация о диапазоне возможных его значений, то даже
при линейных функциях придется либо решать очень много линейных
уравнений, либо решать достаточно сложную нестандартную параметрическую задачу.
59.2. Принцип оптимальности и рекуррентные соотношения
Один из путей изучения многошаговых процессов связан с использованием интуитивного принципа оптимальности, сформулированного в
1957 году выдающимся американским математиком Р. Беллманом в книге
"Динамическое программирование" и определяющего фундаментальное
свойство оптимальной стратегии (политики, поведения).
"Оптимальное поведение обладает тем свойством, что, каковы бы
ни были первоначальное состояние и решение в начальный момент, последующие решения должны составлять оптимальное поведение относительно состояния, полученного в результате начального решения".
Это рекурсивное определение можно интерпретировать самым примитивным высказыванием: если вы намерены добиться наилучшего эффекта вашей многолетней деятельности, то на любом ее этапе, независимо
от того, в каких состояниях вы оказывались и какие действия предпринимали, действуйте оптимально, насколько вам позволяет то состояние, в которое вы загнали себя предыдущими действиями.
Если на любом этапе своей целенаправленной деятельности руководствоваться стремлением к достижению некоторой высшей цели, то вся
последовательность действий будет оптимальна.
Принцип оптимальности определяет особенности политики, направленной не на получение сиюминутной выгоды, а на достижение некоторой
удаленной цели.
Обратимся к поставленной выше задаче поэтапного распределения
ресурса, где оптимальность политики определяется достижением максимума суммарного дохода.
Обозначим через Fk(z) суммарный доход в k - шаговом процессе при
начальном ресурсе z и использовании оптимальной политики (максимальный суммарный доход в k - шаговом процессе при начальном ресурсе z).
290
Как мы уже отмечали ранее, доход в (k+1)-шаговом процессе равен
сумме дохода на первом шаге и дохода на последующих k шагах. Если после первого шага вспомнить о принципе оптимальности, то доход в (k+1)шаговом процессе сложится из дохода на первом шаге g(y)+ h(x-y) и максимального дохода на последующих k шагах, которые начнутся уже при
денежном ресурсе α ⋅ y + β ⋅ ( x − y ) , т.е. Fk (α ⋅ y + β ⋅ ( x − y )) .
Если подобрать величину y (выбор на первом шаге при ресурсе x)
так, чтобы эта сумма была максимальна, то мы получим максимальный
доход в k+1-шаговом процессе с начальным ресурсом x:
Fk +1 ( x ) = max ( g ( y ) + h( x − y ) + Fk ( αy + β( x − y )) ), k = 1...( n − 1) (5)
0≤ y ≤ x
Если учесть, что максимальный доход в одношаговом процессе при
начальном денежном ресурсе x равен
(6)
F1 ( x ) = max (g ( y ) + h( x − y ) ) ,
0≤ y ≤ x
то напрашивается последовательность решения поставленной задачи:
найти функцию F1(x) и затем на основе рекуррентных соотношений (5) функции F2(x), . . , Fn(x).
В дополнение к введенным ранее обозначениям Fk(z) будем обозначать через yk(z) - оптимальный выбор на первом шаге k - шагового процесса с начальным ресурсом z.
Решение задачи для n-шагового процесса разделения ресурса начинаем поиском функции F1(x) - максимального дохода в одношаговом процессе при начальном денежном ресурсе x и соответствующих значений y,
обеспечивающих максимум, т.е. функции y1(x) - оптимального выбора для
одношагового процесса с начальным ресурсом x.
Следующий этап решения состоит в поиске функций Fk(x) максимального дохода в k-шаговом процессе и Yk(x) оптимального выбора на
первом шаге этого процесса при начальном ресурсе x (k=2,3, . . ,n).
После поиска указанных функций появляется возможность отыскания оптимальной политики при конкретном начальном ресурсе x = z.
Oптимальный выбор на первом шаге n-шагового процесса при этом
ресурсе равен y1 = y n (z ) в результате чего к началу второго шага начальный ресурс будет равен z1 = αy1 + β( z − y1 ) . Следовательно, оптимальный
выбор на втором шаге совпадет с оптимальным выбором на первом шаге
оставшегося (n-1)-шагового процесса, т.е. y 2 = y n −1 ( z1 ) , и к началу третьего шага ресурс станет равным z 2 = αy 2 + β( z1 − y 2 ) . Оптимальный выбор
на третьем шаге совпадет с оптимальным выбором на первом шаге оставшегося (n-2) -шагового процесса, т.е. yn-2(z2) и т.д. Оптимальный выбор на
последнем шаге будет определяться значением функции y1(zn-1) оптимального выбора для одношагового процесса.
291
59.3. Простейший случай: выпуклые функции
Пусть функции g(x) и h(x) являются выпуклыми (их вторые производные неотрицательны). При поиске
F1( x ) = max ( g ( y ) + h( x − y ) )
0≤ y ≤ x
имеем дело с максимумом суммы выпуклых функций, которая является
выпуклой функцией. Очевидно, что максимум выпуклой функции в интервале достигается на одном из концов интервала.
T. к. F1(X) выпуклая, то при поиске
F2 ( x ) = max ( g ( y ) + h( x − y ) + F1( αy + β( x − y )))
0≤ y ≤ x
мы вновь сталкиваемся с поиском максимума суммы выпуклых функций и
оптимальный выбор на первом шаге двухшагового процесса с начальным
ресурсом x, т.е. y2(x), равен 0 или x.
По индукции можно показать, что при любом n>1
Fn ( x ) = max {h( x ) + Fn −1(β x ); g ( x ) + Fn −1( αx )}
и yn(x) равно 0 или x соответственно.
Пример. Пусть g ( x) = 9 x, h( x) = 5 x, α = 0.4, β = 0.75, n = 4 .
Так как функции линейны (частный случай выпуклости), то при x>0
имеем: F1( x ) = max( 5 x;9 x ) = 9 x , y1( x ) = x .
Далее:
F2 ( x ) = max{5 x + F1(0.75 x ); 9 x + F1(0.4 x )} = max{5 x + 9 ⋅ 0.75 x; 9 x + 9 ⋅ 0.4 x} =
= max{11.75 x; 12.6 x} = 12.6 x; y2 ( x ) = x;
F3 ( x ) = max{5 x + F2 (0.75 x ); 9 x + F2 (0.4 x )} = max{5 x + 12.6 ⋅ 0.75 x; 9 x + 12.6 ⋅ 0.4 x} =
= max{14.45 x; 14.04 x} = 14.45 x; y3 ( x ) = 0;
F4 ( x ) = max{5 x + F3 (0.75 x ); 9 x + F3 (0.4 x )} = max{5 x + 14.45 ⋅ 0.75 x; 9 x + 14.45 ⋅ 0.4 x} =
= max{15.8375 x; 14.78 x} = 15.8375 x; y4 ( x ) = 0
Обратите внимание на то, что мы нашли не значения функций Fk(x),
yk(x), а сами функции, что позволит нам выяснить оптимальную политику
при любом начальном ресурсе z.
59.4. Задача Джонсона (планирование производственной
линии)
Рассмотрим задачу последовательной обработки на двух машинах N
различных деталей, если известно время Ai и Bi обработки i-й детали на соответствующих машинах. Очевидно, что первая машина будет загружена
полностью, но вторая может периодически оказываться в состоянии простоя. Попытаемся найти порядок обработки, минимизирующий время про292
стоя второй машины и тем самым сокращающий общее время обработки
деталей.
Обозначим xi - время простоя в ожидании i- й детали, тогда
x1 = A1;
x1 + x2 = max( A1 + A2 − B1; A1 );
........................................ .....
k −1 
 k

∑ xi = max  ∑ Ai − ∑ Bi 
1≤ k ≤ n i =1
i =1
i =1 
Если обозначить через F(t, Ak, Bk/k=1…n) - суммарное время обработки n деталей при условии, что вторая машина включается с задержкой t
и используется оптимальный порядок обработки, то c учетом принципа
оптимальности (независимо от выбора начальной детали порядок выбора
последующих должен быть оптимальным) имеем:
F (t , Ak , Bk | k = 1...n ) = min ( Ai + F ( Bi + max( t − Ai ;0), Ak , Bk | k = 1...n , k ≠ i ) )
n
i
Если после i-й детали при оптимальном порядке обрабатывается j-я,
то
где
где
F (t , Ak , Bk | k = 1...n) = Ai + A j + F (tij , Ak , Bk | k = 1...n, k ≠ i, k ≠ j ) ,
(
)
tij = B j + max Bi + max(t − Ai ,0) − A j ;0
При обработке в обратном порядке:
F (t , Ak , Bk | k = 1...n) = Ai + A j + F (tij , Ak , Bk | k = 1...n, k ≠ i, k ≠ j )
tij = Bi + max(Bi + max(t − Ai ;0) − Ai ;0)
Если max( Ai + A j − Bi ; Ai ) < max( A j + Ai − Bi , A j ) , то сначала разум-
нее обрабатывать j-ю деталь.
Можно показать, что указанное условие необходимости перестановки эквивалентно условию min( A j , Bi ) < min( Ai , B j ).
Соответственно ищем среди всех значений Ai и Bi наименьшее. Если
найденное значение совпадает с некоторым Ai, то i-ю деталь ставим на обработку первой; если оно совпадает с некоторым Bi, то последней. Эту
процедуру повторяем для всех остальных деталей.
Пример. Пусть информация о времени обработки задана таблицей
i
1
2
3
4
5
6
7
8
Ai
4
4
30
6
2
9
13
9
Bi
5
1
4
30
3
13
9
9
1-й шаг. Минимальное из всех значений равно 1 и соответствует B2
⇒ вторая деталь обрабатывается последней. Минимальное из оставшихся
293
значений (кроме второго столбца) соответствует A5: пятая деталь обрабатывается первой.
2-й шаг. Минимальное значение, за исключением столбцов 2 и 5,
равно A1 и соответственно среди рассмотренных сейчас деталей эта деталь
обрабатывается первой и т.д. В итоге упорядоченная информация принимает вид:
I
5
1
4
8
6
7
3
2
Ai
2
4
6
9
9
13
30
4
Bi
3
5
30
9
13
9
4
1
Время простоя второй машины при первичном порядке равно
max(4;4+4-5;4+4+30-5-1;4+4+30+6-5-1-4;4+4+30+6+2-5-1-4-30;
4+4+30+6+2+9-5-1-4-30-3;4+4+30+6+2+9+13-5-1-4-30-3-13;
4+4+30+6+2+9+13+9-5-1-4-30-3-13-9)
max(4;3;32;34;612;12;12) = 34.
Время простоя при оптимальной перестановке равно
max(2; 2+4-3; 2+4+6-3-5; 2+4+6+9-3-5-30; 2+4+6+9+9-3-5-30-9;
2+4+6+9+9+13-3-5-30-9-13; 2+4+6+9+9+13+30-3-5-30-9-13-9;
2+4+6+9+9+13+30+4-3-5-30-9-13-9-4) = 4.
В процессе решения можно заметить, что существует и другой оптимальный порядок обработки, связанный с неоднозначностью установки детали 8.
К сожалению, столь простого решения задачи Джонсона для случая
последовательной обработки на L > 2 машинах найти не удается.
294
ЧАСТЬ 12. ЭЛЕМЕНТЫ ТЕОРИИ ИГР
60. Основные понятия и принципы теории игр
60.1. Основные понятия теории игр
Теория игр занимается изучением т.н. конфликтных ситуаций, где
сталкиваются интересы индивидов, партий, государств и т. п.
Как утверждал Г.Лейбниц, "...и игры заслуживают изучения; и если
какой-нибудь проницательный математик посвятит себя их изучению, то
получит много важных результатов, ибо нигде человек не показывает
столько изобретательности, как в игре ".
Нет математической теории, которая могла бы дать алгоритм любой
ре-альной игры, но существуют ситуации, подобные игровым и допускающие математический анализ.
Остановимся на классификации игр.
Определение 1. Если интересы участников игры (игроков) оказаться
не совпадают то игра называется антагонистической.
Определение 2. В игре могут участвовать два или более игроков.
Случай игры с одним участником (пасьянс, управление физическим объектом и т.д.) можно считать игрой двух лиц, где вторым участником выступает природа.
Определение 3. Если игроки могут в игре объединяться в группы, то
игра называется коалиционной.
Определение 4. Игры, в которых игроки осведомлены о состоянии
своем и партнеров, а также о прошлом поведении участников игры, относятся к категории игр с полной информацией (типичные примеры - шахматы, "крестики-нолики" и т.п.). Большинство же игр протекает в условиях
неполной информации, где сведения о состоянии партнеров исчерпываются лишь вероятностными характеристиками (домино, карточные игры, игры против "природы").
Определение 5. Антагонистическую игру, где выигрыш одного коллектива равен проигрышу другого, называют игрой с нулевой суммой.
Определение 6. Система правил, однозначно определяющая выбор
хода игрока в зависимости от сложившейся ситуации, называется стратегией.
Каждая фиксированная стратегия игрока, где любой ситуации сопоставлен конкретный выбор, называется чистой. В реальности чаще используются т.н. смешанные стратегии, где чистые стратегии смешиваются
с некоторыми частотами.
Простейшими являются игры двух лиц с нулевой суммой.
295
Определение 7. Пусть в такой игре игрок 1 имеет m выборов и игрок
2 - n выборов. Если игрок 1 делает свой i-й выбор, а игрок 2 - свой j-й выбор, то выигрыш игрока 1 (проигрыш игрока 2) равен Rij. Такая игра называется матричной и матрица R = ||Rij||, i=1…m , j=1...n ] называется матрицей выигрышей (платежной матрицей).
При ведении игры игрок должен ориентироваться на оптимальную
политику партнера и наказывать его за отступления от таковой.
Проведем рассуждения за игрока 1. Если Я воспользуюсь i-м выбором, мой противник для минимизации моего выигрыша сделает тот из своих выборов, который даст min Rij. Соответственно, Я должен использовать
тот выбор, который гарантирует мне выигрыш, не меньший
V1 = max min Rij
i =1...m j =1...n
Противник, рассуждая аналогично, приходит к выводу о гарантированном проигрыше, не превышающем
V2 = min max Rij
j =1...n i =1...m
Определение 8. Если в матрице выигрышей существует элемент Rkl =
V1 = V2, то говорят о наличии оптимальной политики "в пространстве чистых стратегий" и оптимальными выборами для игроков соответственно
являются выборы k и l. Пару (k, l) называют седловой точкой.
Пример 1. Пусть игра определяется матрицей
2 3 4 5
2
3 4 5 6
4
, V1 = max = 6, V2 = min( 6,6,8,10) = 6 .
4 3 4 6
3
6 6 8 10
6
Седловые точки - (4, 1) и (4, 2). Цена игры = 6; оптимальный выбор
для игрока 1 - четвертый, для игрока 2 равнозначны первый и второй (под
ценой игры понимают гарантированный выигрыш-проигрыш при оптимальной политике обоих игроков).
Пример 2. Пусть игра определяется матрицей
3
5 4 3 7 6
R=
6 2 4 3 5
2
, V1 = max = 3, V2 = min( 7,7,4,7,6) = 4
2 7 3 5 4
2
7 3 4 4 4
3
Здесь равенство V1 = V2 не выполняется; оптимальной чистой стратегии для игроков нет.
При анализе игр часто прибегают к попыткам обнаружить доминирование между строками и столбцами. Так в примере 1 элементы четвертой строки больше элементов других строк: использование выбора 4 выR=
296
годнее других выборов при любой политике противника. Противник видит, что в такой ситуации использовать выборы 3 и 4 неразумно.
Использование доминирования т.о. позволяет уменьшить размеры
изучаемой матрицы исключением "невыгодных" строк и столбцов.
При отсутствии седловой точки среди чистых стратегий приходится
искать таковую среди смешанных.
Пусть игрок 1 прибегает к своему выбору i с вероятностью pi, а игрок
2 - к своему j-му выбору с вероятностью qj, то ожидаемый выигрыш игрока
1 (проигрыш игрока 2) равен
m
∑ Rij pi q j = P T RQ
i =1
Теорема 1 (основная теорема теории игр; теорема Джона фон Неймана). Любая матричная игра с нулевой суммой всегда имеет седловую
точку, т.е. существуют векторы P и Q такие, что
(1)
max min P T RQ = min max P T RQ = V
P
Q
Q
P
(V - цена игры).
60.2. Матричные игры и линейное программирование
Очевидно, что если игрок 1 отступит от оптимальной политики, а игрок 2 будет действовать оптимально, то выигрыш игрока 1 будет меньше
цены игры, и если игрок 2 отступит от оптимальной политики при сохранении оптимального поведения игроком 1, то его проигрыш превысит цену
игры:
T
T
P T RQ opt ≤ V = Popt
RQ opt ≤ Popt
RQ
Рассуждения игрока 1: мне хотелось бы максимизировать цену игры,
т.е. мой гарантированный выигрыш, и я должен подобрать вектор P так,
чтобы при любом выборе противника мой ожидаемый выигрыш был
больше цены игры.
Рассуждения игрока 2: мне хочется уменьшить мой гарантированный
проигрыш, т.е. цену игры, и мне надо подобрать вектор Q так, чтобы при
любом выборе противника мой проигрыш был меньше цены игры.
Отсюда возникают две задачи:
Максимизировать выиг- Минимизировать проигрыш V
рыш V
m
∑ Rij pi ≥ V ,
i =1
при условиях
j = 1...n
n
∑ Rij q j ≤ V ,
j =1
i = 1...m
при условиях
297
(2)
m
∑ pi = 1,
i =1
pi ≥ 0 ∀i
n
∑ q j = 1,
i =1
q j ≥ 0 ∀j
Можно показать, что эти задачи образуют пару двойственных задач
линейного программирования. Таким образом, решение матричной игры
сводится к решению пары двойственных линейных программ.
Обратим внимание на то, что при увеличении элементов матрицы R
на любую константу С цена игры увеличится на С и это изменение не окажет влияния на искомые вероятности выборов. Таким образом, можно добиться, например, положительности элементов матрицы и, следовательно,
цены игры. Поэтому можно допустить, что цена игры V положительна.
В предположении V > 0 проведем замену переменных
xi = pi / V, yj = qj / V.
1
1
Отсюда видно, что V =
=
∑ xi ∑ y j
Соответственно, поставленные задачи можно преобразовать к задачам с меньшим числом переменных:
Максимизировать
Минимизировать
m
n
∑ xi
∑yj
i =1
при условиях
m
∑ Rij xi ≥ 1,
i =1
xi ≥ 0 ∀i
j = 1...n
j =1
при условиях
n
∑ Rij y j ≥ 1,
j =1
(3)
i = 1...m
y j ≥ 0 ∀j
60.3. Многошаговые игры. Игры на выживание
Предыдущее рассмотрение игр проводилось в предположении, что
реализация игры может осуществляться любое число раз. Например, для
игры "орел-решка", где в случае совпадения предъявляемых сторон монеты выигрывает игрок 1 и при несовпадении - игрок 2, оптимальная политика игроков состоит в равновероятностном выборе "орла" и "решки" и
цена игры равна 0.
Однако в реальной игре с ограниченными ресурсами политика игроков зависит от результата предыдущих действий и от длительности игры.
Игра прекращается, если один из игроков теряет свой ресурс.
298
Пусть 1-й игрок имеет начальный ресурс A, а 2-й – B. Пусть заданы
матрица игры R и векторы распределения вероятностей выбора тех или
иных решений P и Q.
Тогда ожидаемый выигрыш 1-го игрока в k последовательных реализациях при начальных ресурсах A и B и использовании оптимальной политики
m n
Fk ( A, B ) = max min ∑
∑ pi q j Fk −1( A + Rij , B − Rij ) =
Q i =1 j =1
P
m n
= min max ∑
Q
P
∑ pi q j Fk −1( A + Rij , B − Rij )
i =1 j =1
Пусть общий начальный ресурс игроков A + B = C и игра продолжается до разорения одного из игроков. Обозначим через F(A) ожидаемую
вероятность выживания (шансы не разориться) 1-го игрока при его начальном ресурсе А и оптимальной политике обоих игроков.
Тогда
m n
F ( A) = max min ∑ ∑ pi q j F ( A + Rij ) =
Q i =1 j =1
P
m n
= min max ∑ ∑ pi q j F ( A + Rij )
Q
P i =1 j =1
F ( A ≤ 0) = 0; F ( A ≥ C ) = 1 .
Если игра не обладает седловой точкой в пространстве чистых стратегий, то оптимальные значения вероятностей использования выборов соответствуют внутренним точкам множества планов (0 < p < 1, 0 < q < 1) и
напрашивается мысль прибегнуть к аппарату производных.
2 −1
Пример 4. Рассмотрим игру на выживание с матрицей R =
−2 1
при полном капитале игроков С = 4.
Здесь в силу целочисленности данных берем целочисленные значения А от 0 до 4. Ecли обозначить вероятности соответствующих выборов
игроков через p, 1-p, q,1-q то F ( A ≤ 0) = 0; F ( A ≥ 4) = 1 , то получим:
F (1) = max min{pqF (3) + p(1 − p ) F (0) + (1 − p )qF ( −1) + (1 − p )(1 − q ) F ( 2)} =
P
Q
P
Q
P
Q
P
Q
= max min{pqF (3) + (1 − p )(1 − q ) F ( 2)}
F ( 2) = max min{pqF ( 4) + p(1 − p ) F (1) + (1 − p )qF (0) + (1 − p )(1 − q ) F (3)} =
= max min{pq + p(1 − p ) F (1) + (1 − p )(1 − q ) F (3)}
299
F (3) = max min{pqF (5) + p(1 − p ) F ( 2) + (1 − p )qF (1) + (1 − p )(1 − q ) F ( 4)} =
P
Q
P
Q
= max min{pq + p(1 − p ) F ( 2) + (1 − p )qF (1) + (1 − p )(1 − q ) F ( 4)}
Отыскиваем частные производные и строим системы уравнений для
поиска оптимальных значений P(A), Q(A):
∂
1.
F (1) = qF (3) − (1 − q ) F ( 2) = 0;
∂p
∂
F (1) = pF (3) − (1 − p ) F ( 2) = 0;
∂q
∂
2. F ( 2) = q + (1 − q ) F (1) − (1 − q ) F (3) = 0;
∂p
∂
F ( 2) = p − pF (1) − (1 − p ) F (3) = 0;
∂q
∂
3.
F (3) = q + (1 − q ) F ( 2) − qF (1) − (1 − q ) = 0;
∂p
∂
F (3) = p − pF ( 2) + (1 − p ) F (1) − (1 − p ) = 0
∂q
Решение приведенных систем дает:
F ( 2)
p(1) = q(1) =
;
F ( 2) + F (3)
F (3)
F (3) − F (1)
p( 2) =
; q( 2) =
;
1 − F (1) + F (3)
1 − F (1) + F (3)
1 − F (1)
1 − F ( 2)
p(3) =
; q(3) =
2 − F (1) − F ( 2)
2 − F (1) − F ( 2)
Подставляя полученные выражения в исходные выражения функций,
имеем следующую систему уравнений:
F ( 2) ⋅ F (3)
F (3)
1 − F (1) ⋅ F ( 2)
F (1) =
; F ( 2) =
; F (3) =
F ( 2) + F (3)
1 − F (1) + F (3)
2 − F (1) − F ( 2)
Решая полученную нелинейную систему, имеем оценки
F(1)=0.3, F(2)=0.5, F(3)=0.7
и
p(1)=0.41, p(2)=0.5, p(3)=0.59, q(1)=0.41, q(2)=0.3, q(3)=0.41.
300
61. Игры с природой. Основные критерии принятия
решения
61.1. Статистические решения. Основные понятия
Теория статистических решений может быть истолкована как теория
поиска оптимального недетерминированного поведения в условиях неопределенности. Современная концепция статистического решения выдвинута А. Вальдом и считает поведение оптимальным, если оно минимизирует риск в последовательных экспериментах, т.е. математическое ожидание убытков статистического эксперимента. В такой постановке любая
задача статистических решений может рассматриваться как игра двух лиц,
в которой одним из игроков является "природа".
Выбор наилучших решений в условиях неполной информации является одним из основных занятий людей.
Собираясь в туристический поход, мы укладываем вещи в рюкзак с
учетом неизвестной погоды и преследуем цель получить максимум удовольствий, не превращаясь в рекордсмена по переноске тяжестей.
Проектируя гидротехнические сооружения, мы стремимся сделать их
надежными, несмотря на непредсказуемые землетрясения, паводки и т.п.
Создавая систему профилактических и аварийных ремонтов, мы преследуем какую-то цель, не зная в точности времени возникновения аварий.
Если процесс определяется повторяющимися ситуациями, то его
усредненные характеристики испытывают тенденцию к стабилизации и
появляется возможность либо замены случайного процесса детерминированным, либо использования каких-то методов исследования стационарных случайных процессов (в частности, методов теории массового обслуживания).
Возникает и проблема выбора критерия оптимальности, поскольку
решение, оптимальное для каких-то условий, бывает неприемлемым в других и приходится искать некоторый компромисс.
Пусть задан некоторый вектор S = (S1,S2,..,Sn), описывающий n состояний внешней среды, и вектор X = (X1,X2,..,Xm), описывающий m допустимых решений. Требуется найти вектор X* =(0,0,..,0, Xi ,0,..,0), который
обеспечивает оптимум некоторой функции полезности W(X,S) по некоторому критерию K.
Информация об указанной функции представляют матрицей размерности m·n c элементами Wij = F(Xi, Sj), где F - решающее правило.
Рассмотрим типичный пример формирования такой матрицы
Планируется выпуск новой продукции, для чего необходимо закупить станки. Система оптовой торговли может поставить не более 50 станков; комплект поставки - 10 станков. Минимальный объем поставок - 20
301
станков. Соответственно, вектор решений об объеме поставок X =
(20,30,40,50).
Ежегодный доход от продукции, снимаемой с одного станка, cоставляет 21.9 тыс.руб. Оптовая цена одного станка 4.775 тыс.руб., эксплуатационные расходы - 3.6 тыс. руб. Затраты на подготовку производства составляют 25.5 тыс.руб. и не зависят от числа станков и объема выпуска.
Пусть спрос также дискретен: S = (0,10,20,30,40,50).
Если решающее правило сформулировать как "доход - издержки", то
можно рассчитать элементы матрицы полезности:
Wij = (21.9 - 3.6)·min( Xi, Sj) - 4.775·Xi - 25.5
Эта матрица имеет следующий вид:
S1=0
S2=10
S3=20
S4=30
S5=40
S6=50
X1=20
-121
62
245
245
245
245
X2=30
-168.75
14.25
197.25
380.25
380.25 380.25
X3=40
-216.5
-33.5
149.5
332.5
515.5
515.5
X4=50
-264.25
-81.25
101.75
284.75
467.75 650.75
Предположим, что в нашем распоряжении имеются статистические
данные, позволяющие оценить вероятность того или иного спроса, и этот
опыт может быть использован для оценки будущего. При известных вероятностях pj для спроса Sj можно найти математическое ожидание W(X,S,P)
и определить вектор X*, дающий
W = max
i
n
∑ Wij p j
j =1
Если для вышеприведенного примера задать вектор P = (0.01, 0.09,
0.2, 0.3, 0.3, 0.1), то математические ожидания прибыли при разных выборах:
W1 =-121·0.01 + 62·0.09 + 245·0.2 + 245·0.3 + 245·0.3 + 245·0.1 = 224.87,
W2 = 305.22, W3 = 330.675, W4 = 301.12
и выбор максимального значения обнаруживает оптимальность варианта
40 станков с ожидаемой прибылью 330.675 тыс.руб.
61.2. Критерия принятия решений
61.2.1. Критерий недостаточности обоснованияЛапласа
В основе этого критерия лежит "принцип недостаточного основания".
Если нет достаточных оснований считать, что вероятности того или
иного спроса имеют неравномерное распределение, то они принимаются
одинаковыми.
302
Постановка задачи. Пусть дана табл. 1, содержащая данные по эффективности выпуска новых видов продукции.
Таблица 1.
Варианты
Варианты условий обстановки (Qj)
решений (Рi)
Q1
Q2
Q3
P1
0.25
0.35
0.40
P2
0.75
0.20
0.30
P3
0.35
0.82
0.10
P4
0.80
0.20
0.35
Здесь aij – эффективность решения Pi в случае, если оно было принято в условиях окружения Qj.
Пусть отсутствует информация о вероятности той или иной ситуации. Тогда, согласно принципу Лапласа, можно считать, что вероятности
событий одинаковы, т.е. варианты окружения Qj, j=1...3 имеют вероятности наступления pj=1/3, j=1...3.
Рассчитаем риски каждого решения в зависимости от ситуаций.
Под риском будем понимать недополученную выгоду, по сравнению
с максимально возможной в каждой ситуации:
(4)
rij = max( aij )− aij , i , j = 1...4
j
Таблица рисков приведена ниже.
Варианты
решений (Рi)
P1
P2
P3
P4
Таблица 2.
Таблица рисков
Варианты условий обстановки (Qj)
Q1
Q2
Q3
0,55
0,47
0
0,05
0,62
0,1
0,45
0
0,3
0
0,62
0,05
Следующий шаг – вычисление среднего риска по формуле
n
Ri = ∑ rij p j , i = 1... m .
j =1
Результаты вычисления показаны ниже:
R1=0,34; R2=0,2567; R3=0,25; R4=0,2233.
Минимальный риск достигается при принятии четвертого решения.
61.2.2. Максиминный критерий Вальда
Критерий Вальда обеспечивает выбор осторожной, пессимистической стратегии в той или иной деятельности и его суждения близки к тем
суждениям, которые мы использовали в теории игр для поиска седловой
точки в пространстве чистых стратегий: для каждого решения Pi выбирает303
ся самая худшая ситуация (наименьшее из aij) и среди них отыскивается
гарантированный максимальный эффект:
(5)
K = max min aij
i =1...m j =1...n
Рассмотрим данные, приведенные в таблице эффективности раздела
61.2.1.
Выделим по каждому варианту принятия решений (т.е. в каждой
строке) минимальное значение эффективности (табл. 3).
Таблица 3.
Варианты условий обстановки (Qj)
Варианты
решений (Рi)
Q1
Q2
Q3
P1
0.35
0.40
0.25
P2
0.75
0.30
0.20
P3
0.35
0.82
0.10
P4
0.80
0.35
0.20
Максимальное значение из отмеченных значений достигается в первой строке, т.е. если мы примем решение Р1, то ни в одном из вариантов
эффективности не может быть хуже, чем 0.25.
61.2.3. Минимаксный критерий Сэвиджа
Критерий Сэвиджа используется в тех случаях, когда требуется в
любых условиях избежать большого риска;
В соответствии с этим критерием предпочтение следует отдать решению, для которого потери максимальные при различных вариантах
условий окажутся минимальными. Этот критерий также, как и критерий
Вальда, относится к разряду осторожных. Однако, в отличие от критерия
Вальда, который направлен на получение гарантированного выигрыша,
критерий Сэвиджа минимизирует возможные потери.
Таблица эффективности и построенная на ее основе таблица потерь
приведены выше (табл. 1 и табл. 2).
Выделим максимальные потери по каждому решению (т.е. в каждой
строке):
Таблица 4.
Таблица рисков (потерь)
Варианты
Варианты условий обстановки (Qj)
решений (Рi)
Q1
Q2
Q3
P1
0,47
0
0,55
P2
0,05
0,1
0,62
P3
0
0,3
0,45
P4
0
0,05
0,62
Минимум этих чисел – 0,45 – достигается при принятии третьего
решения.
304
61.2.4. Критерий обобщенного максимина (пессимизма-оптимизма)
Гурвица.
Ориентация на самый худший исход является своеобразной перестраховкой. Однако опрометчиво выбирать политику, которая излишне оптимистична. Критерий Гурвица предлагает некоторый компромисс.
В этом случае предпочтение отдается варианту решений, для которого окажется максимальным показатель G, определяемый из выражения:
Gi = k ⋅ min aij + (1 − k ) ⋅ max aij ,
(6)
j
j
где k – коэффициент, рассматриваемый как показатель оптимизма (его значения лежат в диапазоне 0≤k≤ 1). Если k = 0 – линия поведения в расчете
на лучшее, k = 1 – в расчете на худшее; аij – выигрыш, соответствующий iму решению при j-м варианте обстановки.
Обычно под значением коэффициента k понимают вероятность
наступления неблагоприятной обстановки.
Нетрудно убедиться, что при k = 1 критерий Гурвица совпадает с
критерием Вальда, т.е. ориентация на осторожное поведение. При k = 0 –
ориентация на предельный риск, т.к. большой выигрыш, как правило, сопряжен с большим риском. Значения k между 0 и 1 являются промежуточными между риском и осторожностью и выбираются в зависимости от
конкретной обстановки.
Рассмотрим исходные данные, приведенные в табл. 1.
В табл. 5 приведены значения показателя G для различных вариантов
решений в зависимости от величины коэффициента k.
Они рассчитаны по формуле (6).
Таблица 5.
Значения параметра G при разных k
0
0,25
0,5
0,75
1
P1
0,400
0,363
0,325
0,288 0,250
P2
0,750
0,613
0,475
0,338 0,200
P3
0,820
0,640
0,460
0,280 0,100
P4
0,800
0,650
0,500
0,350 0,200
Оптимальное
решение
Р3
Р4
Р4
Р4
Р1
Вычислим, например, значение G2 для значения k=0,75.
Имеем: максимальное значение показателя эффективности во второй
строке табл. 1 равно max=0,75; минимальное – min=0,20.
Тогда G2=k⋅min+(1-k)⋅max=0,75⋅0,20+0,25⋅0,75=0,3375≈0,338.
305
61.2.5. Принятие решений в условиях частичной неопределенности.
Постановка задачи. Даны матрица эффективности (табл. 1) и распределение вероятностей вариантов условий обстановки (табл. 6).
Таблица 6.
Распределение вероятностей условий обстановки
Номер i (Вариант Qi)
1
2
3
Вероятность pi
0,25
0,40
0,35
В табл. 2 приведены значения рисков bij (риск – недополученная
прибыль), рассчитываемая как разность между максимальным значением
эффективности по решениям при заданной обстановке и значением эффективности данного решения.
1. Вычислим среднюю эффективность каждого решения по формуле
3
α j = ∑ pi ⋅ aij , j = 1...4 .
i =1
2. Вычислим среднее квадратическое отклонение по формуле
Sj =
3
∑p
i =1
i
⋅ aij2 − α 2j , j = 1...4
3
3. Вычислим средний риск β j = ∑ pi ⋅ bij , j = 1...4
i =1
Результаты расчетов сведены в табл. 7.
Варианты решений (Рi)
Средняя эффективность
Среднее квадратическое отклонение эффективности
Таблица 7.
Средний
риск
P1
0,3425
0,1064
0,3255
P2
0,3725
0,2744
0,2955
P3
0,4505
0,4316
0,2175
P4
0,4025
0,3282
0,2655
Если рассматривать риск как недополучение дохода, т.е. по последнему столбцу, то наиболее выгодное решение – Р3 (риск равен 0,2175),
причем доходность здесь максимальная.
Если рассматривать риск как неопределенность (по третьему столбцу), то тогда наиболее выгодное решение с точки зрения минимизации
риска – Р1 (среднее квадратическое отклонение эффективности минимальное и равно 0,1064), но доходность здесь минимальная. Полученное выше
решение с точки зрения неопределенности – самое неэффективное, т.к.
имеем самую высокую неопределенность. Это же согласуется с основным
306
принципом экономики: высокая прибыль – высокий риск, малый риск –
низкая
прибыль.
307
ЧАСТЬ 13. ГРАФЫ
62. Основные понятия и определения
62.1. Основные определения
В последние годы значительно возросла популярность теории графов
– ветви дискретной математики. Графы встречаются во многих областях
под разными названиями: "структуры" в гражданском строительстве, "сети" – в электронике, "социограммы" – в социологии и экономике, "молекулярные структуры" – в химии, "дорожные карты", электрические или газовые распределительные сети, сетевое планирование и т.д.
Родившись при решении головоломок и игр, таких, например, как
задача о кенигсбергских мостах и игра Гамильтона, теория графов стала
мощным средством исследования и решения многих задач, возникающих
при изучении больших и сложных систем. Теория графов – это удобный
язык представления связей и путей. Графическая интерпретация различных моделей графов дана на рис.1. Мы уже использовали графы при решении задач, связанных с марковскими процессами и системами массового
обслуживания (см. рис. 1а и рис. 1б).
2
p22
p21
p12
1
p11
p23
p32
p13
p31
3
p33
Рис. 1а. Вероятностный граф системы из трех волчков
λ
0
λ
2µ
λ
λ
2
1
µ
λ
m-1
3µ
(m-1)µ
308
mµ
Рис. 1б. Граф состояний СМО типа M/M/m
Графом типа "дерево" можно отобразить практически любую структуру организации или предприятия (рис. 1в).
РГТЭУ
December 9, 2009
Ректорат
Факультет
мировой
экономики и
торговли
Факультет
социальных и
информационных
технологий
Факультет
управления
Факультет
коммерции и
маркетинга
Кафедра
английского
языка
Кафедра высшей и прикладной математики
Кафедра антикризисного и
стратегического
менеджмента
Кафедра
маркетинга и
рекламы
Кафедра
международной торговли
Кафедра
дизайна
Кафедра
менеджмента
торговой
организации
Кафедра
организации и
технологии
маркетинга
Кафедра
мировой
экономики
Кафедра
информатики
Кафедра
управления
персоналом
Кафедра
товароведения и
экспертизы
товаров
Кафедра
русского языка
Кафедра
политологии
Кафедра
экономики и
управления
Рис. 1в. Структурная диаграмма и граф, полученный на ее основе
В настоящее время теория графов применяется в теории алгоритмов,
структурном анализе, логистике, при разработке сетевых графиков и многих других науках.
Определение 1. Графом называется объект, состоящий из множества
элементов, называемых точками или вершинами х1, х2, ..., хn и множества
линий или ребер a1, a2, ... , am, соединяющих между собой все или часть точек. Иначе говоря, графом называется множество вида G = (X, A), где
X={xi}, i = 1, 2, ..., n – множество вершин графа, A={ai}, i = 1, 2,... , m –
множество ребер графа.
309
Графы могут быть ориентированными, неориентированными и смешанными (рис. 2). Если ребра у множества A ориентированы, что обычно
показывается стрелкой, то они называются дугами, и граф с такими ребрами называется ориентированным графом или орграфом (рис. 2а).
Рис. 2. Примеры графов
Определение 2. Если ребра не имеют ориентации, то граф называется неориентированным (рис. 2б).
Определение 3. Граф, в котором присутствуют и ребра, и дуги называется смешанным (рис. 2в).
Определение 4. Неориентированный граф, соответствующий орграфу
G = (X, A), называется неориентированным дубликатом или неориентированным двойником (рис. 2г).
Определение 5. Дуга ai может быть представлена упорядоченной парой вершин (хn, хk), состоящей из начальной хn и конечной хk вершин.
Например, для графа G1 (рис. 2а) дуга a1 задается парой вершин (x2, x1), а
дуга а3 парой (x2, x3). Если хn, хk – концевые вершины дуги ai, то говорят,
что вершины хn и хk инцидентны дуге ai или дуга ai инцидентна вершинам
хn и хk.
Определение 6. Дуга, у которой начальная и конечная вершины совпадают, называется петлей. В графе G3 (рис. 2в) дуга a7 является петлей.
Определение 7. Полустепенью исхода вершины хi - d0(хi) называется
количество дуг, исходящих из этой вершины. Например, для орграфа G1
(рис. 2а) характеристики полустепеней исхода следующие: d0(х1)=1,
d0(х2)=2, d0(х3)=2, d0(х4)=1.
Определение 8. Полустепенью захода вершины хi - dt(хi) называется
количество дуг, входящих в эту вершину. Например, для орграфа G1:
dt(х1)=2, dt(х2)=1, dt(х3)=2, dt(х4 )=1.
310
Очевидно, что сумма полустепеней исхода всех вершин графа, а
также сумма полустепеней захода всех вершин графа равна общему числу
дуг графа, т. е.
n
n
∑ d 0 ( xi ) = ∑ d t ( xi ) = m ,
i =1
(1)
i =1
где n – число вершин графа, m – число дуг.
Каждая вершина неориентированного графа хi может характеризоваться степенью вершины d(хi).
Определение 9. Степенью вершины хi - d(хi) называется количество
ребер, инцидентных этой вершине. Например, для орграфа G1 (рис. 2б) характеристики степеней следующие: d(х1)=2, d(х2)=3, d(х3)=3, d(х4)=2.
62.2. Способы описания графов
Теоретико-множественное представление графов
В этом случае граф описывается перечислением множества вершин и
дуг. Расмотрим граф G на рис. 1а. Он может быть представлен как множество G = (Х, А), где
Х = {х1, х2, х3, х4} – множество вершин;
А = {(х1, х2), (х2, х1), (х2, х3), (х3, х1 ), (х3, х4), (х4, х1)} – множество дуг.
Задание графов соответствием
Описание графов состоит в задании множества вершин Х и соответствия Г, которое показывает, как между собой связаны вершины.
Соответствием Г называется отображение множества Х в Х, а граф в
этом случае обозначается парой G = (X, Г).
Отображением вершины хi - Г(хi) является множество вершин, в которые существуют дуги из вершины хi, т. е. Г(хi) = { хj: ∃ дуга (хi, хj)∈A}.
Матричное представление графов
Для обработки на ЭВМ графы удобно представлять в виде матриц
смежности и инциденций.
Матрица смежности – это квадратная матрица размерностью nxn, где
n – число вершин графа, однозначно представляющая его структуру.
A = {aij}, i, j = 1, 2, ..., n, а каждый элемент матрицы определяется
следующим образом:
aij = 1, если ∃ дуга (хi, хj),
aij = 0, если нет дуги (хi, хj).
Матрица инциденций представляет собой прямоугольную матрицу
размером nxm, где n – количество вершин графа, а m – количество дуг графа. Обозначается матрица инциденций B = {bij}, i=1...n, j=1...m.
Каждый элемент матрицы определяется следующим образом:
311
bij = 1, если хi является начальной вершиной дуги aj,
bij = –1, если хi является конечной вершиной дуги aj,
bij = 0, если хi не является концевой вершиной дуги aj или если aj является петлей.
Рассмотрим граф G, представленный на рис. 1а. Его матрица смежности имеет вид:
0 1 0 0


1
0
1
0


A=
1 0 0 1


0 0 1 0
Матрица инцидентности представлена ниже:
0 −1 0
0
−1 1


1
−
1
1
0
0
0


B=
0
0 −1 1
1 − 1


−
0
0
0
0
1
1


62.3. Операции над графами
62.3.1. Бинарные операции
Определение 10. Объединением графов графов G1 и G2 , обозначаемое как G1∪G2 , представляет такой граф G3 = (Х1∪Х2, A1∪A2), что множество его вершин является объединением множеств вершин каждого графа
Х1 и Х2 , а множество ребер – объединением множеств их ребер A1 и A2.
Граф G3 , полученный операцией объединения графов G1 и G2 , показан на
рис. 3.д, а его матрица смежности – на рис. 3.е. Матрица смежности результирующего графа получается операцией поэлементного логического
сложения матриц смежности исходных графов G1 и G2 .
Пересечение графов G1 и G2 , обозначаемое как G1∩G2 , представляет
собой граф G4 = (Х1∩Х2, A1∩A2). Таким образом, множество вершин графа
G4 состоит из вершин, присутствующих одновременно в G1 и G2 . Операция пересечения графов G1 G2 показана на рис. 4.в, а результирующая
матрица смежности получается операцией поэлементного логического
умножения матриц смежности исходных графов G1 и G2 показана на рис.
4.г.
312
Рис. 3.
313
Рис. 4. Операция пересечения и кольцевой суммы: а – граф G1; б – граф G2;
в – граф G1∩G2 ; г – матрица смежности графа G1∩G2 ; д – граф G1⊕G2 ; е –
матрица смежности графа G1⊕G2
Кольцевая сумма двух графов G1 и G2 , обозначаемая как G1⊕G2 ,
представляет собой граф G5 , порожденный на множестве ребер A1⊕A2 .
Другими словами, граф G5 не имеет изолированных вершин и состоит
только из ребер, присутствующих либо в G1 , либо в G2 , но не в обоих одновременно. Кольцевая сумма графов G1 и G2 показана на рис. 4.д, а результирующая матрица смежности получается операцией поэлементного
логического сложения по mod 2 матриц смежности исходных графов G1 и
G2 . показана на рис. 4.е.
314
Легко убедиться в том, что три рассмотренные операции коммутативны т. е. G1∪G2 = G2∪G1, G1∩G2 = G2∩G1, G1⊕G2 = G2⊕G1 , и многоместны.
62.3.2. Унарные операции
Удаление вершины. Если хi -вершина графа G = (X, A), то G–хi порожденный подграф графа G на множестве вершин X–хi , т. е. G–хi является графом, получившимся после удаления из графа G вершины хi и всех
ребер, инцидентных этой вершине. Удаление вершины х3 показано на рис.
5.б (для исходного графа, изображенного на рис. 5.а). Матрица смежности
исходного графа представлена на таблице 3.а). Результирующая матрица
смежности графа после выполнения операции удаления вершины хi получается путем удаления соответствующего i- го столбца и i-ой строки из исходной матрицы и "сжимания" матрицы по вертикали и горизонтали начиная с (i+1)- го столбца и (i+1)-ой строки (табл. 5.б). В дальнейшем элементы графа могут быть переобозначены.
Рис. 5.
Удаление ребра или удаление дуги. Если ai -дуга графа G = = (X, A),
то G-ai – подграф графа G, получающийся после удаления из G дуги ai .
Заметим, что концевые вершины дуги ai не удаляются. Удаление из графа
множества вершин или дуг определяется как последовательное удаление
определенных вершин или дуг. Удаление дуг a4 и a7 показано на рис. 5.в.
Результирующая матрица смежности графа после выполнения операции
315
удаления дуги ai получается путем удаления соответствующих элементов
из исходной матрицы (табл. 5.в).
Таблица 5.a.
Таблица 5.б.
Таблица 5.в.
X1 X2 X3 X4 X5
X1 X2 X4 X5
X1 X2 X3 X4 X5
1
1
1
X1
X1
X1
1
1 X2
1
1
X2
X2
1 1 X4
1 1
X3
X3
1
1
X4
X5 1
X4
1
1
X5 1
X5 1
Таблица 5.г.
Таблица 5.д.
Таблица 5.е.
X1-2 X3 X4 X5
X1-2 X3 X4 X5
X1-2 X3-4 X5
1
1
1 X1
1 1
X1 1 1
X1
1 1
1 1 X3
1
X3
X3
1
1
X4
X4
X5 1 1
1
1
X5 1
X5 1
Замыкание или отождествление. Говорят, что пара вершин хi и xj в
графе G замыкается (или отождествляется), если они заменяются такой новой вершиной, что все дуги в графе G, инцидентные хi и xj , становятся инцидентными новой вершине. Например, результат замыкания вершины х1
и х2 показан на рис. 5.г для графа G (рис. 5.а). Матрица смежности графа
после выполнения операции замыкания вершин хi и xj получается путем
поэлементного логического сложения i- го и j- го столбцов и i-ой и j- строк
в исходной матрице и "сжимания" матрицы по вертикали и горизонтали
(табл. 5.г).
Стягивание. Под стягиванием подразумевают операцию удаления
дуги или ребра и отождествление его концевых вершин. Граф, изображенный на рис. 5.д получен стягиванием дуги a1 , а на рис. 5.е – стягиванием
дуг a1 , a6 и a7 . Соответствующие результирующие матрицы смежности
показаны в табл. 5.д и 5.е.
316
63. Отображения, замыкания и пути в графах
63.1. Многозначные отображения
63.1.1. Прямые отображения
Прямым отображением 1-го порядка вершины хi является множество
таких вершин графа, для которых существует дуга (хi, xj), т. е Г1( хi ) = {xj :
дуга (хi, xj) A} для графа G = (X, A), где X ={ хi }, i =1, 2, ..., n – множество вершин, а A = {ai}, i = = 1, 2, ..., m – множество дуг.
Прямое отображение 2-го порядка вершины хi – это прямое отображение от прямого отображения 1-го порядка, т. е. Г+2( хi ) = Г+( Г+1 ( хi ) ).
Аналогично можно записать для прямого отображения 3-го и т. д. nго порядка.
Г+3(xi)= Г+(Г+2(xi))= Г+(Г+(Г+1(xi)))
...
Г+n(xi)=Г+(Г+(n-1)(xi)).
Прямые многозначные отображения для графа на рис. 1находятся
следующим образом:
Г+1(x1)=(x2,x3),
Г+2(x1)=Г+(Г+1(x1))=Г+(x2,x3)=(x3,x5),
Г+3(x1)=Г+(Г+2(x1))=Г+(x3,x5)=(x3,x1) и т. д.
Рис. 1. Орграф G
63.1.2. Обратные отображения
Обратным отображением 1-го порядка для вершины хiявляется множество элементов xjтаких, что существует дуга(xj, хi), принадлежащая
множеству дуг графа, т. е. Г-1(хi ) = { xj : дуга (хj, хi) А }.
Обратные отображения 2-го, 3-го и т. д. n-го порядка определяются
следующим образом:
Г-2(xi)= Г-(Г-1(xi)),
Г-3(xi)= Г-(Г-2(xi)),
...
317
Г-n(xi)= Г-(Г(n-1)(xi)).
Для графа на рис. 1 обратные многозначные отображения вершины
х1 находятся следующим образом:
Г-1(x1)=x5,
Г-2(x1)= Г-(Г-1(x1))=Г-(x5)= x2,x4,
Г-3(x1)= Г-(Г-2(x1))=Г-(x2x4)= x1,
Г-4(x1)= Г-(Г-3(x1))=Г-(x1)= x5 и т.д.
П р и м е ч а н и я:
1. Когда отображение действует не на одну вершину, а на множество
вершин Хq = { х1, х2, ..., хq }, то под Г(Хq) понимают объединение
Г(х1) Г(х2) ... Г(хq).
2. Многозначное отображение для неориентированного графа строится, если представить каждое ребро двумя противоположно направленными дугами (рис. 2).
Рис. 2. Граф: а – неориентированный; б – тождественный ему ориентированный
63.2. Транзитивные замыкания
63.2.1. Прямое транзитивное замыкание
Прямым транзитивным замыканием некоторой вершины хi –
+
T ( хi )является объединение самой вершины хiс прямыми отображениями
1-го порядка, второго порядка и т. д., т. е.
T+( хi ) = хi Г+1 ( хi ) Г+2( хi ) ...
Многозначные отображения находятся до тех пор, пока в них добавляются новые вершины.
Так, для графа на рис. 1.
Г+1 ( х1 ) = { х2, х3 }, Г+2( х1 ) = { х3, х5 }, Г+3( х1 ) = { х3, х1 }, Г+4( х1 ) =
{ х2, х3 }.
Отображение четвертого порядка содержит те же элементы, что и
отображение 1-го порядка, следовательно, других элементов в последую318
щих отображениях не появится. Транзитивное замыкание для вершины
х1получается следующим образом:
T+( х1 ) = х1∪{ х2, х3 }∪{ х3, х5 }∪{ х3, х1 } = { х1, х2, х3, х5 }.
Проанализировав множество вершин, входящих в T+(хi ), можно сделать вывод: прямое транзитивное замыкание содержит вершины, в которые есть пути из вершины хi. Таким образом, можно дать второе определение T+(хi ).
Прямое транзитивное замыкание некоторой вершины хi T+(хi) – это
множество вершин, достижимых из вершины хi, т. е. T (хi) = {хj |∃ путь из
хi в хj }.
63.2.2. Обратное транзитивное замыкание
Обратным транзитивным замыканием некоторой вершины хi –T-( хi
)является объединение этой вершины с обратными отображениями 1-го, 2го и т. д. n -го порядка, т. е.
T-( хi ) = хi∪Г-1(хi )∪Г-2(хi )∪...
Иначе, обратное транзитивное замыкание для некоторой вершины хi
– T ( хi )– это множество вершин, из которых достижима вершина хi, т. е. T( хi ) = { xj | путь из xj в хi }.
Рассмотрим построение обратного транзитивного замыкания для
графа на рис. 1.
Г-1(х1) = { х5 }, Г-2(х1) = { х2, х4 }, Г-3(х1) = { х1 }, Г-4 (х1) = { х5 }, T-(х1)
= х1∪{ х5 }∪{ х2, х4 }∪{ х1 }∪{ х5 } = {х1, х2, х4, х5}.
63.2.3. Нахождение транзитивных замыканий по матрице смежности
Рассмотрим метод нахождения прямого транзитивного замыкания по
матрице смежности, показанной на рис. 3.а для вершины х2 графа, изображенного на рис. 3.б. На 1-м шаге итерации заносим 0 в столбец Т+для элемента х2и просматриваем 2-ю строку матрицы. Находим, что элементы
a22=1и a25=1. Заносим 1 в 5-ю клетку Т+. 2-я клетка уже занята нулем, поэтому 1 не заносим. 2-й шаг начинается просмотром 5-й строки матрицы
смежности, соответствующий вершине х5графа. Находим, что элементы
a51=1 и a54=1, т. е. из вершины х5 имеются дуги в вершины х1 и х4 или иначе из вершины х2 имеются пути длиной 2 в вершины х1 и х4. Длину пути 2
заносим в 1-ю и 4-ю клетки столбца T+(х2). На 3-м шаге анализируются 1-я
и 4-я строки матрицы смежности А. Находим элементы a12=1, a13=1, a43=1.
Это возможно сделать только для вершины х3, так как вторая клетка
уже занята. Анализ 3-й строки матрицы на 4-м шаге показывает, что из
вершины х3нет исходящих дуг, следовательно, процесс формирования
прямого транзитивного замыкания завершен.
Таким образом, в столбце T+(х2)стоят числа равные длине пути от
вершины х2 к соответствующим вершинам графа. Путь от х2 к х3равный 3
319
показан штриховой линией на рис. 3.б. В столбце T+( х2 ) отмечены все
вершины, достижимые из вершины х2, следовательно, они входят в T+( х2 ).
T+( х2 ) = { х1, х2, х3, х4, х5 }.
Рис. 3. Построение прямого (а) и обратного (в) транзитивных замыканий
для графа (б)
Во втором столбце показано построение прямого транзитивного замыкания вершины х1 – T+( х1 ).
T+( х1 ) = { х1, х2, х3, х4, х5 }.
Нахождение обратного транзитивного замыкания по матрице смежности показано на рис. 1.в. Рассмотрим нахождение обратного транзитивного замыкания вершины х3 – T-( х3 ), которое начинается с занесения 0 в
3-ю клетку строки T-( х3 ). На 1-м шаге алгоритма, помеченного стрелкой с
цифрой 1, просматриваем 3-й столбец матрицы А. Определяем элементы
равные 1, т. е. a13=1 и a43=1. Следовательно, в графе из вершин х1 и х4 есть
дуги в вершину х3. Заносим 1 в 1-ю и 4-ю клетки T-(х3). На втором шаге
320
просматриваем 1-й и 4-й столбцы матрицы A. Находим a51=1, a61=1, a54=1и
проставляем 2 (так как длина пути от этих вершин до вершины х3 равна 2)
в свободные клетки T-(х3), т. е. в 5-ю и 6-ю клетки. 3-й шаг заключается в
просмотре 5-го и 6-го столбцов матрицы A. Элементы a25=1, a65=1,
a66=1позволяют поставить 3 во 2-ю клетку строки T-( х3 ). 4-й шаг просмотра 2-го столбца дает элементы a12 = 1 и a22 = 1, уже вошедшие в T-(х3).
Итак, сформировано обратное транзитивное замыкание для вершины х3.
T-( х3 ) = { х1, х2, х3, х4, х5, х6 }.
Числа, стоящие в клетках T-( х3 ), показывают длину кратчайшего
пути от соответствующих вершин до вершины х3.
Во второй строке показано формирование обратного транзитивного
замыкания вершины х1.
T-( х1 ) = { х1, х2, х5, х6 }.
63.3. Достижимость в графах
63.3.1. Достижимость и контрдостижимость
Задач, в которых используется понятие достижимости, довольно
много. Вот одна из них. Граф может быть моделью какой-то организации,
в которой люди представлены вершинами, а дуги интерпретируют каналы
связи. При рассмотрении такой модели можно поставить вопрос, может ли
информация от одного лица хi быть передана другому лицу хj , т. е. существует ли путь, идущий от вершины хi к вершине хj . Если такой путь существует, то говорят, что вершина хj достижима из вершины хi . Можно
интересоваться достижимостью вершины хj из вершины хi только на таких
путях, длины которых не превосходят заданной величины или длина которых меньше наибольшего числа вершин в графе и т. п. задачи.
Достижимость в графе описывается матрицей достижимости R=[rij],
i, j=1, 2, ... n, где n – число вершин графа, а каждый элемент определяется
следующим образом:
rij=1, если вершина хj достижима из хi ,
rij=0, в противном случае.
Множество вершин R(xi) графа G, достижимых из заданной вершины
xi , состоит из таких элементов xi , для которых (i, j)-й элемент в матрице
достижимостей равен 1. Очевидно, что все диагональные элементы в матрице R равны 1, поскольку каждая вершина достижима из себя самой
путeм длины 0. Поскольку прямое отображение 1-го порядка Г+1(xi) является множеством таких вершин xj , которые достижимы из xi с использованием путей длины 1, то множество Г+(Г+1(xi)) = Г+2(xi) состоит из вершин,
достижимых из xi с использованием путей длины 2. Аналогично
Г+p(xi)является множеством вершин, которые достижимы из xi с помощью
путей длины p.
321
Так как любая вершина графа, которая достижима из xi , должна
быть достижима с использованием пути (или путей) длины 0 или 1, или 2,
..., или p, то множество вершин, достижимых для вершины xi , можно
представить в виде
R (xi) = { xi } Г+1(xi) Г+2(xi) ... Г+p(xi).
Как видим, множество достижимых вершин R(xi)представляет собой
прямое транзитивное замыкание вершины xi , т. е. R (xi) = T+(xi). Следовательно, для построения матрицы достижимости находим достижимые
множества R (xi)для всех вершин xi∈X. Полагая, rij=1, если xj∈R (xi)и rij=0 в
противном случае. Для графа, приведенного на рис. 4.а, множества достижимостей находятся следующим образом:
R (х1) = { х1 } { х2, х5 } { х2, х4, х5 } { х2, х4, х5 } =
= { х1, х2, х4, х5 },
R (х2) = { х2 } { х2, х4 } { х2, х4, х5 } { х2, х4, х5 } =
= { х2, х4, х5 },
R (х3) = { х3 } { х4 } { х5 } { х5 } = { х3, х4, х5 },
R (х4) = { х4 } { х5 } { х5 } = { х4, х5 },
R (х5) = { х5 } { х5 } = { х5 },
R (х6) = { х6 } { х3, х7 } { х4, х6 } { х3, х5, х7 } { х4, х5, х6 } =
= { х3, х4, х5, х6, х7},
R (х7) = { х7 } { х4, х6 } { х3, х5, х7 } { х4, х5, х6 } =
= { х3, х4, х5, х6, х7 }.
322
Рис. 4. Достижимость в графе: а –граф; б – матрица смежности; в – матрица достижимости; г- матрица контрдостижимости.
Матрица достижимости имеет вид, как показано на рис. 4.в. Матрицу достижимости можно построить по матрице смежности (рис. 4.б), формируя множества T+xi)для каждой вершины xi .
Матрица контрдостижимости Q = [ qij], i, j =1, 2, ... n, где n – число
вершин графа, определяется следующим образом:
qij=1, если из вершины xj можно достичь вершину xi ,
qij=0, в противном случае.
Контрдостижимым множеством Q (xi)является множество таких
вершин, что из любой вершины этого множества можно достичь вершину
xi . Аналогично построению достижимого мно-жества R (xi)можно записать выражение для Q (xi):
Q (xi) = { xi } Г-1xi) Г-2xi) ... Г-pxi).
Таким образом, видно, что Q (xi)– это есть не что иное как обратное
транзитивное замыкание вершины xi , т. е. Q (xi) = Т-xi). Из определений
очевидно, что столбец xi матрицы Q (в котором qij=1, если xj Q (xi), и qij=0
в противном случае) совпадает со строкой xi матрицы R, т. е. Q = RT,где RT
– матрица, транспонированная к матрице достижимости R.
Матрица контрдостижимости показана на рис. 4.г.
Следует отметить, что поскольку все элементы матриц R и Q равны 1
или 0, то каждую строку можно хранить в двоичной форме, экономя затраты памяти ЭВМ. Матрицы R и Q удобны для обработки на ЭВМ, так как с
вычислительной точки зрения основными операциями являются быстродействующие логические операции.
63.3.2. Нахождение множества вершин, входящих в путь
Если необходимо узнать о вершинах графа, входящих в эти пути, то
следует вспомнить определения прямого и обратного транзитивных замыканий. Так как T+(xi) – это множество вершин, в которые есть пути из вершины xi, а T–(хj) – множество вершин, из которых есть пути в xj , то T+(xi)
T–(xj)– множество вершин, каждая из которых принадлежит, по крайней
мере, одному пути, идущему от xi к xj . Эти вершины называются существенными или неотъемлемыми относительно двух концевых вершин xi и
xj . Все остальные вершины графа называются несущественными или избыточными, поскольку их удаление не влияет на пути от xi к xj .
Так для графа на рис. 5 нахождение вершин, входящих в путь,
например из вершины х2 в вершину х4 , сводится к нахождению Т+( х2) ={
х2, х3, х4, х5, х6}, Т-( х4) ={ х1, х2, х3, х4, х5}, и их пересечения T+(х2) T–(х4)
={ х2, х3, х4, х5}.
323
Рис. 5. Орграф
63.3.3. Матричный метод нахождения путей в графах
Матрица смежности полностью определяет структуру графа. Возведем матрицу смежности в квадрат по правилам математики. Каждый элеn
мент матрицы А2 определяется по формуле aik( 2) = ∑ aij a jk
j =1
Слагаемое в формуле равно 1 тогда и только тогда, когда оба числа
aij и ajk равны 1, в противном случае оно равно 0. Поскольку из равенства aij
= ajk = 1следует существование пути длины 2 из вершины xi в вершину хk ,
проходящего через вершину xj , то ( i -й, k -й) элемент матрицы А2 равен
числу путей длины 2, идущих из xi в хk .
В табл. 1.а представлена матрица смежности графа, изображенного
на рис. 5. Результат возведения матрицы смежности в квадрат А2 показан в
табл.1.б.
Таблица 1а.
X1 X2
X1 0 1
X2 0 0
A= X3 0 1
X4 0 0
X5 0 0
X6 0 0
X3
0
0
0
1
0
0
Таблица 1в.
X1 X2
X1 0 0
X2 0 0
3
A = X3 0 0
X4 0 0
X5 0 1
X6 0 0
X4
0
0
0
0
1
0
X3
0
1
1
0
0
0
X5
0
1
1
0
0
0
X4
1
0
1
1
0
0
X6
1
1
1
0
1
0
X5
0
0
0
1
1
0
Таблица 1б.
X1 X2
X1 0 0
X2 0 0
2
A = X3 0 0
X4 0 1
X5 0 0
X6 0 0
X3
0
0
0
0
1
0
X4
0
1
1
0
0
0
X5
1
0
1
1
0
0
X6
1
1
2
1
0
0
Таблица 1г.
X1 X2
X1 0 0
X2 0 1
4
A = X3 0 1
X4 0 0
X5 0 0
X6 0 0
X6
1
0
1
2
1
0
324
X3
1
0
1
0
0
0
X4
0
0
0
0
1
0
X5
0
1
1
1
1
0
X6
0
1
1
1
2
0
Так "1", стоящая на пересечении второй строки и четвертого столбца,
говорит о существовании одного пути длиной 2 из вершины х2 к вершине
х4 . Действительно, как видим в графе на рис. 5, существует такой путь: a6,
a5 . "2" в матрице A2 говорит о существовании двух путей длиной 2 от
вершины х3 к вершине х6 : a8, a4 и a1, a3 .
Аналогично для матрицы смежности, возведенной в третью степень
3
A (табл. 1.в), a (3) ik равно числу путей длиной 3, идущих от xi к хk . Из четвертой строки матрицы A3 видно, что пути длиной 3 существуют: один из
х4 в х4(a9, a8, a5), один из х4 в х5(a9, a10, a6) и два пути из х4 в х6(a9, a10, a3 и a9,
a8, a4). Матрица A4 показывает существование путей длиной 4 (табл. 1.г).
Таким образом, если a р ik является элементом матрицы Aр ,то a р ik
равно числу путей (не обязательно орцепей или простых орцепей) длины р,
идущих от xi к хk .
325
64. Типы графов. Пути и циклы.
64.1. Типы графов
Граф G = (X, A) называют полным, если для любой пары вершин хi и
хj в X существует ребро (хi, хj) в неориентированном графе
G=(X,A)
т. е. для каждой пары вершин графа G должна существовать по
крайней мере одна дуга, соединяющая их (рис. 1.а).
Граф G =(X, A)называется симметрическим, если во множестве дуг
A для любой дуги (хi, хj) существует также противоположно ориентированная дуга (хj, хi) (рис. 1.б).
Рис. 1. а – полный граф; б – симметрический граф; в – антисимметрический граф; г – полный симметрический;
Антисимметрическим называется такой граф, для которого справедливо следующее условие: если дуга (хi, хj)∈A, то во множестве A нет противоположно ориентированной дуги, т. е. (хj, хi)∉A (рис. 1.в). Очевидно,
что в антисимметрическом графе нет петель.
В качестве примера можно рассмотреть граф, являющийся моделью
некоторой группы людей: вершины графа интерпретируют людей, а дуги –
326
их взаимоотношения. Так, если в графе дуга, нарисованная от вершины хi к
вершине хj , означает, что хi является другом или родственником хj , тогда
данный граф должен быть симметрическим. Если дуга, направленная от хi
к хj , означает, что вершина хj подчинена вершине хi , то такой граф должен
быть антисимметрическим.
Комбинируя определения полного и симметрического графов и полного и антисимметрического графов, получили следующие определения:
•
граф G =(X, A), в котором любая пара вершин (хi, хj) соединена
двунаправленными дугами, называется полным симметрическим (рис. 1.г);
•
граф G =(X, A), имеющий для каждой пары вершин (хi, хj)
только одну дугу, называется полным антисимметрическим или турниром.
Связный граф, не имеющий циклов, либо граф, в котором каждая пара вершин соединена одной и только одной простой цепью, называется деревом (рис. 2, а, б).
Рис. 2. Граф типа “дерево”: а – неориентированное дерево, б – ориентированное дерево
Ориентированное дерево представляет собой ориентированный граф
без циклов, в котором полустепень захода каждой вершины, за исключением одной (например, вершины х1 ), равна 1, а полустепень захода вершины
х1 (называют корнем этого дерева) равна 0 (рис. 2.б).
327
Граф G =(X, A), который может быть изображен на плоскости или
сфере без пересечений называется планарным (рис. 3).
Рис. 3. Планарный граф
На рис. 4 показаны непланарные графы. Эти два графа играют важную роль в теории планарных графов и известны как графы Куратовского.
Рис. 4. Непланарные графы
Неориентированный граф G = (X, A)называют двудольным, если
множество его вершин X может быть разбито на такие два подмножества
Xа и Xb , что каждое ребро имеет один конец в Xа , а другой в Xb (рис. 5.а).
Ориентированный граф G называется двудольным, если его неориентированный двойник – двудольный граф (рис. 5.б,в).
Двудольный граф G=(Xа∪Xb, A) называют полным, если для любых
двух вершин хi∈Xа и хj∈Xb существует ребро (хi,хj) в G=(X,A) (рис. 5.г).
Теорема о двудольности
Граф G = (X, A) является двудольным тогда и только тогда, когда он
не содержит циклов нечетной длины.
328
Рис. 5. Двудольные графы: а, б, в – двудольные графы; г – полный двудольный граф
64.2. Пути и циклы в графах
64.2.1. Пути и маршруты
Путем в орграфе называется последовательность дуг, в которой конечная вершина всякой дуги, кроме последней, является начальной вершиной следующей дуги.
Например, для графа на рис. 6 последовательности дуг
M1: a6, a5, a9, a8, a4 ,
M2: a1, a6, a5, a9, a7 ,
M3: a1, a6, a5, a9, a10, a6, a4
являются путями.
Рис. 6. Орграф
329
Орцепью (или простым путем) называется такой путь, в котором
каждая дуга используется не более одного раза.
Так пути M1 и M2 являются орцепями, а M3 нет, поскольку дуга a6
используется дважды.
Простой орцепью (или элементарным путем) называется путь, в котором каждая вершина используется не более одного раза.
Простой орцепью является путь M2 .
Для неориентированного графа понятия маршрута, цепи и простой
цепи аналогичны понятиям пути, орцепи и простой орцепи в орграфе. (В
определениях следует заменить слово "дуга" на слово "ребро").
Путь или маршрут можно изображать также последовательностью
вершин. Так путь M1 можно представить последовательностью вершин х2,
х5, х4, х3, х5, х6 , и такое представление часто оказывается более полезным.
64.2.2. Вес и длина пути
Иногда дугам графа сопоставляют числа ai→сi , называемые весом
или длиной, или стоимостью или ценой. В каждом конкретном случае выбирается то слово, которое ближе подходит по смыслу задачи.
Граф G, описываемый тройкой вида
G = (X, A, С),
где Х = { хi }, i =1, 2, 3, ..., n – множество вершин,
А = { ai }, i = 1, 2, 3, ..., m – множество дуг,
С = {Ci}, i = 1, 2, 3, ..., m – множество характеристик дуг, называется
графом со взвешенными дугами.
Пример такого графа приведен на рис. 7.а. При рассмотрении пути
M, представленного последовательностью дуг(a1, a2, ..., aq), за его вес (или
длину, или стоимость) принимается число L(M), равное сумме весов всех
дуг, входящих в путь, т. е. L(M)=Σci для всех ai∈M.
Длиной (или мощностью) пути называется число дуг, входящих в него. Чаще всего термин "длина" употребляется, когда все дуги, входящие в
путь, имеют веса, равные 1, т. е. когда вес пути совпадает с его длиной
(мощностью).
330
Рис. 7. Взвешенные графы: а – граф со взвешенными дугами; б – граф со
взвешенными вершинами; в – взвешенный граф
Граф со взвешенными вершинами – это граф, описываемый тройкой
G = ( X, А, V ),
где Х = { хi }, i = 1, 2, ..., n – множество вершин графа;
А = { ai }, i = 1, 2, ..., m – множество дуг графа;
V ={ vi }, i = 1, 2, ..., n – множество характеристик вершин.
В качестве характеристик вершин могут выступать "стоимость",
"мощность", "вес" и т. п. Пример такого графа приведен на рис. 7.б. Для
графа со взвешенными вершинами в случае представления пути последовательностью вершин весом пути является сумма весов, входящих в этот
путь вершин.
И наконец, взвешенный граф определяется четверкой вида G = (Х, А,
V, С), т. е. и дуги, и вершины этого графа имеют некоторые характеристики.
Область применения взвешенных графов в качестве моделей довольно обширна: транспортные задачи, задачи оптимизации сети связи и системы перевозок и др. Одной из известнейших оптимизационных задач является нахождение кратчайших путей в графе со взвешенными дугами.
331
64.2.3. Орциклы и циклы
Особую группу составляют замкнутые пути. Путь a1, a2, ...,aq называется замкнутым, если в нем начальная вершина a1 и конечная вершина aq
совпадают. Так, например, для графа на рис. 8 можно составить несколько
замкнутых путей:
М1: a3, a6, a11,
М2: a11, a3, a4, a7, a1, a1, a9 ,
М3: a3, a4, a7, a10, a9, a11.
Пути М1 и М3 являются замкнутыми простыми орцепями, называемыми контурами или простыми орциклами, поскольку в них одна и та же
вершина используется только один раз (за исключением начальной и конечной). Путь М2 не является контуром, так как вершина х1 используется в
нем дважды.
Контур, проходящий через все вершины графа, имеет особое название – гамильтонов контур. Путь М3 является гамильтоновым контуром. Он
показан штриховой линией на рис. 8.
Рис. 8. Орциклы в графе
Для неориентированного графа замкнутым маршрутом является неориентированный двойник замкнутого пути, т. е. замкнутым маршрутом
является маршрут, в котором совпадают начальные и конечные вершины.
Для неориентированного графа понятия цикла и гамильтонова цикла
аналогичны понятиям орцикла и гамильтонова контура в орграфе.
64.3. Эйлеровы циклы и графы
Эйлеровым циклом в графе называется цикл, содержащий все ребра
графа. Граф, содержащий эйлеров цикл, называется эйлеровым графом.
Основная теорема о существовании эйлерова цикла формулируется
так.
332
Теорема. Связный неориентированный граф G содержит эйлеров
цикл тогда и только тогда, когда число вершин нечетной степени равно
нулю (0 или 2).
Эйлер первым в своей знаменитой задаче о Кенигсбергских мостах
поставил вопрос о существование такого цикла.
На реке Преголя в Кенигсберге было два острова. Они соединялись
между собой и с берегами реки семью мостами, как схематично показано
на рис. 9. Задача заключалась в том, чтобы за одну прогулку обойти все
семь мостов, проходя по каждому мосту только один раз, и вернуться в исходное место.
Если каждый берег реки и острова считать вершинами графа, а каждый мост – ребром, то карту (рис. 9.а) можно представить в виде графа на
рис. 9.б, и ответ на поставленный вопрос зависит теперь от существования
эйлерова цикла в этом графе. Эйлер установил, что указанный граф не содержит эйлерова цикла, и этот результат ознаменовал рождение теории
графов.
Рис. 9. а – схема Кенигсбергских мостов; б – эквивалентный граф
333
65. Алгоритм Дейкстра поиска кратчайших путей в графе
Дан граф G = (X, A, C) со взвешенными дугами, пример которого показан на рис. 1. Обозначим L(хi) пометку вершины хi . Веса дуг (или ребер)
даны матрицей весов (табл. 1).
Рис. 1. Граф со взвешенными дугами
Таблица 1. Матрица весов расстояний
с1
с3
с2
с5
с4
Рассмотрим алгоритм нахождения кратчайшего пути от вершины s к
вершине t графа и более общий случай: от вершины s ко всем вершинам
графа.
Присвоение начальных значений
Ш А Г 1. Положить L(s) = 0 и считать эту пометку постоянной. Для
всех вершин хi≠s положить L(хi)= ∞ и считать эти пометки временными. За
текущую рассматриваемую вершину с постоянной пометкой возьмем вершину p, т. е. положить p = s.
Обновление пометок
Ш А Г 2. Для вершин, входящих в прямое отображение вершины р,
т. е. для всех хi , принадлежащих Г(p), пометки которых временные, изменить пометки в соответствии со следующим выражением:
L(хi) = min [ L(хi), L(p) + C(p, хi) ].
Превращение пометки в постоянную
Ш А Г 3. Среди всех вершин с временными пометками найти такую,
для которой
L(x*i)=min[L(xi)].
334
Ш А Г 4. Считать пометку вершины x*i постоянной и положить p=x*i.
Ш А Г 5(a ). {При нахождении пути от s к t}
•
Если текущая вершина p является искомой, т. е. p = t, то L(p)
является длиной кратчайшего пути от s к t. Останов.
•
Если p≠t, перейти к шагу 2.
Ш А Г 5(б). {При нахождении путей от s ко всем вершинам}
•
Если все вершины отмечены постоянными метками, то эти
метки дают длины кратчайших путей.
•
Если некоторые метки являются временными, то следует перейти к шагу 2.
Как только длины кратчайших путей от вершины s будут найдены,
сами пути можно получить с помощью рекурсивной процедуры (*). Так
как вершина x*i непосредственно предшествует вершине хi в кратчайшем
пути от s к хi , то для любой вершины хi соответствующую вершину x*i
можно найти как одну из оставшихся вершин, для которой
L(x*i)+c( x*i, xi)=L( xi).(*)
Если кратчайший путь от s до любой вершины хi является единственным, то дуги (x*i, xi) этого кратчайшего пути образуют ориентированное дерево с корнем s. Если существует несколько кратчайших путей от
s к какой-либо другой вершине, то при некоторой фиксированной вершине
x*i соотношение (*) будет выполняться для более чем одной вершины хi . В
этом случае выбор может быть либо произвольным (если нужен какой-то
один кратчайший путь между s и хi ), либо таким, что рассматриваются все
дуги (x*2,x2), входящие в какой-либо из кратчайших путей, и при этом совокупность всех таких дуг образует не ориентированное дерево, а общий
граф, называемый базой относительно s.
П р и м е р. Рассмотрим граф смешанного типа, изображенный на
рис. 2.а, где каждое неориентированное ребро рассматривается как пара
противоположно направленных дуг равного веса. Матрица весов приведена на рис. 2.б. Требуется найти все кратчайшие пути от вершины х1 ко
всем остальным вершинам.
Первая итерация
Постоянные пометки будем помечать знаком &+&.
Ш А Г 1. Присвоим L(х1) = 0, L(хi) = ∞ для всех хi , кроме х1 . Положим р = х1 .
Ш А Г 2. Найдем прямое отображение для текущей рассматриваемой вершины: Г(р) = Г(х1) = { х2, х7, х8, х9 }. Все вершины, входящие
в прямое отображение имеют временные пометки, поэтому пересчитаем их
значение:
L(x2)=min[L(x2),L(x1)c(x1,x2)]=min[∞,0+10]=10
L(x7)=min[∞,0+3]=3
L(x8)=min[∞,0+6]=6
L(x9)=min[∞,0+12]=12
335
Рис. 2. Пример поиска кратчайшего пути: а – граф; б – матрица весов дуг
Ш А Г 3. На данном шаге итерации имеем следующие временные
метки вершин:
L(х2) = 10, L(х3) = ∞,
L(х7) = 3, L(х4) = ∞,
L(х8) = 6, L(х5) = ∞,
L(х9) = 12, L(х6) = ∞.
Очевидно, что минимальную метку, равную 3, имеет верши-на х7 .
Ш А Г 4. За следующую текущую метку принимаем верши- ну х7 , т.
е. p = х7 , а ее метка становится постоянной, L(х7) = 3+ .
Ш А Г 5. Так как не все вершины графа имеют постоянные метки,
переходим к шагу 2.
336
Вторая итерация
Граф с текущими значениями меток вершин показан на рис. 3.
Рис. 9.3. Пометки в конце первой итерации
Ш А Г 2. Находим Г(х7) = { х2, х4, х6, х9}. Метки всех вершин временные, следовательно пересчитываем их значения:
L(х2)= min [10, 3 + 2 ] = 5,
L(х4)= min [ ∞ , 3 + 4 ] = 7,
L(х6)= min [ ∞ , 3 + 14 ] = 17,
L(х9)= min [ 12, 3 + 24 ] = 12.
Ш А Г 3. На данном шаге итерации имеем следующие временные
метки вершин:
L(х2) = 5, L(х3) = ∞ ,
L(х4) = 7, L(х5) = ∞ ,
L(х6) = 17, L(х8) = 6, L(х9) = 12.
Очевидно, что минимальную метку, равную 5, имеет верши-на х2 .
Ш А Г 4. За следующую текущую метку принимаем вершину х2 , т. е.
p = х2 , а ее метка становится постоянной, L(х2) = 5+ .
Ш А Г 5. Так как не все вершины графа имеют постоянные метки,
переходим к шагу 2.
Третья итерация
Граф с текущими значениями меток вершин показан на рис. 4.
Ш А Г 2. Находим Г(х2) = {х1, х3, х7, х9}. Метки вершин х3 и х9 временные, следовательно пересчитываем их значения:
L(х3) = min [ ∞ , 5 + 18 ] = 23,
L(х9) = min [ 12, 5+13 ] = 12.
Ш А Г 3. На данном шаге итерации имеем следующие временные
метки вершин:
L(х3) = 23, L(х4) = 7, L(х5) = ∞ ,
337
L(х6) = 17, L(х8) = 6, L(х9) = 12.
Очевидно, что минимальную метку, равную 6, имеет вершина х8 .
Рис. 4. Пометки в конце второй итерации
Ш А Г 4. За следующую текущую метку принимаем верши- ну х8 , т.
е. p = х8 , а ее метка становится постоянной, L(х8) = 6+ .
Ш А Г 5. Не все вершины графа имеют постоянные метки, поэтому
переходим к шагу 2.
Четвертая итерация
Ш А Г 2. Находим Г(х8) = { х1, х5, х6, х9 }. Метки вершин х5, х6 и х9
временные, следовательно, пересчитываем их значения:
L(х5) = min [ ∞ , 6 + 23 ] = 29,
L(х6) = min [ 17, 6 + 15 ] = 17,
L(х9) = min [ 12, 6 + 5 ] = 11.
Ш А Г 3. На данном шаге итерации имеем следующие временные
метки вершин:
L(х3) = 23, L(х4) = 7,
L(х5) = 29, L(х6) = 17, L(х9) = 11.
Очевидно, что минимальную метку, равную 7 имеет верши на х4 .
Ш А Г 4. За следующую текущую метку принимаем вершину х4 , т. е.
p = х4 , а ее метка становится постоянной, L(х4) = 7+ .
Ш А Г 5. Так как не все вершины графа имеют постоянные метки,
переходим к шагу 2.
Пятая итерация
Ш А Г 2. Находим Г(х4) = { х3, х5, х6, х7 }. Метки вершин х3, х5 и х6
временные, следовательно, пересчитываем их значения:
L(х3) = min [ 23, 7 + 25 ] = 23,
L(х5)= min [ 29, 7 + 5 ] = 12,
338
L(х6)= min [17, 7 + 16] = 17.
Ш А Г 3. На данном шаге итерации имеем следующие временные
метки вершин:
L(х3) = 23, L(х5) = 29,
L(х6) = 17, L(х9) = 11.
Очевидно, что минимальную метку, равную 11 имеет верши-на х9 .
Ш А Г 4. За следующую текущую метку принимаем верши- ну х9 , т.
е. p = х9 , а ее метка становится постоянной, L(х9) = 11+ .
Ш А Г 5. Так как не все вершины графа имеют постоянные метки,
переходим к шагу 2.
Шестая итерация
Ш А Г 2. Находим Г(х9) = {х1, х2, х6, х7, х8}. Метка вершины х6 временная, следовательно пересчитываем ее значение:
L(х6) = min [17, 11 + 9] = 17.
Ш А Г 3. На данном шаге итерации имеем следующие временные
метки вершин:
L(х3) = 23, L(х5) = 12, L(х6) = 17.
Очевидно, что минимальную метку, равную 12 имеет верши-на х5 .
Ш А Г 4. За следующую текущую метку принимаем верши- ну х5 , т.
е. p = х5 , а ее метка становится постоянной, L(х5) = 12+ .
Ш А Г 5. Так как не все вершины графа имеют постоянные метки,
переходим к шагу 2.
Седьмая итерация
Ш А Г 2. Находим Г(х5) = { х4, х6 }. Метка вершины х6 временная,
следовательно, пересчитываем ее значение:
L(х6)= min [17, 12 + 10 ] = 17.
Ш А Г 3. На данном шаге итерации имеем следующие временные
метки :
L(х3) = 23, L(х6) = 17.
Очевидно, что минимальную метку, равную 17 имеет верши-на х6 .
Ш А Г 4. За следующую текущую метку принимаем вершину х6 , т. е.
p = х6 , а ее метка становится постоянной, L(х6) = 17+ .
Ш А Г 5. Так как не все вершины графа имеют постоянные метки,
переходим к шагу 2.
Восьмая итерация
Ш А Г 2. Находим Г(х6) = { х3, х5, х7, х8, х9 }. Метка вершины х3 временная, следовательно, пересчитываем ее значение:
L(х3) = min [ 23, 17 + 20 ] = 23.
Ш А Г 3. На данном шаге итерации имеем одну временную метку
вершины: L(х3) = 23, которая становится постоянной.
339
Ш А Г 4. Все вершины имеют постоянные метки, поэтому алгоритм
окончен.
Для нахождения кратчайшего пути между вершинами, например, х2
и начальной х1 последовательно используем соотношение (**):
L(x'2)+c(x'2,x2)=L(x2)=5, где вершина x'2 – это вершина, непосредственно
предшествующая х2 в кратчайшем пути от х1 к х2 .
Единственной такой вершиной является вершина х7 . Далее соотношение (**) применяем второй раз:
L(x7')+ с(x7’, x7) = L(x7) = 3
Единственной такой вершиной является вершина х1 . Поэтому кратчайший путь от х1 к х2 есть ( х1, х7, х2). Вершина х1 , называемая базой и
дающая все кратчайшие пути от х1 представляет дерево, показанное на рис.
5.
Рис. 5.
340
66. Задача коммивояжера. Метод ветвей и границ
66.1. Постановка задачи
Коммивояжер должен объездить n городов. Для того чтобы сократить расходы, он хочет построить такой маршрут, чтобы объездить все города точно по одному разу и вернуться в исходный с минимумом затрат.
В терминах теории графов задачу можно сформулировать следующим образом. Задано n вершин и матрица {cij}, где cij ≥0 – длинна (или цена) дуги (i, j), 1 ≤ i, j ≤ m . Под маршрутом коммивояжера z будем понимать цикл i1, i2,…, in, i1 точек 1,2,…, n. Таким образом, маршрут является
набором дуг. Если между городами i и j нет перехода, то в матрице ставится символ «бесконечность». Он обязательно ставится по диагонали, что
означает запрет на возвращение в точку, через которую уже проходил
маршрут коммивояжера, длина маршрута l(z) равна сумме длин дуг, входящих в маршрут. Пусть Z – множество всех возможных маршрутов.
Начальная вершина i1 – фиксирована. Требуется найти маршрут z0 ∈ Z, такой, что l(z0)= min l(z), z ∈ Z.
66.2. Методика решения задачи
Основная идея метода ветвей и границ состоит в том, что вначале
строят нижнюю границу φ длин множества маршрутов Z. Затем множество
маршрутов разбивается на два подмножества таким образом, чтобы первое
Z1
подмножество ij состояло из маршрутов, содержащих некоторую дугу (i,
Z ij1
j), а другое подмножество
не содержало этой дуги. Для каждого из
подмножеств определяются нижние границы по тому же правилу, что и
для первоначального множества маршрутов. Полученные нижние границы
Z ij1
Z ij1
подмножеств
и
оказываются не меньше нижней границы множеZ ij1
Z ij1
ства всех маршрутов, т.е. φ(Z)≤ φ ( ), φ(Z) ≤ φ ( ).
1
1
Сравнивая нижние границы φ ( Z ij ) и φ ( Z ij ), можно выделить то,
подмножество маршрутов, которое с большей вероятностью содержит
маршрут минимальной длины.
1
1
Затем одно из подмножеств Z ij или Z ij по аналогичному правилу
2
2
разбивается на два новых Z ij и Z ij . Для них снова отыскиваются нижние
341
2
2
границы φ ( Z ij ), и φ ( Z ij ) и т.д. Процесс ветвления продолжается до тех
пор, пока не отыщется единственный маршрут. Его называют первым рекордом. Затем просматривают оборванные ветви. Если их нижние границы
больше длины первого рекорда, то задача решена. Если же есть такие, для
которых нижние границы меньше, чем длина первого рекорда, то подмножество с наименьшей нижней границей подвергается дальнейшему ветвлению, пока не убеждаются, что оно не содержит лучшего маршрута.
Если же такой найдется, то анализ оборванных ветвей продолжается
относительно нового значения длины маршрута. Его называют вторым рекордом. Процесс решения заканчивается, когда будут проанализированы
все подмножества.
Для практической реализации метода ветвей и границ применительно к задаче коммивояжера укажем прием определения нижних границ
подмножеств и разбиения множества маршрутов на подмножества (ветвление).
Для того чтобы найти нижнюю границу воспользуемся следующим
соображением: если к элементам любого ряда матрицы задачи коммивояжера (строке или столбцу) прибавить или вычесть из них некоторое число,
то от этого оптимальность плана не изменится. Длина же любого маршрутом коммивояжера изменится на данную величину.
Вычтем из каждой строки число, равное минимальному элементу
этой строки. Вычтем из каждого столбца число, равное минимальному
элементу этого столбца. Полученная матрица называется приведенной по
строкам и столбцам. Сумма всех вычтенных чисел называется константой
приведения.
Константу приведения следует выбирать в качестве нижней границы
длины маршрутов.
Для выделения претендентов на включение во множество дуг, по которым производится ветвление, рассмотрим в приведенной матрице все
элементы, равные нулю. Найдем степени Θij нулевых элементов этой матрицы. Степень нулевого элемента Θij равна сумме минимального элемента
в строке i и минимального элемента в столбце j (при выборе этих минимумов cij – не учитывается). С наибольшей вероятностью искомому маршруту
принадлежат дуги с максимальной степенью нуля.
Для получения платежной матрицы маршрутов, включающей дугу (i,
j) вычеркиваем в матрице строку i и столбец j, а чтобы не допустить образования цикла в маршруте, заменяем элемент, замыкающий текущую цепочку на бесконечность.
Множество маршрутов, не включающих дугу (i, j) получаем путем
замены элемента cij на бесконечность.
342
66.3. Пример решения задачи коммивояжера методом ветвей
и границ
Коммивояжер должен объездить 6 городов. Для того чтобы сократить расходы, он хочет построить такой маршрут, чтобы объездить все города точно по одному разу и вернуться в исходный с минимумом затрат.
Исходный город A. Затраты на перемещение между городами заданы следующей матрицей, которую часто называют платежной:
A
B
C
D
E
F
A
∞
26
42
15
29
25
B
7
∞
16
1
30
25
C
20
13
∞
35
5
0
D
21
16
25
∞
18
18
E
12
46
27
48
∞
5
F
23
5
5
9
5
∞
Для удобства изложения везде ниже в платежной матрице заменим
имена городов (A, B, …, F) номерами соответствующих строк и столбцов
(1, 2, …, 6).
Найдем нижнюю границу длин множества всех маршрутов. Вычтем
из каждой строки число, равное минимальному элементу этой строки, далее вычтем из каждого столбца число, равное минимальному элементу
этого столбца, и таким образом приведем матрицу по строкам и столбцам.
Минимумы по строкам: r1=15, r2=1, r3=0, r4=16, r5=5, r6=5.
После их вычитания по строкам получим:
1
2
3
4
5
6
1
∞
11
27
0
14
10
2
6
∞
15
0
29
24
3
20
13
∞
35
5
0
4
5
0
9
∞
2
2
5
7
41
22
43
∞
0
6
18
0
0
4
0
∞
Минимумы по столбцам: h1=5, h2=h3=h4=h5=h6.
После их вычитания по столбцам получим приведенную матрицу:
1
2
3
4
5
6
1
∞
11
27
0
14
10
2
1
∞
15
0
29
24
3
15
13
∞
35
5
0
4
0
0
9
∞
2
2
5
2
41
22
43
∞
0
6
13
0
0
4
0
∞
343
Найдем нижнюю границу φ(Z) = 15+1+0+16+5+5+5 = 47.
Для выделения претендентов на включение во множество дуг, по которым производится ветвление, найдем степени Θij нулевых элементов
этой матрицы (суммы минимумов по строке и столбцу). Θ14 = 10 + 0,
Θ24 = 1 + 0, Θ36 = 5+0, Θ41 = 0 + 1, Θ42 = 0 + 0, Θ56 = 2 + 0, Θ62 = 0 + 0,
Θ63 = 0 + 9, Θ65 = 0 + 2. Наибольшая степень Θ14 = 10. Ветвление проводим
по дуге (1, 4).
1
Нижняя граница для множества Z 14 остается равной 47. Для всех
1
маршрутов множества Z14 из города A мы не перемещаемся в город D. В
матрице это обозначается выставлением в ячейку (1, 4) знака ∞. В этом
случае выход из города A добавляет к оценке нижней границы по крайней
1
мере наименьший элемент первой строки. φ ( Z14 ) = 47 + 10.
1
В матрице, соответствующей Z14 полагаем c14= ∞.
1
2
3
4
1
∞
11
27
∞
2
1
∞
15
0
3
15
13
∞
35
4
0
0
9
∞
5
2
41
22
43
6
13
0
0
4
5
14
29
5
2
∞
0
6
10
24
0
2
0
∞
После проведения процедуры приведения с r1=10 получим новую
нижнюю границу 57 + 10 = 67.
1
В матрице, соответствующей Z 14 , вычеркиваем первую строку и
четвертый столбец и положим c41= ∞, чтобы предотвратить появления
цикла 1→ 4 → 1. Получим новую платежную матрицу {c1ij}:
1
2
3
5
6
1
∞
15
29
24
15
13
∞
5
0
∞
0
9
2
2
2
41
22
∞
0
13
0
0
0
∞
приведения надо вычесть минимум по первому столбцу: h1=1.
нижняя граница станет равной 47+1 = 48. Сравнивая нижние
2
3
4
5
6
Для
При этом
границы
1
1
1
φ ( Z14 ) = 67 и φ ( Z 14 ) = 48 < 67 выделяем подмножество маршрутов Z 14 ,
которое с большей вероятностью содержит маршрут минимальной длины.
344
47
Z
68
48
(1,4)
(1,4)
Рис. 1. Ветвление на первом шаге
1
Приведенная платежная матрица для Z 14
1
2
3
5
6
2
0
∞
15
29
24
3
14
13
∞
5
0
4
∞
0
9
2
2
5
1
41
22
∞
0
6
12
0
0
0
∞
Далее продолжаем процесс ветвления. Найдем степени Θij нулевых
элементов этой матрицы Θ21 =16, Θ36 = 5, Θ42 = 2, Θ56 = 2, Θ62 = 0, Θ63 =9, Θ65
1
= 2. Наибольшая степень Θ21. Затем множество Z 14 разбивается дуге (2, 1)
2
2
на два новых Z 21 и Z 21 .
2
В матрице для Z 21 вычеркиваем строку 2 и столбец 1. дуги (1, 4) и
(2, 1) образуют связный путь (2, 1, 4), положим c42= ∞, чтобы предотвратить появления цикла 2→1→ 4 → 2.
2
3
5
6
3
13
∞
5
0
4
∞
9
2
2
5
41
22
∞
0
6
0
0
0
∞
Для приведения надо вычесть минимум по строке 4: r4=2. При этом
2
нижняя граница станет равной 48+2 = 50. Нижняя граница для Z 21 , полученная как на предыдущем шаге ветвления, равна 48 + 16 = 64. Сравнивая
2
2
нижние границы φ ( Z 21 ) = 64 и φ( Z 21 ) = 50 < 64 выбираем для дальнейшего
2
разбиения подмножество маршрутов Z 21 .
48
(1,4)
64
50
(2,1)
(2,1)
Рис. 2. Ветвление на втором шаге
345
2
Приведенная платежная матрица для Z 21
2
3
5
6
3
13
∞
5
0
4
∞
7
0
0
5
41
22
∞
0
6
0
0
0
∞
Степени Θij нулевых элементов этой матрицы Θ36 = 5, Θ45 = 0, Θ56 =
2
22, Θ62 = 13, Θ63 =7, Θ65 = 0. Наибольшая степень Θ56. Затем множество Z 21
3
3
разбивается дуге (2, 1) на два новых Z 56 и Z 56 .
3
3
Нижняя граница для Z 56 равна 50 + 22 = 72. В матрице для Z 56 вычеркиваем строку 5 и столбец 6 и полагаем c65= ∞. Получим матрицу:
2
3
5
3
13
∞
5
4
∞
7
0
6
0
0
∞
Для приведения надо вычесть минимум по строке 3: r3=5. При этом
нижняя граница станет равной 50+5 = 55. Выбираем для дальнейшего раз3
биения подмножество маршрутов Z 56 .
50
(2, 1)
72
55
(5,6)
(5, 6)
Рис. 3. Ветвление на третьем шаге
3
Приведенная платежная матрица для Z 56
2
3
8
4
∞
6
0
3
∞
7
0
5
0
0
∞
Степени Θij нулевых элементов этой матрицы Θ35 = 8, Θ45 = 7, Θ62 = 8,
4
3
4
Θ63 =7. Выбираем Θ35 = 8. Разбиваем Z 56 на Z 35 и Z 35 .
4
4
Нижняя граница для Z 35 равна 55 + 8 = 64. В матрице для Z 35 вычеркиваем строку 3 и столбец 5 и полагаем c63= ∞. Получим
2
3
4
∞
7
6
0
∞
346
Для приведения надо вычесть минимум по строке 4: r4=7. При этом
нижняя граница станет равной 55+7 = 62. После приведения получим
2
3
4
∞
0
6
0
∞
Из матрицы 2×2 получаем два перехода с нулевой длинной: (4, 3) и
(6, 2).
55
(5, 6)
62
6
(3,5)
(3, 5)
Рис. 4. Ветвление на четвертом шаге
47
Z
6
48
(1, 4)
(1,4)
50
6
(2, 1)
(2, 1)
(5, 6)
(5, 6)
55
7
(3, 5)
(3, 5)
62
63
(4, 3)
(6, 2)
62+0+0=62
Рис. 5. Дерево ветвления с оценками
Полученный маршрут коммивояжера z0 = (1, 4, 3, 5, 6, 2, 1) или (AD-C-E-F-B-A).
347
67. Введение в сетевое планирование
67.1. Предварительные замечания
В последние десятилетия исключительно усложнились управление и
организация различных технических и научных разработок. Большие масштабы разработок усложнили координацию работ исполнителей и оценку
хода выполнения работ. Одним из важнейших факторов стало максимальное сокращение сроков разработок с целью недопущения морального старения разрабатываемой системы.
Формулируя закон необходимого разнообразия, У.Р.Эшби указывал,
что для обеспечения процесса управления управляющая система должна
обладать, по крайней мере, такой же сложностью, как и управляемая.
Соответственно возникла необходимость создания системы, обеспечивающей возможность оценки текущего состояния и предсказания последующего хода разработки. Результатом исследований в этом направлении
явилось создание систем, базирующихся на т.н. сетевых графиках.
Первые методы такого рода получили название СРМ (метод критического пути, впервые апробированный при управлении строительными
работами) и PERT (метод оценки и обзора программ). Система PERT впервые была применена для управления разработкой ракеты "Полярис", позволив сократить срок разработки, по мнению специалистов, на 2-3 года.
В дальнейшем методы сетевого планирования применялись при проектировании инженерных сооружений, постановке театральных спектаклей, организации переподготовки специалистов и так далее
Было время, когда сетевое планирование было "модным" среди специалистов; сейчас им пользуются там, где оно действительно может оказаться полезным.
67.2. Понятие о сетевом графике
В терминологии теории графов сетевым графиком называют конечный ориентированный граф без контуров, в котором имеются единственная вершина с отсутствующими прообразами и единственная вершина, не
имеющая образов.
Иначе сетевым графиком можно назвать ориентированную транспортную сеть с одним входом и одним выходом, в которой нет путей с
повторяющимися вершинами.
Дуги указанного графа понимаются как некоторые работы. Вершины графа называются событиями.
348
Информация о сетевом графике некоторого проекта может задаваться в виде рисунка или различных списков. Если информация дана списком:
то ее можно представить в графическом виде (рис. 1); если ввести
обозначения или нумерацию для вершин (событий), то можно использовать и графическое представление (рис. 2), где числа на дугах определяют
продолжительность работ.
Рис. 1.
Рис. 2.
При наличии нумерации вершин информацию о графике можно
представить также перечнем работ с указанием начального и конечного
событий и продолжительностей работ. Можно ту же самую информацию
представить и в виде матрицы связей между событиями (элементы матрицы равны продолжительности соответствующих работ или не указаны при
отсутствии таких работ).
Матричное задание особенно удобно и наглядно при обработке сетевого графика на ЭВМ.
При рисовании сетевого графика часто удобно использовать т.н.
фиктивные работы - работы с нулевой продолжительностью, изображаемые пунктиром и служащие для указания порядка следования работ.
Например, при наличии двух выходов их можно связать фиктивной работой.
349
Могут использоваться и фиктивные события. Так, если обнаружится, что пара событий связана более чем одной работой, то можно воспользоваться фиктивными событиями и работами (рис. 3).
Рис. 3.
В большинстве реальных проектов точное значение продолжительности работ Tij неизвестно, но на основании экспертизы могут быть предложены верхняя (пессимистическая) оценка Bij, определяющая максимальную оценку продолжительности с учетом всех возможных срывов, и нижняя (оптимистическая) оценка Aij, определяющая продолжительность работы в идеальных условиях. При наличии некоторого опыта может существовать и наиболее вероятная оценка Mij. Соответственно, планируемая
продолжительность работы определяется по одной из формул
Tij = (3 Aij + 2 Bij) / 5, Tij = (Aij + 4 Mij + Bij) / 6
Заметьте, что требование отсутствия контуров неслучайно, т.к. наличие таковых дает возможность возврата к повторению ранее выполненных
работ.
При обработке сетевых графиков существенное влияние на объем
вычислительных работ оказывает порядок просмотра (нумерация) событий. Правило оптимальной нумерации связано с определением ранга событий.
Начальному событию (входу) сопоставляется ранг 0. Ранг 1 получают события, в которые приводят работы, начинающиеся только в событиях
ранга 0. Ранг 2 получают события, в которые приводят работы, начинающиеся только в событиях ранга 0 и 1 и т.д.
Последующая нумерация ведется в соответствии с рангами по возрастанию номеров (при одинаковом ранге порядок произволен; нумерация
не обязательно сплошная).
Для приведенного выше примера ранг 0 получает событие 0, ранг 1 событие 1, ранг 2 - событие 4, ранг 3 - событие 5, ранг 4 - событие 2 и ранг
5 - событие 3.
67.3. Критический путь и другие параметры сетевого
графика
Если продолжительность работы принять за длину соответствующей
дуги сетевого графика, то критическим можно назвать путь максимальной
длины от входа до выхода графика. Длина этого пути определяет критическое время выполнения проекта, т.е. минимальное время, в пределах кото350
рого коллектив исполнителей в состоянии выполнить весь комплекс работ
сетевого графика.
Пусть для определенности начальное событие имеет номер 0 и конечное - номер N. Обозначим через Lj длину пути наибольшей протяженности от события 0 до события j.
По принципу оптимальности Р. Беллмана
L j = max Li + Tij , j > 0; L0 = 0
i, k
(
)
Величина Lj соответствует наиболее раннему возможному времени
Tj наступления j-го события, т.е. самому раннему сроку завершения всех
работ, предшествующих этому событию. Значение LN cоответствует критическому времени выполнения проекта Tкрит.
Обозначим через Mi длину пути наибольшей протяженности от события i до события N. Тогда по тому же принципу
M i = max(Li + Tik ), i < N ; LN = 0
0
j,k
1
Величина Ti = Tкрит - Mi соответствует наиболее позднему допустимому времени наступления i - го события, т.е. самому позднему сроку
начала всех работ, последующих за этим событием. Совершенно очевидно,
что для событий на критическом пути самое раннее и самое позднее времена их наступления будут совпадать.
Рассмотрим сетевой график (рис. 4):
Рис. 4
351
Рассчитаем значения Lj в порядке роста номеров:
L0=0; L1 = 2(i=0); L2 =1(i=0);
L3 = max[L0+5, L1+2, L2+2]=5 (i=0) и т.д.
Затем рассчитаем значения Mi в порядке убывания номеров:
M7=0; M6=4 (k=7); M5=max [2+M6, 7+M7] = 7(k=7);
M4 =4 (k=7); M3 =max[6+M4, 2+M5]=10 (k=4) и т.д.
В итоге имеем информацию о наиболее ранних и наиболее поздних
моментах наступления событий и индексы предшествующих и последующих событий в самых длинных путях, проходящих через данное событие.
По информации из колонок 3 или 5 можно выявить критические пути
с длиной 15: [ 0 - 1 - 5 - 7 ] и [ 0 - 3 - 4 - 7 ].
Очевидно, что работы, не лежащие на критических путях, обладают
резервами времени - их выполнение при некоторых условиях может быть
задержано на какое-то время. Cуществуют 4 вида резервов:
1. Полный резерв Rij = Tj1 - Ti0 - Tij,
2. Свободный резерв Rij = Tj0 - Ti0 - Tij,
3. Независимый резерв Rij =max [ Tj0 - Ti1 - Tij, 0],
4. Частный резерв Rij = Tj1 - Ti1 - Tij.
Так полный резерв работы можно понимать как время, на которое
можно замедлить выполнение работы, если предшествующие работы завершатся к самому раннему возможному сроку, но комплекс последующих
работ будет выполняться в кратчайший возможный срок. Независимый резерв предполагает завершение предшествующих работ к самому позднему,
но начало последующих в самый ранний срок.
Результаты обработки приведенного сетевого графика можно представить следующей таблицей:
Полученные данные позволяют выделить т. н. подкритические работы, т.е. работы, лежащие на путях, отличающихся по длине от критическо352
го не более чем на заданную величину. Основной характеристикой здесь
может служить полный резерв.
Для нашего графика на уровне критичности 1 подкритическими будут работы 1-3, 3-5, 5-6, 6-7. Чтобы убедиться в этом, возьмем работу 5-6 и
найдем путь максимальной длины, проходящий через нее, по индексам
предшествующих и последующих событий. Так событию 5 в пути максималь-ной длины предшествует событие 1, а ему - событие 0. Событию 6 в
таком пути последует событие 7. Длина пути 0-1-5-6-7 равна 14 и задержка
на 1 при выполнении работ 5-6 или 6-7 сделает его критическим.
Однако полный резерв не полностью характеризует уровень критичности работ. Возьмем для примера два графика (рис. 5).
Рис. 5.
В первом графике все некритические работы имеют одинаковый
полный резерв, равный 8. Однако напряженность работ пути 0-1-4 составляет 24 единицы времени на интервале 32, тогда как напряженность работ
пути 0-2-3 составляет 2 единицы на 10. Нет сомнения, что работы второго
пути можно выполнять с большей "прохладцей", чем первого (отдыхаем 8
дней из 10 и 8 дней из 32 соответственно).
Во втором графике работы 0-2 и 2-3 имеют резерв 3, а работы 0-1 и
1-4 - резерв 8, но напряженность у них одинакова.
Поэтому всякая работа характеризуется т.н. коэффициентом напряженности. Для отыскания этого коэффициента отыскивается путь максимальной длины, проходящий через данную работу: при этом используются
индексы предшествующих и последующих событий, которые мы находили
при поиске T0 и T1. На этом пути ищутся ближайшие "слева" и "справа"
события, принадлежащие критическому пути (путям), и определяется отношение длины пути между этими событиями, проходящего через данную
работу, к длине соответствующего отрезка критического пути.
Для рассмотренного выше сетевого графика выберем некритическую
работу 1-3. Обнаруживаем, что через нее проходит путь (максимальной
длины) 0-1-3-4-7. Ближайшими соседями на критических путях 0-1-5-7 и 03-4-7 будут события 1,7 и 0,3 cоответственно. Отсюда находим коэффициент напряженности
 T + T34 + T47 T01 + T13 
 12 4  12
 = max  ;  = .
K13 = max  13
;
T03 
 13 5  13
 T15 + T57
353
Аналогично получаем
 T + T35 T35 + T57 
7 9  9
 = max  ;  =
K 35 = max  03
;
 8 10  10
 T15 + T01 T34 + T47 
 T + T67 T01 + T16 + T67 
 9 11  11
 = max  ;  =
K16 = max  16
;
 13 15  15
 T15 + T57 T03 + T34 + T47 
 T + T67 T01 + T15 + T56 + T67 
 6 14  14
 = max  ;  =
K 56 = K 67 = max  56
;
T03 + T34 + T47 
 7 15  15
 T57
 T + T23 + T34 + T47 T02 + T23 
 13 3  13
 = max  ;  =
K 02 = K 23 = max  02
;
T03 
 15 5  15
 T01 + T15 + T57
 T + T24 + T47 T02 + T24 
 12 8  12
 = max  ;  =
K 24 = max  02
;
 15 11  15
 T01 + T15 + T57 T03 + T34 
67.4. Линейная диаграмма проекта
Для небольших проектов с целью большей наглядности выполнения
работ во времени после составления пронумерованного сетевого графика
можно построить т.н. линейную диаграмму (рис. 6).
При ее построении отрезок i - j откладываем так, чтобы его начало
лежало на одной вертикали с самым правым концом отрезков-работ, заканчивающихся в вершине i, что соответствует Тi0. Самый правый конец
всех отрезков соответствует Ткрит.
Рис. 6.
354
Если сдвинуть отрезки вправо так, чтобы отрезки i - j заканчивались
самым левым концом отрезков с начальным индексом j, то эти самые левые концы будут соответствовать Tj1. Величина такого сдвига определяет
полный резерв работы.
Если сдвигать отрезок i - j вправо без сдвига отрезков с начальным
индексом j, то величина такого сдвига определит свободный резерв.
Существенным достоинством линейной диаграммы является возможность оценить загрузку исполнителей во времени. Так для t в интервале от 2 до 3 выполняется наибольшее количество работ (шесть). Если работы выполняются взаимозаменимыми исполнителями, то сдвинув работу 16 или 2-4, мы обнаружим возможность обойтись пятью исполнителями
(непосредственно из сетевого графика это трудно увидеть).
67.5. Минимизация стоимости проекта при заданной
продолжительности
Выполнение всякой работы связано с затратами. В ряде случаев
ускоренное выполнение работы связано с увеличением затрат (авралы,
срочные поставки и т.п.) и затраты являются обратной функцией от времени выполнения, которая выбирается в виде:
1.
линейный вариант: Cij=-Aij Tij+Bij
2.
выпуклый вариант: Cij=-Aij/Tij
В таких условиях может быть поставлена задача поиска оптимального по стоимости безрезервного плана, т.е. плана, в котором стоимость снижается удлинением выполнения работ до предельного допустимого времени.
Пусть проект требуется выполнить за время Т, не меньшее Ткрит.
Если обозначить через Dij минимальное необходимое время выполнения работы i - j, а через Тj - момент наступления j - го события, то продолжительность работы i - j равна Tj - Ti и возникает задача: минимизировать функцию
при условиях
Tj - Ti ≥ Dij при всех (i j);
T0 = 0, Tвых = T.
Пример 1. Пусть для рассмотренного выше сетевого графика заданы
параметры стоимости и продолжительности работ и предельное время Т =
25.
355
Минимизируемую функцию Z можно преобразовать к виду:
Z = ∑ Bij − ∑ Ak Tk
i, j
где
k
Ak = ∑ Aik − ∑ Akj
k
k
и задачу минимизации заменить задачей максимизации суммы ∑ Ak Tk
k
В нашем случае
A0 =-18; A1 =5; A2 =-7; A3 =6; A4 =-3; A5 =-4; A6 =-2; A7 =23.
и возникает задача максимизации функции
U= -18·T0 + 5·T1 - 7·T2 + 6·T3 - 3·T4 - 4·T5 - 2·T6 +23·T7
при условиях
T1 − T0 ≥ 2

T3 − T1 ≥ 2
T4 − T3 ≥ 6

T6 − T1 ≥ 5
T − T ≥ 7
 7 5
T2 − T0 ≥ 1

T3 − T2 ≥ 2
T4 − T1 ≥ 6

T6 − T5 ≥ 2
T7 − T6 ≥ 4

T3 − T0 ≥ 5
T − T ≥ 7
 4 2
T5 − T3 ≥ 2

T7 − T4 ≥ 2
T0 = 0

T7 ≤ 25
356
Решение этой задачи симплексным методом дает оптимальные времена наступления событий T1 =11, T2 =1, T3 =15, T4 =21, T5 =17, T6 =19 и
значение Z=1146.
Легко видеть, что использование симплексного метода требует значительных затрат энергии (даже в случае модифицированного симплексметода). Поэтому рассмотрим решение задачи по алгоритму И.А.Радчик,
являющемуся модификацией венгерского метода Форда-Фалкерсона.
Поставленная задача сводится к максимизации
F (T ) = ∑ Ak Tk
k
при условиях
Ti - Tj ≤-Dij при всех i, j;
Tn - T0 ≤ T, T0 = 0.
(индекс n соответствует выходу графика).
Сопряженная (двойственная) задача состоит в максимизации
G( X ) = − ∑ Dij X ij + T ⋅ X n0
i, j
при ограничениях
∑ X ij − ∑ X ki = Ai ∀i
k
j

 X ij ≥ 0 ∀i , j

 X n0 > 0

Величину Xij можно трактовать как количество вещества, протекающего по дуге i - j в единицу времени, и значения Ai - как разницу между
притоком и оттоком вещества в вершине i.
Соответственно возникает задача о потоке в сети, определенной сетевым графиком и дополненной дугой от выхода до входа.
На предварительном этапе отыскивается какое-нибудь допустимое
решение исходной задачи. Например, оценки Tj берутся равными минимальным временам наступления событий (значение Tn берется равным T).
Затем строится матрица значений Rij= Tj - Ti - Dij (значение Rn0 =0).
На каждом очередном шаге отыскивается путь от какого-то источника (Ai > 0) до какого-то стока (Ai < 0).
Для этого отмечаем строки с Ai > 0 cимволом * (эти же метки переносим на столбцы). В строке *, например i0, берем клетки с R i0,j = 0 и отмечаем ранее неотмеченные столбцы индексами (i0, b1 = Ai0). Затем по значениям Xi0,j < 0 отмечаем ранее неотмеченные столбцы индексами ( i0, b1 =
min( Ai0, |Xi0,j| )). Метки столбцов переносим на строки.
Затем выбираем отмеченную индексом (i0, b1) строку i и столбцы с
значениями Rij = 0 и значениями Xij < 0 помечаем индексами (i, b2 = b1) или
(i, b2 =min(b1, |Xij|)). Метки столбцов переносим на строки и т.д., пока не
357
будет отмечен некоторый сток или не обнаружится невозможность дальнейшего отмечания.
В первом случае, если некий j0 - й сток помечен индексом ( k, bs),
отыскиваем величину V=min(bs, Aj0) и обратным ходом по первому из индексов отыскиваем путь, который привел к этому стоку. Значения Xij на
этом пути увеличиваем на V и симметричные значения уменьшаем на V.
Уменьшаем на V значение Ai0 и увеличиваем на V значение Aj0.
Во втором случае отыскиваем величину H, равную минимальному из
значений Rij, лежащих на пересечении отмеченных строк и неотмеченных
столбцов.
Если вход и выход помечены, вычитаем H из всех Rij, находящихся в
непомеченных столбцах, и прибавляем к находящимся в непомеченных
строках. Уменьшаем на H и значения Tj для непомеченных столбцов. Если
вход и выход не помечены, то вычитание H проводим для помеченных
строк и помеченных столбцов, причем значения Tj для помеченных столбцов увеличиваем на H.
Алгоритм завершает работу, когда вcе Aj станут равными нулю, т.е.
все источники опустошены и все стоки насыщены.
Строим начальную таблицу значений Rij на основе ранее найденных
оценок Tj0 (значения Xij равны 0):
Отмечаем "источники" 1, 3 и 7 символом *. В строке 1 обнаруживается R15 = 0 и 5-й столбец помечаем индексом (1.5) (из пункта 1 поток емкости b1 =5). Этот столбец cоответствует стоку с потребностью 4. Т.о.
найден путь 1-5 с величиной потока V = min(5, |-4|).
Увеличиваем на V значение A5 и X15, уменьшая A5 и X51 (значения Xi
записываем в этой же таблице под дробной чертой).
358
В полученной матрице обнаруживается путь 1-5-6 интенсивности 1 и
V = min(1, |-2|)=1. Увеличиваем X15, X56, A6 и уменьшаем X51, X65, A1.
В полученной матрице обнаруживается путь 3 - 4 интенсивности 3 и
путь 7-0 интенсивности 18.
Корректируем X34, X43, X07, X70 и A4, A3, A0, A7.
В полученной матрице обнаруживается путь 7 - 0 - 2 интенсивности
5 и корректируем X70, X02, X07, X20 и A7, A2.
359
B полученной матрице обнаруживается невозможность достижения
стоков 2 и 6.
Отыскиваем в строках 3, 4 в непомеченных столбцах минимальный
из Rij: H = min(R35, R47) = 1. Вычитаем H из строк 3, 4 и добавляем к столбцам 3,4 (в том числе и к значениям T3, T4).
В полученной матрице обнаруживается путь 3 - 5 - 6 интенсивности
1 и корpектируем X35, X56, X53, X65, A3, A6.
В отличие от предыдущих таблиц здесь используем отмечание не
только по Rij=0, но и по Xij < 0 (cтолбец 1). Добраться до стока 2 невозможно. Потому отыскиваем H = min Rij при i = 1, 3, 4, 5, 6 и j = 0, 2, 7 (H =
min [9, 10, 11 ] = 9) и вычитаем 9 из отмеченных строк с добавлением к отмеченным столбцам.
360
Здесь обнаруживается путь 3 - 4 - 7 - 0 - 2 с интенсивностью 2 и после корректуры значения A3 и A2 обращаются в нуль, что служит признаком конца решения задачи.
Оптимальный безрезервный план определяется временами наступления событий:
T0 =0, T1 =11, T2 =1, T3 =15, T4 =21, T5 =17, T6 =19, T7 =25.
В рассмотренной задаче предполагалась ограниченность продолжительности работ снизу. При наличии ограничения сверху задача может
быть поставлена в виде:
минимизировать функцию Z = ∑ − Aij tij + Bij
(
)
i, j
Tj - Ti ≥ tij ∀i, j,
Dij ≤ tij ≤ Wij ∀ i, j, T0 = 0, Tвых = T.
Решение задачи дает оптимальный по стоимости резервный план.
Если считать T переменной величиной, то поставленная задача становится
задачей параметрического линейного программирования.
Определенный интерес представляет и задача минимизации времени
вы-полнения проекта при заданной его стоимости.
Минимизировать Tn при условиях

T j − Ti ≥ tij ∀i, j

Dij ≤ tij ≤ Wij ∀i, j

 ∑ − Aij tij + Bij ≤ C
i , j
при условиях
(
)
67.6. Проблемы применения систем сетевого планирования
Выше мы ориентировались на сетевой график некоторого самостоятельного проекта, на выполнение которого направлены усилия коллектива
исполнителей. В реальности один и тот же коллектив выполняет работы
"одновременно" по нескольким проектам и даже при идеальной отработке
графиков каждого из них нет уверенности в выполнении всех проектов,
361
т.к. выполнение многих тем приходится на один и тот же промежуток времени. При выполнении таких "многотемных" разработок наряду с оценкой
работ по времени приходится учитывать трудоемкость работ (количество
человеко-часов или количество специалистов в этой области), мощность
подразделений исполнителей, возможность выполнения работы подразделениями.
Поэтому сначала для каждой темы разрабатывают сетевой график и
проводят оценки не только по времени, но и по исполнителям. Работы из
всех тем сортируют по подразделениям и накладывают на календарь.
Оценивают возможности подразделения и, если все работы выполнить в данный период невозможно, часть из них переносят на более поздние сроки с соответствующими отметками в исходных графиках.
Сетевые графики могут иметь стохастическую структуру по оценке
времени выполнения работ. Здесь по заданным пессимистической и оптимистической оценкам отыскивают математическое ожидание и дисперсию
продолжительности работ:
Tij =
3 Aij + 2 Bij
5
; Dij =
Bij − Aij
2
5
После традиционной обработки сетевого графика отыскивается дисперсия длины критического пути как сумма дисперсий составляющих его
работ. Оценка вероятности той или иной продолжительности выполнения
проекта (или отдельной работы) проводится на основе функции нормального распределения.
Так при полученной длине критического пути в 38 дней и дисперсии
6.31, т.е. стандартном отклонении 2.51, вероятность того, что фактическое
время выполнения проекта лежит в интервале от 35 до 42 дней, определится как разность значений функции нормального распределения при аргументах (35-38)/2.51 и (42-38)/2.51 и составит 0.822.
362
ЧАСТЬ 14. ПРИМЕНЕНИЕ МАТЕМАТИКИ В ЭКОНОМИКЕ
68. Эластичность и β-коэффициенты
В эконометрических исследования важное значение имеют такие понятия, как «эластичность» и «β-коэффициенты».
Коэффициент эластичности показывает, на сколько процентов измениться в среднем результат, если фактор изменится на 1%. Формула для
расчета коэффициента эластичности имеет вид:
x
Э = f ′( x ) ⋅ .
y
(1)
Так как коэффициент эластичности не является постоянной величиной, а зависит от соответствующего значения фактора x , то обычно рассчитывается условно средний коэффициент эластичности:
Э = f ′( x ) ⋅
x
.
y
(2)
Функции зависимости признака от фактора определяются, как правило, на основе опытных данных при помощи метода наименьших квадратов (см. разделы 19.5 и 47).
Приведем формулы для расчета средних коэффициентов эластичности для наиболее часто используемых типов уравнений регрессии (табл. 1)
Таблица 1.5
Вид функции, y
y′
Э
y = a +b⋅ x +ε
b
y = a + b ⋅ x + c ⋅ x2 + ε
b + 2c ⋅ x
b
+ε
x
y = a ⋅ xb ⋅ ε
b
x2
a ⋅ b ⋅ x b−1
y = a ⋅ bx ⋅ ε
a ⋅ ln b ⋅ b x
b
x
a ⋅ b ⋅ c ⋅ e − c⋅x
y=a+
y = a + b ⋅ ln x + ε
y=
a
1 + b ⋅ e − c⋅ x + ε
−
(1 + b ⋅ e )
− c⋅ x 2
363
b⋅ x
a +b⋅ x
( b + 2c ⋅ x ) ⋅ x
a +b⋅ x + c⋅ x2
b
−
a⋅x +b
b
x ⋅ ln b
b
a + b ⋅ ln x
b⋅c⋅ x
b + e c⋅ x
1
y=
a +b⋅ x +ε
−
b
(a + b ⋅ x)
2
−
b⋅ x
a +b⋅ x
β-коэффициенты вводятся для сравнительного анализа степени влияния разных факторов на исследуемый признак. С этой целью уравнение
регрессии рассчитывается для нормированных и центрированных величин.
Пусть изначально уравнение имело вид
n
y = ∑ bi xi + a
(3)
i =1
Сделаем преобразование
x − xi
y−y
ty =
; t xi = i
, i = 1...n
Sy
S xi
(4)
Здесь среднее и среднее квадратическое отклонение определяются по
формулам
1 n
1 n
(5)
x = ∑ x j; S 2 =
∑ (x j − x)
n j =1
n − 1 j =1
Тогда стандартизированное уравнение регрессии будет иметь вид:
n
t y = ∑ βi ⋅ t xi
(6)
i =1
Здесь
βi = bi
S xi
(7)
Sy
Коэффициенты (7) уравнения регрессии (6) показывают степень влияния каждого фактора на признак при неизменном значении остальных
факторов. Они широко применяются в задачах финансового менеджмента,
особенно в задаче формирования портфеля ценных бумаг.
364
69. Управление запасами
Для обеспечения непрерывного и эффективного функционирования
практически любой организации необходимо создание запасов, например,
в производственном процессе, торговле, медицинском обслуживании и т.д.
В зависимости от ситуации под запасами могут подразумеваться: готовая
продукция, сырье, полуфабрикаты, станки, инструмент, транспортные
средства, наличные деньги и др. Неверный расчет необходимых запасов
может привести как к незначительному ущербу (потеря части дохода от
дефицита товара), так и к катастрофическим последствиям (при ошибочной оценке запасов топлива на самолете).
К экономическому ущербу приводит как чрезмерное наличие запасов, так и их недостаточность. Так, если некоторая компания имеет товарные запасы, то капитал, овеществленный в этих товарах, замораживается.
Этот капитал, который нельзя использовать, представляет для компании
потерянную стоимость в форме невыплаченных процентов или неиспользуемых возможностей инвестирования. Кроме того, запасы, особенно скоропортящиеся продукты, требуют создания специальных условий для хранения. Для этого необходимо выделить определенные площади, нанять
персонал, застраховать запасы. Все это влечет определенные издержки. С
другой стороны, чем меньше уровень запаса, тем больше вероятность возникновения дефицита, что может принести убытки вследствие потери клиентов, остановки производственного процесса и т.д. Кроме того, при малом уровне запасов приходится часто поставлять новые партии товара, что
приводит к большим затратам на доставку заказов.
Отсюда следует важность разработки и использования математических моделей, позволяющих найти оптимальный уровень запасов, минимизирующий сумму всех описанных видов издержек.
Любая модель управления запасами, в конечном счете, должна давать ответ на два вопроса:
1) Какое количество продукции заказывать?
2) Когда заказывать?
Ответ на первый вопрос дается с помощью понятия размера заказа,
т.е. количества ресурсов, которое необходимо поставлять для пополнения
запасов.
Ответ на второй вопрос связан с понятием точки заказа, т.е. критический уровень запасов, при котором следует подавать заказ на поставку
очередной партии ресурса.
Большое значение имеют различные виды затрат на управление запасами. Важным фактором являются затраты на приобретение ресурса в
365
тех случаях, когда действует система оптовых скидок, зависящих от размера заказа.
Затраты на осуществление заказа включают в себя затраты на
оформление заказа и затраты на доставку заказа. При частой подаче заказов на мелкие партии товара сумма этих затрат возрастает по сравнению
со случаем более редкой подачи заказов на крупные партии. Если запас
пополняется не готовым ресурсом со склада, а производится, то затраты на
осуществление заказа идут на организацию производственного процесса
по выпуску партии ресурса. В этом случае затраты на приобретение ресурса эквивалентны издержкам производства ресурса.
Затраты на хранение запаса представляют собой расходы на физическое содержание запаса на складе и возрастают с увеличением уровня
запасов. Потери от дефицита представляют собой расходы, обусловленные отсутствием запаса необходимой продукции. Они могут быть вызваны
более высокой платой за срочную доставку товара, ухудшением репутации
у потребителя, потенциальной потерей прибыли.
Модель управления заасами не обязательно должна включать все перечисленные виды затрат, т.к. некоторые из них могут быть незначительными или отсутствовать.
Следует учитывать и страховой (резервный) запас - запас ресурсов,
созданный для недопущения дефицита в непредвиденных ситуациях.
Эффективность модели зависит от того, насколько точно будет предсказан спрос на ресурс, что является довольно сложной задачей. Выделяют
следующие типы спроса (рис. 1).
СПРОС
Детерминированный
Вероятностный
Стационарный
Статический
Динамический
Нестационарный
Возрастание степени математической сложности
Рис. 1
Детерминированный спрос точно известен заранее, в отличие от вероятностного спроса. При статическом типе спроса интенсивность потребления ресурса остается неизменной во времени, при динамическом типе спроса интенсивность потребления является изменяется в зависимости
366
от времени. При стационарном типе спроса его функция плотности вероятности неизменна во времени, а при нестационарном - функция плотности вероятности спроса изменяется во времени.
Время доставки заказа может быть определено более или менее точно, в зависимости от дальности поставки, от наличия надежных поставщиков и т.д. Ряд факторов может приводить к запаздыванию поставок.
Существует множество моделей управления запасами той или иной
степени сложности. Наиболее простой является так называемая основная
модель управления запасами (модель Уилсона или система с фиксированным размером заказа).
При построении модели Уилсона используются следующие параметры:
Входные:
1) ν - интенсивность потребления запаса, [ед. товара / ед. времени];
2) s - затраты на хранение запаса, [ден. ед. / ед. товара * ед.
времени];
3) K - затраты на осуществление заказа, [ден. ед.].
Выходные:
1) Q - размер заказа, [ед. тов.];
2) τ - период поставки, [ед. времени];
3) L - общие затраты на управление запасами в единицу времени, [ден. ед./ ед. времени].
Данная модель моделирует ситуацию, которая характеризуется следующими допущениями.
1). Интенсивность потребления является априорно известной и постоянной величиной, ν = const .
2). Время поставки заказа является известной и постоянной величиной.
3). Каждый заказ поставляется в виде одной партии.
4). Затраты на осуществление заказа К не зависят от размера заказа.
5). Отсутствие запаса является недопустимым.
Циклы изменения уровня запаса в модели Уилсона графически представлены на рис. 2. Все циклы изменения запасов являются одинаковыми,
максимальное количество продукции, которая находится в запасе, совпадает с размером заказа Q.
367
Уровень запасов
Q
h0
точка заказа
Время
0
Время
доставки
Получение
заказа
Рис. 2
Модель должна минимизировать издержки по управлению за весь
период их хранения. Длительность этого периода значения не имеет, пусть
это будет некоторый плановый период (пл. пер.). Тогда общие затраты в
плановом периоде L составляют
(1)
L = L1 + L2,
где L1 - затраты на осуществление заказов в течение планового периода, а
L2 - затраты на хранение запасов в течение планового периода [руб/пл.пер.]
Если потребность в ресурсах составляет ν [ед.тов./пл.пер.], а каждый
заказ подается на партию размером Q [ед.тов./заказ], то количество закаν
зов в течение указанного времени составит
, а затраты
Q
ν  руб 
L1 = K ⋅ 
Q  пл.пер. 
При расчете L 2 исходят из среднего количества продукции, составляющей запас в течение одного цикла. Поскольку в рассматриваемой ситуации уровень запаса изменяется линейно от Q до нуля, то средний уровень
Q  руб 
Q
.
запасов равен , поэтому L2 = s ⋅
2
2  пл.пер. 
Тогда из (1) следует, что
ν
Q
L= K ⋅ + s⋅
(2)
Q
2
Чтобы найти оптимальный размер заказа Q*, минимизирующий L,
∂L
найдем частную производную
и приравняем ее к нулю
∂Q
368
∂L
Kν 1
=−
+ s=0
∂Q
Q2 2
Отсюда
Kν
1
= s или
Q2 2
2K ν
(3)
s
Рассмотрим графическое представление уравнения общей стоимости
(1) и его компонент L1 и L2 (рис. 3).
Из рисунка следует, что если размер заказа невелик, то затраты на
подачи заказа L1 является доминирующей, потому что в этом случае заказы подаются часто, но на небольшое количество ресурса. Если же размер
заказа является достаточно большим, то основной компонентой затрат являются затраты на хранение L 2 , поскольку делается небольшое число заказов, но на крупные партии товара. Экстремальная точка на графике общих затрат L соответствует ситуации, когда оба вида издержек равны друг
другу. Этот факт можно использовать для проверки правильности расчетов
Q∗ =
Q∗ . Важным фактом является то, что в точке минимума кривая общих затрат заметно выравнивается. Это означает, что в данной области общие затраты не обладают высокой чувствительностью по отношению к изменениям в размере заказа. Т.е. если невозможно заказать Q∗ единиц товара
(например, если товар штучный, а значение Q∗ - дробное), то заказ относительно близкого размера к оптимальному не приведет к значительному
увеличению затрат.
Затраты
Общие затраты, L
Затраты
на
хранение, L 2
Затраты
на
заказы, L1
Размер заказа
0
Рис. 3
После получения ответа на вопрос: сколько заказывать, ответим на
вопрос когда подавать заказ. Из рис. 2 следует, что если мы знаем время
369
доставки Тд [ед. в рем.] , то мы можем узнать какой объем запаса будет израсходован за это время
h0 = νT Д
(4)
где ν - интенсивность потребления в единицу времени, а h 0 - точка заказа.
Это означает, что если при объеме запаса h 0 мы подадим заказ, то к
моменту обнуления запаса (через Tд ед. времени) заказ будет доставлен.
Период поставки и интервал между подачей заказов равен
Q
τ=
(5)
v
Пример 1. Объем продажи некоторого магазина составляет в год 500
упаковок супа в пакетах. Величина спроса равномерно распределяется в
течение года. Цена покупки одного пакета равна 2 руб. За доставку заказа
владелец магазина должен заплатить 10 руб. Время доставки заказа от поставщика составляет 12 рабочих дней (при 6-дневной рабочей неделе). По
оценкам специалистов, издержки хранения составляют 20% среднегодовой
стоимости запасов. Необходимо определить: 1) сколько пакетов должен
заказывать владелец магазина для одной поставки; 2) частоту заказов; 3)
точку заказа. Известно, что магазин работает 300 дней в году.
Решение.
Плановым периодом является год, ν = 500 пакетов в год, K = 10 рублей, затраты на хранение одной единицы продукции в год составляют 20%
от стоимости запаса в одну упаковку, т.е. s = 0,2 ⋅ 2 = 0,4 рубля. Тогда
2 Kν
2 ⋅10 ⋅ 500
=
= 158,11 пакетов.
s
0,4
Поскольку число пакетов должно быть целым, то будем заказывать
по 158 пакетов. При таком заказе годовые затраты равны
ν
Q
500
158
L = K ⋅ + s ⋅ = 10 ⋅
+ 0,4 ⋅
= 63,25 рублей в год.
Q
2
158
2
Подачу каждого нового заказа владелец магазина должен осуществQ 158
лять через τ = =
= 0,316 года. Поскольку известно, что в данном
v 500
случае год равен 300 рабочих дней, то τ = 0,316 ⋅ 300 = 94,8 ≈ 95 рабочих
дней. Заказ следует подавать при уровне запаса равном
500
h 0 = νTд =
⋅12 = 20 пакетам, т.е. эти 20 пакетов будут проданы в тече300
ние 12 дней, пока будет доставляться заказ.
Q∗ =
370
70. Производственная функция Кобба - Дугласа
Определение 1. Производственная функция Кобба - Дугласа устанавливает зависимость величины созданного общественного продукта от
совокупных затрат живого труда x1 и суммарного объема применяемых
производственных фондов x2. Она имеет следующий вид:
y = α 0 ⋅ x1α1 ⋅ x2α 2 ,
(1)
где α0 - коэффициент, учитывающий влияние факторов, не вошедших в это
уравнение, их конкретные числовые значения определяются на основе статистических данных с помощью корреляционных методов; соблюдаются
условия α1, α2 ∈ (0, 1).
Хотя каждый из коэффициентов меньше 1, их сумма может быть
меньше, равна или больше 1. Эта сумма показывает эффект одновременного пропорционального увеличения объема как ресурсов труда, так и производственных фондов.
Обозначим α1 + α2 = А и увеличим количество затрачиваемых ресурсов в m раз. Тогда yн = α 0 ⋅ (m ⋅ x1 )α1 ⋅ (m ⋅ x2 )α 2 = m A ⋅ y , где y н - новое зна-
чение объема производства.
Если А = 1, то увеличение ресурсов в m раз приводит к увеличению
объема производства также в m раз. Экономически это отвечает предположению, что удвоение числа предприятий какой-либо отрасли приводит к
удвоению выпускаемой отраслью продукции.
Если А < 1, то увеличение ресурсов опережает увеличение выпуска,
т.е. имеем отрицательный эффект расширения производства.
Если А > 1, то увеличение выпуска опережает увеличение роста ресурсов. Можно говорить о положительном эффекте расширения производства.
Каждый из ресурсов можно характеризовать средней и предельной
величиной. Разделив обе части уравнения на x1, мы получаем среднюю
производительность труда:
y
(2)
= α 0 ⋅ x1α1 −1 ⋅ x2α 2
x1
Определение 2. Средняя производительность труда показывает,
сколько единиц выпускаемой продукции приходится на единицу затрачиваемого труда.
Поскольку α1∈(0, 1), то показатель степени (α1-1) < 1 α2 ∈ (0, 1) является отрицательной величиной, следовательно, с увеличением затрат
труда средняя производительность труда снижается. Однако в реальном
производстве дополнительно привлекаемая рабочая сила обеспечивается и
дополнительными средствами производства, т. е. производительность труда снижается с ростом трудовых затрат при прочих равных условиях.
371
Определение 3. Предельная производительность труда показывает,
сколько дополнительных единиц продукции приносит дополнительная
единица затраченного труда.
∆y
∂y
y
(3)
lim
=
= α 0 ⋅ α1 ⋅ x1α1 −1 ⋅ x2α 2 = α1 ⋅ .
∂x1
x1
∆x1 → 0 ∆x1
Вторая производная
∂2 y
∂x12
= α 0 ⋅ α1 ⋅ ( α1 − 1) ⋅ x1α1 − 2 ⋅ x2α 2 < 0
Вторая производная отрицательна, следовательно, предельная производительность с ростом x1 уменьшается.
Поскольку 0 < α1 < 1, можно сделать вывод, что для производственной функции Кобба - Дугласа предельная производительность труда всегда
ниже средней производительности.
Наряду с вычислением абсолютного прироста продукции на единицу
прироста затрат можно определить показатель, характеризующий относительный прирост объема производства на единицу относительного увеличения ресурсов труда. Легко можно получить, что эластичность по переменной x1 равна
∂y x1
(4)
Э=
⋅ = α1
∂x1 y
Полученный показатель называется эластичностью выпуска продукции по затратам труда.
Аналогичные показатели можно рассчитать по отношению ко второму
фактору функции (1) - производственным фондам. Объем продукции в расчете на единицу используемых производственных фондов называется фондоотдачей. Можно рассчитать среднюю и предельную фондоотдачу. Из формулы
y
(1) получаем
= α 0 ⋅ x1α1 ⋅ x2α 2 −1
x2
Показатель предельной фондоотдачи определяется как частная производная выпуска продукции по объему фондов:
∂y
y
= α 0 ⋅ α 2 ⋅ x1α1 ⋅ x2α 2 −1 = α 2 ⋅
∂x2
x2
Предельная фондоотдача в производственной функции (1) всегда
ниже средней.
Относительная предельная фондоотдача, или эластичность выпуска
продукции по объему производственных фондов, определяется выражением
∂y x2
(5)
Э=
⋅ = α2
∂x2 y
Как и по отношению к затратам труда, эластичность выпуска по
фондам есть величина постоянная.
372
Производственная функция позволяет рассчитать потребность в одном из ресурсов при заданных объеме производства и величине другого
ресурса. Из уравнения (1) следует, что потребность в ресурсах труда равна
1
 α1

y

x1 = 
(6)
α
α ⋅x 2 
 0 2 
Если заданы ресурсы труда и объем продукции, то потребность в
производственных фондах составляет
1
 α2

y 
x2 = 
(7)
 α ⋅ x α1 
 0 1 
До сих пор определялись показатели, каждый из которых относился
к одному из ресурсов. Производственная функция позволяет исследовать и
вопросы соотношения, замещения, взаимодействия ресурсов. В частности,
в экономике при изучении взаимодействия трудовых ресурсов и производственных фондов определяется важный показатель - фондовооруженность
труда. Для функции вида (1) фондовооруженность труда представляет собой,
очевидно, отношение переменных x2 и x1. Разделив выражение
1
 α2

y 
x2 = 
 α ⋅ x α1 
 0 1 
на х1, получим
1
1
α1
−
−
−1
x2
α2
α2
α2
(8)
ϕ=
= y ⋅ α 0 ⋅ x1
x1
Взаимодействующие в рамках производственной функции ресурсы могут в известном смысле замещать друг друга. Это означает, что единицу одного ресурса можно заменить некоторым количеством другого ресурса так,
что объем продукции при этом останется прежним. Скажем, при определенной структуре производства добавление 1 чел.-ч труда дает такой же прирост
продукции, как и увеличение на 2 р. производственных фондов. На основе
производственной функции можно рассчитать предельную норму замещения
ресурсов. Так, предельная норма замещения затрат труда производственными
фондами для функции вида (1) равна
∂x 2
α ⋅x
(9)
=− 1 2.
∂x1
α 2 ⋅ x1
Знак минус показывает, что с увеличением одного ресурса объем
второго ресурса уменьшается.
Левая часть выражения (9) по абсолютной величине равняется частному от деления предельной производительности труда на предельную
фондоотдачу. Это и понятно: если предельный продукт в расчете на еди373
ницу одного фактора, скажем, вдвое больше предельного продукта на единицу другого фактора, то и предельная норма замещения первого фактора
вторым равна 2. Знак минус в выражении означает, что при фиксированном объеме производства увеличение одного ресурса соответствует
уменьшению другого, и наоборот.
Как видим, предельная норма замещения ресурсов для функции (1)
зависит не только от параметров функции, но и от соотношения объемов
ресурсов. Чем выше фондовооруженность труда, тем выше и норма замещения затрат живого труда производственными фондами. Очевидно, что
если фондовооруженность труда возрастет, скажем, в 1,5 раза, то в 1,5 раза
увеличится и предельная норма замещения. Это обстоятельство находит
свое выражение в особом показателе, который называется эластичностью
замещения ресурсов и определяется в данном случае как отношение относительных приращений фондовооруженности труда и предельной нормы
∂x 2
замещения ресурсов. Обозначив
= h , получим выражение для эла∂x1
стичности замещения ресурсов
x 
d  2 
x
h
ω=  1 ⋅
= 1.
dh  x2 
 
 x1 
374
71. Модель общего равновесия Вальраса
Модель является попыткой представить все уравнения, описывающие общее равновесие в хозяйстве, чтобы сравнить число этих уравнений с
числом переменных, которые они включают. Если число уравнений будет
равно числу переменных, то общее равновесие возможно.
Представим себе хозяйство, обладающее следующими характеристиками. На любом рынке этого хозяйства существует совершенная конкуренция (большое количество покупателей и продавцов, полная информированность, отсутствие затрат на вход и выход с рынка, каждый потребитель и фирма действуют независимо от остальных). Предполагается также
отсутствие внешних эффектов и общественных благ.
В хозяйстве существует m видов потребительских благ, каждое из
которых производится в условиях совершенной конкуренции множеством
независимых фирм. Каждая фирма максимизирует свою прибыль.
В хозяйстве имеется n видов ресурсов, которые находятся в собственности потребителей и предоставляются последними фирмам по некоторым ценам. Каждый потребитель может владеть любым числом видов
ресурсов и не обязательно предлагает к продаже все количество имеющегося ресурса. Полученный доход потребители распределяют между разными потребительскими благами, максимизируя свои функции полезности.
Пусть для производства единицы каждого блага необходимо фиксированное количество каждого ресурса. Таким образом, существует матрица размером n на m, отдельный элемент которой, aij, показывает количество ресурса j, необходимое для производства блага i:
 a11 a12 ... a1m 


 a21 a22 ... a2 m 
A=
...
... ... ... 


a

a
...
a
n2
nm 
 n1
Таким образом, всего в хозяйстве существует n рынков ресурсов и m
рынков потребительских благ. На каждом рынке существуют две переменные - цена и количество. На рынке отдельного блага это Pi и Qi, а на рынке
отдельного ресурса - pj и qj. Всего у нас получается 2n + 2m неизвестных.
Определим теперь число уравнений, описывающих хозяйственную
систему. Существуют четыре группы уравнений, описывающих различные
типы функциональных зависимостей в хозяйстве: 1) уравнения для спроса
на потребительские блага, 2) уравнения для предложения ресурсов, 3)
уравнения для равновесия в отрасли, 4) уравнения для спроса на ресурсы.
Первые две группы описывают равновесие потребителей, вторые две задают равновесие производителей.
375
1. Уравнения потребительского спроса. Спрос отдельного потребителя на каждое благо определяется как функция цен всех потребительских
благ (P1 ... Pm) и цен всех ресурсов (p1 ... pn).
Так как спрос каждого потребителя зависит от этих переменных,
можно сказать, что рыночный спрос определяется как сумма индивидуальных спросов. Поэтому, чтобы записать функцию рыночного спроса на благо, мы должны записать следующее равенство:
Qi = f(P1 ... Pm; p1 ... pm),
(1)
где Qi - объем производства блага; f(P1 ... Pm; p1 ... pn) - суммарный спрос
всех потребителей на рынке блага i. Поскольку у нас m рынков благ, мы
имеем ровно m таких уравнений спроса.
2. Уравнения предложения ресурсов. Поскольку потребители должны
также выбрать объем предложения ресурсов, которыми они обладают, мы
должны записать их функции предложения. Индивидуальное предложение
ресурса также зависит от цен потребительских благ (P1 ... Pm) и цен всех
ресурсов (p1 ... pn) - именно два ряда этих значений позволяют оценить выгоды от продажи ресурсов. Поскольку индивидуальное предложение каждого потребителя определяется аналогично, можем представить функцию
рыночного предложения отдельного ресурса как функцию от всех цен в
хозяйстве и записать следующее равенство:
qi = φ(P1 ... Pm; p1 ... pn),
(2)
где qj - объем продаж на рынке ресурса j; (P1 ... Pm; p1 ... pn) - функция
предложения ресурса j всеми потребителями хозяйства. Поскольку в хозяйстве существует n рынков ресурсов, имеем ровно n таких функций
предложения.
Заметим, что один вектор цен (P1 ... Pm; p1 ... pn) задает объемы спроса и предложения сразу на всех рынках благ и ресурсов, так как выбор отдельного потребителя заключается в одновременном определении своего
спроса и предложения на всех рынках хозяйства при заданных ценах. С
подобной постановкой задачи мы уже сталкивались, когда рассматривали
одновременный выбор индивидом предложения своего труда и спроса на
блага.
Кроме того, в этом векторе цен важно именно соотношение цен различных благ и ресурсов, а не их абсолютная величина. Пропорциональное
изменение всех цен не вызовет изменения спроса и предложения на всех
рынках. Например, если и цены благ, и цены ресурсов повысятся ровно в 2
раза, ни у одного потребителя не будет стимула для изменения своего поведения.
3. Уравнения равновесия в отрасли. Согласно использованной выше
логике, теперь мы должны были бы записать функции предложения на
рынке каждого блага на основе функции предложения отдельной фирмы.
Но... мы не можем так поступить в силу предположения о фиксированных
коэффициентах. Ведь фиксированные коэффициенты означают отсутствие
376
экономии от масштаба и отсутствие убывающей предельной производительности. Функция предложения любого блага в этой ситуации должна
иметь бесконечную эластичность, а размер фирмы оказывается неопределен.
Но в этой ситуации мы можем проигнорировать функции предложения как таковые и записать другое условие равновесия отдельного производителя на отдельном рынке - равенство прибыли нулю. Поскольку на
всех рынках существует совершенная конкуренция, общее равновесие будет достигнуто в том случае, если прибыльность производства всех благ
будет одинакова и равна нулю. Или, что то же самое, средние затраты будут равны цене блага. Таким образом, имеем
Pi = p1ai1 + p2ai2 +...+ pnain,
(3)
т. е. цена блага i распадается на затраты по приобретению ресурсов для
производства единицы блага. Поскольку каждое благо должно производиться при аналогичных условиях, мы имеем m таких уравнений. Здесь
также существенно лишь соотношение цен: их пропорциональное изменение не нарушает равенства (3).
4. Уравнения спроса на ресурсы. При определении спроса на ресурсы
мы сталкиваемся с той же проблемой, что в предыдущем пункте. Поскольку производственные коэффициенты постоянны, функции спроса на ресурсы будут иметь бесконечную эластичность. Но, как и в предыдущем случае, мы можем схитрить и записать условие общего равновесия - спрос на
каждый ресурс будет предъявляться в таком количестве, которое необходимо для производства равновесного набора благ согласно существующим
производственным коэффициентам. Формально это тоже функция спроса
на ресурс, в которой в качестве аргументов записаны не цены благ и ресурсов, а уже выбранные количества производимых благ. Поэтому мы можем записать
qj = a1jQ1 + a2jQ2 +...+ amQm,
(4)
где Qi - объем производства блага i. Поскольку это равенство должно выполняться для всех ресурсов, мы имеем еще n таких уравнений.
Поскольку мы анализируем относительные цены и абстрагируемся
от их абсолютных значений, для измерения цен нам необходимо выбрать
одно благо, которое будет служить счетной единицей. Цена этого блага
принимается равной единице и поэтому не является неизвестной. Таким
образом, число неизвестных равно 2n + 2m - 1.
Теперь мы можем подвести итог. Всего в нашей системе имеется 2n
+ 2m уравнений и 2n + 2m - 1 неизвестных. Как видно, неизвестных меньше, чем уравнений, и это говорит о том, что одно из уравнений оказывается лишним. Если нам удастся исключить его из системы, доказав его зависимость от остальных, тогда общее равновесие оказывается возможным.
Исключить одно уравнение можно на основе следующего соображения. В условиях общего равновесия весь доход, полученный потребителя377
ми от продажи ресурсов, расходуется на рынках потребительских благ. Это
значит, что общая стоимость ресурсов должна быть равна общей стоимости благ. Поэтому в условиях общего равновесия, зная цены и количества
на всех рынках ресурсов и благ, кроме рынка блага, выбранного в качестве
счетной единицы, мы можем рассчитать объем спроса на этом рынке остаточным способом. Поэтому одно из уравнений спроса оказывается зависимым от всех остальных уравнений в системе, и его можно исключить.
Остается 2n + 2m - 1 независимых уравнений.
Таким образом, число уравнений оказывается равным числу неизвестных, и это означает возможность достижения общего равновесия в хозяйстве.
Необходимость равенства числа неизвестных числу уравнений для
достижения общего равновесия в хозяйстве не означает достаточность
этого условия. Во-первых, если функции нелинейны, то у системы уравнений возможно несколько решений. Это означает существование нескольких точек равновесия (кривые спроса и предложения на отдельных рынках
могут пересекаться более чем один раз). Во-вторых, в результате решения
этой системы уравнений мы можем получить отрицательные цены и количества для отдельных благ, которые не будут иметь экономического смысла, и общее равновесие при таких абсурдных ценах и количествах будет
невозможным.
Первое строгое доказательство существования общего равновесия
осуществил в 1930-х гг. немецкий математик и статистик А. Вальд. Впоследствии это доказательство усовершенствовали в 1950-х гг. К. Эрроу и
Ж. Дебре. В результате было показано, что существует единственное состояние общего равновесия с неотрицательными ценами и количествами,
если выполняются два условия: 1) существует постоянная или убывающая
отдача от масштаба; 2) для любого блага существует одно или несколько
других благ, находящееся с ним в отношении замещения.
Для доказательства достижения возможности общего равновесия
необходимо определить механизм достижения равновесных цен и объемов на каждом рынке. Сам Вальрас использовал для доказательства достижения равновесия теорию нащупывания, которая заключается в следующем.
Сначала необходимо ответить на вопрос, будет ли система двигаться
в сторону равновесных цен и объемов. Это доказывается "от противного":
если представить себе, что вначале реализуется некоторый произвольный
вектор цен, который не соответствует равновесному, это будет означать
излишек на одних рынках и дефицит на других. Это состояние приведет к
росту цен на тех рынках, где имеется дефицит, и снижению цен на тех
рынках, где наблюдается излишек. Изменение цен будет продолжаться до
тех пор, пока не будет "нащупан" равновесный вектор цен.
378
72. Формирование портфеля ценных бумаг
Инвестор может вложить определенную сумму денег в приобретение
пакетов акций нескольких (n) компаний. На основании анализа рынка и
характеристик ценных бумаг было установлено, что средние значения ставок дохода равны соответственно mi, i=1…n, а их стандартные отклонения
(которые, собственно, и являются риском ценной бумаги) - σi, i=1…n. Также необходимо знать зависимости характеристик ценных бумаг друг от
друга, которые выражаются через ковариационную матрицу (COV) или
матрицу коэффициентов парной корреляции (R=||rij||, i, j=1…n).
Тогда доходность (или эффективность) портфеля ценных бумаг
определяется как
n
m p = ∑ xi mi .
(1)
i =1
Риск портфеля (или стандартное отклонение ставок дохода по портфелю) рассчитывается следующим образом:
σ p = σ 2p = X T ⋅ COV ⋅ X =
=
n −1
n
∑ xi2 ⋅ σ i2 + 2 ⋅ ∑
i =1
i =1
n
∑ xi ⋅ x j ⋅ rij ⋅ σ i ⋅ σ j
.
(2)
j =i +1
T
Здесь и выше вектор X =(x1, x2, …, xn) – вектор долей инвестиций,
помещенных в каждый из видов актива (портфельные веса).
При расчете данного параметра учитывается факт, что доходы
обычно взаимно компенсируют друг друга. Эта компенсация проявляется в
наличии положительной либо отрицательной корреляции межи
доходами по двум конкретным видам активов.
Заметим, что с увеличением числа бумаг в портфеле возрастает
роль слагаемых, содержащих ковариации. Для двух бумаг число слагав*
мых с ковариациями и дисперсиями равно (по два слагаемых). Но в портфеле, содержащем много бумаг, число ковариаций намного больше
числа дисперсий. Таким образом, изменчивость диверсифицированного
портфеля почти полностью отражают ковариации.
При наличии совершенной отрицательной корреляции, когда при
уменьшении дохода по одной акции на один пункт происходит увеличение
на один пункт по другой, инвестор получает возможность уменьшить
стандартное отклонение дохода по этим двум активам вместе до нуля, т.е.
свести риск к минимуму. Это объясняет возможность применения операций с опционами и срочными контрактами (считающимися высоко рискованными операциями) в сочетании с активами, на которых они базируются, для реального уменьшения риска.
Наличие совершенной положительной корреляции наблюдается,
например, при приобретении двух видов обычных акций одной корпорации, выпущенных на одинаковых условиях. Стандартное отклонение ста379
вок дохода по портфелю в этом случае рассчитывается как средневзвешенная из стандартных отклонений доходов, входящих в состав портфеля актив
На практике обычно корреляция не является совершенной, и стандартное отклонение ставок дохода будет несколько другим. Масштаб этого
отклонения будет определяться характерами корреляционных зависимостей движения доходов по различным ценным бумагам.
Варьируя портфельные веса применяемых в составе портфеля активов, можно добиться оптимального, с точки зрения применяемого типа
портфеля.
Постановка задачи об оптимальном портфеле
В литературе описаны подходы к формированию оптимального
портфеля с помощью моделей Блека, Марковича, Тобина. Задача оптимизации заключается в том, чтобы определить, какая доля портфеля должна
быть отведена для каждой из инвестиций так, чтобы величина ожидаемого
дохода и уровень риска соответствовали целям инвесторов. Например, целевой функцией может быть минимизация риска при заданной доходности,
или максимизация дохода при риске не выше заданного. При этом на компоненты вектора X, представляющего портфель, могут накладываться различные ограничения, зависящие от вида сделки, типа участвующих активов, величины открываемых позиций и т.д. Портфели, удовлетворяющие
условиям данного рынка, называются допустимыми.
1. В модели Блека допустимыми являются любые портфели. Это значит, что вектор X удовлетворяет лишь основному ограничению:
n
∑ xi = 1
i =1
Наличие коротких позиций (отсутствие условия неотрицательности)
позволяет реализовать любую, сколь угодно большую доходность, естественно, за счет большого риска.
2. В модели Марковица допустимыми являются только стандартные
портфели (без коротких позиций). Это приводит к следующим ограничениям:
n
∑x
i =1
i
= 1, xi ≥ 0 ∀i .
Портфель называют стандартным, если инвестор по каждому активу
находится в длинной (long) позиции. Длинная позиция - это обычно покупка актива с намерением его последующей продажи (закрытие позиции).
Такая покупка обычно осуществляется при ожидании повышения цены актива в надежде получить доход от разности цен покупки и продажи. Допустим, что относительно некоторого актива инвестор уверен в обратном, т.е.
в понижении его стоимости. В этом случае он может совершить сделку,
которая
называется
короткой
продажей
(short
sale).
380
Для этого он берет данный актив взаймы у другого инвестора (кредитора),
сразу же продает его, а впоследствии покупает на рынке по сниженной
цене и возвращает своему кредитору. При этом он обязан выплатить кредитору текущий доход по активу за время сделки и некоторый процент за
предоставление самой возможности сделки (за кредит). На большинстве
фондовых бирж короткие продажи вполне допустимы и часто используются, но ввиду их особой рискованности биржи могут вводить ограничения
на общую величину коротких позиций в сделках.
Особенностью модели Марковича является то, что доходность любого стандартного портфеля не превышает наибольшей доходности активов,
из которых он построен.
3. В модели Тобина-Шарпа-Литнера предполагается наличие|
так называемых безрисковых активов, доходность которых не зависит of
состояния рынка и имеет постоянное значение.
Пример 1. Сформировать портфель минимального риска из двух видов ценных бумаг - APT с эффективностью 12% и риском 21.1 и ВЕРМ с
эффективностью 5.1% и риском 8.3 при условии, что обеспечивается доходность портфеля не менее 8.9%. Коэффициент корреляции равен 0.18.
Решение. Модель Марковича может быть сформулирована следующим образом.
Необходимо найти вектор Х=(х1,х2), минимизирующий риск портфеля σр.
x1 - доля в портфеле ценных бумаг APT;
x2 - доля в портфеле ценных бумаг ВЕРМ.
Имеем:
σ p = σ 2p = X T ⋅ COV ⋅ X = x12 ⋅ σ12 + 2 ⋅ x1 ⋅ x2 ⋅ r12 ⋅ σ1 ⋅ σ 2 + x22 ⋅ σ 22 =
= 449.44 x12 + 63.3456 x1x2 + 68.89 x22 → min
при ограничениях:
 x1 + x2 = 1

12 x1 + 5.1x2 ≥ 8.9
x , x ≥ 0
 1 2
Довольно легко можно получить решение задачи в EXCEL с помощью надстройки Поиск решения 1
Ответ. Минимальный риск портфеля, равный 12.88%, достигается
при Х1 = 0.55 и Х2 = 0.45.
1
Юдин С.В. Математика в экономике: учебное пособие. – М.: Изд-во РГТЭУ, 2009. – С. 170-176
381
Пример 2. Найти оптимальный портфель максимальной эффективности для трех ценных бумаг REXX, SNS и LIКХ с доходностью и риском,
представленными ниже:
mi (%)
σi
REXX
12
25
Матрица коэффициентов корреляции
REXX
REXX
1
SNS
0.52
LIKX
0.27
SNS
7
10
LIKX
11
20
SNS
0.52
1
0.75
LIKX
0.27
0.75
1
Верхняя граница риска задана равной 18.
Решение. Модель может быть сформулирована следующим образом.
Необходимо найти вектор XT = ( x1 , x2 , x3 ) максимизирующий доходность
портфеля тр,
х1- доля в портфеле ценных бумаг REXX,
х2 - доля в портфеле ценных бумаг SNS,
х3 - доля в портфеле ценных бумаг LIKX.
m p = 12 x1 + 7 x2 + 11x3 → max ,
при ограничениях
σ = X T ⋅ COV ⋅ X ≤ 18
 p

 x1 + x2 + x3 = 1
x , x , x ≥ 0
 1 2 3
Матрица ковариаций равна
 625 130 135 


COVij = rij σi σ j ⇒ COV =  130 100 225 
 135 225 400 


Для решения задачи следует воспользоваться надстройкой ЕХСЕL
Поиск решения2. В результате решения получена максимально возможная
доходность портфеля 11.29.
2
Юдин С.В. Математика в экономике: учебное пособие. – М.: Изд-во РГТЭУ, 2009. – С. 170-176
382
73. Модель Леонтьева межотраслевого баланса и
модель международной торговли
МОДЕЛЬ МЕЖОТРАСЛЕВОГО БАЛАНСА И МОДЕЛЬ
МЕЖДУНАРОДНОЙ ТОРГОВЛИ
Автором современной модели межотраслевого баланса (в англоязычных странах он имеет название «input-output analysis») является В.В.
Леонтьев (1906—1999). Он окончил факультет общественных наук СанктПетербургского университета «по финансовому циклу», в 1925— 1928 гг.
жил в Берлине, в 1931 г. эмигрировал в США. Книга Леонтьева «The Structure of American Economy» («Структура американской экономики») появилась в 1941 г.
В 1973 г. В.В. Леонтьев был удостоен премии памяти Альфреда Нобеля по экономике «за развитие метода «затраты — выпуск» и его применение к важным экономическим проблемам».
Предложенная Леонтьевым алгебраическая теория анализа «затраты
— выпуск» сводилась к системе линейных уравнений, в которых параметрами были коэффициенты затрат на производство продукции. Леонтьев
показал, что коэффициенты, выражающие отношения между секторами
экономики (коэффициенты текущих материальных затрат), могут быть
оценены статистически, что они достаточно устойчивы и их можно прогнозировать, обосновал существование наиболее важных коэффициентов,
изменения которых необходимо отслеживать в первую очередь. Относительная простота измерений определила большие аналитические и прогностические возможности метода «затраты — выпуск».
Рассмотрим наиболее простой вариант модели межотраслевого баланса (другое ее название — модель Леонтьева, или модель «затраты —
выпуск»).
Различают отчетный и плановый межотраслевые балансы. Такие балансы могут составляться для страны, региона и предприятия. Отчетный
межотраслевой баланс отражает структуру производства и потребления
продукции, произведенной в стране за отчетный год. Плановый межотраслевой баланс предназначен для планирования производства валового
внутреннего продукта. В СССР такой план разрабатывался Госпланом и
являлся директивным. В некоторых странах с рыночной экономикой,
например в Японии и Франции, такой план разрабатывается, но является
индикативным, т.е. не обязательным, а нацеливающим субъектов экономики на рациональные с точки зрения общества действия.
383
Эффективное функционирование экономики предполагает наличие
баланса между отдельными отраслями. Каждая отрасль при этом выступает двояко: с одной стороны, как производитель некоторой продукции, а с
другой — как потребитель продуктов, вырабатываемых другими отраслями.
Алгебраическая теория анализа «затраты — выпуск» сводится к системе линейных уравнений, в которых параметрами являются коэффициенты затрат на производство продукции.
Пусть весь производственный сектор народного хозяйства разбит на
п чистых отраслей. Чистая отрасль — это условное понятие — некоторая
часть народного хозяйства, более или менее цельная (например, энергетика, машиностроение, сельское хозяйство и т.п.). Введем следующие обозначения:
хi — количество продукции i-й отрасли, расходуемое в j-й отрасли;
Xi — объем производства i-й отрасли за данный промежуток времени, так называемый валовой выпуск продукции i;
Yj — объем потребления продукции j-й отрасли в непроизводственной сфере, объем конечного потребления;
Zj — условно чистая продукция j-й отрасли, включающая оплату
труда, чистый доход и амортизацию.
Единицы измерения всех указанных величин могут быть или натуральными (кубометры, тонны, штуки и т.п.), или стоимостными. В зависимости от этого различают натуральный и стоимостный межотраслевые
балансы. Мы будем рассматривать стоимостный баланс.
В табл. 1 отражена принципиальная схема межотраслевого баланса
(МОБ) в стоимостном выражении.
Во-первых, рассматривая схему баланса по столбцам, можно сделать
очевидный вывод, что итог материальных затрат любой потребляющей отрасли и ее условно чистой продукции равен валовой продукции этой отрасли. Данный вывод можно записать в виде соотношения
n
X j = ∑ xij + Z j , j = 1, n
(1)
i =1
Соотношение (1) охватывает систему из п уравнений, отражающих
стоимостный состав продукции всех отраслей материальной сферы.
Во-вторых, рассматривая схему МОБ по строкам для каждой производящей отрасли, можно видеть, что валовая продукция той или иной отрасли равна сумме материальных затрат потребляющих ее продукцию отраслей и конечной продукции данной отрасли:
n
X i = ∑ xij + Y j , i = 1, n
(2)
j =1
384
Формула (2) описывает систему из п уравнений, которые называются
уравнениями распределения продукции отраслей материального производства по направлениям использования.
Таблица 1.
Производящие
отрасли
1
2
…
п
Условно чистая
продукция
Потребляющие отрасли
1
2
п
x11
x12
…
x1n
x21
x22
…
x2n
...
…
…
…
xn1
xn2
…
xnn
Z1
Z2
…
Zn
Конечный
продукт
Y1
Y2
…
Yn
n
Валовой продукт
X1
X2
…
Xn
n
∑Y = ∑ Z
i =1
Валовой пропродукт
X1
X2
…
Xn
i
j =1
j
n
n
i =1
j =1
∑ Xi = ∑ X j
Балансовый характер таблицы выражается в том, что
n
n
i =1
j =1
∑ Yi = ∑ Z j и
n
∑X =∑X
i =1
n
i
j =1
j
.
Основу экономико-математической модели МОБ составляет матрица
коэффициентов прямых затрат А = (aij). Коэффициент прямых затрат aij
показывает, какое количество продукции i-й отрасли необходимо (если
учитывать только прямые затраты) для производства единицы продукции
j-й отрасли:
xij
(3)
aij =
, i, j = 1, n
Xj
Для дальнейшего рассмотрения модели Леонтьева сделаем два важных предположения.
Первое состоит в том, что сложившуюся технологию производства
считаем неизменной. Таким образом, матрица А = (aij) постоянна.
Второе состоит в постулировании свойства линейности существующих технологий, т.е. для выпуска j-й отраслью любого объема продукции
Xj необходимо затратить продукцию отрасли i в количестве аijХj, т.е. материальные издержки пропорциональны объему производимой продукции:
xij= аijХj
(4)
Подставляя (4) в балансовое соотношение (2), получаем
n
X i = ∑ aij X j + Yi
(5)
j =1
или в матричной форме
385
X = AX+Y
(6)
С помощью этой модели можно выполнять три вида плановых расчетов:
• Задав в модели величины валовой продукции каждой отрасли Xj,
можно определить объемы конечной про