close

Вход

Забыли?

вход по аккаунту

1227894

код для вставки
Analyse numérique des options américaines dans un
modèle de diffusion avec sauts
Xiaolan Zhang
To cite this version:
Xiaolan Zhang. Analyse numérique des options américaines dans un modèle de diffusion avec sauts.
Mathématiques [math]. Ecole des Ponts ParisTech, 1994. Français. �tel-00006407�
HAL Id: tel-00006407
https://pastel.archives-ouvertes.fr/tel-00006407
Submitted on 7 Jul 2004
HAL is a multi-disciplinary open access
archive for the deposit and dissemination of scientific research documents, whether they are published or not. The documents may come from
teaching and research institutions in France or
abroad, or from public or private research centers.
L’archive ouverte pluridisciplinaire HAL, est
destinée au dépôt et à la diffusion de documents
scientifiques de niveau recherche, publiés ou non,
émanant des établissements d’enseignement et de
recherche français ou étrangers, des laboratoires
publics ou privés.
Analyse Numerique des Options Americaines dans un Modele
de Di usion avec des Sauts
Xiaolan ZHANG
CERMA{Ecole Nationale des Ponts et Chaussees
email : [email protected]
23, Avril 1994
Table des Matieres
Resume
3
Summary
5
Introduction
7
1 Modele
11
1.1 Le Modele : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : :
1.2 Probabilite minimale : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : :
1.3 L'egalite V = u : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : :
t
11
13
21
2 Put perpetuel
29
3 Inequation Variationnelle
43
3.1 Le generateur in nitesimal d'une di usion : : : : : : : : : : :
3.2 Formulation variationnelle et proprietes des operateurs A et B
3.2.1 Proprietes des A et B : : : : : : : : : : : : : : : : : :
3.2.2 Formulation Variationnelle : : : : : : : : : : : : : : :
3.3 L'existence et L'unicite de la solution du probleme : : : : : :
3.3.1 Le probleme penalise : : : : : : : : : : : : : : : : : : :
3.3.2 Demonstration du Theoreme d'existence et l'unicite : :
3.3.3 Lemmes de monotonie et de continuite L1 : : : : : : :
3.4 Theoreme de regularite : : : : : : : : : : : : : : : : : : : : : :
3.5 L'egalite u = u : : : : : : : : : : : : : : : : : : : : : : : : : :
3.6 Smooth t : : : : : : : : : : : : : : : : : : : : : : : : : : : : :
4 Localisation, Discretisation et Convergence
::
:
::
::
::
::
::
::
::
::
::
4.1 Localisation du probleme : : : : : : : : : : : : : : : : : : : : : :
4.2 L'egalite u = u : : : : : : : : : : : : : : : : : : : : : : : : : :
4.2.1 L'existence, l'unicite et la regularite du probleme localise :
4.2.2 L'egalite u = u : : : : : : : : : : : : : : : : : : : : : : :
4.3 Discretisation du probleme : : : : : : : : : : : : : : : : : : : : :
l
l
l
l
1
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
44
46
46
49
50
50
55
58
59
65
76
83
83
86
86
89
95
Table des matieres
2
4.3.1 Approximation de a( ; ); et : : : : : :
4.3.2 Approximation de l'operateur B~ et de f :
4.3.3 Discretisation du temps : : : : : : : : : :
4.4 Convergence de la solution du probleme discretise
4.4.1 E tude des proprietes des Bh et Ah : : : :
4.4.2 Theoreme de convergence : : : : : : : : :
4.4.3 Monotonie de la solution discretisee : : : :
4.4.4 A aiblissement de l'hypothese sur : : :
K
l
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
100
101
102
107
107
113
132
137
5 Formules d'approximations quasi-explicites
149
6 Resultats Numeriques
161
5.1 Approximation de Mac-Millan : : : : : : : : : : : : : : : : : : : : : : : : : : 149
5.2 Une forme approchee du prix du put americain : : : : : : : : : : : : : : : : 157
6.1 Volatilite implicite : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : :
6.2 Resolution du probleme discretise : : : : : : : : : : : : : : : : : : : : : : : :
6.2.1 Probleme de Complementarite Lineaire : : : : : : : : : : : : : : : : :
6.2.2 L'algorithme de Cryer : : : : : : : : : : : : : : : : : : : : : : : : : :
6.2.3 L'algorithme de Brennan-Schwartz : : : : : : : : : : : : : : : : : : :
6.3 Mise en uvre des algorithmes de Brennan-Schwartz et Cryer pour le put
americain : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : :
6.4 Put europeen : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : :
6.5 L'algorithme du put perpetuel et de Mac-Millan : : : : : : : : : : : : : : :
6.5.1 Put perpetuel : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : :
6.5.2 L'algorithme de Mac-millan : : : : : : : : : : : : : : : : : : : : : : :
6.6 Comparaisons du modele de Black-Scholes et du modele avec sauts : : : : :
6.7 Prix en fonction du temps : : : : : : : : : : : : : : : : : : : : : : : : : : : :
Annex A
161
165
165
166
169
171
174
176
176
177
179
182
185
Resume
Le but principal de cette these est de traiter l'evaluation des options americaines dans un
modele de di usion avec des sauts et de developper les methodes numeriques permettant
de calculer des prix. Elle comprend d'abord une presentation de ce modele et des discussions des formules de prix. Puis une formule quasi-explicite d'evaluation du prix dans le cas
ou l'echeance est in nie (i.e : \put perpetuel") est etablite. Le chapitre 3 et le chapitre 4
presentent une methode de calcul du prix du put americain fondee sur les inequations variationnelles (I.V.). Nous montrons que le prix de l'option americaine concide avec la solution
d'une I.V. Nous nous interessons aux problemes de l'existence, de l'unicite et des proprietes
de regularite de la solution de l'I.V. Nous etudions ensuite l'approximation de la solution de
l'I.V. En localisant le probleme, nous nous ramenons a une I.V. de nie dans un intervalle
borne de R, qui est ensuite discretisee par la methode des di erences nies. Dans un cadre
general, R. Glowinsky, J. L. Lions et R. Tremolieres ont etudie les schemas de discretisation
des inequations variationnelles et montre des theoremes de convergence sous une hypothese
de coercivite assez forte. Cette hypothese n'est pas veri ee dans notre probleme et le principal
resultat de ce chapitre est un theoreme de convergence forte, qui semble nouveau, m^eme dans
le cas d'un modele sans sauts. Dans le chapitre 5, nous proposons des formules approchees
quasi-explicites s'inspirant de travaux sur le modele de Black-Scholes. Dans un premier temps,
nous generalisons la methode de Mac Millan, puis nous donnons une formule exprimant le prix
du put americain a l'aide du prix critique. En n, le dernier chapitre presente les courbes de
volatilite, les algorithmes de resolution du probleme discretise, l'implementation des methodes
d'approximation et des resultats numeriques.
3
4
Resume
Summary
The aim of this thesis is to deal with the problem of American options pricing in a jumpdi usion model and to develop some numerical methods which allow us to calculate the
price. Its rst part consists of a presentation of this model and some discussions about the
price formulas. Then a quasi-explicit formula for the prices of American options with in nite
maturity has been established. The third and fourth chapters present a method to calculate
the price of an American option with the help of the variational inequalities (V.I.). We
show that the price of an American option is the solution of a variational inequality. We are
interested in the problem of existence, uniqueness and some regularities of the variational
inequality's solution. Then we study the approximation of the solution of V.I. In a general
case, R. Glowinsky, J. L. Lions et R. Tremolieres have studied the approximation schemes for
variational inequalities and have proved the convergence theorem under a coercive hypothesis
which is rather strong. This hypothesis is not satis ed in our case and the principal result
in this chapter is a strong convergence theorem, which seems new even in the model without
jumps. In the fth chapter, we propose two quasi-explicit formulas for the price of American
options with nite maturity in this model. At rst, we generalize the Mac Millan method.
And then we give an approximated formula for the American put's value with the help of
the critical price. In the last chapter, we present some volatility curves, some algorithms of
resolution for the discretized problem, and implementation of the approximation methods.
We give also some numerical results.
5
6
Summary
Introduction
Avec le developpement des marches nanciers, l'etude des options n'a pas cesse de prendre
de l'importance.
Une option d'achat ou de vente (i.e call ou put ) est un titre nancier conditionnel qui
donne le droit, mais non l'obligation d'acheter ou de vendre un actif determine a un prix
convenu a l'avance -le prix d'exercice K - a ou avant (selon qu'il s'agit d'une option europeenne
ou americaine) une date d'echeance determinee T -appele la maturite ou l'echeance-.
Pour obtenir ce droit d'acheter ou de vendre l'actif sous-jacent a un prix xe a l'avance,
l'acheteur paie immediatement au vendeur la valeur de l'option, souvent appelee la prime.
La question de la determination de la prime est le probleme du pricing : a quel prix vendre
l'option a sa naissance (t = 0), ainsi qu'a l'importe quel moment dans sa vie (0 t T ).
Il faut donc pouvoir determiner la prime a tout instant. Pour ce faire, on a besoin d'une
modelisation mathematiques des marches nanciers.
La plupart des modeles d'evaluation d'option sont bases sur le modele de Black et Scholes.
Dans ce modele, le prix de l'actif risque est une fonction continue du temps t. Plus precisement, il est donne par la solution (S ) 0 d'une equation di erentielle stochastique de la
forme :
dS
= dt + dW ;
S
t t
t
t
t
ou et sont des constantes et (W ) 0 un mouvement Brownien standard. Une propriete
essentielle du modele de Black-Scholes (et peut-^etre la raison de son succes) est que les
formules de prix et de couverture qu'il fournit ne dependent que du seul parametre , appele
\volatilite" par les praticiens. En fait, on distingue, en pratique, deux types de \volatilite"
correspondant a deux methodes d'estimation de :
t t
la volatilite historique est obtenue a partir des donnees historiques concernant le cours
du sous-jacent, par des methodes statistiques.
la volatilite implicite est obtenue en inversant la formule de prix, c'est a dire qu'a un
prix d'option et a un niveau de cours donnes, on associe la valeur de qui, introduite
dans la formule de Black et Scholes, avec le cours observe du sous-jacent, donne comme
prix de l'option celui observe sur le marche.
7
8
Introduction
On observe que ces deux mesures de la volatilite donnent des resultats tres di erents et
que la volatilite implicite varie d'une option a l'autre : on peut, par exemple, tracer une
courbe de volatilite donnant la volatilite implicite en fonction du prix d'exercice et on constate
que cette courbe n'est pas une droite horizontale, ce qui est en contradiction avec le modele
de Black-Scholes.
Le modele que nous allons etudier permet, d'une part, d'introduire des processus a trajectoires discontinues pour modeliser l'evolution des cours, ce qui permet de rendre compte
de variations brutales dues a des evenements rares (publications de chi res economiques,
evenements politiques), et, d'autre part, de fournir des formules de prix dependant de plusieurs
parametres, dont l'ajustement permet de \coller" davantage aux donnees de marche. Il a ete
introduit par Merton [32] en 1976. Dans [32] Merton propose des formules de prix pour les
options europeennes dans un modele de di usion avec sauts. Le but principal de cette these
est de traiter l'evaluation des options americaines dans ce type de modele et de developper les
methodes numeriques permettant de calculer des prix. Notre travail comprend six chapitres.
Les resultats principaux de cette these sont mentiones dans [42].
Nous consacrons le premier chapitre a une presentation du ce modele et des formules de
prix. Contrairement au modele de Black-Scholes, le modele de di usion avec sauts de Merton
n'est pas un modele de marche complet. Autrement dit, il existe des actifs conditionnels non
simulables, pour lesquels il n'y a pas de couverture parfaite. Les techniques de pricing par
construction d'un portefeuille simulant l'option ne sont donc pas applicables. Les formules
de prix que nous adoptons correspondent a la construction de strategies minimisant le risque
quadratique (cf. [21], [7]) ou localement minimisantes au sens de Schweizer (cf. [39], [40]).
Pour ces dernieres strategies, on peut utiliser la notion de probabilite minimale introduite
par Follmer et Schweizer dans (cf. [20], [41]). Nous discutons de l'existence d'une probabilite
minimale pour le modele etudie et nous montrons que lorsque la probabilite minimale P^
existe, le modele reste, sous P^ , un modele de di usion avec sauts.
Le deuxieme chapitre consiste a etablir une formule quasi-explicite d'evaluation du prix
dans le cas ou l'echeance est in nie (i.e : \put perpetuel").
Le chapitre 3 et le chapitre 4 presentent une methode de calcul du prix du put americain
fondee sur les inequations variationnelles.
Dans le chapitre 3, nous montrons que le prix de l'option americaine concide avec
la solution d'une I.V. Les dicultes viennent des termes de sauts qui font appara^tre un
operateur integral dans l'inequation parabolique. Nous commencons par expliciter pourquoi
les operateurs qui vont appara^tre dans cette inequation interviennent de facon naturelle dans
notre modele. Nous nous interessons ensuite aux problemes de l'existence, de l'unicite et des
Introduction
9
proprietes de regularite de la solution de l'I.V. Les resultats obtenus etendent ceux de [24].
Dans le chapitre 4, nous etudions l'approximation de la solution de l'I.V. En localisant
le probleme, nous nous ramenons a une I.V. de nie dans un intervalle borne de R, qui est
ensuite discretisee par la methode des di erences nies. Dans un cadre general, R. Glowinsky,
J. L. Lions et R. Tremolieres ont etudie les schemas de discretisation des inequations variationnelles(cf. [22]) et montre des theoremes de convergence sous une hypothese de coercivite
assez forte. Cette hypothese n'est pas veri ee dans notre probleme et le principal resultat de
ce chapitre est un theoreme de convergence forte, qui semble nouveau, m^eme dans le cas d'un
modele sans sauts (la demonstration de [24] se referant simplement a [22]).
Dans le chapitre 5, nous proposons des formules approchees quasi-explicites s'inspirant de
travaux sur le modele de Black-Scholes. Dans un premier temps, nous generalisons la methode
de Mac Millan [30], puis nous donnons une formule exprimant le prix du put americain a l'aide
du prix critique (cf. [34] corollaire 3.1).
presente les courbes de volatilite, les algorithmes de resolution du probleme
discretise, l'implementation des methodes d'approximation et des resultats numeriques.
Le chapitre 6
10
Introduction
Chapitre 1
Modele
1.1 Le Modele
Dans le modele d'evaluation des options de Black et Scholes [5], le prix de l'actif risque est
une fonction continue du temps. En 1976, Merton a introduit un modele dans lequel des
discontinuites interviennent et il a propose des formules facilement calculables pour le prix
des options europeennes dans ce cadre (cf. [32], [28], [6]). L'objet de notre travail est de
developper des methodes numeriques permettant de calculer les formules analogues pour les
options americaines.
Nous considerons des options sur un actif dont le prix est un processus stochastique (St )t0
solution de l'equation :
8
>
< S0 =
dSt
>
: St? =
y
dt + dBt + d(
N
X
t
j =1
Uj )
(1.1)
ou y est le \prix spot" a l'instant 0, (Bt )t0 est un mouvement Brownien standard a valeurs
dans R, (Nt )t0 est un processus de Poisson d'intensite , (Uj )j 1 est une suite de variables
aleatoires independantes equidistribuees, a valeurs dans ] ? 1; +1[, de carre integrable, , deux constantes, avec > 0. Les Uj representent les valeurs relatives des sauts. Le parametre
represente la frequence des sauts.
Nous supposons les tribus engendrees respectivement par (Bt )t0 , (Nt )t0 , (Uj )j 1 independantes. On note Ft la tribu engendree par les variables aleatoires Bs , Ns , Uj 1fj Nsg pour
s t et j 1.
Nous supposerons de plus que le taux d'inter^et r est une constante strictement positive
et que l'on a la relation :
= r ? EU1
Cette egalite entra^ne que le prix actualise (e?rt St )t0 est une martingale de carre integrable
par rapport a la ltration (Ft ).
11
Chapitre 1. Modele
12
Contrairement au modele de Black-Scholes, ce modele n'est pas un modele de marche
complet et le prix des options ne peut pas ^etre determine par construction d'un portefeuille
de replication. Cependant, lorsque le prix actualise de l'actif risque est une martingale de
carre integrable, on peut de nir des strategies de couverture minimisant le risque quadratique (cf. [7], [21], [39]). Si on considere une option europeenne d'echeance T de nie par une
variable aleatoire positive h, FT -mesurable et de carre integrable, la valeur a l'instant t d'un
portefeuille de couverture minimisant le risque quadratique est donnee par :
Vte = E(e?r(T ?t) h j Ft )
C'est cette quantite que nous prendrons comme de nition du prix de l'option a la date t. De
plus, nous verrons dans la partie numerique que ce prix nous donne des courbe \smile" sur
la volatilite implicite dans le modele avec des sauts ou les variables aleatoires Uj + 1 suivent
une loi Log-normal. Ce phenomene rapporte deux avantages.
Premierement, il est coherent avec le point qu'on a deja indique dans l'introduction :
sur la marche reel, la courbe de volatilite sur une m^eme action n'est plus une droite
horizontale, elle varie avec le prix d'exercice.
Deuxiemement, ce phenomene nous permet d'expliquer la surestimation (resp. sous-
estimation) de la prime reelle (supposons le marche entre dans le cadre de ce modele
avec sauts) en terme de surestimation (resp. sous-estimation) de la volatilite Brownienne
(Voir le chapitre 6).
Notons que Merton [32] ne fait pas l'hypothese que = r ? EU1 , mais ses formules de
prix peuvent s'ecrire comme des esperances conditionnelles par rapport a une probabilite P
equivalente a la probabilite initiale P du modele, telle que, sous P , (St ) est solution d'une
equation du m^eme type que (1.1), mais avec = r ? EU1 . Du point de vue des calculs, on
est donc ramene a la situation dans laquelle nous nous placons.
Considerons maintenant une option americaine d'echeance T, permettant un pro t de
la forme h(St ) quand elle exercee a l'instant t. (Pour un put : h(y) = (K ? y)+ , pour un
call : h(y) = (y ? K )+ , ou K est le prix d'exercice). Par analogie avec le cas europeen, nous
prendrons pour valeur de l'option americaine a la date t, la quantite Vt , avec
Vt = supess E(e?r( ?t) h(S ) j Ft )
2 Tt;T
(1.2)
ou Tt;T est l'ensemble des temps d'arr^et de la ltration (Fs )s0 a valeurs dans [t; T ] et (Ss )s0
est le processus de ni par :
Ss = ye(?
2 )s+Bs
2
Y (1 + U )
Ns
j =1
j
Le prix d'option americaine Vt de ni par (1.2) est plus grand que le prix europeen Vte . Ceci
est naturel, parce que dans le cas americain, on doit payer en plus, par rapport a une option
1.2. Probabilite minimale
13
europeenne pour le droit d'exercer de maniere anticipee. Moralement, si l'on fait le choix
d'une maturite aleatoire dans [0; T ] (i.e. le temps d'arr^et), selon la raisonnement precedente,
le prix d'option a l'instant t doit ^etre :
E(e?r ?t h(S ) j Ft )
(
)
En revenant a la de nition d'une option americaine, il est assez naturelle de prendre le \sup"
de tous ces valeurs comme le prix d'option americaine. (cf. [2], [16], [25], [39]).
Comme il n'existe pas de formule explicite pour calculer le prix d'une option americaine,
on doit avoir recours a des methodes d'approximation numerique. Le but principal de cette
these est l'etude de ces methodes.
1.2 Probabilite minimale
Avant etudier les methodes pour chercher le prix Vt d'une option americaine, nous faisons une
remarque sur la notion de probabilite minimale (cf. [20], [39], [41], [40]) pour ce modele. Quand
la relation = r ? EU1 n'est pas veri ee, (e?rt St )t0 est seulement une semi-martingale.
Follmer et Schweizer (cf. [20], [39]) ont etudie les problemes de couverture dans les modeles de
marches incomplets de nis par des semi-martingales. En general, il n'y a pas de strategie de
couverture minimisant le risque quadratique. Mais il y a une notion de strategie \localement
de risque minimum" et de probabilite minimale introduites par Follmer et Schweizer (cf. [20],
[39], [40], [41]). Il est a noter que Colwell et Elliott ont introduit une \pricing mesure" [10]
qui concide avec la mesure minimale de Follmer et Schweizer [41].
Maintenant, nous considerons un espace probabilite ( ; F ; P) muni d'une ltration (Ft )0tT .
On suppose que le processus de prix t est une semi-martingale de la forme :
t = + Mt + At
0
ou Mt est une martingale de carree integrable, At est un processus a variation nie, absolR
ument continue par rapport a < M >t , i.e At = 0t s d < M >s ou est un processus
previsible d < M > integrable. Schweizer de nit (cf. [41]) une probabilite minimale P^ de la
facon suivante :
i). P^ est une probabilite equivalente a P.
ii). t est une martingale sous P^ .
iii). P = P^ sur F0 .
iv). Toute martingale de carre integrable et orthogonale a Mt sous P est encore une martingale sous P^ .
14
Chapitre 1. Modele
Il montre que P^ existe si et seulement si la solution de l'EDS :
Gt = 1 ?
Z
t
Gs? sdMs
0
est une martingale de carre integrable strictement positive. Dans ce cas, P^ est donne par :
dP^ = G
(1.3)
t
dP
Ft
D'autre part, si (Ht0 ; Ht ) denote une strategie veri ant la condition d'integrabilite :
E
Z
T
0
Z
Hu d < M >u +(
2
!
T
jHuj djAju ) < 1
2
0
(1.4)
Alors la valeur de cette portefeuille a l'instant t :1
(0 t T )
Vt = Ht0 + Htt
et son processus de co^ut est :
Ct = Vt ?
Z
t
0
Hudu
La de nition d'une strategie \localement de risque minimum" est donnee par Schweizer (cf.
[40]). Nous rappelons qu'une strategie est dite \optimale" si son processus de co^ut Ct est une
martingale de carre integrable et orthogonale a Mt sous P. Schweizer (cf. [41]) montre que
les trois conditions suivants sont equivalents.
Il existe une strategie \optimal" pour l'actif conditionnel h.
Il existe une strategie \localement de risque minimum" pour l'actif conditionnel h.
L'actif conditionnel h admet une decomposition :
h = h0 +
Z
T
0
Huhdu + LhT
avec h0 2 L2 ( ; F0 ; P), et Huh veri ant (1.4) et Lh est une martingale de carre integrable
et orthogonale a Mt sous P.
Sous une de ces trois conditions, la strategie optimal concide avec la strategie \localement
de risque minimum". Elle est donne par :
H = H h;
et
Vt = h0 +
1
Z
t
0
H0 = V ? H Huh du + Lht
(0 t T )
Pour simpli er les notations, nous supposons que l'actualisation est egal a 1 dans cette partie de rappel.
1.2. Probabilite minimale
15
De plus, il montre que la valeur a l'instant t de cette strategie peut s'ecrire comme l'esperance
conditionnelle sous la probabilite minimale donnee au-dessus, i.e :
Vt = E^ (h jFt )
Naturellement, deux problemes se posent dans notre cas :
Y a-t-il une probabilite minimale ?
Quelle est la loi du processus (St ) sous cette probabilite quand elle existe ? En particulier, sous cette probabilite minimale, est-ce que St est encore solution d'une E.D.S du
type :
X
dSt = ^dt + ^ dW + d( N^t U^ )
t
j
St?
j =1
ou Wt , N^t et U^j ont les m^emes proprietes que Bt , Nt et Uj , mais sous la probabilite P^ ?
On verra, d'abord, que l'existence d'une probabilite minimale entra^ne des conditions restrictives sur , r, et la loi des Uj .
Proposition 1.1 Si le support de Uj est ]?1; +1[, alors l'existence de la probabilite minimal
P^ equivaut a la condition suivante :
?1 0
avec :
(1.5)
= +2 +EUE1U?2 r :
1
Demonstration : Considerons le prix actualise S~t = e?rt St, on a, en utilisant la formule
d'Ito et (1.1),
dS~t = S~t? ( ? r + EU1)dt + S~t? dBt + S~t? d(
XN Uj ? tEU )
t
1
j =1
Il est clair que S~t admet la decomposition :
S~t = S0 + Mt + At
Z
t
A = S~
avec :
t
Mt =
Z t S~
0
0
s? ( ? r + EU1 )ds
s? dBs +
Z t S~ d(XN U ? sEU )
j
s
0
?
s
j =1
1
(1.6)
16
Chapitre 1. Modele
et :
S~s? ( ? r + EU1) = s
=
= d <dA
M >s (S~s? )2 (2 + EU12) S~s?
D'apres les resultats de Schweizer enonces avant, nous avons la probabilite minimale P^ donne
par (1.3) si et seulement si la solution de l'E.D.S.
s
Gt = 1 ?
Z
t
0
Gs? sdMs
est une martingale de carre integrable strictement positive.
Donc, il sut de montrer que la solution de l'E.D.S. ci-dessus est une martingale de carre
integrable strictement positive equivaut a la condition (1.5). Maintenant, notons :
M~ s = ?(Bs + (
on peut ecrire :
Gt = 1 +
X U ? sEU1))
Ns
j
j
=1
Z
t
0
Gs? dM~ s
Il est facile de voir que M~ s est une martingale sous P, et M~ 0? = 0: En utilisant \l'exponentielle
de Doleans-Dade" (cf. [15], [19] le theoreme 13.5, ou [36] le theoreme 36 page 77), on a :
Gt = exp(?Bt ? (
On peut ecrire :
ce qui entra^ne :
X U ? tEU1) ? 1 22t) Y (1 + M~ )e? ~
Nt
j
=1
2
j
0st
Y (1 + M~ )e? ~ = Y (1 ? U ) e
0st
s
Nt
Ms
Gt = exp(?Bt ? 21 22 t)
j
=1
j
Y (1 ? U )e
Nt
j
=1
s
j
Ms
Uj
E U1
t
(1.7)
D'autre part, puisque M~ s est une martingale, de dGt = Gs? dM~ s , on voit facilement que Gt
est une martingale. Par ailleurs, il n'est pas dicile de voir que Gt est strictement positive
equivaut a la condition suivante :
1 ? Uj > 0 p.s.
(1.8)
Pour conclure la demonstration de cette proposition, il nous reste a montrer que cette condition (1.8) est equivalente a la condition (1.5).
La raisonnement est le suivant :
Supposons ?1 0.
1.2. Probabilite minimale
17
- Quand = 0, il est clair qu'on a (1.8).
- Quand ?1 < 0, on a :
f1 ? Uj 0g = fUj 1 g et 1 ?1
Or rappelons que les Uj sont i.i.d et a valeurs dans ] ? 1; +1[, on deduit :
P(Uj ?1) = 0
Ce qui entra^ne :
1 ? Uj > 0
p:s:
D'autre part, supposons que < ?1 ou > 0, on voit que la condition (1.8) ne peut
jamais ^etre veri ee. Parce que,
- dans le premier cas, comme f < ?1g = f 1 > ?1g, et en tenant compte du fait
que le support de Uj est ] ? 1; 1[, on voit que P(Uj 1 ) > 0. Or f1 ? Uj 0g =
fUj 1 g, donc :
P(1 ? Uj 0) > 0
ce qui entra^ne qu'on n'a pas (1.8).
- dans le deuxieme cas, on a :
P(U > 1 ) > 0 8 1
ce qui implique aussi qu'on n'a pas (1.8).
Par ailleurs, rappelons que = ?2r++EEUU21 , il est a noter qu' une fois les parametres r, ,
1
, , EU1 , et EU12 sont xes, est une constante. Il est clair qu'on peut toujours bien choisir
les valeurs de ces parametres tel que la condition ?1 0 soit veri ee. Par exemple, on
peut prendre EU1 = 0, et choisir les restes tel qu'ils veri ent :
r ? 2 ? EU12
r
ceci nous permet de deduire ?1 0.
En conclusion, la condition (1.8) est une condition raisonnable, qui est veri ee si et seulement si ?1 0.
Maintenant, si l'on note = 2 + EU12 , est la variance du processus (S~t )t0 (voir la
chapitre 6). Avec cette notion, la condition (1.8) devient :
( ? r + EU1 )Uj < 2
18
Chapitre 1. Modele
Sous cette condition, on sait que Gt est une martingale positive. Ce qui nous donne l'existence
de la probabilite minimale sous cette condition restrictive (1.8).
Ensuite, pour voir la loi du processus (S~t ) sous P^ , nous posons : Wt = Bt + t, alors
(1.6) devient :
Nt
X
dS~t = S~t? (EU12 ? EU1 )dt + S~t? dWt + S~t? d( Uj )
j =1
La proposition suivante nous permet de repondre a la deuxieme question enonce au-dessus.
Proposition 1.2 Soit P~ une probabilite sous laquelle
1). Wt est un mouvement Brownien,
2). Nt est un processus de Poisson d'intensite ^ = (1 ? EU1 ),
3). les Uj sont i.i.d et dP~ U1 (x) = 1?x dPU1 (x),
?EU1
1
4). (Wt )t0 , (Nt )t0 , (Uj )j 1 sont independant,
alors, on a :
P^ jFT = P~ jFT
Demonstration :
Pour montrer que (Wt ) tT est un mouvement Brownien sous P^ , il sut de montrer
que : 8 2 R,
0
1 2 t)
2
est une martingale sous P^ . Par (1.3), cela revient a montrer que Lt Gt est une martingale
sous P.
Partons de la de nition de Gt , remarquons Wt = Bt + t, on a :
Lt def
= exp(i Wt +
Lt Gt
Nt
Y
= exp(i Wt + 12 2 t) exp(?Bt ? 12 2 2 t) (1 ? Uj )etEU1
j =1
Nt
Y
= exp((i ? )Bt ? 12 (i ? )2 t) (1 ? Uj )etEU1
j =1
Pour s t, on a :
Ns
Y
E( (1 ? Uj )esEU1 jFt )
j
1
0Ns?Nt
Nt
Y
Y
(1 ? Uj )e s?t EU1 (1 ? Uj )etEU1 jFt A
= [email protected]
=1
(
j =1
)
j =1
1.2. Probabilite minimale
=
=
Q
Nt
Y
j =1
Nt
Y
j =1
19
0Ns ?Nt
1
Y
(1 ? Uj )etEU1 E @
(1 ? Uj )e s?t EU1 A
(
)
j =1
(1 ? Uj )etEU1
t (1 ? U )etE U1 est une martingale sous P.
D'ou Nj =1
j
D'autre part, le fait que Bt est un mouvement Brownien sous P entra^ne que exp((i ?
)Bt ? 21 (i ? )2 t) est une martingale sous P. Donc, on deduit que Lt Gt est une
P-martingale. D'ou Wt est un mouvement Brownien sous P^ .
Pour veri er que (Nt )0tT est encore un processus de Poisson sous P^ , il sut de
montrer l'egalite suivante, pour s t, s1 s2 sk s, et u > 0,
E^ (uNt?Ns '(Ns1 ; Ns2 ; ; Nsk )) = exp[^(t ? s)(u ? 1)] E^ ('(Ns1 ; Ns2 ; ; Nsk )) (1.9)
ou ' est une fonction borelienne, positive.
Rappelons la de nition de la probabilite P^ (voir (1.3) et (1.7)), et remarquons les
hypotheses sur (Bt )t0 , (Nt )t0 et (Uj )j 1 , on deduit :
E^ (uNt ?Ns '(Ns1 ; Ns2 ; ; Nsk ))
0
1
Nt
Y
1
= E @uNt ?Ns '(Ns1 ; Ns2 ; ; Nsk ) exp(?Bt ? 2 t) (1 ? Uj )etEU1 A
j
0
1
Nt
Y
1
= E exp(?Bt ? t) E @uNt ?Ns '(Ns1 ; Ns2 ; ; Nsk ) (1 ? Uj )etEU1 A
2
2
=1
2
2
2
j =1
Or :
0
1
Nt
Y
E @uNt?Ns '(Ns1 ; Ns2 ; ; Nsk ) (1 ? Uj )etEU1 A
j
0
1
Nt
Y
= E @uNt ?Ns '(Ns1 ; Ns2 ; ; Nsk )etEU1 E[ (1 ? Uj ) jNt ]A
j
Nt?Ns
= E u
'(Ns1 ; Ns2 ; ; Nsk )etEU1 (1 ? EUj )Nt
= E uNt ?Ns (1 ? EUj )Nt ?Ns E '(Ns1 ; Ns2 ; ; Nsk )(1 ? EUj )Ns etEU1
= e t?s u ?EU1 ? e t?s EU1 E('(Ns1 ; Ns2 ; ; Nsk )(1 ? EUj )Ns )esEU1
= exp[(t ? s)(1 ? EU )(u ? 1)] E '(Ns1 ; Ns2 ; ; Nsk )(1 ? EUj )Ns esEU1
=1
=1
(
)[ (1
)
1]
(
)
1
en utilisant le fait que E(vNt ) = exp(t(v ? 1)). Comme ^ = (1 ? EU1 ) et en
remarquant (1.3), (1.7), on obtient (1.9).
20
Chapitre 1. Modele
Il est facile de voir l'independance entre (Wt )0tT et (Nt ; Uj 1fjNT g) sous P^ . Maintenant, pour achever la demonstration, il sut de montrer que : pour t1 t2 tl T , on a l'egalite :
^ ('(U1 ; U2 ; ; Uk ) 1fNT kg (Nt1 ; Nt2 ; ; Ntl ))
E
= E~ ('(U1 ; U2 ; ; Uk ) 1fNT kg (Nt1 ; Nt2 ; ; Ntl ))
(1.10)
Or, par (1.3), (1.7), et les hypotheses sur (Bt )t0 , (Nt )t0 et (Uj )j 1 , on a :
^ ('(U1 ; U2 ; ; Uk ) 1fNT kg (Nt1 ; Nt2 ; ; Ntl ))
E
= E(exp(?Bt ? 21 2 2 t)) 0
1
Nt
Y
E @'(U1 ; U2 ; ; Uk )1fNT kg (Nt1 ; Nt2 ; ; Ntl ) (1 ? Uj )eT EU1 A
j =1
0
1
k
Y
1
= E(exp(?Bt ? 2 2 2 t)) E @'(U1 ; U2 ; ; Uk ) (1 ? Uj )A j =1
0
1
NT
Y
E @1fNT kg (Nt1 ; Nt2 ; ; Ntl )
(1 ? Uj )eT EU1 A
j =k+1
Qk (1 ? U ) !
= E '(U1 ; U2 ; ; Uk ) (1j =1? EU )kj E(exp(?Bt ? 12 2 2 t)) 1
E 1fNT kg (Nt1 ; Nt2 ; ; Ntl )(1 ? EU1 )NT eT EU1
= E('(V1 ; V2 ; ; Vk )) E~ (1fNT kg (Nt1 ; Nt2 ; ; Ntl ))
ou Vj a pour loi :
dPVj (X ) =
1 ? Uj dP (X )
1 ? EU1 Uj
D'ou (1.10).
L'egalite (1.10) a prouve aussi que, sous P^ , (Nt ; t T ) et (Uj ; j independants.
Ce qui conclut la demonstration.
NT )
sont
En resume, dans notre cadre, sous la condition restrictive (1.8), il existe une probabilite
minimale P^ . De plus, sous cette probabilite minimale P^ , St est encore solution d'une E.D.S
du m^eme type que (1.1).
Comme on se trouve dans un cadre de marches incomplets, le prix d'option n'est pas
unique. Les formules de prix que nous adoptons correspondent a la construction de strategies
1.3. L'egalite Vt = u
21
minimisant le risque quadratique (cf. [21], [7]) ou localement minimisantes au sens de Schweizer
(cf. [39], [40]). C'est un prix possible, mais ce n'est pas le seul prix. Pour les autres prix possible, nous renvoyons aux travaux de N. El Karoui et M.C. Quenez ([17], [37]). Il est a noter
que les prix qu'on propose ici sont encadres par le prix maximal et le prix minimal de [17],
[37].
1.3 L'egalite Vt = u
Nous revenons a la section 1.1, et nous faisons le changement de variable en posant : Xt =
log St , alors (1.1) peut ^etre ecrit sous la forme suivante :
(
X0 = x
P t Z)
2
dXt = ( ? 2 )dt + dBt + d( N
j =1 j
avec Zj = ln(1 + Uj ) et x = ln y. De plus, on pose : (x) = h(ex ).
On note (Xst;x (!)) l'unique solution de l'equation di erentielle stochastique (1.11) :
(
Xtx = x
P s Z ) pour s t
2
dXs = ( ? 2 )ds + dBs + d( N
j =1 j
(1.11)
Elle peut ^etre explicite de la facon suivante :
Xst;x = x + ( ?
Ns
X
2
2 )(s ? t) + (Bs ? Bt ) +
j =Nt +1
Zj
On rappel que, generalement, si l'application (t; s; x) 7! Xst;x (!) est continue pour presque
tout !, on dit que (Xst;x ) est une version continue du ot de (1.11).
Supposons (x) est une fonction continue sur
M est une constante positive. Soit :
Proposition 1.3
MeM jxj ou
R
telle que :
j (x)j u (t; x) = sup E(e?( ?t)r (Xt;x ))
2Tt;T
et
V (t) = supess E(e?( ?t)r (X ) j Ft )
alors u est fonction continue sur
2 Tt;T
[0; T ] R, et :
V (t) = u (t; Xt )
p:s:
La diculte de cette demonstration vient du fait que les temps d'arr^et de Tt;T peuvent
dependre du passe. Donc, on introduit, d'abord, des notations suivantes :
Tt;T : L'ensemble des temps d'arr^et de la ltration (Ft;s)tsT ou Ft;s est la tribu engendree
par les accroissements Bu ? Bt , Nu ? Nt , t u s et Uj 1fNt <j Ns g ;
22
Chapitre 1. Modele
T^t;T : L'ensemble des elements de Tt;T qui peuvent ^etre ecrits sous la forme = Pn 1An n ou
(An ) est une suite d'evenements Ft ?mesurables deux a deux disjoints et n 2 Tt;T .
De plus, ils ont les proprietes suivants :
(i). Les tribus Ft et Ft;s sont independantes.
(ii). Pour s 2 [t; T ], on a Fs = Ft _ Ft;s .
(iii). On a de plus les inclusions : Tt;T T^t;T Tt;T .
Avant de montrer la proposition 1.3, on aura besoin du le lemme suivant :
Lemme 1.4 Pour tout appartenant a Tt;T , il existe une suite (n) d'element de T^t;T telle
que :
n ?! p:s quand n ! 1
Pour montrer ce lemme, il faut utiliser le resultat suivant qui peut ^etre trouve dans le livre
de Neveu [35] (Voir Ex I-5-1 ).
Remarque 1.5 Si A 2 F _ G , alors 8" > 0, il existe une partition A1 ; ; Ap de formee
d'elements de F et B1 ; ; Bp 2 G tels que :
P(A 4 (A1 B1 + A2B2 + + ApBp)) < "
Maintenant, on commence a montrer le lemme 1.4.
Demonstration : (Demonstration du lemme 1.4)
Il sut en fait de demontrer la convergence en probabilite, qui entra^ne la convergence
presque sure d'une sous-suite.
Pour un element quelconque appartient a Tt;T , on peut supposer que est de la forme :
=
N
X
1
j =1
Aj tj
(1.12)
avec t t1 < < tN T et Aj deux a deux disjoint et Aj 2 Ftj . En e et, on peut toujours
approcher par :
X
k+1
m = 1f 2km < k2+1
m g 2m
k
D'autre part, remarquant que les tribus Ft et Ft;tj sont independantes et Ftj = Ft _ Ft;tj ,
et utilisant la remarque 1.5, on sait que pour n quelconque, on peut trouver une partition
1.3. L'egalite Vt = u
23
forme d'elements A01 , A02 ; , A0p
Bpj t;tj tels que : 2
de
2 F
t et pour chaque j , des evenements
Bj , Bj ; ,
2 1
2 F
P(Aj 4 (A01 B1j [ A02 B2j [ [ A0p Bpj )) <
Maintenant, on introduit n de la facon suivante :
n =
1
(1.13)
n
Xp 1A #k
(1.14)
0
k
k=1
avec #k de ni par :
#k = t 1Bk1 + t 1 Bk1 c
1
2
(
)
Bk2 + + tN 1(Bk1 )c
\
BkN ?1 )c BkN + T 1(Bk1 )c (BkN )c
\(
(1.15)
E videmment, n appartient a ^t;T . Donc, il sut de montrer que n donne par (1.14) converge
vers en probabilite. A partir de (1.12) et (1.14), on a :
T
P(
XN P(Aj
j
XN P(Aj
= n ) =
6
n = tj )
\f
=
=1
j =1
\
6
g
( pk=1 (A0k
[
#k = tj ))
\f
6
(1.16)
g
Or la de nition de #k (1.15) entra^ne que :
#k = tj =
f
6
g
[
j
l<j Bkl [ (Bk )c
(1.17)
Normalement, selon la remarque 1.5, on sait que la partition A01 , A02 ; , A0p depend de j , alors, pourquoi
peut-on parler d'une partition independante de j ?
On prend ici un exemple pour expliquer concretement. Supposons j = 1, t1 = t t;t1 , on a une partition
A11 , A12 , A13 , A14 ; j = 2, t2 = t t;t2 , on a une partition A21 , A22 , A23 , A24 , A25 ; Alors, on reconstruit, de la
facon suivante, une nouvelle partition A01 , A02 , A03 , A04 , A05 , A06 , A07 , A08 qui ne depend pas de j .
2
F
F
F
A11
A21
A01
A12
A 22
A02
F _F
_ F
A 13
A14
A24
A23
A03
A04
A05
A06
A25
A07
A 08
Donc, si j est un nombre ni, par cette methode, on peut toujours choisir une partition A01 , A02 ; , A0p
independante de j . D'autre part, pour chaque j , d'apres la remarque 1.5, on a B1j , B2j ; , Bmj
t;tj ou
m p, mais m n'est pas forcement egale a p. On peut, cependant, couper Bij tel que m = p. Pour l'exemple
au-dessus, on sait que, pour j = 1, on a B11 , B21 , B31 , B41 , mais on peut diviser Bi1 (i = 1; 2; 3; 4) tel qu'on a
une nouvelle partition B~11 , B~21 , B~31 , B~41 , B~51 , B~61 , B~71 , B~81 . M^eme chose pour j = 2.
2 F
24
Chapitre 1. Modele
En e et :
#k = tj = #k = tj c = ( l<j (Bkl )c Bkj )c = l<j Bkl (Bkj )c
De plus, comme A , A ; , Ap sont deux a deux disjoints, de (1.16) et (1.17), et puis en
f
6
g
f
0
1
0
2 g
\
\
[
[
0
utilisant aussi les faits que :
Aj Acl
[
p
k =1
8
l < j.
(A0k (Bkj )c )
\
on a :
P( = n) =
6
p
k =1
((A0k )c (Bkj )c ) = (
[
X P(A
X X P(A
X X P(A
N
[
p
j \ f[k =1
j =1
N
\
j
j =1 l<j
N
j =1 l<j
(
[
p
k =1
[A0k (
\
p
k =1
(
p
c
l \ [k =1
Ak Bkj )c
0
[l<j
Bkl (Bkj )c)] )
[
X P(A
X
A B )) + P(A
Ak Bkl )) +
N
0
N
l
k
0
k
j =1
g
(
Ak (Bkj )c ))
(
Ak Bkj )c))
p
j \ [k =1
p
j \ [k =1
j =1
0
0
Maintenant, revenant a la de nition de \ 00 et utilisant (1.13), on obtient :
P( = n)
6
X X P(A
N
j =1 l<j
4
(
p
l 4 [k =1
Ak Bkl )) +
0
X P(A
N
j =1
(
p
j 4 [k =1
Ak Bkj ))
0
N (N + 1) 1
2
n
Ce qui entra^ne que n converge vers en probabilite quand n tend vers .
1
Demonstration : (Demonstration de la proposition 1.3)
A partir des de nitions de V (t) et u (t; x), on sait que :
V (t) = supess
E(e? ?t r (X )
2T
(
)
t;T
j Ft
)
u(t; x) = sup E(e? ?t r (Xt;x ))
2Tt;T
(
)
Puis en utilisant le lemme 1.4, et compte tenu des hypotheses sur , on peut ecrire que :
E(e? ?t r (X )
V (t) = supess
2 T^
(
)
t;T
j Ft
u (t; x) = sup E(e? ?t r (Xt;x ))
(
2T^t;T
)
)
1.3. L'egalite Vt = u
25
Soit un element 2 T^t;T qui peut ^etre ecrit de la facon suivante : =
A1 ; ; An Ft ?mesurables, deux a deux disjoints et n 2 Tt;T , on a :
E(e?( ?t)r
X E(1 e? ?t r (X ) j F )
X 1 EA (e? ?t r (X ) j F )t
(X ) j Ft ) =
=
( n
n
( n
An
n
)
)
n
n
t
sup
E(e?(n ?t)r (Xn ) j Ft )
n
D'autre part, en utilisant l'independance des n et de Ft ,
E(e?( ?t)r
X(E(1 e? ?t r (X t;x))
X P(AA) E(e? ?t r (X t;x))
n
X
?
?
t
r
t;x
sup
E(e
(X )) P(An )
n
(Xt;x )) =
=
Or :
)
n
( n
( n
( n
n
)
)
n
sup E(e?(n ?t)r (Xt;xn ))
n
n
n
Tt;T T^t;T Tt;T
On a, donc :
V (t) = supess
E(e?( ?t)r (X ) j Ft )
2 T
t;T
u (t; x) = sup E(e?( ?t)r (Xt;x ))
2Tt;T
Comme le processus (Xt ) est la solution de l'equation (1.11), on a, alors :
Xs = Xst;Xt pour s t
ce qui donne, pour tout temps d'arr^et 2 Tt;T ,
E(e?( ?t)r
(X ) j Ft ) = E(e?( ?t)r (Xt;Xt ) j Ft )
De plus, si 2 Tt;T , utilisant l'independance de et Ft , on a :
E(e?( ?t)r
avec
D'ou :
(Xt;Xt ) j Ft ) = F t;Xt ( )
F t;x( ) = E(e?( ?t)r (Xt;x ))
V (t) = supess
F t;Xt ( )
2 T
t;T
Pn 1A n avec
n
26
Chapitre 1. Modele
Or u (t; x) = sup 2Tt;T F t;x ( ), pour acheve la demonstration, il sut de montrer le supess
s'identi e au sup. Pour cela, on regarde :
jF t;x ( ) ? F t;y ( )j Eje?( ?t)r ( (Xt;x ) ? (Xt;y ))j
Ej (Xt;x ) ? (Xt;y )j
E( sup j (Xst;x ) ? (Xst;y )j)
t s<T
or :
Xst;x = x + ( ?
2
Xst;y = y + ( ?
2
2 )(s ? t) + (Bs ? Bt ) +
2 )(s ? t) + (Bs ? Bt ) +
X
X
Ns
j =Nt +1
Ns
j =Nt +1
Zj
Zj
et x 7! (x) est une fonction continue, on a, alors, que : pour t xe, la famille de fonction
x 7! F t;x ( ) est equicontinue. D'autre part, puisque j (x)j MeM jxj , on deduit :
t;x
sup E(e?( ?t)r (Xt;x )) M sup EeM jX j < 1
2Tt;T
2Tt;T
En utilisant le lemme 1.6 [23] suivant, et remarquant que :
u (t; x) = sup F t;Xt ( )
2Tt;T
on sait que x 7! u (t; x) est continue et qu'il existe une partie denombrable T0 de Tt;T telle
que :
u (t; x) = sup F t;Xt ( ) = supess
F t;Xt ( ) = V (t)
2 Tt;T
2T0
La continuite de u peut ^etre obtenue par la m^eme technique que dans le cas sans sauts (Voir
[24]).
Lemme 1.6 Soit ('j )j2J une famille equicontinue de fonction de Rn dans R, telle que
supj 2J 'j (x) < 1 pour tout x. Alors la fonction de nie par (x) = supj 2J 'j (x) est continue.
De plus, il existe une partie denombrable J0 de J telle que (x) = supj 2J0 '(x) pour tout x.
Avant de terminer ce chapitre, on enonce un corollaire de la proposition 1.3, qui se sert dans
le chapitre de Put perpetuel. Notons T0;1 l'ensemble de tous les temps d'arr^et de la ltration
de Ft de nie dans la section 1.1. Tt;1 l'ensemble des elements de T0;1 a valeurs superieures
a t (pour t 0).
Corollaire 1.7 Sous les m^eme hypotheses que la proposition 1.3, et de plus supposons est
une fonction bornee. Soit :
V 1 = supess E(e?( ?t)r 1f <1g (X ) j Ft )
2 Tt;1
1
U (x) = sup E(e? r 1f <1g (X0;x ))
2T0;1
1.3. L'egalite Vt = u
27
Alors,
V1
= U 1 (Xt )
Demonstration : Tout d'abord, il n'est pas dicile de voir que :
sup E(e?( ?t)r 1f <1g (Xt;x ))
2Tt;1
a une valeur independante de t. On peut donc ecrire :
U 1 (x)
= sup E(e?( ?t)r 1f <1g (Xt;x ))
2Tt;1
Gr^ace a la proposition 1.3, on sait que :
V (t)
= u (t; Xt )
avec :
= supess E(e?( ?t)r (X ) j Ft )
2 Tt;T
u (t; x) =
sup E(e?( ?t)r (Xt;x ))
V (t)
2Tt;T
pour quelconque t xe. Posons :
V~ (T; t)
= supess E(e?( ?t)r (X ) j Ft )
2 Tt;T
~U (T; t; Xt ) = u (t; Xt ) = sup E(e?( ?t)r (Xt;x ))jx=Xt
=
V (t)
2Tt;T
Il n'est pas dicile de voir que V~ (T; t), U~ (T; t; x) sont des fonctions croissantes de T respectivement et 8 T , on a :
V~ (T; t)
~ (T; t; Xt )
U
V 1;
U 1(Xt )
D'autre part, soit 2 Ft;1 , puisque est bornee, on a :
E(e?r ?t 1f
(
)
t;x
1g (X )) = 0
=
Ce qui entra^ne :
E(e?r ?t 1f <1g (Xt;x ))
= E(e?r ?t (Xt;x ))
= E(e?r ^T ?t (Xt;x^T )1f T g ) + E(e?r ?t (Xt;x )1f >T g )
= E(e?r ^T ?t (Xt;x^T )) + E(e?r ?t (Xt;x ) ? e?r ^T ?t (Xt;x^T ))1f >T g )
(
)
(
)
(
)
(
)
(
(
)
)
(
)
28
Chapitre 1. Modele
A partir des de nitions de U~ ( ; ; ) et U 1 ( ), et remarquons que est borne, on deduit, alors,
U 1 (Xt ) U~ (T; t; Xt ) + Ce?rT
D'ou :
8
T
lim U~ (T; t; Xt ) = U 1 (Xt )
T !1
De m^eme, on peut montrer que :
lim V~ (T; t) = V 1
T !1
Or :
donc, on a :
V~ (T; t) = U~ (T; t; Xt )
V 1 = U 1 (Xt )
En resume, apres les analyses qu'on a fait dans cette section, on sait que, pour calculer le
prix Vt d'une option americaine dans ce modele, il sut de determiner la fonction u de nie
dans la proposition 1.3.
Chapitre 2
Put perpetuel
Ce chapitre est une version detail de [43]. Le but de cette section est d'etablir une formule
quasi-explicite pour calculer le prix d'un put \perpetuel" dans ce modele. Cette formule
est une generalisation de celle de Merton ([31] page 173-174). Nous rappelons qu'un put
\perpetuel" signi e que nous pouvons exercer l'option a tout moment sans limite d'echeance.
C'est a dire que la date d'echeance T est egale a l'in ni.
Il n'est pas dicile de voir que l'expression suivante :
Y
N
2
(1 + Uj ))+ 1f<1g ]
sup E[e?r( ?t) (K ? ye(? 2 )( ?t)+(B ?Bt )
2Tt;1
j =Nt +1
a une valeur independante de t. Notons :
2
Y
N
V 1(y) = sup E[e?r (K ? ye(? 2 ) +B (1 + Uj ))+ 1f<1g ]
2T0;1
j =1
V 1 (St ) s'interprete naturellement comme le prix d'un put \perpetuel" a l'instant t, avec le
prix d'exercice K .
Le but de ce paragraphe est d'expliciter la fonction V 1 (y). On verra, (dans le lemme 2.5)
qu'il est commode de faire le changement de variable : x = ln y. Dans le cas du put, rappelons
que : (x) = (K ? ex )+ , et si l'on note :
X
N
2
u1 (x) = sup E[e?r (x + ( ? ) + B + Zj )1f<1g ]
2
2T0;1
j =1
(2.1)
avec Zj = ln(1 + Uj ), il est evident que : V 1 (y) = u1 (ln y) = u1(x). Maintenant, il sut
d'expliciter la fonction u1 (x). Pour cela, on introduit, d'abord, le systeme (2.2) ci-dessous,
29
30
Chapitre 2. Put perpetuel
(dans lequel x est inconnue) :
8
>
>
>
>
>
>
>
<
>
>
>
>
>
>
>
:
Au + Bu = 0 pour x > x
u(x) = K ? ex pour x x
u(x) est continue en x
du(x) est continue en x
dx
Au = 2Z dd ux + ( ? 2 ) du
dx ? ru
Bu = (u(x + z) ? u(x)) (dz)
x ln K
(2.2)
+ ( ? ) ? (r + ) + E(eZ1 ) = 0
2
2
(2.4)
2
2
2
2
ou est la loi de Z1 . On cherche une solution du systeme (2.2) ci-dessus, sous la forme :
(
? ex si x x
u(x) = Kex
si x > x
ou , , x sont des constantes a preciser. Supposons que EeZ1 < 1, on verra, dans la
proposition 2.1, que cette solution u a une forme quasi-explicite. De plus, elle est egale, en
fait, a la valeur de u1 (x). (Voir le theoreme 2.3).
Proposition 2.1 Une solution de (2.2) est donnee par les formules suivantes :
(
? ex si x x
u(x) = K
(2.3)
x
(x?x )
(K ? e )e
si x > x
avec
x = ln( 1??K )
et est l'unique solution negative de l'equation suivante :
2
2
2
Demonstration :
Tout abord, on doit montrer que l'equation (2.4) a une et une seule racine negative. En
e et, posons :
On voit que :
() = 2 + ( ? 2 ) ? (r + ) + E(eZ1 )
2
2
2
0() = + ( ? 2 ) + E(eZ1 Z )
00() = + E(eZ1 Z ) > 0
ce qui entra^ne que la fonction 7! () est une fonction convexe. Or (0) = ?r est
strictement negative, et lim!?1 () = +1, on peut donc dire que (2.4) a une et une
2
2
2
1
2
1
seule racine negative.
Maintenant, on commence a montrer notre formule.
2
31
Determination de .
Puisque l'on cherche une solution du (2.2) de la forme suivante :
u(x) =
(
K ? ex si x x
ex si x > x
En remplacant u(x) par ex dans la premiere equation de (2.2), on obtient :
ex + ( ? ) ex ? rex + Z (e x
2
2
2
2
D'ou :
2
( +z )
? ex ) (dz) = 0
pour x > x
+ ( ? ) ? (r + ) + EeZ1 = 0
2
2
2
2
2
Selon la premiere partie de cette demonstration, on sait deja que cette equation a une
et une seule racine negative. On la note .
Determination de et x .
D'autre part, puisque u(x) est continue en x , dudxx est continue en x , on a :
( )
ex = K ? ex
ex = ?ex
D'ou
x
= Ke?xe
x = ln( 1??K )
De plus, comme est negative, x ln K et 0. On obtient nalement les resultats
enonces dans la proposition.
Proposition 2.2
La fonction
u(x) donnee par (2.3) veri e :
8
>
< Au + B u 0
u >
: (Au + B u)(u ? ) = 0
Demonstration : On veri e, d'abord, que : Au + B u 0. A partir de la forme explicite de
u(x) (voir (2.3)), on sait que :
32
Chapitre 2. Put perpetuel
si x x, u(x) = K ? ex, en revenant aux de nitions des operateurs A et B , on a :
Au = ? ex ? ( ? )ex ? r(K ? ex)
2
2
2
2
= ?Z( ? r)ex ? rK
B u = (K ? ex+z ? K + ex )) (dz)
Z
= e (1 ? ez ) (dz )
= ?ex EU1
x
D'ou, en utilisant la relation ? r + EU1 = 0,
Au + B u = ?( ? r + EU )ex ? rK
= ?rK 0
1
Si x > x, u(x) = ex avec = Ke?xex , en revenant, de nouveau, aux de nitions des
operateurs A et B , on a :
Au = ( ex + ( ? )ex ? rex )
2
2
=
2
2
2
ex ( 2 + ( ? 2 ) ? r)
2
Z
2
2
B u = (e x z ? ex ) (dz)
= ex E(eZ ? 1)
( + )
D'ou, en remarquant (2.4),
Au + B u =
= 0
ex ( 2 + ( ? 2 ) ? r ? + EeZ1 )
2
2
2
ce qui implique Au + B u 0.
Maintenant, il nous reste a veri er u(x) (x). A partir de la de nition de u(x), on sait
que :
si x x, u(x) = K ? ex = (x) ;
?ex 0, on a aussi u(x) (x). En e et, pour
si x > x , u(x) = ex avec = Kex
x > ln K , (x) = 0, on deduit :
u(x) = ex 0 = (x)
Il, donc, reste a veri er le cas ou x < x < ln K . Si l'on note :
(x) = ex ? (K ? ex )
33
On voit que :
0 (x) =
00 (x) =
ex + ex
2 ex + ex 0
Ce qui implique que 0 (x) est une fonction croissante dans [x ; ln K ], et de plus, comme
la fonction dudx(x) est continue en x , on a :
ex = ?ex
D'ou : 0 (x ) = 0. Ce qui entra^ne que 0 (x) 0 pour [x ; ln K ]. On deduit donc que
(x) est une fonction croissante dans [x ; ln K ]. Or (x ) = ex ? (K ? ex ) = 0 a
cause de la continuite de u(x) en x . D'ou (x) 0, ce qui dit, pour x < x < ln K ,
on a aussi :
u(x) (x)
Theoreme 2.3
Soit u1 (x) la fonction de nie par (2.1), on a alors :
u1(x) = u(x)
ou
u(x) est donne par (2.3).
Ce theoreme peut ^etre montre par les methodes de [3], [4], [23]. Le point essentiel de la
demonstration de ce theoreme est de montrer :
Zt
?
rt
x
e u(Xt ) ? e?rs(Au + B u)(Xsx )ds
0
est une martingale. Pour cela, on aura besoin utiliser la formule d'Ito.
Il est clair que la fonction u donnee par (2.3) n'est pas de classe C 2 , mais on a :
du =
dx
et
d2 u =
dx2
(
(
?ex pour x x
(K ? ex )e(x?x ) pour x > x
?ex
pour x x
(x?x )
2
x
(K ? e )e
pour x > x
au sens des distributions. En plus, par calcul, il n'est pas dicile de veri er que u donnee
par (2.3) appartient a W 2;2; (R), pour 0, ou W 2;2; (R) = ff 2 L2 (R; e? jxj dx)j f (j ) 2
L2(R; e? jxjdx) j = 1; 2g (pour la de nition plus general de cet espace, voir la section 3.2.1).
On a donc :
(2.5)
ju(x)j Ce 2 jxj
34
Chapitre 2. Put perpetuel
par consequent de la remarque 3.21. En plus, la fonction u a les proprietes suivant :
0 u(x) K
j dudx(x) j ex
u(x) j C
j d dx
2
2
(2.6)
ou C = maxfex ; ?ex g. Pour veri er (2.6), il sut de remarquer les faits 0, negative
et les relations entre , et x (Voir les processus pour obtenir les valeurs de , dans la
demonstration de la proposition 2.1). Avant de commencer a montrer la theoreme 2.3, on
introduit, d'abord, deux lemmes suivants.
Lemme 2.4 Soit u(x) une fonction de classe C 2 bornee ainsi que ses derivees et Xt une
solution de
(
X0 = x
dXt = ( ? 22 )dt + dBt + d PNj=1 Zj
t
alors, le processus
Mt = e?rtu(Xtx ) ?
est une martingale.
Zt
0
e?rs(Au + Bu)(Xsx )ds
Demonstration : Ce lemme est un resultat classique. On donne ici seulement des grandes
lignes dans sa demonstration.
En utilisant la formule d'Ito et en remarquant les de nitions des operateurs A et B , on
peut ecrire :
Z t @u
Mt = u(x) + e?rs @x dBs + Lt
ou :
0
Zt
Z
N
X
?
e
?
rs
Lt = [e (u(X ) ? u(X ? ))] ? e
(dz)(u(x + z) ? u(x))
t
j
j
j =1
j
0
Par l'hypothese du lemme, il n'est pas dicile de voir que :
Zt
R
2
E( 0 2 e?2rs( @u
@x ) ds) < 1
ce qui entra^ne que : u(x) + 0t e?rs @u
@x dBs est une martingale. D'autre part,comme u(x) est
bornee, on deduit :
Zt
Z
E( ds (dz)(e?rs (u(x + z) ? u(x))2 ) < 1
0
En appliquant le lemme 2-2 Chapitre 7 dans [28], on voit que Lt est une martingale.
35
Le lemme suivant nous donne une estimation et qui se sert dans la demonstration du
theoreme 2.3 quand nous faisons passer a la limite. Mais avant de le montrer, rappelons,
d'abord, que Xs est le ot de l'equation di erentielle stochastique (1:11) :
8
>
< Xt = x0
Ns
X
2
>
: dXs = ( ? 2 )ds + dBs + d( Zj ) pour s t
j =1
Soient p(t; x0 ; s; x) la densite du ot Xs et g(t; x0 ; s; x) la densite de la variable aleatoire
2
x0 + ( ? 2 )(s ? t) + (Bs ? Bt ), alors, on a :
la fonction de la densite g(t; x ; s; x) est donne par :
!
2
(
x ? [x + ( ? )(s ? t)])
1
exp ?
g(t; x ; s; x) = p
2(s ? t)
2(s ? t)
0
0
0
2
2
2
(2.7)
D'apres l'independance entre (Bs)s ; (Ns)s et (Uj )j , on peut ecrire la densite du
0
ot Xs sous la forme :
0
Z
p(t; x0 ; s; x) =
1
g(t; x0 ; s; x ? y)t;s (dy)
= (t;s g(t; x0 ; s; ))(x)
ou t;s est la loi de la variable aleatoire
Ns
X
j =Nt +1
(2.8)
Zj
Lemme 2.5 Soit ' 2 Lloc(R), et soit pour R > 0, R le temps de sortie de l'intervalle ouvert
OR =] ? R; +R[ :
R = inf fs 0 j Xs 62 OR g
2
On a alors :
Z R
E[
0
e?rs j'(Xs )jds] C k'kL2 (OR )
ou C est une constante ne dependant ni de ' ni de R.
Demonstration : A partir de la de nition de R et la fonction p(0; x ; s; x), il est facile de
0
voir que :
E(
Z R
0
e?rs j'(Xs )jds)
E
=
Z1
e?rs j'(Xs )j1fjXs jRg ds
Z 10 Z
0
ds
OR
dx e?rs j'(x)j p(0; x0 ; s; x)
36
Chapitre 2. Put perpetuel
De plus, en utilisant l'inegalite de Holder et (2.8),
Z R
E ( e?rsj'(Xs )jds)
0
Z1
Z1 Z
?
rs
2
1=2
( e dsk'kL2 (OR) ) ( ds e?rs(p(0; x0 ; s; x))2 dx)1=2
0
0
OR
Z1
1
r? 2 k'kL2 (OR ) ( e?rsk0;s g(0; x0 ; s; )k2L2 ds)1=2
0
puisque 0;s est une mesure de probabilite, on deduit :
Z
k0;s g(0; x0 ; s; )kL2 = k g(0; x0 ; s; ? y)0;s(dy)kL2
Z
kg(0; x0 ; s; ? y)kL2 0;s(dy)
= kgkL2
En utilisant (2.7), on a :
!2
Z1
Z1
Z
2
2
[
y
?
(
y
1
0 + ( ? 2 )s)]
?
rs
2
?
rs
e kgkL2 ds =
ds e
dy p p exp(?
)
22 s
2 s
0
0
Z1
Z
z2
?
rs
=
ds e
dz ( p 1 p )2 e? 2s
2 s
Z01 ds
Z
2
ps e?rs dz ( p1 )2 e? z 2
=
2
0
C
D'ou :
E[
Z R
0
e?rsj'(Xs )jds] C k'kL2 OR
(
)
Maintenant, on va montrer le theoreme 2.3.
Demonstration : ( Demonstration du theoreme 2.3 )
On le fait en deux etapes :
1). Le point essentiel est de montrer l'egalite :
E(e?r u(X )) = Eu(X0 ) + E(
Z
0
(Au + B u)e?rs ds)
pour tout temps d'arr^et a valeur dans [0; 1[:
Il n'est pas dicile de voir que la fonction de nie par :
(
x
pour x x
u(x) = (KK??eex )e(x?x ) pour
x > x
(2.9)
37
est une fonction uniformement continue sur R. De plus, par (2.6), on sait que ujOR 2
W 2;2 (OR ), pour tout R > 0.
Maintenant,R soit (m ) une suite de fonction de classe C 1 sur R a support compact,
m 0 et m dx = 1 avec supp m ] ? m1 ; m1 [. On pose : um = u m , alors um
appartient a C 1(R), um converge uniformement vers u sur R. Aum converge vers Au
dans L2 (OR ) du fait que u 2 W 2;2 (OR ) et lemme 3.22, et en plus, on peut deduire que
Bum converge vers B u dans L2 (OR ). En e et, puisque :
Z
jBum ? B uj = j [um (x + z) ? u(x + z)] (dz) ? [um (x) ? u(x)]j
Z
( kum ? ukL1 (dz) + kum ? ukL1 )
2kum ? ukL1
D'ou
Z
jBum ? B uj dx
kBum ? B ukL2 OR =
OR
4 mes(OR )kum ? ukL1
2
(
2
)
2
2
En utilisant le fait que um converge vers u uniformement sur R, on obtient Bum converge vers B u dans L2 (OR ).
R
Par ailleurs, comme um = u m = u(x ? y)m (y)dy, d'ou :
Z
jum j jujL1 m(y)dy = jujL1 C
R
par consequent des faits que m dy = 1 et 0 u K , C est une constante independant
de m.
Maintenant, pour montrer (2.9), on remarque que um 2 C 1 (R), ce qui permet d'utiliser
le lemme 2.4, on a donc :
Mt = e?r(t^R ) um (Xt^R ) ?
Z
0
t^R ?rs
e (Au
m + Bum )(Xs )ds
est une martingale. D'ou, par le theoreme d'arr^et, pour tout temps d'arr^et a valeur
[0; 1[,
E(e?r ^R um (X ^R )) = E(um (X )) + E(
(
)
0
Z
0
^R ?rs
e (Aum + Bum)(Xs )ds)
(2.10)
En utilisant le lemme 2.5 et remarquant les faits que Aum converge vers Au dans L2 (OR )
et Bum converge vers B u dans L2 (OR ), on a :
E[ ^R e?rs(Aum + Bum )(Xs)ds ? ^R e?rs(Au + B u)(Xs )ds]
C kAum + Bum ? Au ? B ukL2 OR
! 0 m!1
R
R
0
0
(
)
38
Chapitre 2. Put perpetuel
De plus, puisque um converge uniformement vers u sur R, d'ou :
E(e?r( ^R ) um (X ^R ))
?!
E(um (X )) ?!
0
E(e?r( ^R ) u(X ^R ))
E(u(X0 ))
On obtient (2.10) pour u au lieu de um .
Pour obtenir (2.9), il faut faire tendre R vers l'in ni. Remarquons la proposition 2.2,
R
on sait que Au + B u 0, alors 0 ^R e?rs (Au + B u)(Xs )ds est decroissant en R. On
a, donc,
E
Z
0
^R ?rs
e (Au + B u)(X
s )ds ?! E
Z
0
?rs
e (Au + B u)(X
s )ds
en appliquant le theoreme de convergence monotone. D'autre part, on a aussi :
E(e?r( ^R ) u(X ^R )) ?! E(e?r u(X ))
a cause de (2.6) et le theoreme de Lebesgue. D'ou (2.9).
2). Selon la proposition 2.2, on sait que Au + B u 0. De plus, en tenant compte de l'egalite
(2.9), on deduit que e?rt u(Xt ) est une sur-martingale. D'autre part, en remarquant, de
nouveau, la proposition 2.2, on voit que u majore . D'ou :
u(Xt ) u1(Xt )
p:s pour t 2 [0; 1[
En e et, pour t quelconque xe dans [0; 1[, on a :
e?rt u(Xt ) E(e?r u(X )jFt )
E(e?r (X )jFt )
D'ou :
u(Xt ) supess
E(e?r ?t 1f<1g (X )jFt )
2T
(
)
1
= supess E(e?r( ?t) 1f<1g (Xt;x ))
2 Tt;1
= u1 (Xt )
t;
Par ailleurs, si on pose :
t = inf fs t j (Xs ) = u(Xs) g
= inf fs t j Xs x g
t = 1 si l'ensemble est vide
39
Alors, on a :
(Au + B u)(Xs ) = 0 p:s sur fs < t g
puisque
Ce qui donne :
D'ou, on conclut :
8 x > x (Au + B u)(x) = 0
Z
t
e?rs(Au + B u)ds = 0 p:s
E(e?rt u(Xt )) = E(e?rt 1ft <1gu(Xt ))
Par ailleurs, de (2.6) et les inegalites 0 u K , 0 (x) = (K ? ex )+ K , on a
alors :
0 E(e?r 1f =1g u(X )) K E(e?r 1f =1g ) = 0
avec la convention e?r1 = 0. D'ou :
t
t
t
t
t
E(e?rt 1ft =1g u(Xt )) = 0
De m^eme :
E(e?rt 1ft =1g (Xt )) = 0
Maintenant, en utilisant le fait que u(X ) = (X ) et le corollaire 1.7, on deduit :
t
E(e?rt u(Xt ))
=
=
=
=
D'ou :
Par consequent :
t
E(e?rt u(Xt ))
E(e?rt
(X ))
t
E(e?rt 1ft <1g (Xt ))
E(E(e?rt 1ft <1g (Xt )jFt ))
Ee?rt u1 (Xt )
u(Xt ) u1(Xt ) p:s
u(Xt ) = u1(Xt ) p:s
Ce qui donne, u et u1 etant continue :
u(x) = u1(x)
40
Chapitre 2. Put perpetuel
Le theoreme 2.3 donne une majoration du prix d'un put americain d'echeance nie.
Puisque le prix du put americain est donne par :
u(t; x)
2Tt;T
sup
E (e?r( ?t) (K ? xe(?
Y (1 + U )) )
Y (1 + U )) 1f
N
2
= sup E (e?r( ?t) (K ? xe(? 2 )( ?t)+(B ?Bt )
j =Nt +1
2 )( ?t)+(B ?Bt )
j
+
N
j + <1g )
1
j =Nt +1
On verra, dans le chapitre 6, les resultats numeriques sont concide avec cet inequalite.
D'autre part, il est clair que ce theoreme nous permet de calculer numeriquement le prix
d'un put \perpetuel". E videmment, le calcul essentiel est de resoudre l'equation (2.4), ce qui
peut se faire, par exemple, par la methode de Newton.
On note encore la fonction () egale au membre gauche de (2.4), on sait que (0) <
0, lim!?1 () > 0 et la derivee second 00 () est strictement positive, en plus, on a
lim!?1 0 () < 0, on peut donc choisir une valeur initial 0 telle que 0 (0 ) < 0 et prendre :
(n )
n+1 = n ? 0
(n )
En plus, on verra qu'on peut expliciter la valeur de dans certains cas speciaux :
2Tt;
2
On suppose que U a m^eme loi que eg ? 1 ou g est la loi exponentielle de parametre
1
C'est a dire de loi 1fx>0g 0 e?0 xdx. Comme Z1 = ln(1 + U1 ), d'ou Z1 a pour loi
1fx>0g 0 e?0 x dx. On calcule :
0 .
E(eZ1 )
=
0
Z
x>0
ex e?0 x dx
si < 0
= ? ?0
0
Alors l'equation (2.4) peut s'ecrire sous la forme suivante :
2
2 + ( ?
2
0
)
? (r + ) ?
=0
2
?
2
0
Par un petit arrangement, l'equation precedente peut s'ecrire sous la forme suivante :
2
Posant :
2
3 + ( ? (1 + 0 )
a3
a2
a1
a0
2
)
2 ? (r + + 0 ( ?
2
2 )) + r0 = 0
2
= 2 > 0
2
= ? (1 + 0 ) 2
2
= ?(r + + 0 ( ? 2 ))
= r0
2
(2.11)
41
En divisant par a3 dans l'equation (2.11) et en posant y = + 3aa2 , on obtient :
3
y 3 + py + q
=0
(2.12)
ou :
2
= ? 3aa22 + aa1 = ? 31a2 (a22 ? 3a1 a3 )
3
3
3
3
1
2a2 a2 a1 a0
3
2
q =
27a33 ? 3a23 + a3 = 27a33 (2a2 + 27a0 a3 ? 9a1 a2 a3 )
Les trois solutions de (2.12) sont alors donnees par :
p
s
y1
=
y2
=
y3
=
ou :
on obtient alors :
3
w
r
q
q
s
r
q
2
3
3
p
2
2 3
3
q
r
? 2 + ( 2 ) + ( 3 ) + w ? 2 ? ( 2q )2 + ( p3 )3
s
s
3
q
q
r
? 2 + ( 2 ) + ( 3 ) + ? 2 ? ( 2q )2 + ( p3 )3
s
s
p
r
r
? 2q + ( 2q )2 + ( p3 )3 + w 3 ? 2q ? ( 2q )2 + ( p3 )3
p
p
?
1
+
i 3
?
1
?
i 3
2
; w =
(i2 = ?1)
w=
w2
3
2
2
1
=
y1 ?
2
=
y2 ?
3
=
y3 ?
a2
3a3
a2
3a3
a2
3a3
Il n'est pas dicile de voir que 1 est la solution cherchee.
On suppose que U1 a m^eme loi que eg ? 1 ou g est la loi de 2 a n degre de liberte,
x
n
c'est a dire de loi 1fx>0g n=21 n x 2 ?1 e? 2 dx. On etudie deux cas speciaux : n = 2 et
2 ?( 2 )
n = 4. Quand n = 2, c'est un cas particulier du cas precedent.
Quand n = 4,
Z
1
1
1
1
Z1
si
<
xex? 2 x dx =
E(e ) =
1
2
4?(2) fx>0g
2
4?(2)( ? 2 )
alors, l'equation (2.4) peut s'ecrire sous la forme suivante :
2
1
2 2
+ ( ?
)
? (r + ) +
=0
2
2
4?(2)( ? 12 )2
42
Chapitre 2. Put perpetuel
i.e :
2
2
5
8
4 +( ? 2 ) 3 +( 2 ? ? r ? ) 2 +(
1
2
1
1
( ? )+ r + ) ? (r + ?
) = 0 (2.13)
4
2
4
?(2)
Posant :
a
=
b
=
c
d
e
2
2
? 2
5 2
??r?
8
2
1
= ( ? ) + r + 4
2
1
1
)
= ? (r + ?
4
?(2)
=
On peut ecrire (2.13) par :
a 4 + b 3 + c 2 + d + e = 0
C'est un equation d'ordre 4, on peut bien s^ur expliciter ses racines.
Chapitre 3
Inequation Variationnelle
Selon la proposition 1.3, le calcul du prix d'une option americaine V se ramene au calcul de la
fonction u (t; x). Le lien entre le probleme d'arr^et optimal et les inequations variationnelles a
ete degage par A. Bensoussan et J.-L. Lions (cf. [3], [4] ), et ces methodes ont ete appliquees
aux options americaines pour les modeles de di usion dans [24]. Dans ce chapitre, nous
utilisons la methode des inequations variationnelles pour chercher une valeur approchee de
u(t; x). Et on montrera u(t; x) est la solution unique de l'inequation parabolique suivante,
sous certains hypotheses de regularite a preciser.
t
8
>
>
>
<
>
>
>
:
@u + Au + Bu
0
@t
u
( @u
@t + Au + Bu)( ? u) = 0
u(T; ) =
9
>>
=
>> p.p. dans [0,T] R
;
(3.1)
On peut l'ecrire sous une forme plus simple suivant :
ou
8
< maxf @u + Au + Bu; ? ug = 0 dans [0,T] R
: u(T; :@t
)=
(3.2)
2 @u
2 2
? ru
Au = 2 @@xu2 + ( ? 2 ) @x
Z
Bu = (u(t; x + z) ? u(t; x)) (dz)
ou est la loi de variable aleatoire Z1 = ln(1 + U1 ).
Le travail qu'on va faire sera en deux parties en suivant les methodes de [3], [4], [24].
1. Montrer l'existence et l'unicite de la solution du probleme (3.1) (voir la section 3.3).
2. Montrer que la solution de (3.1) est egale a u (t; x) sous certaines hypotheses.
Les dicultes viennent des termes de sauts qui font appara^tre un operateur integral dans
l'inequation parabolique. Avant d'etudier le probleme (3.1), (3.2), nous expliquons pourquoi
les operateurs A et B interviennent de facon naturelle dans notre modele.
43
44
Chapitre 3. Inequation Variationnelle
3.1 Le generateur in nitesimal d'une di usion
Comme dans le chapitre 1, on note (Xt )t0 la solution de l'equation di erentielle stochastique (1.11). Maintenant, on calcule son generateur in nitesimal.
Proposition 3.1 Le generateur in nitesimal de (Xt )t0 est donnee par :
2 @2f
2 ) @f + Z (f (x + z) ? f (x)) (dz)
+
(
?
(A + B )f (x) = 2 @x
2
2 @x
pour toute fonction f bornee ainsi que ses derivees.
Demonstration : D'apres la de nition du generateur in nitesimal, on voit qu'il sut de
d E (f (X x)) . Comme X est une solution de (1.11), on a :
calculer dt
t
t
t=0
E (f (X
x
t ))
N
2
X
= E (f (x + ( ? 2 )t + Bt + Zj ))
t
j =1
alors, on peut ecrire :
E (f (Xtx) ? f (X0x)) = E (f (Xtx) ? f (x))
2
= E ((f (x + ( ? 2 )t + Bt ) ? f (x))1fN =0g )
t
+ (f (x + ( ? 2 )t + Bt + Z1 ) ? f (x))1fN =1g
2
t
+ (f (x + ( ? 2 )t + Bt +
2
def
= I1 + I2 + I3
Nt
X
j =1
Zj ) ? f (x))1fN 2g)
et
t
I1 + I2 + I3
d
x
!0
dt E (f (Xt )) t=0 = tlim
t
Puisque les processus (Bt )t0 , (Nt )t0 et (Uj )j 1 sont independants, et P(Nt = 0) = e?t ,
on a :
f
(x + ( ? 22 )t + Bt ) ? f (x)
I
1
?
t
= tlim
e E
lim
t!0 t
!0
t
f
(x + ( ? 22 )t + Bt ) ? f (x)
= tlim
E
!0
t
2
2
2
= 2 @@xf2 + ( ? 2 ) @f
@x
3.1. Le generateur in nitesimal d'une di usion
45
D'autre part , comme P(Nt = 1) = te?t et qu'il y a independance entre (Bt )t0 ; (Nt )t0
et (Uj )j 1 , on voit que :
I2 = te?t E f (x + ( ? )t + Bt + Z1 ) ? f (x)
2
!
2
Or f est bornee, par le theoreme de Lebesgue, on a :
lim I2 = tlim
e?t E (f (x + ( ? )t + Bt + Z1 ) ? f (x))
t!0 t
!0
2
= EZ (f (x + Z1 ) ? f (x))
= (f (x + z ) ? f (x)) (dz )
2
Par ailleurs, on sait que P(Nt 2) = o(t). En e et :
P(Nt 2)
=
1
X
j =2
P(Nt = j )
1
(t)
e?t
j!
j =2
1
j ?2
X
= t2 2 e?t (tj)!
j =2
=
X
j
= O(t2 )
On a, donc, en utilisant le fait que f est bornee :
jI3 j = jE (f (x + ( ? 2 )t + Bt +
2
2jf j1P(Nt 2)
Nt
X
j =1
Zj ) ? f (x))1fNt 2g )j
= o(t)
On obtient, nalement :
I1 + I 2 + I 3
d
E (f (Xtx ))
=
lim
t!0
dt
t
t=0
Z
2
2
@ f
2 @f
= 2 @x2 + ( ? 2 ) @x + (f (x + z ) ? f (x)) (dz )
46
Chapitre 3. Inequation Variationnelle
3.2 Formulation variationnelle et proprietes des operateurs
A et B
3.2.1
Proprietes des
A et B
Nous etudions l'inequation parabolique souvent a partir de sa formulation variationnelle. Or
pour l'ecrire, on introduit les espaces H , V , W m;p; (R) pour 0 avec :
W m;p;
H = L2 (R; e? jxjdx)
V = ff 2 H j @f
@x 2 H g
(R) = ff 2 Lp(R; e? jxjdx) j pour j m; f (j ) 2 Lp (R; e? jxj dx)g
Noter que H = W 0;2; (R) et V = W 1;2; (R). On note (; ) le produit scalaire de H et
k k ; j j les normes respectives de V et H . On enonce, d'abord, un resultat classique, qui
est un consequence du theoreme de Rellich.
Lemme 3.2 Si < , l'injection canonique de V dans H est compact.
Demonstration : Supposons que = + . Comme < , d'ou > 0. Il n'est pas dicile
de voir qu'une suite bornee dans V reste encore bornee dans V .
Maintenant, on prend une suite fn bornee dans V qui converge faiblement vers 0 dans
H . Alors, il sut de montrer que fn converge fortement vers 0 dans H .
Soit R > 0, on regarde :
kfnkH =
2
=
Z
(fn(x))2 e? jxjdx
Z R
?R
(fn (x))2 e? jxjdx +
Puisque = + , d'ou :
Z
jxj>R
(fn (x))2 e? jxj dx =
Z
Z
jxj>R
(fn (x))2 e? jxj dx
(fn(x))2 e? jxje? jxj dx
jxj>R Z
e? R (fn (x)) e? jxj dx
jxj>R
e? R kfnkV
Ce? R
2
D'autre part, pour R xe, fn j]?R;R[ reste bornee dans W 1;2 (] ? R; R[), en utilisant le theoreme
de Rellich, on deduit :
lim sup kfn k2H Ce? R 8 R
En faisant tendre R vers l'in ni, on obtient fn converge fortement vers 0.
3.2. Formulation variationnelle et proprietes des operateurs A et B
Posons :
47
Z
2 Z @u @v
? jxj dx + r uve? jxj dx
a (u; v) = 2 @x
e
@x
Z 2
2
? jxj
? ( 2 sgn(x) + ( ? 2 )) @u
@x ve dx
Z
b (u; v) = ? (Bu) ve? jxjdx
Alors, on peut ecrire, par une integration par parties, que :
(Au; v) = ?a (u; v)
(Bu; v) = ?b (u; v)
8 u, v 2 D(R)
8 u, v 2 D(R)
Il est clair que a (u; v) est une forme bilineaire continue sur V et que l'on a :
ja (u; v)j C kuk kvk
avec C ne dependant pas de u et v. Le lemme suivant nous permet de dire que B est un
operateur lineaire continu de H a H et qu'on a :
jb (u; v)j C juj jvj
Nous supposons l'hypothese suivante :
(H) : E e jZ j < 1 pour tout .
Lemme 3.3
Sous (H), alors, on a :
8 u2H ;
o
u
jBuj C juj
C est une constante independante de u.
Demonstration : A partir de la de nition de l'operateur B , on peut ecrire, en utilisant
l'inegalite de Cauchy-Schwartz et le fait (a ? b)2 2(a2 + b2 ), que :
jBuj =
2
Z
(Bu)2 e? jxj dx
Z
2 dx e?
2
Z
Z
jxj (u(x + z ) ? u(x))2 (dz ) dx e? jxj Z
Z
2(u2 (x + y) + u2 (x)) (dz )
12 (dz )
48
Chapitre 3. Inequation Variationnelle
D'apres le theoreme du Fubini et le fait que e? jxj e? jx+zj+ jzj, on deduit :
Z
Z
jBuj2 22 (dz) (u2 (x + z) + u2(x))e? jxj dx
Z
Z
22 (dz) ( u2 (x + z)e?
Z
jx+zj e jzjdx +
Z
u2 (x) e? jxjdx)
= 22 (dz ) (juj2 e jzj + juj2 )
= 22 juj2 (E e jZ1 j + 1)
Comme E e jZ1 j 1, d'ou :
jBuj C juj
Par ailleurs, il est facile de voir que :
B 2 L(H ; H )
On remarque que : si = 0; on a B 2 L(L2 ; L2 ) et jBujL2 C jujL2 :
Lemme 3.4 Si (H) est veri e, alors il existe deux reels strictement positifs et tel que :
8u 2 V
a (u; u) + b (u; u) + juj2 kuk2
Demonstration : D'apres les de nitions de a (u; u) et b (u; u), et le lemme 3.3 et r 0,
on a :
a (u; u) + b (u; u)
2
2
2
2 (kuk2 ? juj2 ) ? ( 2 + j ? 2 j) kuk juj ? C juj2
2
2
2
2
= kuk2 ? ( + j ? j) kuk juj ? ( + C )juj2
2
En posant :
2
2
2
2
et = 2 > 0, on a :
2
2
= 2 + j ? 2 j
a (u; u) + b (u; u) kuk2
? kuk juj ? ( + C )juj2
D'ou, pour tout > 0
a (u; u) + b (u; u) + juj2
kuk2 ? kuk juj + ( ? ? C )juj2
3.2. Formulation variationnelle et proprietes des operateurs A et B
49
et il sut de choisir = 2 et tel que la forme quadratique :
(x; y) ! 2 x2 ? xy + ( ? ? C )y2
soit positive. On voit facilement que ce existe. En e et, on utilise la relation classique ab <
2 1 2
2 a + 2 b . D'ou :
x2 ? xy + ( ? ? C )y2 ? x2 + ( ? ? C ? )y2
2
2
2
2
En prenant =
( car > 0); et assez grand tel que ? ? C ? soit positive , on
obtient :
2
x2 ? xy + ( ? ? C )y2 ( ? ? C ? 2 )y2 0
2
2
3.2.2 Formulation Variationnelle
Avec les notations precedentes, la formulation varationnelle du probleme (3.1) peut ^etre ecrit
sous la forme suivante :
8 u(T; ) =
p:p: dans R
>
>
<u
p:p: dans [0; T ] R
(3.3)
8
v
2
V
;
v
; on a :
>
>
@u
: ?( ; v ? u) + a (u; v ? u) + b (u; v ? u) 0 p:p: dans [0, T]
@t
La proposition 3.5, qui peut ^etre montre par la m^eme methode que la proposition 1.6 dans [23]
P76, dira la relation entre la solution de l'inequation parabolique et celui de sa formulation
variationnelle sous certains condition de regularite.
Proposition 3.5
Supposons 2 V . Soit u une fonction de [0,T] R dans R telle que :
2
u 2 L2([0; T ]; W 2;2; (R)) et @u
@t 2 L ([0; T ]; H )
Alors, u est solution de (3.3) si et seulement si u veri e (3.1) :
8 @u
9>
>
+
Au
+
Bu
0
>
>=
>
< [email protected]
p.p. dans [0,T] R
>
@u
>
>
> ( @t + Au + Bu)( ? u) = 0 ;
>
: u(T; ) =
Pour obtenir l'existence et l'unicite de la solution de l'inequation parabolique (3.1), on
aura besoin de resultats de regularite de u qu'on parlera dans la section 3.4.
50
Chapitre 3. Inequation Variationnelle
3.3 L'existence et L'unicite de la solution du probleme
Theoreme 3.6 Sous (H), et soit 2 V , alors il existe une et une seule fonction u veri ant :
u 2 L ([0; T ]; V ) et @u
@t 2 L ([0; T ]; H )
2
2
et le probleme (3.3).
De plus, la fonction u est dans L1([0; T ]; V ):
La demonstration de l'unicite de ce theoreme peut ^etre faite en suivant exactement le
m^eme raisonnement que [23] P77 . Et on utilisera le methode de penalisation pour prouver
son existence .
3.3.1 Le probleme penalise
Selon le methode de penalisation, on commence l'etude par le \ probleme penalise " : pour
" > 0, trouver u" tel que :
ou :
8
< u"(T ) =
: @u" + Au" + Bu" ? 1 (u") = 0
@t
"
() = ?( ? )+
Theoreme 3.7 Soit 2 V et soit " 0, de plus, si (H) est veri e, alors, le probleme :
8
< u"(T ) =
: ?( @u" ; v) + a (u"; v) + b (u"; v) + 1 ( (u" ); v) = 0 8v 2 V
@t
"
a une et une seule solution u" veri ant :
@u" 2 L ([0; T ]; H )
@t
u" 2 L ([0; T ]; V );
2
2
On a de plus les estimations suivantes :
ku"kL1 ;T V C
"
k @u
@t kL2 ;T H C
p1" k( ? u") kL1 ;T H C
ou C est une constante independante de ".
([0
];
([0
];
+
)
)
([0
];
)
(3.4)
(3.5)
(3.6)
3.3. L'existence et L'unicite de la solution du probleme
51
Le terme non lineaire () a la propriete de monotonie : ( (x) ? (y))(x ? y) 0 pour tous
reels x et y. Cela nous permet de prouver l'unicite dans le theoreme 3.7 en suivant exactement
le m^eme raisonnement que pour le theoreme 3.6. (Voir [23]). On obtiendra l'existence de la
solution de l'inequation variationnelle du theoreme 3.6 en utilisant, de nouveau, la monotonie
de () et puis en faisant tendre " vers 0.
Les estimations (3.4) - (3.6) nous permettent de passer a la limite dans la demonstration
du theoreme 3.6.
Demonstration : (Demonstration de l'existence dans le theoreme 3.7)
La preuve de l'existence de u" comporte les etapes suivantes :
Construction d'une suite de solutions approchees (um ).
Estimations a priori sur les um et dudtm .
Passage a la limite sur m.
(a). Probleme approche
On utilise une methode d'approximation interne, qui consiste a introduire une suite
croissante de sous espaces Vm de V telle que :
{ dim Vm < 1 pour tout m.
{ pour tout v 2 V , il existe une suite (vm ) telle que :
vm 2 Vm 8 m et
mlim
!1 kv ? vm k
=0
Le probleme approche est alors : trouver une fonction um (t), de [0; T ] dans Vm , telle
que :
8
< um (T ) = m
: ?( dum ; v) + a (um ; v) + b (um ; v) + 1 ( (um ); v) = 0 8v 2 Vm
dt
"
ou m 2 Vm veri e : m ! dans V .
Il est clair que ce probleme s'interprete comme une equation di erentielle ordinaire en
um dans Vm . Et on en deduit facilement l'existence et l'unicite de um , continue de
[0; T ] dans Vm ; presque partout di erentiable, a derivee bornee et veri ant l'equation
approchee.
(b). Estimations a priori sur les um et dudtm
52
Chapitre 3. Inequation Variationnelle
Prenant v = dudtm dans le probleme approche, on obtient :
?( dudtm ; dudtm ) + a (um ; dudtm ) + b (um; dudtm ) + 1" ( (um ); dudtm ) = 0
Notons :
dum
dt
2 Z @u @v ? jxj
a0 (u; v) =
dx + (u; v)
(3.7)
2 @x @x e
a1 (u; v) = a (u; v) ? a0 (u; v)
Z 2
2
ve? jxj dx (3.8)
= (r ? 1)(u; v) + ( 2 sgn(x) + ( ? 2 )) @u
@x
u0m =
D'ou :
2
a0 (u; u) kuk2
(3.9)
avec = minf 2 ; 1g.
De plus, en utilisant le lemme 3.3, on a :
ja1(u; v)j + jb (u; v)j C kuk jvj
(3.10)
Avec ces notations, on a :
or :
? ju0m (t)j2 + a0 (um ; u0m ) + 1" ( (um ); u0m ) = ?a1 (um ; u0m ) ? b (um; u0m )
(3.11)
2 Z @um @u0m ? jxj
d
a (u ; u ) = 2 e
dx + 2(u0m ; um )
dt 0 m m
2
@x @x
= 2 a0 (um ; u0m )
Par ailleurs, car ne depend pas de t, on a
d
( ? um )) = 12 dtd j( ? um )+ j2
( (um ); u0m ) = (( ? um )+ ; dt
L'egalite (3.11) peut donc s'ecrire :
ju0m (t)j2 ? 21 dtd a0(um ; um ) ? 21" dtd j( ? um )+j2 = a1(um ; u0m ) + b (um ; u0m ) (3.12)
D'ou, en integrant (3.12) entre t et T , et en remarquant que um (T ) = m ,
Z T
ju0m (s)j2 ds + 21 a0 (um (t); um (t)) + 21" j( ? um (t))+ j2
t
Z T
1
1
2
= 2 a0 ( m ; m ) + 2" j( ? m )+ j + (a1 (um (s); u0m (s)) + b (um (s); u0m (s)))ds
t
3.3. L'existence et L'unicite de la solution du probleme
53
D'apres (3.9) et (3.10), on a :
0 Z T
t
jum (s)j2 ds + 2 kum (t)k2 + 21" j( ? um (t))+ j2
0
C ( k m k2 + 21" j( ?
m )+ j2 +
Z T
t
kum (s)k jum (s)j ds
0
(3.13)
ou C et sont deux constantes strictement positives ne dependant ni de m, ni de ", ni
de t.
En utilisant la relation elementaire ab 2 a2 + 21 b2 , de l'inegalite (3.13), on deduit,
pour tout > 0,
Z T
t
D'ou :
jum(s)j2 ds + 2 kum (t)k2
0
C (k m k2 + 1 j(
2"
(1 ? 2C )
Z T
t
?
m )+ j2 +
Z T
2 t
Z T
1
2
kum (s)k ds +
jum (s)j2 ds)
2 t
jum (s)j2 ds + 2 kum (t)k2
0
0
C (k m k2 + 1 j(
2"
?
m )+ j2 +
Z T
2
2 t kum (s)k ds)
(3.14)
Choisissant assez grand pour avoir 1 ? 2C > 0, on deduit d'abord de (3.14),
ku (t)k2 C (k k2 + 1 j( ?
m
2 m
2"
2 m )+ j +
En utilisant le lemme de Gronwall, on obtient :
kum (t)k2 C1(k m k2 + 21" j( ?
Z T
2
2 t kum (s)k ds)
2)
m )+ j
(3.15)
ou C1 est une constante qui ne depend pas de m, ni de ", ni de t, mais depend de T .
Maintenant, on revient a l'inegalite (3.14) et compte tenu de (3.15), on obtient :
Z T
0
jum (s)j2 ds C2(k m k2 + 21" j( ?
0
2)
m )+ j
(3.16)
ou C1 est une autre constante ne dependant pas de m; ni de t.
(c). Passage a la limite sur m
Par l'estimation (3.16), on peut suppose, quitte a extraire une sous-suite, que :
um ! u" faiblement dans L2 ([0; T ]; H )
0
0
(3.17)
54
Chapitre 3. Inequation Variationnelle
R
or um (t) = m ? tT um (s)ds et m ! dans V , on en deduit que, pour chaque t,
0
um ! u"
R
faiblement dans H
ou u" = ? tT u" (s)ds.
Par ailleurs, d'apres (3.15), la suite um (t) est bornee dans V , ce qui entra^ne
0
um (t) ! u"(t) faiblement dans V
(3.18)
D'ou, en utilisant le lemme 3.2,
um (t) ! u" (t)
fortement dans H pour > .
on en deduit :
(um (t)) ! (u" (t))
fortement dans H pour > .
or d'apres (3.13), (3.15) et (3.16), on a :
1 j (u (t)j2 = 1 j ? ( ? u (t)) j2
m +
2" m
2"
C (k m k2 + 21" j( ? m )+ j2 )
ou C est une nouvelle constante ne dependant pas de m, ni de ".
D'ou :
(um (t)) ! (u" (t)) faiblement dans H quand m ! 1
(3.19)
(3.20)
Par ailleurs, gr^ace a (3.18) et au lemme 3.3, on obtient :
Bum ! Bu" faiblement dans H quand m ! 1
on peut donc facilement deduire que :
a (um ; v) ! a (u" ; v)
b (um ; v) ! b (u"; v)
(3.21)
(3.22)
En faisant tendre m vers l'in ni dans le probleme approche et en remarquant (3.17),
(3.20) et (3.21), (3.22), on voit nalement que u" est la solution du probleme penalise.
3.3. L'existence et L'unicite de la solution du probleme
55
Pour achever la demonstration du theoreme 3.7, en faisant tendre m vers l'in ni dans
(3.15), (3.16) et (3.19) et en remarquant que m ! dans V , on obtient :
ku"kL1
"
k @u
@t kL2
p1" k( ? u") kL1
+
;T ];V
)
;T ];H
)
C
C
;T ];H
)
C
([0
([0
([0
ou C est une constante independante de ".
3.3.2 Demonstration du Theoreme d'existence et l'unicite
On obtient la solution u de l'inequation variationnelle en faisant tendre " vers 0. Mais on verra
qu'on aura besoin la convergence forte, de u" dans H pour passer a la limite directement
dans l'equation suivant :
?( @u" ; v ? u ) + a (u ; v ? u ) + b (u ; v ? u ) + 1 ( (u ); v ? u ) = 0 8v 2 V
@t
"
"
"
"
"
"
"
"
or on ne l'a pas. En revanche, on pourra l'avoir pour en utilisant le lemme 3.2, si l'on
commence la demonstration pour au lieu de , ou > . Donc, la demonstration consiste
en deux etapes :
1. Montrer les resultats dans le theoreme 3.6 pour au lieu de .
2. Faire tendre vers pour avoir le theoreme 3.6.
Demonstration : D'apres le theoreme 3.7, u" est la solution du probleme penalise associe
a :
" ; v) + a (u ; v) + b (u ; v) + 1 ( (u ); v) = 0 8v 2 V
? ( @u
"
"
@t
" "
(3.23)
Pour > , posons = + , ou > 0. Pour tout w appartenant a V , il est facile de voir
que we?jxj appartient a V . En prenant v = we?jxj dans (3.23) et en remarquant que :
a (u" ; we?jxj )
b (u"; we?jxj )
"
?jxj
?( @u
@t ; we )
1 ( (u ); we?jxj )
" "
= a (u" ; w)
= b (u" ; w)
"
= ?( @u
@t ; w)
= 1" ( (u" ); w) ;
56
Chapitre 3. Inequation Variationnelle
on voit que u" est la solution du probleme penalise associe a , pour tout > . i.e :
8
< u"(T ) =
: ?( @u" ; w) + a (u"; w) + b (u"; w) + 1 ( (u" ); w) = 0 8w 2 V
@t
"
D'apres (3.5), on peut supposer, quitte a extraire une sous suite, que :
@u"
@t
Or u" (t) = ?
! u faiblement dans L ([0; T ]; H ) quand " ! 0
2
0
R T u (s) ds, on en deduit de (3.4) que, pour tout t,
0
"
t
u"(t) ! u(t) faiblement dans V quand " ! 0
ou u(t) = ?
R T u (s) ds. Le lemme 3.2 nous donne :
t
0
u" (t) ! u(t) fortement dans H pour >
Par ailleurs, il est facile de voir que :
ku"kL1 ;T V ku" kL1
"
"
k2
k @u
k2
k @u
@t L ;T H
@t L
([0
([0
Donc, on obtient :
];
];
)
)
u" ! u fortement dans
u" ! u
@u"
@t
;T ];V
)
;T ];H
)
([0
([0
C
C
(3.24)
(3.25)
L2 ([0; T ]; H )
(3.26)
? faiblement dans L ([0; T ]; V )
(3.27)
1
! @u
faiblement dans L ([0; T ]; H )
@t
(3.28)
Bu" ! Bu fortement dans L2 ([0; T ]; H )
(3.29)
2
De plus, d'apres le lemme 3.3, B est un operateur lineaire de H a H , cela entra^ne :
Maintenant, soit v 2 V , veri ant v , evidemment v 2 V , on a alors :
1
"
; v ? u" ) + a (u" ; v ? u" ) + b (u" ; v ? u" ) + ( (u" ); v ? u") = 0 8v 2 V
?( @u
@t
"
Or (v) = ?( ? v)+ = 0; donc, en tenant compte de la propriete monotonie de (),
?( @u" ; v ? u ) + a (u ; v ? u ) + b (u ; v ? u ) = 1 ( (v) ? (u ); v ? u )
@t
"
"
"
"
"
"
0
"
"
3.3. L'existence et L'unicite de la solution du probleme
D'ou, pour
Z
t0
t
t < t
(?(
0, en utilisant les notations de (3.7) et (3.8),
@u"
t0
u
)+ (
u" ; v
b
Z
( )) +
s ; u" s
u
u" ; v
a
0 ( "( )
a
t
? ") + (
;v
@s
Z
57
ds
t0
a
t
))
ds
1 ( "( )
( )) +
s ; u" s
u
Z
ds
t0
b
t
( "( )
u
( ))
s ; u" s
ds
En utilisant (3.26), (3.27), (3.28), et (3.29), on sait que :
Z
t0
t
(?(
@u"
@s
Z
?!
t0
t
? ") + (
;v
u
(?(
u" ; v
a
@u
@t
)+ (
u" ; v
b
))
ds
? ) + ( ) + ( ))
;v
u
a
u; v
b
u; v
ds
D'autre part, comme :
j
Z
t0
( )) ?
( ()
a1 u" s ; u" s
t
j
Z
t0
Z
ds
( ) ? ( )) j + j
( ()
a1 u" s ; u" s
t
a
j
t0
u s
u; v
De plus, par (3.27),
Z
u s
Z
t0
De m^eme, on a aussi :
Z
t0
b
t
Z
Z
ds
u s ;u s
C
t0
k "k j " ? j
u
t
u
u
ds
( "( )
u
u s ;u s
( )) !
ds
( )) !
s ; u" s
Z
t0
Z
a
( ( ) ( ))
b
( ( ) ( ))
1
t
ds
ds
t0
t
u s ;u s
u s ;u s
ds
ds
T
Par ailleurs, car !
de nit une norme equivalente sur
0 ( ( ) ( ))
0
a:
Z t
Z t
lim
inf
(
(
)
(
))
"
0 ( ( ) ( ))
0 "
"!0
u
a
u s ;u s
ds
0
t
D'ou, nalement,
Z
t0
t
(?(
@u
@s
;v
ds
( ( ) ? ( ) ( )) ! 0
a1 u " s
( ()
t0
( ( ) ? ( ) ( )) j
a1 u" s
t
), il est facile de voir que :
a1 u" s ; u" s
t
t0
! 0 a cause de (3.26) et (3.24)
t
On a, donc :
ds
Z
ds
( ) ? ( )) j ( ()
a1 u" s ; u" s
t
( ( ) ( )) j
a1 u s ; u s
t
revenant a la de nition (3.8) de 1 (
Z
t0
0
a
u
s ;u
s
? ) + (
u
a
u; v
ds
a
t
u s ;u s
? )+ (
u
b
u; v
ds
? )) 0
u
ds
L
2
([0 ];
;T
V
), on
58
Chapitre 3. Inequation Variationnelle
et, par consequent,
? ( @u
; v ? u) + a (u; v ? u) + b (u; v ? u)) 0
@s
(3.30)
Vu (3.26) a (3.28), on a de plus :
u 2 L1 ([0; T ]; V )
@u
2 L2 ([0; T ]; H )
@t
u(T ) =
D'apres (3.6), on a :
k ? (u")kL1
;T ]; H
([0
)
C p"
Ce qui implique que :
(u" ) ! 0 quand " ! 0 dans L1([0; T ]; H )
or :
D'ou :
i.e :
(u" ) ! (u) dans L2 ([0; T ]; H )
(u) = 0
u
En faisant tendre ! dans (3.30), on obtient le theoreme 3.6.
3.3.3 Lemmes de monotonie et de continuite L1
Les deux lemmes suivants permettent de contr^oller la dependance de la solution u de l'inequation
variationnelle par rapport a la fonction . Ils se demontrons comme le lemme 1.9 et le lemme
1.10 dans [23].
Lemme 3.8 Soient et ^ appartenant a V et veri ant : ^. Alors les solutions u et
et ^ ( voir (3.3)) veri ent :
u^ des inequations variationnelle associees respectivement a
u u^. En particulier, si 0, on a u 0.
Lemme 3.9 Soient 2 V ; ^ 2 V et ? ^ 2 L1(R), alors,
u ? u^ 2 L1 ([0; T ] R) et ku ? u^kL1 ;T R k ? ^kL1 R
([0
]
)
(
)
On en aura besoin pour montrer l'egalite u = u sous les hypotheses plus faiblement sur
, dans la section suivante.
3.4. Theoreme de regularite
59
3.4 Theoreme de regularite
Dans la section 3.3, on a deja montre que l'inequation variationnelle (3.3) a une et une seule
solution. On aura besoin de la condition de regularite : u appartient a L2 ([0; T ]; W 2;2; (R))
pour revenir a l'inequation parabolique (3.1) et etablir l'egalite u = u sous l'hypothese
appartient a W 2;2; (R).
Maintenant, on etudie les resultats de regularite.
Theoreme 3.10
Soit appartenant a W 2;2;
tionnelle (3.3) veri e :
(R), alors la solution u de l'inequation varia-
u 2 L2 ([0; T ]; W 2;2; (R))
Dans la demonstration du theoreme 3.10, on va utiliser le lemme suivant adapte de [3] (P87P89 ).
Lemme 3.11
Si u 2 V veri e :
a (u; v) + b (u; v) = (f; v)
ou :
8v 2 V
Z
2 Z @u @v ? jxj
dx + r uve? jxj dx
a (u; v) =
2 Z @x @x e
2
2
? ( 2 sgn(x) + ( ? 2 )) @u
ve? jxj dx
@x
Z
b (u; v) = ? (Bu)ve? jxj dx
et :
f 2 L2 (R; e? jxjdx)
alors :
u 2 W 2;2; (R) et
kukW 2;2; C (kuk + jf j )
ou C est une constante independant de u et de f .
Demonstration : On ecrit l'hypothese du lemme : u 2 V et veri e :
Z
Z
2 @u @v ? jxj
e
dx + ruve? jxj dx
Z
Z2 @x2 @x
2
ve? jxj dx ? (Bu)ve? jxj dx
? Z ( 2 sgn(x) + ( ? 2 )) @u
@x
?
j
x
j
= fve dx
8v 2 V
(3.31)
60
Chapitre 3. Inequation Variationnelle
Pour montrer le lemme, on utilise la methode des quotients di erentiels. Soit ' une
fonction sur R. Posons :
h ' = '(x + h)
Notons que :
(h '; )L2 (R) = ('; ?h )L2 (R)
On peut choisir h positif et assez petit ( par exemple : 0 < h < 1 ), pour tout ' 2 V , a partir
de la de nition de h', et puis en faisant une changement de variable, on a :
Z
Z x+h
1
h ' ? ' 2
@'
?
j
x
j
j h j = h2 dx e (
(y)dy)2
@x
x
Z
Z h
(x + y)dy)2
= h12 dx e? jxj ( @'
0 @x
Z
Z h
Z h
(
x + y))2 dy 12 dy
h12 dx e? jxj ( @'
@x
0
0
en utilisant l'inegalite de Cauchy-Schwartz. D'ou, d'apres le fait que e? jxj e? jx+yj e jyj
et par le theoreme de Fubini,
j h'h? ' j2
On obtient :
Z h
Z
1
j
y
j
h dy e ( @'
(x + y))2 e? jx+yj dx
@x
0
h k'k2
e
C k'k
2
j h'h? ' j C k'k
2
De m^eme
2
j ?h'h ? ' j C k'k
2
2
8' 2 V
(3.32)
8' 2 V
(3.33)
Maintenant, revenant a (3.31), pour tout w appartenant a V , remarquant que (?hw)e? jx?hj+ jxj
appartient a V , et
(u; (?h w)e? jx?hj+ jxj) = (h u; w)
Prenant v = (?h w)e? jx?hj+ jxj dans (3.31) et notant que :
@v @ (?h w) ? jx?hj+ jxj
=
e
+ ( w)e? jx?hj+ jxj(? x ? h + x )
@x
@x
?h
jx ? hj jxj
on obtient, donc, en utilisant (h '; )L2 (R) = ('; ?h )L2 (R) ,
Z
Z 2
@
2 @
x
x + h ? jxj
(h u) @w
e? jxj +
(
h u)w(? +
)
e
)
dx + r(h u)we? jxj dx
( 2 @x
@x
2 @x
jxj jxZ+ hj
Z 2
2 @
x+h
? ( 2 jx + hj + ( ? 2 )) @x (hu)we? jxj dx ? (Bhu)we? jxjdx
=
Z
f (?h w)e? jx?hj+ jxje? jxj dx
3.4. Theoreme de regularite
D'ou :
61
Z
Z
2 @
@w ? jxj
(h u) @x e dx + r(h u)we? jxj dx
2
@x
Z
Z 2
2 @
?
j
x
j
? Z ( 2 sgn(x) + ( ? 2 )) @x (hu)we dx ? (Bhu)we? jxj dx
= f (?hw)e? jx?hj+ jxj e? jxjdx
Par soustraction avec (3.31) applique a w au lieu de v, on obtient ( apres division par h ) :
Z
2 @ hu ? u @w ? jxj
u ? u ? jxj
e
dx + r h
we
dx
2Z @x2 h @x
h
2 @ hu ? u
we? jxj dx
= ( 2 sgn(x) + ( ? 2 )) @x
h
Z
Z
? jx?hj+ jxj ? w
+ B huh? u we? jxj dx + f (?h w)e h
e? jxjdx
Z
En remarquant que :
et
C1 < e?
h
(3.34)
< e? jx?hj+ jxj < e h < C2
e? jx?hj+ jxj ? 1 e h ? 1
<
< C4
h
h
h
ou C1 , C2 , C3 , C4 sont des constantes independant de h, pour h appartenant a [0; 1], et en
utilisant le fait que f appartient a L2 (R; e? jxj dx) et (3.33), on voit facilement que :
Z
? jx?hj+ jxj ? w
e? jxjdxj
j f (?hw)e h
Z
? jx?hj+ jxj ? 1
)e? jxj dxj
= j f ( (?h wh) ? w e? jx?hj+ jxj + w e
h
C jf j (j (?h wh) ? w j + jwj )
C kwk jf j
De plus, en prenant w = h uh? u dans (3.34), et en utilisant l'inegalite de Schwartz,
(3.32) et le fait que u appartient a V , on a :
C3 <
e?
h?1
<
Z
2 @ h u ? u
2
@ h u ? u
we? jxj dxj C j
j j huh? u j
j ( 2 sgn(x) + ( ? 2 )) @x
h
@x h
@ h u ? u
j
C kuk j @x
h
C k huh? u k kuk
De m^eme, en utilisant le lemme 3.3, on a :
Z
j B huh? u we? jxj dxj C jB huh? u j j huh? u j
C j huh? u j j huh? u j
C k huh? u k kuk
62
Chapitre 3. Inequation Variationnelle
Donc, il est clair que le membre de droite de l'egalite (3.34) est plus petit que C k huh? u k .
D'autre part, la gauche de l'egalite (3.34) peut s'ecrire que :
Z
@ hu ? u @w e? jxjdx + r Z hu ? u we? jxjdx
2 @x
h @x
h
Z
Z
@
u
?
u
h
? jxjdx + r ( hu ? u ) e? jxj dx
(
)
e
=
2 @x h
h
u
?
u
h
C 0k h k
2
2
2
2
2
Finalement, on obtient :
k huh? u k C (kuk + jf j )
Ce qui permet d'extraire une sous suite hi telle que hi uh ? u converge faiblement dans V ,
i
@u
hi u ? u
mais h
converge vers @x , Donc, on a :
i
@u 2 V et k @u k C (kuk + jf j )
@x
@x
D'ou :
kukW 2;2; C (kuk + jf j )
ou C est une constante independante de u et f , ce qui donne le resultat annonce.
Demonstration : (Demonstration du theoreme 3.10)
Il sut de montrer l'estimation :
Z T
0
(a (u; v) + b (u; v))ds C kvkL2 ([0;T ];H
)
(3.35)
Parce que (3.35), en fait, signi e que :
(A + B )u(s; x) 2 L2 ([0; T ]; H )
Par le theoreme de representation de Riesz, on sait qu'il existe une fonction F (s), appartient
a L2 ([0; T ]; H ) telle que :
a (u(s); v(s)) + b (u(s); v(s)) = (F (s); v(s))
ds p:p
pour tout element v de L2 ([0; T ]; V ). Cela entra^ne le resultat annonce en appliquant le
lemme 3.11.
Maintenant, on commence a montrer (3.35). En partant du probleme penalise :
?( @u" ; v) + a (u ; v) + b (u ; v) + 1 ( (u ); v) = 0 8v 2 V
@t
"
"
"
"
3.4. Theoreme de regularite
63
en prenant v = (u" ) = ?( ? u" )+ et en remarquant que ne depend pas de t, on obtient :
?( @[email protected] (?( ? u")); (u" )) + a ((?( ? u")); (u" )) + b ((?( ? u")); (u" ))
+ 1" j (u" )j + a ( ; (u" )) + b ( ; (u" )) = 0
2
D'ou :
? 12 dtd j( ? u") j + a ( (u"); (u" )) + b ( (u" ); (u" )) + 1" j (u")j
= ?a ( ; (u" )) ? b ( ; (u" ))
+
2
2
et, en integrant de 0 a T , car (u" )(T ) = 0, on obtient :
1 j (u )(0)j2 + Z T (a ( (u ); (u )) + b ( (u ); (u )))ds + 1 Z T j (u )j2 ds
"
"
"
"
"
2 Z "T
" 0
0
= ? (a ( ; (u" )) + b ( ; (u" )))ds
0
Par le lemme 3.4 et en prenant " < 1 , on a :
1 j (u )(0)j2 ? Z T j (u )j2 ds + 1 Z T j (u )j2 ds ? Z T (a ( ; (u )) + b ( ; (u )))ds
"
"
"
"
2 "
" 0
0
0
D'ou :
Z T
0 (1 ? ") j (u" )j2 ds
0
Z T
1
2
"[? 2 j (u" )(0)j ? (a ( ; (u" )) + b ( ; (u" )))ds]
0
Z T
"[? (a ( ; (u" )) + b ( ; (u" )))ds]
0
Remarquons les proprietes de a (; ) et b (; ) indiques au debut de la section 3.2.1, et
utilisons l'inegalite de Schwartz et le fait que appartient a W 2;2; (R), on obtient :
Z T
0
j (u")j
2
ds
Z T
1 ?"C" k kW 2;2; j (u" )j ds
Z T
1
"
1 ? " T 2 k kW 2;2; ( j (u")j ds) =
0
2
1 2
0
Prenant " assez petit, on a :
k 1" (u")kL2
;T ];H
([0
)
C
avec C independant de ".
A partir du probleme penalise et puis en utilisant l'estimation (3.5) :
et (3.36), on deduit :
"
k @u
k2
@t L
;T ];H
([0
)
C
(3.36)
64
Chapitre 3. Inequation Variationnelle
j
Z T
0
(a (u" ; v) + b (u" ; v))dsj = j
Z T
0
1
"
(?( @u
; v) + ( (u" ); v) )dsj
@t
"
C kvkL2
;T ];H
([0
(3.37)
)
avec C independant de ". Cela implique (3.35) en faisant passer a la limite dans (3.37).
Remarque 3.12 En combinant les resultats de la proposition 3.5 et ceux du theoreme 3.6
et du theoreme 3.10, on peut maintenant enoncer que l'inequation parabolique (3.1) a une et
une seule solution u sous la condition 2 W 2;2; (R). cela signi e qu'on a deja accompli la
premiere partie de notre travail.
Avant d'entrer la deuxieme partie de notre travail, on rappelle d'abord un resultat classique, qui resulte du theoreme de plongement entre espaces de Sobolev (cf. [1] P107-P108
lemme 5.15, [9] P166 theoreme IX.12 ).
Lemme 3.13 Si p > n , et soit '(t; x) est une fonction veri ant :
2
@'
@t
2 Lp(R Rn) et ' 2 Lp(R; W ;p(Rn))
2
Alors '(t; x) est borne et on a :
n )
k
k'(t; x)kL1 RRn C (k'kLp R W 2;p Rn + k @'
@t Lp RR
(
)
(
;
(
))
(
)
La corollaire 3.14 resulte du lemme 3.13.
Corollaire 3.14 Si n = 1; p = 2 et 2 W ; ; (R), alors, la solution u de (3.1) a une
version continue sur [0; T ] R et il existe une constante C telle que :
22
pour tout (t; x) 2 [0; T ] R.
ju(t; x)j C exp( 2 jxj)
En e et, rappelons, d'abord, quelques resultats qu'on a deja eus avant : Si
alors il existe une unique fonction u sur [0; T ] R telle que :
@u
@t
2 L ([0; T ]; W
2
;;
02
(R))
2W
u 2 L2 ([0; T ]; W 2;2; (R))
et veri e l'inequation parabolique (3.1). Alors v = u exp(? 2 (1 + jxj2 ) 12 ) veri e :
v 2 L2 (R; W 2;2 (R))
et
@v
@t
2 L (R R)
2
;;
22
(R);
3.5. L'egalite u = u
65
En utilisant le lemme 3.13, on a donc : ju(t; x)j C exp( 2 jxj).
D'autre part, en posant vm = vm ou m est une suite regularisantes (voir la demonstration
du theoreme 3.20), on a :
@vm ?! @v dans L2([0; T ]; W 0;2 (R))
@t
@t
vm ?! v dans L2 ([0; T ]; W 2;2 (R))
Par ailleurs, en utilisant le lemme 3.13, on voit que :
C (kvm ? vkL2 R W 2 2 R + k @[email protected] ? @v
@t kL2 RR
?! 0 quand m ! 1
kvm ? vkL1 RR
(
)
(
;
;
(
))
(
)
ce qui implique que vm converge uniformement vers v. D'ou v est une fonction continue. On
obtient, nalement, que u a une version continue.
3.5 L'egalite u = u
Dans cette section, on montrera d'abord que la solution u de l'inequation parabolique (3.1)
est egale a u si appartient a W 2;2; (R) (theoreme 3.20). Or, dans le cas pratique, par
exemple le put americain (x) = (K ? ex )+ n'appartient pas a W 2;2; (R), on devra donc
a aiblir l'hypothese sur . Cela sera fait par le theoreme 3.26 a la n de la section 3.5.
Maintenant, on introduit d'abord deux lemmes, qui seront utiles dans la demonstration
du theoreme 3.20. En revenant au lemme 2.5, on voit qu'on a le lemme analogue suivant si
T est ni.
Lemme 3.15 Soit ' 2 L ([0; T ]; Lloc(R)), soit pour R > 0, le temps de sortie de
l'intervalle OR =] ? R; R[ :
2
2
R
= inf fs 0 j Xsx0 62 OR g
R
On a alors :
E(
Z T ^ R
0
j'(s; Xsx0 )jds) C k'kL2
([0
;T ]O
R)
ou C est une constante ne dependant ni de ' ni de R.
Demonstration : Rappelons que la fonction p(t; x ; s; x) est la densite du ot Xs, on peut
0
donc ecrire :
E(
Z T ^ R
0
j'(s; Xsx0 )jds) E
=
Z T
Z T
0
0
(j'(s; Xsx0 )j1fjX jRg ) ds
ds
s
Z
O
R
dxj'(s; x)j p(0; x0 ; s; x)
66
Chapitre 3. Inequation Variationnelle
Et, en utilisant l'inegalite de Holder et (2.8) :
E(
Z T ^ R
j'(s; Xsx0 )jds)
0
k'kL2
k'kL2
Z
([0;T ]OR ) (
T
0
Z
OR) (
([0;T ]
T
0
Z
ds
OR
(p(0; x0 ; s; x))2 dx)1=2
k ;s g(0; x ; s; )kL2 ds) =
0
2
0
1 2
puisque 0;s est un mesure de probabilite, on deduit :
k ;s g(0; x ; s; )kL2 = k
0
2
0
Z
Z
g (0; x0 ; s;
? y) ;s(dy)kL2
2
0
kg(0; x ; s; ? y)kL2 ;s(dy)
= kgkL2
2
0
0
2
D'apres (2.7) et on notons C1 = p21 ;
kgkL2
Z
= [
on obtient, donc :
T
0
ds
Z
C1 [
= (
R)
([0;T ]
Z
0
T
T
0
Z
dy (
p
C2
1
= 212 , on a :
?
(y + ( ? 2 )s)
)) ] =
1 exp(?
2 s
y
0
2
1 1
ds dy (s? 2 s 4 exp(?C2 y 2 ))2 ]1=2
Z
s 2
Z
2
2
2 1 2
2
pdss ) = ( exp(?2C y )dy) =
1 2
2
2
1 2
(3.38)
C
E(
Z T ^ R
0
j'(s; Xs )j ds) C k'kL2
OR )
([0;T ]
ou C est une constante ne dependant ni de ' ni de R.
Remarque 3.16
on a alors :
1. Il resulte du lemme 3.15 que : si ' = '0 presque partout sur [0; T ]R,
E(
Z ^ R
0
'(s; Xs ) ds)
pour tout temps d'arr^et .
= E(
Z ^ R
'0 (s; Xs ) ds)
0
2. On montrerait de m^eme que : si Rt;x = inf fs tj
E(
Z T ^ Rt;x
0
Xst;x
j'(s; Xs )jds) C k'kL2
ou C est une constante ne dependant ni de ' ni de R.
62 OR g, on a :
OR)
([0;T ]
3.5. L'egalite u = u
67
Le lemme 3.17, qui peut ^etre montre en suivant exactement le m^eme raisonnement que
celui dans le lemme 2-2 Ch 7 [28], est une generalisation du lemme 2-2 Ch 7 [28] (voir Annex
A). Il sera utile dans la demonstration du lemme 3.18.
Lemme 3.17 Soit (t; y; z) une fonction mesurable de R Rd R, telle que pour tout reel
t, z la fonction y 7! (t; y; z) soit continue sur Rd , et soit (Yt )t0 un processus continue a
gauch, a valeur dans Rd , adapte a la ltration (Ft )t0 , de plus (t; y; z ) est une fonction
continue en t. On suppose que, pour tout t > 0,
Zt Z
E( 0 ds (dz)2 (s; y; z)) < +1
Alors le processus Mt de nie par :
Mt =
N
X
t
j =1
(j ; Y ; Uj ) ? j
Zt Z
0
ds (dz)(s; Ys; z))
est une martingale de carre integrable.
Lemme 3.18 Soit u(t; x) une fonction de classe C 2 a derivee bornee en x et veri ant :
ju(t; x)j C exp( 2 jxj)
Xt est une solution de (1.11) :
8
>
< X0 = x0
N
X
2
>
: dXt = ( ? 2 )dt + dBt + d( Zj )
t
j =1
Si l'hypothese (H) est veri ee, alors, le processus :
Mt = e?rt u(t; X x ) ?
t
Zt
0
x
e?rs( @u
@s + Au + Bu)(s; Xs )ds
est une martingale, ou A, B sont les operateurs de nis dans le probleme (3.2).
Demonstration : La formule d'It^o donne :
Zt
@u
e?rtu(t; Xtx ) = u(0; x0 ) +
0
e?rs( @s ? ru)ds +
Zt
0
2 )ds + dB )
e?rs @u
((
?
s
@x
2
Zt
N
2
X
+ 2 e?rs @@xu2 ds + (e?r (u(j ; X ) ? u(j ; X ? ))
0
j =1
2
t
j
j
j
68
Chapitre 3. Inequation Variationnelle
ou les j sont les temps de sauts du processus de Poisson.
En appliquant les de nitions de l'operateur A et l'operateur B , on peut ecrire :
e?rtu(t; Xtx ) =
Z
u(0; x ) + e? ( @u
@s + Au + Bu)(s; X )ds
Z
X[e? (u( ; X ) ? u( ; X
(
s;
X
)
dB
+
+ e? @u
@x
Z
Z
? ds e? (dz) (u(s; X + z) ? u(s; X ))
t
0
rs
t
rs
t
on a :
X[e?
rj (u(
j =1
s
rj
j
j =1
rs
j
s
0
j
j? ))]
s
Z ds e? Z (dz) (u(s; X + z) ? u(s; X ))
Z
M = u(0; x ) + e? @u dB + L
Notant :
Nt
Nt
x
s
0
Lt =
x
s
0
t
j ; X ) ? u(j ; X ? ))] ? j
j
rs
t
t
0
s
0
rs
0
@x
s
s
t
Z
E ( e? ( @u
@x ) ds) < +1
Z
ce qui entra^ne que u(0; x ) + e? @u dB est une martingale. On voit, donc, que pour
De plus, par l'hypothese du lemme, il n'est pas dicile de voir que :
t
t
0
2rs
2
0
rs
0
s
@x
montrer que Mt est une martingale, il sut de montrer que Lt est une martingale. En e et,
posons :
(s; Xs ; z ) = e?rs (u(s; Xs + z ) ? u(s; Xs ))
On peut alors ecrire :
Lt =
X ( ; X
Nt
j =1
j
? ; z) ? j
Z ds Z (dz) (s; X
t
0
s? ; z )
Par ailleurs, puisque ju(t; x)j exp 2 jxj, on resulte que :
ju(s; Xs + z) ? u(s; Xs )j2 2(ju(s; Xs + z)j2 + ju(s; Xs)j2 )
2C (exp( jXs + zj) + exp( jXs j))
2C exp( jXs j) (exp( jzj) + 1)
D'ou :
t
t
E ( ds (dz)2 (s; Xs? ; z)) = E ( ds (dz)2 (s; Xs; z))
Z Z
0
Z Z
Z
Z
?
C E [ ds e (dz) e j j(e j j + 1)]
Z
C E [ ds e? e j j(E e j j + 1)]
Z
j
j
C (E e + 1)( e? E e j jds)
0
=
=
t
0
2rs
t
Xs
2rs
Xs
0
C 0(E e
t
z
0
2rs
jzj + 1)E (exp
z
z
Xs
sup jXs j)
s2[0;T ]
(3.39)
3.5. L'egalite u = u
69
ou C , C 0 sont des constantes. Or, remarquons que (Ns )s0 est un processus croissant en s et
utilisons l'independance entre le processus (Nt )t0 et (Uj )j 1 , on a :
E exp sup j
Ns
X
s2[0;T ] j =1
Zj j
NT
X
E exp
=
X
k0
j =1
jZj j = E
P(NT = k)E (
Y
k
j =1
NT
Y
j =1
e jZj j
e jZj j)
= exp(T (E e jZ j ? 1))
D'ou, d'apres (H) :
E exp sup j
D'autre part, il est facile de voir que :
Ns
X
s2[0;T ] j =1
(3.40)
Zj j < +1
E (exp sup jx0 + ( ? 2 )s + Bsj) E [exp( (jx0 j + ( ? 2 )T + sup jBsj))]
2
2
s2[0;T ]
s2[0;T ]
exp( (jx0 j + ( ? 2 )T ))E (exp( sup jBsj))
s2[0;T ]
< +1
2
On peut donc obtenir, en utilisant l'independance entre (Bt )t0 , (Nt )t0 et (Uj )j 1 :
E (exp sup jXs j) = E (exp sup jx0 + ( ? 2 )s + Bs +
2
s2[0;T ]
s2[0;T ]
Ns
X
j =1
Zj j)
E (exp sup jx0 + ( ? 2 )s + Bsj)E (exp sup j
2
< +1
Ns
X
s2[0;T ] j =1
s2[0;T ]
Zj j)
(3.41)
D'apres (3.39) et (3.41) et en utilisant le (H), on a :
E(
Zt Z
0
ds (dz )2 (s; Xs? ; z )) < +1
par le lemme 3.17, cela implique que le processus Lt est une martingale. On obtient nalement
le resultat enonce.
Remarque 3.19 Si Xst;x est la solution de (1.11)
8
>
< Xt = x
Ns
2 )ds + dB + d(X Z )
>
dX
=
(
?
s
j
2
: s
j =1
pour
st
70
Chapitre 3. Inequation Variationnelle
alors, le processus
M = e?r ?t u( ; X t;x ) ?
(
)
Z
t
t;x
e?r s?t ( @u
@t + Au + Bu)(s; Xs )ds;
(
)
t
est une martingale.
Maintenant, on peut enoncer le theoreme principal dans cette section.
Theoreme 3.20 Si 2 W
;;
22
parabolique (3.1) veri e :
(R), et (H) est veri ee, alors la solution u de l'inequation
u(t; x) = u(t; x) sur [0; T ] R
ou u (t; x) est de nie par :
u (t; x) = sup E (e?r ?t (Xt;x ))
2Tt;T
(
)
Avant de commencer la demonstration du theoreme 3.20, nous ferons, d'abord, une remarque sur la fonction obstacle .
(R), on a e? p (1+jxj ) 2 W 2;p(R). Par le corollaire IX
13 P169 dans le livre de Brezis (cf. [9]), on sait que : W 2;p(Rn ) L1 (Rn ) si p > n2 :
Particulierement, si n = 1; p = 2 on obtient :
Remarque 3.21 Si 2 W
2 1=2
;p;
2
j (x)j C exp( 2 jxj)
D'autre part, on introduit quelques resultats qui est resulte du theoreme IV 22 dans le
livre de Brezis (cf. [9]) et qui seront utiles dans la demonstration du theoreme 3.20.
Lemme 3.22 Soit
un ouvert borne, et soit f appartenant a L2 ( ), et supposons que
(n )n1 est une suite regularisant ( i:e une suite qui veri e : n 2 Cc1(R); suppn ] ?
R
1 1
n ; n [; n = 1; n 0) , alors :
n f ! f dans L ( )
2
Lemme 3.23 Soit f appartenant a H , alors :
n f ! f dans H
De plus, on donne une remarque
Remarque 3.24
1. Soit f 2 H , alors f 2 L2 ( ).
3.5. L'egalite u = u
71
2. Si jf (x)j C exp( jxj), alors fn (= n f ) veri e : jfn (x)j C exp( jxj)
En e et :
jfn(x)j = jRR f (x ? y)n(y)dyj = j R Rn(dy)f (x ? y)j
n(dyR)jf (x ? y)j C n(Rdy)e jx?yj
Ce jxj n(dy)e jyj = Ce jxj e jyj n(y)dy
C exp( jxj)
Maintenant, on met l'accent sur la demonstration du theoreme 3.20. En e et, le point
essentiel est de montrer :
E (e?r u(; X )) = E u(0; x0 ) + E
Z
0
e?rs( @u
@t + Au + Bu)(s; Xs)ds
(3.42)
pour tout temps d'arr^et a valeurs dans [0; T ]:
On pense naturellement a utiliser le lemme 3.18, mais les problemes se posent a cause des
faits que :
1. u(t; x) n'est pas forcement une fonction a derivee bornee en x.
2. u(t; x) n'est pas de classe C 2 .
En realite, on utilisera la methode d'approximation. Pour se ramener aux conditions du
lemme 3.18, on doit introduire le temps de sortie de l'intervalle OR =] ? R; R[, on prouvera
d'abord l'egalite (3.42) pour ^ R au lieu de , puis, on fera tendre R vers l'in ni pour
obtenir (3.42).
Demonstration : (Demonstration du theoreme 3.20)
La demonstration sera faite en deux parties
1. Premiere etape :
Comme 2 W 2;2; (R), d'apres les resultats dans la section precedente, on sait qu'il
existe une unique fonction continue u sur [0; T ] R telle que :
@u 2 L2([0; T ]; W 0;2; (R)) et u 2 L2([0; T ]; W 2;2; (R))
@t
et u veri e l'inequation parabolique (3.1) et l'estimation ju(t; x)j C exp( jxj).
8
>
< u(0; x) pour t < 0 et x 2 R
u~(t; x) = > u(T; x) pour t > T et x 2 R
: u(t; x) pour (t; x) 2 [0; T ] R
Il est clair que u~(t; x) est une fonction continue sur R R. D'ou
Notons :
u~(t; x) 2 L1loc(R; L1loc(R))
72
Chapitre 3. Inequation Variationnelle
Soient (m )m1 (resp. (~m )m1 ) deux suites de fonction de classe C 1 sur R (resp. R )
R
a support compact, m 0 et m = 1 avec suppm ] ? m1 ; m1 [; (resp. ~m R
0 et ~m = 1 avec supp ~m ] ? m1 ; m1 [). On pose :
um(t; x) = uZ~ (Zm ~m)(t; x)
=
u~(t ? s; x ? y)m (y)~m (s)dyds
R R
D'ou :
um (t; x) 2 C 1(R R)
Par consequent, en remarquant la de nition de u~(t; x),
um (t; x) converge uniformement vers u(t; x) sur le compact [0; T ] [?R; R]: (3.43)
2
Par ailleurs, puisque u 2 L2 ([0; T ]; W 2;2; (R)) et @u
@t 2 L ([0; T ]; H ), par le lemme
3.23, on obtient :
um ?! u dans L2 ([0; T ]; W 2;2; (R))
@um ?! @u dans L ([0; T ]; H )
@t
@t
um 2 L ([0; T ]; W ; ; (R)) et @[email protected] 2 L ([0; T ]; H )
2
D'ou :
2
22
2
Ce qui entra^ne, par le lemme 3.13 :
jum (t; x)j C exp( jxj)
(3.44)
D'autre part, par la remarque 3.24 et le lemme 3.22, il n'est pas dicile de voir que :
@um + Au ?! @u + Au dans L ([0; T ]; L (O ))
m
R
@t
@t
(3.45)
Bum ?! Bu dans L ([0; T ]; L (OR ))
(3.46)
2
et de plus, on a :
2
En e et :
jBum ? BujL2
2
;T ]; L2 (OR ))
([0
=
Z
e
e
Par le lemme 3.18, on deduit que :
ds
;T ] Z
jRj
[0
Z
OR
2
2
(Bum ? Bu)2 e? jxj e jxjdx
ds jBum ? Buj
;T ]
jRj jum ? uj2 2
L ([0;T ]; L2 (OR ))
2
[0
d'apres le lemme 3.3
Z t^ R ?rs @um
?
r
(t^ R )
x
Mt^ R = e
um (t^R; Xt^ R )?
e ( @t +Aum +Bum)(s; Xs)ds (3.47)
0
3.5. L'egalite u = u
73
est une martingale. D'ou, par le theoreme d'arr^et, pour tout temps d'arr^et a valeurs
[0; T ], on a :
E e?r ^ R um( ^ R; Xx^ R )
Z ^ R
= um (0; x) + E
e?rs ( @[email protected] + Aum + Bum )(s; Xs )ds
(
)
0
(3.48)
Comme um converge uniformement vers u sur [0; T ] [?R; R]; on voit que :
um(0; x) ?! u(0; x) si m ! 1
Par ailleurs, d'apres (3.44), on a :
jum ( ^ R; Xx^ R )j C exp( jXx^ R j) exp( sup jXt j)
tT
0
or E exp( supt jXt j) < 1 ( voir (3.41)), par ailleurs, comme um converge vers u dans
L2 ([0; T ]; W 2;2; (R)), il existe une sous suite, encore note um , tel que um converge vers
u presque s^urement dans R, on deduit, donc, par le theoreme de Lebesgue,
E e?r ^ R um( ^ R; Xx^ R ) ?! E e?r ^ R u( ^ R; Xx^ R )
(
)
(
)
D'autre part, en utilisant le lemme 3.15 et en tenant compte (3.45)et (3.46),
On a :
@um + Au + Bu ?! @u + Au + Bu dans L2([0; T ]; L2 (O ))
m
m
R
@t
@t
Z ^ R
e?rs ( @[email protected] + Aum + Bum )(s; Xs)ds
0
Z ^ R
e?rs ( @u
?! E
@t + Au + Bu)(s; Xs )ds m ! 1
0
ce qui donne, en faisant tendre m vers l'in ni dans (3.48),
E (e?r(^ R )u( ^ R; Xx^ R ))
Z ^ R
(3.49)
= u(0; x) + E
e?rs( @u
@s + Au + Bu)(s; Xs )ds
0
Maintenant, on fera tendre R vers l'in ni dans (3.49) pour obtenir (3.42). Mais, d'abord,
E
en remarquant :
u( ^ R ; Xx^ R ) C exp( jX^ R j) C exp( sup jXt j)
tT
0
et en utilisant, de nouveau, le fait que : ( voir (3.41)),
E exp( sup jXt j) < +1
tT
0
74
Chapitre 3. Inequation Variationnelle
on deduit, par le theoreme du Lebesgue, que :
E (e?r ^ u( ^ ; Xx^ )) ?! E (e?r u(; Xx)) si R ! 1
Z ^ @u
e?rs( @u
D'autre part, comme @t + Au + Bu 0, d'ou
@s + Au + Bu)(s; Xs)ds est
decroissant en R, on a alors
Z Z ^ ?
rs @u
e ( @s + Au + Bu)(s; Xs)ds ?! E e?rs( @u
E
@s + Au + Bu)(s; Xs)ds
(
R)
R
R
R
0
R
0
0
en appliquant le theoreme de convergence monotone. Ce qui implique nalement (3.42).
2. Deuxieme etape
Comme @u
@t + Au + Bu 0 presque s^urement sur [0; T ]R, on deduit de l'egalite (3.42)
?
rt
que e u(t; Xt ) est une sur-martingale. Pour t quelconque xe dans [0; T ], puisque u
majore , on a :
e?rtu(t; Xt ) E (e?r u(; X )jFt )
E (e?r (X )jFt )
D'ou, par la proposition 1.3,
u(t; Xt ) sup E (e?r ?t (X )jFt )
2T
(
)
t;T
= sup E (e?r( ?t) (Xt;x ))jx=X
2T
= u (t; Xt )
t
t;T
Par ailleurs, posons :
t = inf fs t j (Xs ) = u(s; Xs)g
alors, pour t s < t , on a : (Xs ) < u(s; Xs ). D'autre part, par les proprietes de u et
l'existence d'une densite pour le ot, on a :
( @u
@t + Au + Bu)(s; Xs) = 0 ds dP presque partout sur fs < tg
(3.50)
En e et, comme ( @u
@t + Au + Bu)( ? u) = 0 dt dx presque partout, on peut ecrire
que :
dt dxf(t; x) j ( @u
@t + Au + Bu)( ? u) 6= 0g = 0
ou dt, dx designent les mesures. Pour dt-presque tout t, on a :
dxfx j ( @u
@t + Au + Bu)( ? u) 6= 0g = 0
3.5. L'egalite u = u
75
or Xs a une densite, donc la loi de Xs est continue par rapport de le mesure dx, d'ou :
P fx j ( @u
@t + Au + Bu)( ? u) 6= 0g = 0
Xt
On a :
( ? u)( @u
@t + Au + Bu)(t; Xt ) = 0 dt dP presque s^urement
ce qui donne (3.50).
Maintenant, travaillant plut^ot avec le temps initial t au lieu de 0, et en utilisant la
remarque 3.19 et la remarque 3.16 2) et en raisonnant de la m^eme facon que pour
obtenir (3:42), on obtient :
E (e?r( ?t) u(
t
t
; X )) = E u(t; Xt ) + E
Z
t
t
t
D'ou, par (3.50),
?r s?t @u
e
( @t + Au + Bu)(s; Xs )ds
(
)
E (e?r u( ; X )) = E (e?rt u(t; Xt ))
et, comme u( ; X ) = (X ) , ce qui donne :
E (e?rt u(t; Xt )) = E (e?r (X ))
= E (E (e?r (X )jFt ))
t
t
t
t
t
t
t
t
t
t
D'ou, par la proposition 1.3,
u(t; Xt ) sup E (e?r ?t (X )jFt )
(
2Tt;T
)
= sup E (e?r( ?t) (Xt;x ))
2Tt;T
= u (t; Xt )
On a, alors,
u(t; Xt ) = u(t; Xt )
p:s
D'ou
u(0; x) = u (0; x)
En travaillant avec le ot plut^ot qu'avec (Xt ), on obtiendrait de la m^eme facon :
u(t; x) = u(t; x)
(t; x) 2 [0; T ] R
Mais dans le cas du put americain, (x) = (K ? ex )+ 2 W 1;2; (R), n'appartient pas a
W 2;2; (R). On doit donc etablir l'egalite u = u sous des hypotheses plus faibles pour ,
compatibles avec l'hypothese qu'on a deja faite sur . On rappelle le lemme qui est montre
dans le [24] (voir le lemme 3.3 [24]).
76
Chapitre 3. Inequation Variationnelle
Lemme 3.25 Si 2 W ; ; (R); alors il existe
W ; ; (R) qui converge uniformement vers .
> 0 et une suite m d'elements de
12
22
En suivant exactement le m^eme raisonnement que [24] et en utilisant le lemme 3.25, on obtient
le theoreme suivant :
Theoreme 3.26 Supposons appartient a W 1;2; (R); Alors, la solution u de l'inequation
variationnelle (3.3) concide avec la fonction u (t; x) de nie par :
u (t; x) = sup E (e?r( ?t) (Xt;x ))
2Tt;T
3.6 Smooth t
Dans le cas du put americain, (x) = (K ? ex )+ , et il est clair que () a les proprietes
suivants :
1. j j K et 0 (x) = ?ex 1fK>exg ce qui entra^ne que : j 0 (x)j K
2. (x) 2 W 1;2; (R)
3. La fonction x ! (log x) = (K ? x)+ est convexe sur ]0; 1[.
En appliquant le theoreme 3.26, on a :
u(t; x) = u (t; x)
= sup E (e?r( ?t) (Xt;x ))
2T
t;T
= sup E (e?r( ?t) (x + ( ? 2 )( ? t) + (B ? Bt ) +
2
2Tt;T
XN
j =Nt+1
Zj ) (3.51)
ou u est la solution de l'inequation variationnelle (3.3).
Dans cette partie, on montrera directement que, dans le cas du put americain, la fonction
u(t; x) veri e l'inequation parabolique. Pour obtenir des proprietes de regularite de u, on
prouvera d'abord, trois lemmes :
Lemme 3.27 Si x ! (log x) est convexe, alors, la fonction x ! u(t; log x) est convexe sur
]0; 1[, pour tout t 2 [0; T ].
Demonstration : D'apres (3.51),
XN
Zj ))
u(t; log x) = sup E (e?r( ?t) (log x + ( ? )( ? t) + (B ? Bt ) +
2
2Tt;T
j =Nt+1
2
or x ! (log x) est convexe, ce qui donne le lemme 3.27
3.6. Smooth t
77
Remarque 3.28
Si x ! (log x) est decroissante, alors, la fonction x
decroissante sur ]0; 1[, pour tout t 2 [0; T ].
@u .
@t
! u(t; log x)
est
Maintenant, on peut montrer le lemme 3.29 qui sera utile dans l'etude des proprietes de
Lemme 3.29
Supposons (x) est une fonction continue sur
o
u M est une constant positive, on a :
u(t; x) = sup E (e?r(T ?t)# (x + ( ? )(T
2
#2T0;1
2
R
? t)# + p
T
? tB# +
Demonstration : D'apres (3.51), on a :
u(t; x) =
j (x)j MeM jxj
telle que :
sup E (e?r( ?t) (x + ( ? 2 )( ? t) + (B ? Bt ) +
j =1
X
N
2
2Tt;T
X
N#(T ?t)
j =Nt +1
Zj ))
Zj ))
Rappelons la demonstration de la proposition 1.3, et remarquons que veri e les m^eme
hypotheses que celui dans la proposition 1.3, on sait qu'on a la m^eme egalite avec Tt;T au lieu
de Tt;T . De plus, si l'on reussit a veri er :
((Bs ? Bt )st ; (Ns ? Nt )st ; (UNt +j )j 1 ) 1 ((Bt )t0 ; (Nt )t0 ; (Uj )j 1 )
On peut donc ecrire (3.51) sous la forme suivante :
u(t; x) =
sup E (e?r (x + ( ? 2 ) + B +
2
2T0;T ?t
(3.52)
X Z ))
N
j =1
j
Il est aise de voir que appartient T0;T ?t si et seulement si est de la forme : = #(T ? t) ou
# est un temps d'arr^et de la ltration (H)s0 a valeur dans [0; 1]; ou Hs est la tribu engendree
par les variables aleatoires B (T ?t) ; N (T ?t) ; s et Uj 1fj Ns T ?t g . Remarquant le fait
p
que le processus (B (T ?t) ) 0 a m^eme loi que le processus ( T ? tB ) 0 , on obtient que :
(
u(t; x) = sup E (e?r(T ?t)# (x + ( ? )(T
2
#2T0;1
2
? t)# + p
T
)
? tB# +
X
N#(T ?t)
j =1
Zj ))
Il reste donc a montrer (3.52). En e et, on veri e, d'abord, la suite (UNt +j )j 1 a m^eme
loi que la suite (Uj )j 1 . Pour cela, il sut de montrer que, pour tout p 0 et pour toute
fonction borelienne positive sur Rp ,
E (f (UN
t +1
1
00 00 signi e avoir la m^eme loi
; UNt +2 ; : : : ; UNt +p )) = E (f (U1 ; U2 ; : : : ; Up ))
(3.53)
78
Chapitre 3. Inequation Variationnelle
Or, si l'on note le premier membre dans (3.53) par I, en utilisant l'independance de (Nt )t0
et (Uj )j 1 , on a alors :
I =
=
1
X
j =0
1
X
j =0
E (1fN =jgf (Uj+1; Uj+2; : : : ; Uj+p))
t
P (Nt = j )E f (Uj+1; Uj+2; : : : ; Uj+p)
= E (f (U1 ; U2 ; : : : ; Up ))
a cause du fait que (Uj +1 ; Uj +2 ; : : : ; Uj +p ) a m^eme loi que (U1 ; U2 ; : : : ; Up ).
D'autre part, comme le processus (Bs ? Bt )st ( resp. (Ns ? Nt )st ) a m^eme loi que le
processus (Bs?t )st ( resp. (Ns?t )st ), de plus, en utilisant l'independance entre les processus
(Bt )t0 , (Nt )t0 , (Uj )j 1 , on obtient (3.52).
Le lemme classique suivant sera utile pour etudier la continuite de @u
@x ( cf [26], Chapitre II,
lemme 3.1).
Lemme 3.30 Soit u(t; x) une fonction de R2 dans R, ayant des derivees partielles @u
@t et
1
@ 2 u uniform
@u
2
ement bornees sur R . Alors, @x veri e une condition de Holder d'ordre 2 en t,
@x2
uniformement par rapport a x.
Maintenant, on va montrer le theoreme principal de cette section. Il est une generalisation du
theoreme 3.6 de [24]. La methode de demonstration est analogue a celle de [24]. Les termes
de sauts sont traites par des techniques de martingales.
Theoreme 3.31 Supposons qu'on a (H), si la fonction est lipschitzienne et x 7! (log(x2))
est convexe, alors la fonction u ( de nie par (3.51)) admet des derivees partielles
localement bornees sur [0; T [R et veri e :
@u + Au + Bu
0
@t
u
( @u
@t + Au + Bu)( ? u) = 0
De plus, la fonction
@u
@x
@u
@t
,
@u
@x
,
@ u
@x2
9
>>
=
>> p:p dans [0; T [R
;
est continue sur [0; T [R.
Remarque 3.32 D'apres les proprietes sur d'un put americain enonce au debut de cette
section, il n'est pas dicile de voir que ce
Demonstration :
veri e les hypotheses du theoreme 3.31.
3.6. Smooth t
79
Puisque est lipschitzienne, on sait, alors, que apparient a W ; ; (R) pour tout
> 0, en utilisant le theoreme 3.6, on sait qu'il existe une et une seule fonction u
veri ant :
u 2 L ([0; T ]; V ) et @u
@t 2 L ([0; T ]; H )
et pour tout element v appartient a V et veri ant v , on a :
? ( @u
(3.54)
@t ; v ? u) + a (u; v ? u) + b (u; v ? u) 0
u
Prenant v(x) = u(x)+ '(x)e x ou '(x) est une fonction positive inde niment derivable
a support compact, de sorte que v(x) appartient a V , et v , on obtient :
x
?( @u
@t + Au + Bu; '(x)e ) 0
Par consequent ?( @u
@t + Au + Bu) de nit une mesure positive sur ]0; T [R. D'autre
part, comme x 7! (log(x)) est convexe, si l'on note : g(x) = u(t; log x), le lemme 3.27
2
@2u
@u
entra^ne que : @ @xg 2x = x2 ( @@x2 u2 ? @u
@x ) 0, ce qui signi e que @x2 ? @x est une mesure
positive sur ]0; T [R. On a donc, au sens de distribution,
@u + @ u + ( ? ) @u ? ru + Bu 0 dans ]0; T [R
@t 2 @x
2 @x
@ u ? @u 0 dans ]0; T [R
@x @x
12
2
2
j j
j j
( )
2
1
2
2
2
2
2
D'ou :
cela implique que
@u ? @u ? Bu
)
ru
?
0 2 ( @@xu2 ? @u
@x
@t @x
2
@2u
@x2
2
(3.55)
a L ([0; T ]; H ). D'ou :
? @u
@x appartient @ u 2 L ([0; T ]; H )
@x
2
2
2
2
De plus, (3.55) nous permet de deduire la bornitude locale de @@x2 u2 de celle de @u
@t ,
Bu. D'autre part, en prenant v = dans (3.54), il n'est pas dicile de veri er :
( @u
@t + Au + Bu)( ? u) = 0 dans [0; T [R
@u
@x
et
Montrons la bornitude locale de @u
@x
Fixons x, y 2R, utilisant le fait que est lipschitzienne, on peut ecrire que, pour tout
2 Tt;T ,
N
Z)
j (x + ( ? )( ? t) + (B ? B ) +
2
2
?
t
X
j =Nt +1
(y + ( ? 2 )( ? t) + (B ? Bt ) +
C jx ? yj
2
j
X
N
j =Nt +1
Zj )j
80
Chapitre 3. Inequation Variationnelle
ou C est une constante. On en deduit facilement par (3.51) l'estimation :
ju(t; x) ? u(t; y)j C jx ? yj
Comme C est une constante ne dependant ni de t, ni de (x; y), u est lipschitzienne en
x, uniformement par rapport a t, et donc @u
@x est borne sur [0; T ]R.
Montrons la bornitude de Bu
R
On part de la de nition de l'operateur B ( cf. (3.2)), i.e : Bu = (u(t; x + z ) ?
u(t; x)) (dz ). De l'inegalite :
ju(t; x + z) ? u(t; x)j C jzj
on deduit :
jBuj <
Z
ju(t; x + z) ? u(t; x)j (dz)
C E jZ j
+1;
car E jZ j E e jZ j < 1
1
1
1
1
ce qui donne le bornitude de Bu sur [0; T ]R.
Montrons la bornitude locale de
@u
@t
Pour cela, on utilise le lemme 3.29. Fixons t, s 2 [0; T ], avec t < s. Pour tout #
appartenant a T0;1 , on a :
je?r T ?t # (x + ( ? 2 )(T ? t)# + (
2
)
p
T
? tB# +
N#X
(T ?t)
j =1
Zj )
?
p
e?r(T ?s)# (x + ( ? )(T ? s)# + T ? sB# +
p
je?r(T ?t)# ? e?r(T ?s)# jj (x + ( ? )(T ? t)# + T ? tB# +
2
2
j =1
Zj )j
2
2
p
+ e?r(T ?s)# j (x + ( ? )(T ? t)# + T ? tB# +
2
2
?
N#X
(T ?s)
p
2
(x + ( ? 2 )(T ? s)# + T ? sB# +
N#X
(T ?s)
j =1
N#X
(T ?t)
j =1
N#X
(T ?t)
j =1
Zj )j
Zj )
Zj )j
(3.56)
or :
je?r T ?t # ? e?r T ?s # j = j1 ? e?r t?s # je?r T ?t #
C jt ? sje?r T ?t #
(
)
(
)
(
)
(
(
)
)
(3.57)
3.6. Smooth t
81
Par ailleurs, puisque est lipschitzienne, on sait que :
2
j (x + ( ? 2 )(T ? t)# + ?
+
p
T
? tB# +
X
N#(T ?t)
j =1
p
2
(x + ( ? 2 )(T ? s)# + T ? sB# +
C j( ?
X
N#(T ?t)
j =1
2
p
Zj )
X
N#(T ?s)
j =1
p
Zj )j
2 )(s ? t)# + ( T ? t ? T ? s)B#
Zj ?
X
N#(T ?s)
j =1
Zj j
(3.58)
En prenant les esperances et en utilisant le lemme 3.29, on deduit de (3.56), (3.57) et
(3.58),
ju(t; x) ? u(s; x)j C jt ? sjju(t; x)j
2
+ C sup E (e?r(T ?s)# (j( ? 2 )(s ? t)#j
#2T0;1
p
p
+ j( T ? t ? T ? s)B# j + j
X
N#(T ?t)
j =1
En remarquant que t < s, on peut donc ecrire :
j
X
N#(T ?t)
j =1
Zj ?
X
N#(T ?s)
j =1
Zj j =
j
Mt =
Zj j
X
N#(T ?s)
j =1
X
N#(T ?t)
j =N#(T ?s) +1
j =N#(T ?s) +1
N#(T ?t)
N#(T ?s)
=
Notant :
X
N#(T ?t)
Zj ?
X
j =1
X
jZj j ?
j =1
Zj j))(3.59)
jZj j
jZj j
X jZ j ? tE (jZ j)
Nt
j =1
j
1
On sait que Mt est une martingale de carre integrable, puisque E jZ1 j2 2 E e jZ j < 1
, d'apres l'hypothese (H). Cela permet d'ecrire :
2
Ej
X
N#(T ?t)
j =1
Zj ?
X
N#(T ?s)
j =1
Zj j
X
E(
N#(T ?t)
j =1
jZj j ?
X
N#(T ?s)
j =1
jZj j)
= E (+#(T ? t)E jZ1 j ? #(T ? s)E jZ1 j)
= (s ? t)E jZ1 jE #
C (s ? t)
(3.60)
82
Chapitre 3. Inequation Variationnelle
ou
C
est une constante ne dependant ni de , ni de , ni de . Par ailleurs,
t
s
x
E j # j E j 1j +1
B
B
(3.61)
<
a cause du fait que j t j estpune sous-martingale. On deduit alors de (3.59), (3.60) et
(3.61) et du fait que : ! ? est de classe 1 sur [0 [
B
t
T
t
C
;T ;
j ( ) ? ( )j j ? j( ( ) + 1)
u t; x
ce qui entra^ne que
@u
@t
La bornitude locale de
u s; x
C t
s
u t; x
est localement borne sur [0 [R.
;T
@2u
@x2
@u
Elle est obtenue par la bornitude locale de @u
@t , @x et
es le lemme 3.30.
continuite de @u
@x sur [0 [ R d'apr
;T
Bu
et (3.55). Cela donne la
Chapitre 4
Localisation, Discretisation et
Convergence
Nous avons deja montre que le prix d'une option americaine dans ce modele avec des sauts
est la solution de l'inequation variationnelle (3.3), si appartient a W 1;2; (R).
Pratiquement, pour calculer le prix u , nous nous ramenons, donc, a chercher une solution
numerique de (3.3). Cela se fait en trois etapes :
1. Localisation du probleme ( C'est a dire que nous nous ramenerons a un ouvert borne
de R du type fx 2 R; jxj < lg ou l est une constante positive).
2. Discretisation de (3.3) sur cet ensemble borne et etude de la convergence.
3. Resolution du probleme discretise par certains algorithmes. Ce point sera traite dans
le chapitre 6.
4.1 Localisation du probleme
On note, comme precedemment, Xst;x le ot associe a l'equation di erentielle stochastique
(1.11), i.e :
(
Xt = x
P Z)
2
dXs = ( ? 2 )ds + dBs + d( N
j =1 j
s
pour s t
On a la forme explicite :
Xst;x
N
X
2
s
Zj
= x + ( ? 2 )(s ? t) + (Bs ? Bt ) +
j =N +1
t
Pour localiser le probleme, on introduit d'abord :
T t;x = inf fs > t ; jXst;x j > lg
l
83
(4.1)
84
Chapitre 4. Localisation, Discretisation et Convergence
et on note :
u (t; x) = sup
2Tt;T
l
E [e?r ^T
(
t;x
l
?t) (X t;x )]
^T
(4.2)
t;x
l
Par ailleurs, dans le chapitre 1, on a deja vu que le prix d'une option americaine est donne
par :
u (t; x) = sup E (e?r( ?t) (Xt;x ))
2Tt;T
La proposition 4.1 dira que pour calculer u (t; x), il sut de calculer u (t; x).
l
Proposition 4.1 Si l'on a l'hypothese (H), et de plus, si (x) 2 W
verge uniformement vers u sur tout compact, i.e :
8 R > 0;
lim
;;
12
(R), alors u conl
ju (t; x) ? u (t; x)j = 0
sup
l!1 (t;x)2[0;T ][?R;+R]
l
Demonstration : A partir des de nitions des fonctions u(t; x) et u(t; x), on a :
ju (t; x) ? u(t; x)j
sup E j[e?r ?t (Xt;x ) ? e?r ^T ?t (Xt;x^T )]1fT < g j
l
l
(
2Tt;T
)
t;x
l
(
sup E [(e?r ?t j (Xt;x )j + e?r ^T
(
2Tt;T
)
(
E [2 sup j (Xst;x )j1fT
t;x
l
s2[t;T ]
s
t;x
l
)
t;x
l
t;x
l
?t) j (X t;x )j)1
fT < g]
^T
t;x
l
t;x
l
<T g ]
q
2M E exp(2M sup jXst;xj) P (T t;x < T )
l
t;T ]
[
en utilisant l'inegalite de Cauchy-Schwartz et j (x)j MeM jxj.
Puisque Ee jZ1 j < +1, par (3.41), il n'est pas dicile de voir que :
sup
t;x)2[0;T ][?R;R]
(
E (exp(2M sup jXst;xj)) C < +1
1
s2[t;T ]
ou C1 est une constante independante de l. On a, donc :
(
sup
t;x)2[0;T ][?R;R]
p
ju(t; x) ? u (t; x)j 2M C1
l
sup
q
R
t;x)2[0;T ]fx2 ; jxjRg
(
P(T t;x < T )
l
Pour en deduire le resultat enonce dans la proposition, il sut de montrer que :
lim
sup
l!1 (t;x)2[0;T ][?R;R]
P(T t;x < T ) = 0
l
En e et, a partir de la de nition de T t;x , on sait que :
l
fT t;x < T g = f sup jXst;xj > lg
l
s2[t;T ]
4.1. Localisation du probleme
or :
85
Xst;x = x + ( ?
2 )(s ? t) + (Bs ? Bt ) +
Donc :
f sup jXst;x j > lg f sup j(Bs ? Bt ) +
s2[t;T ]
Ns
X
2
s2[t;T ]
Ns
X
j =Nt +1
j =Nt +1
Zj
Zj j > l ? j ?
2
2 jT ? Rg
D'ou, en utilisant (3.52),
P f sup jXst;x j > lg
tsT
P f sup jBs +
0sT ?t
P f sup jBs +
0sT
Ns
X
2
Z j > l ? j ? jT ? Rg
j =1
j
2
Ns
X
2
Z j > l ? j ? jT ? Rg
j =1
j
2
P ( sup jBsj > l ? j ? 22 jT ? R ) + P ( sup
2
0sT
Ns
X
jZ j > l ? j ? 2 jT ? R )
2
0sT j =1
j
2
S
en tenant compte du fait que fjaj + jbj > M g fjaj > M2 g fjbj > M2 g. Or, en utilisant
l'inegalite P(Yt > a) e?a E(eYt ), on a :
P ( sup
Ns
X
jZ j > l ? R ? j ? 2 jT )
2
j
0sT j =1
2
NT
X
P ( jZj j > l ? R ? j2 ? 2 jT )
j =1
NT
l?R?j? jT
X
e?
E exp( jZ j)
2
2
2
2
j =1
j
l?R?j? jT
e? 2 2 exp(T (E ejZ1j ? 1))
P T jZj j) = exp(T (E ejZ1j ? 1)) (Voir (3.40)). Par ailleurs,
en remarquant le fait que E (exp( Nj =1
2
P ( sup jBs j) >
0sT
P ( sup
l ? R ? j ? 2 jT
2
2
)
l ? R ? j ? 2 jT
2
) + P ( sup ?Bs ) >
l ? R ? j ? 2 jT
2
)
2
2
0sT
Comme (?Bs )s0 est encore un mouvement Brownien et en utilisant l'inegalite : P (sup0sT Bs a
a) e? T (cf. [28] Chapitre V, la section 2.1), on a :
0sT
Bs ) >
2
P ( sup jBsj) >
0sT
l ? R ? j ? 2 jT
2
2
(l?R?j? 2 jT )
4 2 T
) 2e?
2
2
86
Chapitre 4. Localisation, Discretisation et Convergence
On obtient, nalement,
ju (t; x) ? ul(t; x)j
l?R?j? p
T
2M C1 (2e?
(
4 2
2
2
jT )2
l?R?j? 2 jT
2
)1=2
+ C2 e?
2
(4.3)
ou C2 = exp(T (E ejZ j ? 1)), ce qui entra^ne la proposition.
1
4.2
L'egalite u = u
l
l
4.2.1 L'existence, l'unicite et la regularite du probleme localise
Pour le calcul de ul , on introduit les notations suivants :
=
@ l =
Hl =
Vl =
W m;p( l) =
l
fx 2 R; jxj < lg = ] ? l; l [
fx 2 R; jxj = lg
L2 ( l)
1;2
ff 2 Hl ; @f
@x 2 Hlg = W ( l)
ff 2 Lp( l) j pour j m; f (j) 2 Lp( l)g
Le theoreme 4.6, qui sera montre par une methode analogue a celle du chapitre 3, mais
dans le cas d'un ouvert borne, nous permettra de dire que ul est la solution de l'inequation
parabolique suivante, si 2 W 2;2; (R) :
Trouver ul 2 L2 ([0; T ]; W 2;2 ( l )) tel que
@ul 2 L2([0; T ]; L2 ( )) et
l
@t
8
l
>
l
< maxf @u
@t + Aul + B ul ; ? ulg = 0 dans [0; T ] t; x) = (x)
si x 2 @ l
>
: uull((T;
x) = (x)
l
(4.4)
ou :
2 2
2 @ul
? rul
Aul = 2 @@xu2l + ( ? 2 ) @x
Z
Z
(ul (t; x + z ) ? ul (t; x)) (dz ) + B lul = z;z+x2
l
z;z+x62
l
( (x + z ) ? ul (t; x)) (dz )
Remarquons que, maintenant, l'operateur B l n'est plus lineaire, par ailleurs, la solution ul
du probleme (4.4) est une fonction de nie sur l.
E videmment, on doit d'abord montrer l'existence et l'unicite de la solution du probleme
(4.4). La seule diculte vient du fait que l'operateur B l 62 L(L2 ( l ); L2 ( l )). Pour l'eviter,
4.2. L'egalite ul = ul
87
on introduit un operateur B~ qui est de nie par :
B~ u = l
l
Z
l
Z
z;z
= [
(u (t; x + z ) ? u (t; x)) (dz ) + l
+2
x
l
+2
l
z;z
l
z;z
u (t; x + z) (dz) ? u (t; x)]
l
x
Z
(0 ? u (t; x)) (dz )
l
+ 62
x
l
(4.5)
l
Alors, le probleme (4.4) peut ^etre ecrit sous la forme suivante :
@u 2 L2([0; T ]; L2 ( )) et
@t
Trouver u 2 L2 ([0; T ]; W 2 2 ( )) tel que
;
l
l
l
l
8
>
~
< maxf @u
@t + Au + B u + f; ? u g = 0 dans [0; T ] t; x) = (x)
si x 2 @
>
: uu ((T;
x) = (x)
l
l
l
l
l
l
l
(4.6)
l
l
avec :
f =
Posons :
Z
z;z
+ 62
x
(x + z ) (dz )
l
Z
Z
Z 2 @u @v
2 ) @u vdx
dx
+
ruvdx
?
(
?
a(u; v) =
2 @x
Z 2 @x @x
b(u; v) = ? (B~ u)vdx
l
l
l
l
l
On a evidemment, par une integration par parties, que :
(Au; v) = ?a(u; v) 8 u; v 2 D( )
(B~ u; v) = ?b(u; v) 8 u; v 2 D( )
l
l
l
l
l
ou (; ) designe le produit scalaire de H .
La formulation variationnelle du probleme (4.6) peut, alors, ^etre ecrite :
l
l
@u 2 L2([0; T ]; H ) et
@t
Trouver u 2 L2 ([0; T ]; V ) tel que
l
l
l
l
8 u (T; ) =
>
>
[0; T ] >
< uu (t;x) = (x) sip:p:x 2dans
@
>
8
v
2
V
;
v
;
on
a
:
>
>
: ?( @u ; v ? u ) + a(u ; v ? u ) + b(u ; v ? u ) ? (f; v ? u ) 0
@t
l
l
l
l
l
l
l
(4.7)
l
l
l
l l
l
l
l
l
l
l
l
l l
En reprenant les demonstrations du chapitre 3, on peut obtenir l'equivalence entre le probleme
(4.6) et (4.7) sous certain condition de regularite, et de plus, l'existence et l'unicite de la
solution du probleme (4.7), si l'on reussit a montrer que B~ 2 L(L2 ( ); L2 ( )).
l
l
l
88
Chapitre 4. Localisation, Discretisation et Convergence
Proposition 4.2 Supposons 2 V et f 2 H . Et soit u une fonction de [0; T ] dans
R tel que : u 2 L2([0; T ]; W 2;2( )) et @[email protected] 2 L2 ([0; T ]; H ). Alors, les problemes (4.6) et
l
l
l
(4.7) sont equivalentes.
l
l
l
Theoreme 4.3 Soit 2 V , et supposons f 2 L2 ([0; T ]; L2 ( )). Alors, il existe une et une
2
seule fonction u 2 L2 ([0; T ]; V ) telle que @u
@t 2 L ([0; T ]; H ) et u veri e (4.7). De plus, la
fonction u est dans L1([0; T ]; V ).
l
l
l
l
l
l
l
l
Il sut, donc, de montrer le lemme suivant :
Lemme 4.4 L'operateur B~ de ni par (4.5) est un operateur lineaire borne sur L2( ):
l
l
Demonstration : A partir de la de nition de l'operateur B~ , on a :
l
jB~ u j2L2 ( ) =
l
l
Z
=
(B~ u )2 dx
l
l
l
Z
l
2
22
dx [
Z
Z
l
dx [
z;x+z 2
Z
l
z;x+z 2
u (t; x + z ) (dz ) ? u (t; x)]2
l
l
l
u 2 (t; x + z ) (dz ) + u 2 (t; x)]
l
l
l
R
R
en utilisant les faits que : (a ? b)2 2(a2 + b2 ) et ( f (dz ))2 f 2 (dz ). De plus, par le
theoreme de Fubini, on deduit :
jB~ u j2L2 (
l
l
Z
l
)
22 [ (dz)
42 ju j2L2 ( )
l
Z
z;x+z 2
u 2 (t; x + z )dx + ju j2L2 ( ) ]
l
l
l
l
l
D'autre part, revenant a la de nition de B~ , il est facile de voir que l'operateur B~ est lineaire.
D'ou B~ 2 L(L2 ( ); L2 ( )).
l
l
l
l
l
Pour revenir a l'inequation parabolique (4.4), d'apres la proposition 4.2, on aura besoin
du theoreme de regularite sur l'ouvert borne . C'est le theoreme 4.5 suivant, qui peut ^etre
montre en suivant exactement la m^eme methode que dans le theoreme 3.10.
l
Theoreme 4.5 Supposons 2 W 2;2; (R) et f 2 L2([0; T ]; H ), la solution u de l'inequation
variationnelle (4.7) veri e :
l
u
l
2 L2([0; T ]; W 2;2( ))
l
l
4.2. L'egalite ul = ul
89
4.2.2 L'egalite u = u
l
l
Dans la section 4.2.1, on a deja prouve que : si 2 W 2;2; (R), alors, il existe une fonction unique u (t; x) appartient a L2 ([0; T ]; W 2;2 ( )) tel que @[email protected] 2 L2 ([0; T ]; H ) et veri ant
l'inequation parabolique (4.4). Maintenant, on va montrer que cette fonction concide avec la
fonction u (t; x) de nie par (4.2), si la fonction est, de plus, uniformement continue sur
R. On voit que, dans le cas qui nous interesse, par exemple, le put americain, la fonction
veri e cette condition.
l
l
l
l
l
Theoreme 4.6 Supposons que 2 W
sur R. On a, alors,
;;
22
(R) et est une fonction uniformement continue
u (t; x) = u (t; x) sur [0; T ] ou u (t; x) est de ni par (4.2) et u (t; x) est la solution unique du probleme (4.4).
l
l
l
l
l
On remarque, tout d'abord, qu'il nous faut montrer que :
e?r t^T u(t ^ T x; Xtx^T ) ?
(
x
)
l
x
l
l
Z t^T
x
l
0
e?rs( @u
@s + Au + B u)(s; Xs )ds
l
est une martingale. Neanmoins, la diculte vient du fait que u 62 C 2 et qu'on ne peut pas
a priori utiliser la formule d'Ito avec sauts. En realite, on le fait par approximation. D'autre
part, les termes de sauts peuvent poser des dicultes quand on localise le probleme. La
demonstration se fera en deux etapes.
Demonstration : (Demonstration du theoreme 4.6)
1. Premiere etape :
Comme 2 W 2;2; (R), d'apres les resultats de la section precedente, on sait qu'il
existe une unique fonction u sur [0; T ] telle que @[email protected] appartient a L2 ([0; T ]; H ) et
u appartient a L2([0; T ]; W 2;2( )) et veri e l'inequation parabolique (4.4).
Notons :
8
>
< u (t; x) pour (t; x) 2 [0; T ] u(t; x) = > u (0; x) pour (t; x) 2 (?1; 0) : (x) Sinon
Puisque u (T; x) = (x), et u (t; x) = (x) si x 2 @ , il est clair que u (t; x) est une
fonction continue sur RR. D'ou :
l
l
l
l
l
l
l
l
l
l
l
l
l
l
u (t; x) 2 Lloc(R; Lloc(R))
l
1
1
Soient (m )m1 (resp. (m )m1 ) deux suites de fonction de classe C 1 sur R (resp. R ) a
R
R
support compact, m 0 et m = 1 avec suppm ] ? m1 ; m1 [ (resp. m 0 et m =
90
Chapitre 4. Localisation, Discretisation et Convergence
1 avec supp m ] ? m1 ; m1 [), on pose :
um(t; x) = uZ (Zm m)(t; x)
=
u(t ? s; x ? y)m (y)m (s)dyds
R R
D'ou :
um (t; x) 2 C 1(R R)
Par consequent, en remarquant la de nition de u(t; x) et le fait que u est continue sur
[0; T ] et uniformement continue,
l
l
um (t; x) converge uniformement vers u(t; x) sur [0; T ] R:
(4.8)
Par ailleurs, puisque u 2 L2 ([0; T ]; W 2;2 ( )) et @[email protected] 2 L2 ([0; T ]; L2 ( )), par le lemme
3.22, on obtient :
um ?! u dans L2([0; T ]; W 2;2 ( ))
l
l
l
l
l
l
@um ?! @u dans L2([0; T ]; L2 ( ))
@t
@t
@um + Au ?! @u + Au dans L2([0; T ]; L2 ( ))
m
@t
@t
l
l
D'ou :
(4.9)
l
l
De plus, on a :
l
Bum ?! B u dans L2([0; T ]; L2 ( ))
En e et : Pour (t; x) quelconque xee dans [0; T ] ,
l
l
(4.10)
l
l
Z
Bum = um (t; x + z) (dz) ? um (t; x)
Bu =
l
Z
l
=
Z
z;x+z2
u (t; x + z) (dz) +
l
l
u(t; x + z) (dz) ? u (t; x)
Z
z;x+z62
(x + z ) (dz ) ? u (t; x)
l
l
l
Z
jBum ? B u j jum (t; x + z) ? u(t; x + z)j (dz) + jum (t; x) ? u (t; x)j
l
l
l
D'ou :
jBum ? B u j2L2 ([0;T ]; L2( ))
Z
Z
=
ds jBum ? B u j2 dx
l
2
l
[0Z;T ]
l
l
l
Z
l
dx (jum ? uj2L1([0;T ]R) + jum ? u j2L1([0;T ] ) )
= 4T mes( ) jum ? uj2L1 ([0;T ]R)
! 0 en utilisant (4.8)
[0;T ]
ds
l
l
l
l
4.2. L'egalite ul = ul
91
D'autre part, par la remarque 3.21, on a : j (x)j C exp( 2 jxj) car appartient a
W 2;2; (R). Or u est une fonction continue sur [0; T ] , en revenant a la de nition
de u(t; x), on deduit facilement que :
l
l
ju(t; x)j C exp( jxj) sur [0; T ] R
Ce qui entra^ne, par la remarque 3.24 2),
jum (t; x)j C exp( jxj) sur [0; T ] R
(4.11)
Maintenant, gr^ace au fait que um 2 C 1([0; T ] R) et (4.11), on peut utiliser le lemme
3.18 ( plut^ot la remarque 3.19 ), cela nous donne que :
M ^T
= e?r( ^T ?t) um ( ^ T t;x; X x^T )
t;x
l
t;x
l
Z ^T t;x
l
?
t
t;x
l
l
e?r(s?t) ( @[email protected] + Aum + Bum )(s; Xs )ds
(4.12)
est une martingale, ou T t;x = inf fs t j Xst;x 62 g. D'ou, par le theoreme d'arr^et,
pour tout temps d'arr^et a valeurs [t; T ],
l
l
E e?r ^T
(
t;x
l
?t) um ( ^ T t;x; X x
^T )
Z ^T
?r(s?t) @um
t;x
l
l
t;x
l
= um (t; x) + E
( @s + Aum + Bum )(s; Xs )ds
Puisque um converge vers u uniformement sur [0; T ] R ( Voir (4.8) ), d'ou :
t
e
um (t; x) ?! u(t; x) si m ! 1
E e?r ^T
(
t;x
l
?r( ^T ?t) u( ^ T t;x ; X x
?t) um ( ^ T t;x; X x
^T ) ?! E e
^T )
t;x
l
t;x
l
l
l
t;x
l
De plus, en tenant compte des (4.9), (4.10) et remarquant que T t;x est la m^eme chose
que t;x dans la remarque 3.16 2), donc, en utilisant la remarque 3.16 2), on a :
l
R
E
Z ^T t;x
l
m
t;x
e?r(s?t) ( @u
@s + Aum + Bum )(s; Xs )ds
t
Z ^T
t;x
?! E
e?r(s?t) ( @u
@s + Au + B u )(s; Xs )ds
t
t;x
l
l
l
l
l
ce qui donne :
E e?r ^T
(
t;x
l
?t) u( ^ T t;x ; X x
^T )
Z ^T
?r(s?t) @u
= u(t; x) + E
t;x
l
l
t;x
l
t
e
( @s + Au + B u )(s; Xs )ds
l
l
l
l
(4.13)
92
Chapitre 4. Localisation, Discretisation et Convergence
2. Deuxieme etape :
Au + Bu 0 p.p sur [0; T ] , on deduit de l'egalite (4.13) que
e
u ^T t;x; X x^T ) est une sur-martingale. Puisque u p.p sur [0; T ]
et u = en dehors de , d'ou u p.p sur [0; T ] R. Par ailleurs, pour t quelconque
xe dans [0; t], on a, 8 2 Tt;T ,
Comme
@ul +
@t
?r( ^Tl ?t) (
l
l
l
t;x
t;x
l
l
l
l
l
e?r t^T ?t u(t ^ T t;x; Xtx^T ) E (e?r ^T ?t u( ^ T t;x; Xx^T )jFt )
E (e?r ^T ?t (X ^T )jFt )
(
t;x
)
l
t;x
(
t;x
l
)
l
t;x
(
)
l
t;x
l
l
l
t;x
l
D'ou, puisque T t;x t,
l
u (t; Xt ) sup E (e?r ^T ?t (X ^T )jFt )
2T
(
l
t;x
l
)
t;x
l
t;T
= sup E (e?r( ^T ?t) (Xt;x^T ))jx=X
2T
= u (t; Xt )
par (4.2)
t;x
l
t;x
l
t;T
t
l
D'autre part, posons :
t = inf fT t;x s t j
(Xs ) = u(s; Xs ) g
l
Il n'est pas dicile de voir l'existence de t . En e et : Pour jXT j > l, par la de nition
de la fonction u, on sait que u(T t;x ; XT ) = (XT ). Donc, pour t s < t < T t;x,
on a :
(Xs ) < u(s; Xs ) = u (s; Xs )
De plus, par les proprietes de u et l'existence d'une densite pour le ot, on a :
t;x
l
t;x
l
l
t;x
l
l
l
l
( @u
@s + Au + B u )(s; Xs ) = 0 ds dP presque partout sur fs < t g
l
l
l
l
En e et : puisque u veri e :
l
(u ? )( @u
@t + Au + B u ) = 0 dt dx presque partout
On peut, alors, ecrire :
l
l
l
l
l
dt dx[f(t; x) j ( ? u )( @u
@t + Au + B u ) 6= 0g] = 0
l
l
l
l
l
ou dt, dx designent les mesures de Lebesgue respectivement sur [0; T ] et sur ] ? l; l[.
Pour dt-presque tout t, on a :
dx[fx j ( ? u )( @u
@t + Au + B u ) 6= 0g] = 0
l
l
l
l
l
4.2. L'egalite ul = ul
93
Or Xs a une densite, donc la loi de Xs est continue par rapport a la mesure dx. D'ou :
P [fx j ( ? u )( @u
@t + Au + B u ) 6= 0g] = 0
l
Xt
Donc :
l
l
l
l
( ? u )( @u
@t + Au + B u ) = 0 dt dP p:s
l
l
l
l
l
Or, sur fs < t g, on a (Xs ) < u (s; Xs ) dt dP p:s, ce qui donne ( @[email protected] + Au + B u ) = 0
dt dP p:s sur fs < t g.
D'autre part, remarquant que M ^T ( Voir (4.12) ) est une martingale, en suivant le
m^eme raisonnement pour obtenir (4.13), mais, en utilisant le theoreme d'arr^et pour t
et t au lieu de et t, on obtient :
l
l
l
l
l
t;x
l
E e?r ^T
(
t
t;x
l
?t) u(t ^ T t;x ; X x
) = E e?r(t^T ?t) u(t ^ T t;x ; Xtx^T )
= E u (t; Xt )
t;x
t ^Tl
l
t;x
l
l
t;x
l
l
Par la de nition de t , on a :
u(t ^ T t;x; Xx ^T ) = (Xx ^T )
l
t;x
t
t;x
t
l
l
Ce qui donne :
E u (t; Xt ) = E e?r ^T ?t (Xx ^T )
= E (E (e?r ^T ?t (Xx ^T )jFt ))
(
l
t;x
t
)
l
t
(
t;x
t
t;x
l
)
l
t
t;x
l
D'ou :
u (t; Xt ) sup E e?r ^T ?t (Xx^T )jFt )
2T
= sup E (e?r ^T ?t (Xx^T ))jx X
t;x
(
l
l
)
t;x
l
t;T
(
2Tt;T
= u (t; Xt )
u (t; Xt ) = u (t; Xt )
l
D'ou :
l
l
l
u (t; x) = u (t; x)
l
)
t;x
l
=
t
par (4.2)
l
On a, alors,
t;x
l
p:s
pour (t; x) 2 [0; T ] l
De plus, en adaptant la demonstration du lemme 1.10 de [23] au cas d'un ouvert borne
, on a le lemme de continuite L1.
94
Chapitre 4. Localisation, Discretisation et Convergence
Si et ^ sont des fonctions dans W 1;2; (R) et si ?
solutions u ( resp. u^ ) de l'inequation variationnelle (4.7) associee a
Lemme 4.7
l
l
u
et
l
l
? u^ 2 L1([0; T ] )
l
l
ku ? u^ kL1 ([0;T ] ) k ? ^kL1(
l
^ 2 L1 ( ), alors les
( resp. ^ ) veri ent :
l
l
l
)
Demonstration : Supposons u" (resp. u^") est la solution du probleme penalise de (4.7)
associe a (resp. ^) :
1
"
; v) + a(u" ; v) + b(u" ; v) ? (f; v) + ( (u" ); v) = 0
?( @u
@t
"
l
l
l
8v 2 V
l
R
R
avec : () = ?( ?)+ et f = z;x+z62 (x + z ) (dz ) (resp. f^ = z;x+z62 ^(x + z ) (dz )).
Posons : w = (u" ? u^" ? K )+ avec K = k ? ^kL1 ( ) , on a, en prenant v = w :
? ( @w ; w) + a(w; w) + b(w; w) + a(K; w) + b(K; w) ? (f ? f;^ w) + 1 ( (u ) ? (^u ); w) = 0
l
l
l
@t
Or :
l
l
^ w) = (
b(K; w) ? (f ? f;
Z
z;x+z 62
l
"
"
"
l
(4.14)
(K ? ( ? ^)) (dz ); w)
et compte tenu du fait que K ? ( ? ^) 0, on voit que b(K; w) ? (f ? f;^ w) est positive.
R
Par ailleurs, a(K; w) = Kr wdx > 0 et remarquons :
( (u" ) ? (^u" ); w) 0
l
on deduit, de (4.14),
; w) + a(w; w) + b(w; w) 0
? ( @w
@t
(4.15)
En suivant la m^eme raisonnement du lemme 3.4, on peut montrer qu'il existe deux reels
strictement positifs et tel que :
l
a(w; w) + b(w; w) + jwj2H
kwk2V
l
l
ce qui entra^ne que :
? 12 dtd jwj2H ? 21 dtd jwj2H + kwk2V
? 21 dtd jwj2H + a(w; w) + b(w; w) + jwj2H
l
l
en utilisant (4.15). On a :
jwj2
l
l
Hl
d
(jwj2H e2t ) 0
dt
l
l
4.3. Discretisation du probleme
95
Cela implique que jwj2H e2t est une fonction croissante en t. Or w(T ) = 0, d'ou : w = 0. On
obtient nalement les resultats enonces en faisant passer a la limite.
l
En utilisant la proposition 3.25, on peut montrer le theoreme 4.8 par la m^eme methode
que pour le theoreme 3.26.
Theoreme 4.8 Supposons que 2 W 1;2; (R), alors la solution u de l'inequation variationnelle (4.7) associee a egale a u (t; x) qui est de ni par (4.2).
Selon les resultats precedents, nous savons que le calcul du prix d'une option americaine se
ramene a la resolution de l'inequation variationnelle (4.7). La discretisation de ce probleme
fait l'objet de la prochaine section.
l
l
4.3 Discretisation du probleme
Nous nous interessons maintenant au cas ou Z1 admet une densite g (i.e : (dz ) = g(z )dz ).
Nous supposons de plus que cette fonction de densite g est de classe C 1 . Un exemple important
de cette situation est le cas ou U1 + 1 suit une loi log-normale, car on a alors des formules
simples pour le prix des options europeennes (cf. [32]).
Pour discretiser (4.7) par la methode des di erences nies, on le transforme, d'abord, en
un probleme homogene. Supposons qu'on ait une fonction ~ de R dans R veri ant :
~ est reguliere dans R( de classe C 2).
~ = dans un voisinage ouvert de @ .
l
Il n'est pas dicile de voir que ceci est possible pour tous les cas pratiques d'obstacle que
nous traitons. On voit facilement que le probleme (4.7) est equivalent au probleme homogene
suivant, apres changement de variable, u~ = u ? ~,
l
l
Trouver u 2 L2 ([0; T ]; V ) tel que
l
l
@u 2 L2([0; T ]; H ) et
@t
l
l
8 u (T; ) = >>
p:p: dans [0; T ] >< u u (t; x) = 0
si x 2 @
>> 8v 2 V ; v ; on a :
>: @u
?( @t ; v ? u ) + a(u ; v ? u ) + b(u ; v ? u ) ? (f;~ v ? u ) 0
l
l
l
l
l
l
l
l
l
l
avec :
l l
l
l
l
l
f~ = A ~ + B~ ~ + f; f = = ?~
l
l
l
l
Z
z;z +x62
l l
(x + z ) (dz )
l
(4.16)
96
Chapitre 4. Localisation, Discretisation et Convergence
Desormais, pour alleger l'ecriture, on peut noter u~ par un nouveau u , f~ par un nouveau f
dans (4.16). Comme ~ est une fonction assez reguliere, on voit que la fonction a au moins
la m^eme regularite que . D'autre part, il est clair que, si appartient a V , sous la condition
(H) : Ee jZ1 j < +1, la fonction f donnee au dessus est au moins dans H . En e et, comme :
l
f = A ~ + B~ ~ + R
l
l
Z
z;z +x62
(x + z ) (dz );
l
on voit qu'il sut de veri er que z;z+x62 (x + z ) (dz ) 2 H . Or, en utilisant le theoreme
de Fubini et le fait que e? jxj e jzj e? jx+zj, on a :
l
j
Z
z;z +x62
l
(x + z ) (dz )j2 Z
Z
dx
Z
x+z 62
(dz) e
Ee jZ1 jj j2
2 (x + z ) (dz ) e? jxj
l
jzj Z
2 (x + z )e? jx+zj dx
Avant de discretiser le probleme, on introduit les notations :
K = fv j v 2 V ; v p:p sur g
l
l
2
W (0; T ) = fv j v 2 L2 ([0; T ]; V ); @v
@t 2 L ([0; T ]; H )g
K = fv j v 2 W (0; T ); v(t) 2 K; p:p: t 2 [0; T ] g
K0 = fv j v 2 K; v = 0 sur @ ; v(T ) = g
l
l
l
(4.17)
(4.18)
(4.16) peut ^etre ecrit de la facon suivant :
(
Trouver u 2 K0 tel que :
(u0 + Au + B~ u + f; v ? u) 0 p:p t 2 [0; T ] 8 v 2 K
l
(4.19)
En e et, (4.19) est une forme instantanee equivalente de l'inequation suivante :
(
u 2 K0 tel que :
RTrouver
(4.20)
T (u0 + Au + B
~ u + f; v ? u)dt 0 8 v 2 K
0
Nous traitons, d'abord, le cas ou 2 W 2;2; (R), ce qui implique 2 W 2;2; (R) et f 2 H .
Nous a aiblissons ensuite l'hypothese sur en prenant 2 W 1;2; (R) (voir la section 4.4.4).
Dans ce cas, nous avons 2 W 1;2; (R) et f 2 H .
Le probleme (4.19) va ^etre discretise par la methode des di erences nies exposee dans
[22]. Precisement, soit h 2 R, h > 0, h destine a tendre vers 0, et :
l
l
l
Rh = fM j M = mh; m 2 Zg
A chaque M dans Rh , on associe l'intervalle :
Wh0 (M ) =](m ? 21 )h; (m + 12 )h[
4.3. Discretisation du probleme
97
On pose, alors :
= fM 2 Rh ; Wh0 (M ) l g
m1 = inf fm j mh 2 hg
m2 = supfm j mh 2 hg
h
et nous notons Vh l'espace engendre par les fonctions Mh ou Mh est la fonction indicatrice de
Wh0(M ) et M 2 h . Un element uh de Vh est de la forme :
uh (x) =
Xm uj1](j? )h; (j+ )h](x)
2
1
2
j =m1
1
2
La fonction uh peut ^etre representee par la gure suivante :
ui
um
-l
u i-1
u i+1
1
m1 h
(i-1)h
ih
(i+1)h
De plus, on approche les derivees par des quotients di erentiels :
'(x) = h1 ['(x + h2 ) ? '(x ? h2 )]
De nissons :
8 u h ; v h 2 Vh
(uh ; vh )h = uh vhdx
Z
et
l
um
2
m2 h
l
(4.21)
q
jvhjh = (vh ; vh)h = jvhjL2 ( l )
kvhkh = [jvh j2L2( l ) + jvh j2L2 ( l) ] 21
Il est facile de voir que ces normes veri ent les inegalites suivantes :
jvhjh kvhkh
kvh kh Ch0 jvhjh
8vh 2 Vh
8vh 2 Vh
(4.22)
98
Chapitre 4. Localisation, Discretisation et Convergence
p
ou C0 = 5 quand h < 1. Le deuxieme inegalite resulte des faits suivants : partant de la
de nition de l'operateur et remarquant que vh est nul en dehors de [(m1 ? 21 )h; (m2 + 21 )h],
on a :
v
( + h2 ) ? vh ( ? h2 ) 2
h
2
jvh jL2 ( l) =
h
=
l
h22
Or,
L2 ( l )
1 v (x + h ) ? v (x ? h )2 dx
h
h2 h
2
2
Z
Z
h
l+ 2
h42 jvh j2L2(
v2 (y)dy +
Z
h
h
l? 2
v2 (y)dy
!
h
l)
i1
h
kvhkh = jvh j2L2( l ) + jvh j2L2 (
l)
2
1
4
2
jvh L ( l ) + h2 jvhjL2 ( l ) 2
r
= 1 + h42 jvh jL2 ( l )
j2 2
p
Si l'on prend 0 < h 1, on obtient (4.22) avec C0 = 5.
De plus, on a le lemme suivant.
Lemme 4.9 Soit (uh)h>0 une famille de fonctions telles que uh 2 Vh pour tout h. Si uh
converge vers u faiblement dans L2 ( l ) quand h tend vers 0 et uh est borne dans L2 ( l ).
Alors, on a :
uh ?! u
fortement dans L2 ( l )
Remarque 4.10 Le lemme 4.9 equivaut a dire que : si les conditions du lemme 4.9 sont
veri es, alors, uh est relativement compact dans L2 ( l ).
Demonstration : On va introduire une variable intermediaire uh. Si l'on montre qu'elle
veri e les conditions suivantes :
1) juh ? uhjL2 ( l ) ?! 0
si h ! 0
uh j 2 C ju j 2 C
2) j @@x
h L ( l)
L ( l)
alors, comme uh converge vers u faiblement dans L2 ( l ), 1) entra^ne que uh converge vers
u faiblement dans L2 ( l). De plus, par 2), on sait qu'il existe une sous suite de uh, (notee
encore uh ); qui converge fortement. D'ou uh converge fortement vers u. Comme :
juh ? ujL2 ( l) juh ? uhjL2 ( l ) + juh ? ujL2( l ) ;
4.3. Discretisation du probleme
99
on obtient le resultat enonce en utilisant de nouveau 1).
Maintenant, le probleme est comment construire uh ?
Notons :
m1 ? 1 i m 2 ;
uh = (ui )
ei = [ih; (i + 1)h[
m 1 i < m2
A partir de la de nition de Vh , il n'est pas dicile de voir que uh est nul sur les ensembles
](m2 + 12 )h; l[ et ] ? l; (m1 ? 21 )h[. Notons : ui = uh (ih) pour m1 i m2 , on construit la
fonction uh , qui est de nie sur =] ? l; l[, de la facon suivante : (voir la gure suivante )
l
ui+1 ? ui (x ? ih) + u
= 8
i
h
u
1
>
< m1 (x ? (m1 ? )h)
2
um1 ?1 (x) = > 12 h
:0
8 u
>
< ? 1m2 (x ? (m2 + 1 )h)
2
um2 (x) = > 2 h
:0
si x 2 ei
ui (x)
si x 2 [ (m1 ? 12 )h; m1 h [
si x 2 ] ? l; (m1 ? 12 )h [
si x 2 [ m2 h; (m2 + 12 )h [
si x 2 ] (m2 + 12 )h; l [
uh
uh
-l
m1 h
(i-1)h
ih
(i+1)h
(i+2)h
m 2h
l
Il sut de montrer que uh veri e les deux points enonces au debut de la demonstration. Pour
cela, notons :
m1 i < m 2
e1i = [ ih; (i + 21 )h [
m 1 i < m2
e2i = [ (i + 12 )h; (i + 1)h [
em1 ?1 = [ (m1 ? 12 )h; m1 h [
em2 = [ (m2 h; (m2 + 12 )h [
S
E videmment : e1i e2i = ei . A partir de la de nition de uh et uh , on a :
juh ? uhj2L2 (
l
) =
mX
2 ?1
[
Z
i=m1 e1i
(ui ? ui (x))2 dx +
Z
e2i
(ui+1 ? ui (x))2 dx ]
100
Chapitre 4. Localisation, Discretisation et Convergence
+
=
Z
em1 ?1
m2 ?1
em
(um2 ? um2 (x))2 dx
2
Z
X [ (? ui+1 ? ui (x ? ih))2 dx + Z ( ui+1 ? ui (x ? (i + 1)h))2 dx
h
h
e2i
i=Zm1 e1i
Z
um1
um2
2
2
+ 2
2[
Z
(um1 ? um1 ?1 (x))2 dx +
em1 ?1
m2 ?1
( (x ? m2 h)) dx
( h (m1 h ? x)) dx + 2
em2 h
X h3( ui+1 ? ui )2 + h3( um1 )2 + h3( um2 )2 ]
h
i=m1
Ch2juh j2h
h
h
Or par l'hypothese du lemme 4.9, on sait que uh est borne dans L2 ( l ). Donc, on obtient
que :
juh ? uhjL2( l ) ?! 0
si h ! 0
i.e uh veri e 1).
Par ailleurs, derivant par rapport a x dans la de nition de uh , on a :
uh j2
j @@x
L2 (
D'autre part :
l) =
XZ
m2 ?1
i=m1 ei
juh j2h
C
( ui+1h? ui )2 dx +
Z
em1 ?1
( u1m1 )2 dx +
2h
juhjL2( l ) juhjL2 ( l) + juh ? uhjL2 (
Z
( u1m2 )2 dx
em2 2 h
l)
Or uh est borne dans L2 ( l ) gr^ace au fait que uh converge vers u faiblement dans L2 ( l ) et
remarquons 1), on deduit que uh est borne dans L2 ( l ).
4.3.1 Approximation de a( ; ); et
K
P
R
Nous approximons la fonction par h = M 2 h h (M )Mh ou h (M ) = h1 Wh0 (M ) (x)dx.
1 M^eme chose pour la fonction ~. Comme = ? ~, d'ou la fonction approchee de est
h = h ? ~h . Notons : uj = uh (jh) pour m1 j m2 , s = h (sh) pour s 2 Z. Nous
de nissons, pour uh 2 Vh et m1 j m2 :
Z
Z
Z
2
2 )u v dx
ah(uh; vh) =
u
v
dx
+
ru
v
dx
?
(
?
h
h
h
h
2 hh
l 2
l
l
ah(uh ; vh ) = ?(Ah uh ; vh)
1 Dans la pratique, nous prenons h =
PM2
h
(M )M
h . Nous verrons ce point a la n de ce chapitre.
4.3. Discretisation du probleme
101
On obtient un operateur Ah : Vh ! Vh de ni par :
Ah uh =
ou :
m2
X
j =m1
(Ah uh)j 1](j ? 21 )h; (j + 21 )h]
(Ah uh )j = 2h2 (uj +1 ? 2uj + uj ?1) + ( ? 2 ) uj +1 2?h uj ?1 ? ruj
Par ailleurs, on approche K ( de ni page 96 ) par :
2
2
(4.23)
Kh = fvh 2 Vh; vh(M ) h(M ) M 2 hg
Il n'est pas dicile de voir que Kh est un sous espace convexe ferme de Vh et non vide ( Par
exemple : h 2 Kh ).
4.3.2 Approximation de l'operateur B~ l et de f
Pour traiter l'operateur B~ l , on rappelle, d'abord, (dz ) = g(z )dz (Voir la section 4.3). Comme
l'operateur B~ l peut ^etre ecrit sous la forme suivante :
B~ lu = Z
z;x+z2 l
u(t; x + z)g(z)dz ? u(t; x)
On introduit alors l'operateur Bh : Vh ! Vh de ni par :
Bh uh =
avec :
(Bh uh )j = (
mX
2 ?j
i=m1 ?j
m2
X
j =m1
(Bh uh )j 1](j ? 12 )h; (j + 12 )h]
ui+j gih ? uj )
m1 j m2 gi = g(ih)
(4.24)
Il est clair de voir que i varie entre ?(m2 ? m1 ) et m2 ? m1 . D'ou [gi ] est un vecteur de
dimension au moins de 2(m2 ? m1 ) + 1. On de nit :
bh (uh ; vh ) = ?(Bhuh ; vh)
R
Par ailleurs, rappelons que f = A ~ + B~ l ~ + z;z+x62
fh = P fj 1](j? 21 )h;(j+ 12 )h] avec :
fj = (Ah ~h )j + (Bh ~h )j + l
(x + z ) (dz ), on l'approche par
X
i+j>m2
i+j<m1
i+j gi h
(4.25)
102
Chapitre 4. Localisation, Discretisation et Convergence
4.3.3 Discretisation du temps
Supposons que k est le pas de discretisation en temps. Posons :
N
X
N = [ Tk ] et vh;k (t; x) = vhi (x)1](i?1)k;ik](t)
i=0
Pour x xe dans , t 7! vh;k (t; x) est, eventuellement, une fonction de nie sur l'intervalle
] ? k; T ].
On approche l'operateur de derivation par rapport au temps en posant :
vh;k (t) = vh;k (t + k) ? vh;k (t)
(4.26)
l
k
Le schema d'approximation du probleme (4.19) est alors le suivant. On cherche une solution
approchee de la forme :
N
X
uh;k (t; x) = uih(x)1](i?1)k;ik](t)
i=0
ou uh ; ; u sont des elements de Vh veri ant le systeme suivant :
8 N >
uh = h ;
>
>
8
< i 2 f0; ; N g; uih 2 Kh et uih(m1 h) = uih(m2 h) = 0;
8 i 2 f0; ; N g; 8 vh 2 Kh
>
i?1
i
>
>
: ( uh ?kuh + Ahuhi? + Bhuih? + fh; vh ? uih?1 )h 0
avec et xes dans [0; 1] et :
0
N
h
(4.27)
uih? = uih + (uhi?1 ? uih )
uhi? = uih + (uhi?1 ? uih );
les operateurs Ah et Bh et la fonction fh etant de nis par (4.23), (4.24) et (4.25) respectivement. Le systeme (4.27) donne une relation de recurrence entre uih?1 et uih et se resout de
proche en proche a partir de la condition terminale uNh = h . Si on note :
uh;k (t) =
N
X
i=0
uhi+1? (x)1](i?1)k;ik](t)
= uh;k (t + k) + (uh;k (t) ? uh;k (t + k));
(4.28)
on voit que pour toute fonction vh;k de la forme :
vh;k (t; x) =
N
X
i=0
vhi (x)1](i?1)k;ik](t);
avec v 2 Kh , pour tout i = 0; ; N , on a :
i
h
Z T ?k
0
(uh;k + Ah uh;k + Bh uh;k
+ fh; vh;k ? uh;k )dt 0
Pour = 1 (resp. = 0), (4.27) s'agit du schema implicite (resp. explicite)
(4.29)
4.3. Discretisation du probleme
103
Avant d'etudier la convergence de la solution du probleme discretise, on montre le lemme
suivant, qui joue un r^ole important dans la demonstration du theoreme de convergence.
Lemme 4.11 Soit une famille de fonctions u de la forme : u (t; x) = P =0 u (x)1]( ?1) ](t)
avec u 2 V . On suppose que u veri e les conditions suivantes :
i). ju j 1 ([0 ]; 2( )) C et ju j 1 ([0 ]; 2 ( )) C
ii). Il existe une fonction u veri ant 2 L2 ([0; T ]; L2 ( )) et juj 1 ([0 ]; 2 ( )) C telle
N
h;k
i
h
h
h;k L
h;k
i
h
i
i
k;ik
h;k
;T
L
h;k L
l
;T
L
l
@u
que, quand h et k tendent vers 0 :
?!
?!
uh;k
uh;k
Alors, on a :
uh;k
l
@t
L
;T
L
l
faiblement dans L2 ([0; T ]; L2 ( ))
u
l
@u
faiblement dans L2 ([0; T ]; L2 ( ))
l
@x
?! u fortement dans L2 ([0; T ]; L2 ( ))
l
Demonstration : Il resulte de la de nition de que la condition ju j 1 ([0
h;k L
entra^ne :
ju (t + k; ) ? u (t; )j
;T
]; 2( )) C
L
l
( ) Ck
(4.30)
ou C est constante ne dependant ni de t, ni de k, ni de h. On montre, d'abord, l'inegalite
suivante :
ju (t; ) ? u (s; )j 2 ( ) C (jt ? sj _ k) 8 t; s 2 [0; T ]
(4.31)
Cela se fait en deux etapes :
h;k
h;k
h;k
h;k
L
L2
l
l
1). Si jt ? sj < k, ju (t; ) ? u (s; )j 2 ( ) Ck.
2). Si jt ? sj k, ju (t; ) ? u (s; )j 2 ( ) C jt ? sj.
h;k
h;k
L
l
h;k
h;k
L
l
Pour nous donner une idee precise de la fonction u , nous la representons par la gure
P
suivante en partant de sa de nition u = =0 u 1]( ?1) ](t) :
h;k
N
h;k
i
i
h
i
k;ik
u
i
h
u +1
i
h
0
i ? 1)k
(
ik
i
k
( + 1)
N
104
Chapitre 4. Localisation, Discretisation et Convergence
Supposons . On commence a veri er le premier point 1). Si j ? j
qu'on a deux cas :
s
t
t
s
< k
, il est clair
Soit , se trouvent dans le m^eme intervalle, par exemple, dans ]( ? 1)
cas,
t
s
( )=
uh;k t; x
i
(
k; ik
) = . On a evidemment l'inegalite (4.31).
]. Dans ce
i
u
h
uh;k s; x
Soit , se trouvent dans deux intervalles adjacents, par exemple, 2]( ? 1) ],
2] ( + 1) ]. Comme la valeur de
reste toujours egale a +1 pour tout 2
t
s
s
t
ik; i
k
uh;k
u
] ( + 1) ], on peut, donc, s'arranger de telle sorte que :
ik; i
i
k; ik
i
s
h
k
j
( ) ?
uh;k s;
( )j 2 ( ) = j
uh;k t;
L
( + ) ?
uh;k t
l
( )j 2 ( ) k;
uh;k t;
L
l
Ck
Pour veri er le deuxieme point, il sut de remarquer qu'il existe un entier , 1 , un
reel 1 , 0 1 tel que = + + 1 , et :
n
s
s
k
s
j
t
nk
s
( ) ? ( )j 2 ( )
= j ( + + 1 ) ? ( )j 2 ( )
j ( + + 1 ) ? ( + )j 2 ( )
+ j ( + ) ? ( + ( ? 1) )j 2 ( ) + + j ( + ) ? ( )j 2 ( )
uh;k s;
uh;k t;
L
l
uh;k t
nk
s ;
uh;k t;
uh;k t
nk
s ;
uh;k t
uh;k t
nk;
uh;k t
k;
uh;k t
L
nk;
n
uh;k t;
L
l
L
k;
l
L
l
l
En utilisant le premier point 1) et (4.30), on obtient :
j
( ) ?
uh;k s;
( )j 2 ( ) uh;k t;
L
+
2 ( ?)
l
Ck
C nk
C s
t
a cause des faits que ? , ? .
Maintenant, on commence la demonstration principale de ce lemme. Notons :
k
s
t
nk
s
t
( )=j
( ) ? ( )j2 2 ( )
Pour montrer le lemme 4.11, il sut de veri er que :
Yh;k t
uh;k t;
Z
[0 ]
u t;
( ) ?! 0
Yh;k t dt
;T
L
h; k
l
!0
Pour cela, il sut de montrer les deux points suivants :
i). Pour quelconque xe dans [0 [,
t
;T
( ) ?! 0 ;
Yh;k t
ii). Il existe une fonction 2 1 telle que j
g
L
( )j ( ) pour tout 2 [0 ].
Yh;k t
g t
t
On commence par veri er ii). Cela resulte de l'inegalite :
j
( )j = j ( ) ? ( )j2 2 ( )
2j ( )j2 2 ( ) + 2j ( )j2 2 ( )
Yh;k t
uh;k t;
uh;k t;
u t;
L
l
L
l
u t;
L
l
;T
n
N
4.3. Discretisation du probleme
105
et du fait que juh;k jL1 ([0;T ];L2 ( )) C et jujL1 ([0;T ];L2 ( )) C .
Maintenant, on commence a montrer i). Soit > 0, pour t quelconque xe dans [0; T [, on
R
considere le terme 1 tt+ uh;k (s; x)ds. Puisque :
l
l
Z t+
1
u(s; x)ds ? u(t; x)j
j
t
Z t+
= j 1
(u(s; x) ? u(t; x))dsj
t
Z t+ Z s
( @u (; x)d )dsj
= j1
t
t+
Z
C
t
= pC
Z
[
t+
Z
@s
t
s @u
(; x)d ]2 ds
@s
t
Z
1=2
t+
Z
t
s @u
[ ( @s (; x))2 d ] [s ? t]ds
12 ds
1=2
1=2
t
t
en utilisant deux fois l'inegalite de Cauchy-Schwartz. Par ailleurs, en utilisant le theoreme de
a L2 ([0; T ]; L2 ( )), on obtient :
Fubini, et en remarquant que @u
@t appartient l
j 1
t+
Z
t
u(s; )ds
C
p
= pC
C
= p
? u(t; )jL2 (
t+
Z
t
t
dx
l
Z
s @u
[ ( @s
Z
Z
Z
t+
t
t+
t+
Z
ds
t
l
)
(; ))2 d ] [s ? t]ds
Z
1=2
L2 (
s
[ ( @u
(; x))2 d ] [s ? t]ds
@s
t
(s ? t)
Z
pC ( (s ? t)ds)1=2 t
C p @u
@t L2 ([0;T ];L2 ( ))
p
C s
t
Z
@u
d
l
( @s
(; x))2 dx
)
1=2
l
1=2
@u
@t L2 ([0;T ];L2 (
l
))
l
Ce qui entra^ne que :
1 Z t+ u(s; x)ds ?! u(t; x)
t
(4.32)
dans
L2 (
l
D'autre part, en utilisant (4.31), on a :
Z t+
uh;k (s; )ds ? uh;k (t; )jL2 ( )
j 1
t
Z t+
(u (s; ) ? u (t; ))dsj
= j1
) si ! 0
l
t
h;k
h;k
L2 (
l
)
(4.33)
106
Chapitre 4. Localisation, Discretisation et Convergence
Z t+
1
juh;k (s; ) ? uh;k (t; )jL2 ( )ds
t
l
Z
t+
(jt ? sj _ k)ds
C
t
C ( _ k)
On a par ailleurs, pour t 2 [0; T [ xe et > 0 :
(Yh;k (t))1=2 = juh;k (t; ) ? u(t; )jL2 ( )
t+
juh;k (t; ) ? 1
uh;k (s; )dsjL2 (
(4.34)
l
Z
t
l
)
Z t+
1 Z t+ u(s; )dsj 2
uh;k (s; )ds ?
+ j 1
L ( )
t
t
Z t+
u(s; )ds ? u(t; )j 2
+ j1
l
L
t
C (k _ ) + C p + j 1
d'apres (4.34) et (4.32).
On a donc, pour chaque > 0 :
t+
Z
( )
l
Z t+
1
uh;k (s; )ds ?
u(s; )dsjL2 ( )
t
l
t
Z t+
1 Z t+ u(s; )ds
lim sup (Yh;k (t))1=2 C p + lim sup 1
uh;k (s; )ds ?
(h;k)!(0;0)
(h;k)!(0;0)
t
t
Pour avoir lim Yh;k (t) = 0, il sut donc de montrer que, pour tout > 0
1 Z t+ u (s; )ds ?! 1 Z t+ u(s; )ds
h;k
t
L2 (
l
u
l
h;k
D'autre part, comme :
Z t+
1
(u (s; ))dsj
j
h;k
t
l
t
Z t+
1
j(uh;k (s; ))jL2 ( ) ds
L2 ( ) t
Z
1=2
t+
1
2
j(u (s; ))j
ds
l
l
t
C 1=2
()
h;k
h;k
t
l
)
par suite des hypotheses du lemme
On deduit, du lemme 4.9, que :
1 Z t+ u (s; x)ds ?! 1 Z t+ u(s; x)ds
t
L2 (
)
(4.35)
t
fortement dans L2 ( ) quand h; k ! 0. Or la convergence faible de uh;k vers
L2 ([0; T ]; L2 ( )) enta^ne :
1 Z t+ u (s; x)ds ?! 1 Z t+ u(s; x)ds faiblement dans L2 ( )
t
l
fortement dans L2 ( )
l
dans
4.4. Convergence de la solution du probleme discretise
107
4.4 Convergence de la solution du probleme discretise
4.4.1
Etude
des proprietes des
Bh et Ah
Prenant les m^eme notations qu'avant, on va demontrer le lemme suivant qui dira que l'operateur
Bh est continu dans Vh .
Lemme 4.12
Pour l'operateur Bh de ni par (4.24), on a :
jBhuhjL2( ) CbjuhjL2 (
l
l
8 uh 2 Vh
)
ou Cb est une constante.
Demonstration : A partir de la de nition de Bh ( Vu (4.24) ), on voit, du fait (a ? b)2 2(a2 + b2 ), que :
jBhuhj2L2 (
l
m
X
h(B u )2
2
) =
h hj
j =m1
m2 ?j
m2
2
h(
ui+j gi h ? uj )2
j =m1 i=m1 ?j
m2
m2 m2
22 h3
(
ui gi?j )2 + 22
hu2j
j =m1 i=m1
j =m1
X
=
X
X X
X
R
Gr^ace au fait que g est une fonction positive de classe C 1 telle que g(z )dz = 1, on peut dire
P
que mi=2m?1m?1m2 gi h Cg ou Cg est une constante (En e et, on peut prendre h assez petite
P
P P
telle que Cg 2), et puis en utilisant la relation suivante ( ai bi )2 ( a2i bi )( bi ) si bi 0,
on obtient, en prenant ai = ui , bi = gi?j ,
jBhuhj2L2 (
l
)
X X
X
X
m2
m2
m2 m2
2
2
2
3
ui gi?j )(
gi?j )] + 2
hu2j
2 h [ (
i=m1
j =m 1
j =m1 i=m1
m2
m2
m2
gi?j + 22
22 h2 Cg
u2i
u2j h
j =m1
i=m1 j =m1
X
X
X
P
en changeant l'ordre d'indice i et j . Comme juh j2L2 ( ) = mj =2m1 u2j h, on a, alors :
l
jBhuhj2L2 (
22 Cg2juhj2L2 ( ) + 22 juhj2L2 (
22 (Cg2 + 1)juh j2L2 ( )
q
p
ce qui donne le resultat enonce avec Cb = 2(Cg2 + 1) ' 10.
l
)
l
l
l
)
108
Chapitre 4. Localisation, Discretisation et Convergence
Lemme 4.13
Bh et B~
Les operateurs
veri ent l'inegalite suivante :
l
p
jBhuh ? B~ uhjL2 ( ) C hjuhjL2 (
l
l
l
8 u h 2 Vh
)
Demonstration : Notant ei =] (i ? 21 )h; (i + 12 )h [, et a partir de la de nition de Vh, on sait
que uh est nul dehors de l'intervalle ] (m1 ? 21 )h; (m2 + 12 )h [ et on peut ecrire, de la de nition
de B~ ,
l
B~ uh (x) = [
l
=
=
=
Z
z; x+z2
m2 Z
X
j =m1
m2
X
[
l
uh (x + z)g(z)dz ? uh(x)]
z; x+z2
m2 Z
X
uh(x + z)g(z)dz ? uh (x)]1e (x)
j
l
[
uh(x + z)g(z)dz ? uh(x)]1ej (x)
j =m1 i=m1 ei ?x
m2
m2 Z
X
X
[ ui
g(z)dz ? uj ]1ej (x)
ei ?x
j =m1 i=m1
En revenant a la de nition de Bh ,
Bh uh (x) =
R
m2
X
j =m1
(
mX
2 ?j
i=m1 ?j
ui+j gi h ? uj )1e (x)
j
on deduit, si l'on note Ii (x) = e ?x [g((i ? j )h) ? g(z )]dz :
i
Z
m2
m2
X
X
(Bh uh ? B~ uh )(x) =
[ ui (gi?j h ?
l
=
j =m1 i=m1
m2
m2
X
X
j =m1
(
i=m1
ei ?x
g(z)dz)]1e (x)
j
ui Ii(x)) 1e (x)
j
Par ailleurs, comme g est une fonction de classe C 1 et gi = g(ih), en utilisant l'inegalite de
Cauchy-Schwarz, on sait que :
Z
Z (i?j)h @g
@ ()djdz
1
s Z (i?j)h
Z
q
@g
@ j
C
( @ ( ))2 d j j(i ? j )h ? z jA dz
e ?x
z
C kgk h 32
jIi (x)j ei ?x
i
j
z0
4.4. Convergence de la solution du probleme discretise
109
a cause du fait que j(i ? j )h ? z j < h 2 . D'ou :
jBhuh ? B~ uhj2L2 (
l
l
)
C2
m2
X
j =m1
0 m2
12
X
3
h @ jui jh 2 A
i=m1
P
P
P
En utilisant de nouveau l'inegalite de Cauchy-Schwarz ( ai bi )2 ( a2i jbi j)( jbi j) avec
ai = jui j, bi = h, on obtient :
jBhuh ? B~ uhj2L2(
l
l
)
C2h
m2
X
m2
X
h(
i=m1
j =m1
2
2
C hjuh jL2 ( l)
juij2 h) (
m2
X
i=m1
h)
ce qui entra^ne la relation suivante :
p
jBhuh ? B~ uhjL2 ( ) C hjuhjL2 (
l
l
l
8 uh 2 Vh
)
Remarque 4.14 Si les hypotheses du lemme 4.11 sont veri es, on a, alors :
Bhuh;k ?! B~ u
fortement dans L2 ([0; T ]; L2 ( ))
l
l
En e et, remarque, d'abord, que :
jBhuh;k ? B~ ujL2 ([0;T ];L2( ))
jBhuh;k ? B~ uh;k jL2 ([0;T ];L2( )) + jB~ uh;k ? B~ ujL2 ([0;T ];L2( ))
! 21
! 21
ZT
p ZT
2
2
juh;k (t; )jL2 ( )dt + C
juh;k (t; ) ? u(t; )jL2 ( ) ds
C h
l
l
l
l
l
l
0
l
l
0
l
par suites des lemmes 4.13 et 4.4. Par ailleurs, par les hypotheses et le lemme 4.11, on sait
R
que 0T juh;k (t)j2 dt est borne et uh;k converge vers u fortement dans L2 ([0; T ]; L2 ( )), ce qui
entra^ne le resultat enonce.
l
Maintenant, on va etudier des proprietes de l'operateur Ah et ah (uh ; vh ). Il est facile de
voir, par la de nition de ah (; ), que :
jah (uh; vh)jh Cakuh kh kvhkh
(4.36)
z 2 e ? x, on a (j ? 12 )h x (j + 21 )h et (i ? 12 )h ? x z (i + 12 )h ? x. D'ou :
(i ? j )h ? h z (i ? j )h + h
ce qui nous donne j(i ? j )h ? zj < h
2
Quand
x2e
8 uh ; v h 2 V h
j
et
i
110
Chapitre 4. Localisation, Discretisation et Convergence
avec C = 3(2 + jj + r). En e et, a partir de la de nition de a (; ), et en utilisant l'inegalite
de Cauchy-Schwarze, on a :
a
h
2
2
ja (u ; v )j 2 ju j jv j + rju j jv j + (jj + 2 )ju j jv j
3(2 + jj + r)ku k kv k
h
h
h
h h
h h
h h
h
h
h h
h
h h
h h
h
Par ailleurs, on a le lemme suivant.
Lemme 4.15 Si u converge vers u faiblement dans L2 ([0; T ]; L2 ( )) et u converge
h;k
vers faiblement dans
@ . Alors, on a :
@u
@x
l
L2 ([0; T ]; L2 (
l
lim sup
h;k
Z
!0
T
0
h;k
)), et si, de plus, la fonction u est nul sur le bord
l
(A u ; u )dt h
h;k
Z
T
0
h;k
(Au; u)dt
Demonstration : A partir de la de nition de a (; ), on sait que :
h
Z
T
(A u ; u )dt = ?
h
0
h;k
Z
h;k
= ?
avec :
T
Z
T
0
Z
a0 (w; v) =
h
Z
a1 (w; v) =
a (u ; u )dt
h
0
l
h
l
h;k
h;k
a0 (u ; u )dt +
h
h;k
Z
h;k
T
0
a1 (u ; u )dt
h
h;k
2 w vdx + r Z wvdx
2
2
( ? )w vdx
l
2
Puisque u converge vers u faiblement dans L2 ([0; T ]; L2 ( )) et u
faiblement dans L2 ([0; T ]; L2 ( )), on a, alors :
l
h;k
h;k
l
lim inf
avec
Z
T
0
a0 (u
h;k
; u )dt Z
h;k
T
0
a0(u; u)dt
2 @w @v dx + r Z wvdx
2 @x @x
a0 (u; u)ds de nit une norme equivalente sur L2([0; T ]; V ) )
a0 (w; v) =
RT
h
Z
l
( car u ?! 0
Remarque que :
(Au; u) = ?a(u; u)
=
l
a0 (u; u) ? ( ? 2
2)
Z
l
@u udx
@x
Donc, pour achever la demonstration de ce lemme, il sut de veri er si :
1.
R
@u
l @x
udx = 0.
h;k
converge vers
@u
@x
4.4. Convergence de la solution du probleme discretise
111
R
2. 0T a1h (uh;k ; uh;k )dt = 0.
Il est facile de voir que le premier point vient du fait que u = 0 sur @ l , puisque :
Z
@u udx = 1 u2 j = 0
2 @ l
l @x
Maintenant, il reste le deuxieme point a veri er. A partir de la de nition de Vh , il n'est pas
dicile de voir que uh;k est nul en dehors de l'intervalle [(m1 ? 21 )h; (m2 + 21 )h] ( ] ? l; l [ ).
Remarquons la de nition de uh;k ( Voir (4.21) ), on a :
Z
l
uh;k uh;k dx
= h1
Z
l
(uh;k (x + h2 ) ? uh;k (x ? h2 ))uh;k (x)dx
Z l
Z l
h
1
= h ( uh;k (x + 2 )uh;k (x)dx ? uh;k (x ? h2 )uh;k (x)dx)
?l
Z l
= h1 (
= 0
?l
uh;k (x + h2 )uh;k (x)dx ?
?l
Z l? h
2
?l ? h
2
uh;k (x)uh;k (x + h2 )dx)
Ce qui implique, par la de nition de a1h (; ),
Z T
0
2
a1h (uh;k ; uh;k )dt = ( ? 2 )
= 0
Z T
0
dt
Z
l
uh;k uh;k dx
On obtient nalement :
lim sup
Z T
0
(Ah uh;k ; uh;k )dt Z T
0
(Au; u)dt
On introduit le lemme 4.16, il nous permet de montrer l'existence et l'unicite de la solution uih?1 du probleme discretise (4.27), et sera utile dans la demonstration du theoreme de
convergence. Pour alleger l'ecriture, on notera j j au lieu de j jh , k k au lieu de k kh , (; )
au lieu de (; )h . Dans les endroits ou il y a des ambigutes, on les indiquera.
Lemme 4.16 Il existe un reel strictement positif independant de h tel que :
ah (uh ; uh ) + juhj2 0 kuh k2
avec 0 = 42 .
8 uh 2 Vh
112
Chapitre 4. Localisation, Discretisation et Convergence
Demonstration : La demonstration est analogue a celle du lemme 3.4. En e et, par la
de nition de ah (; ) et le fait que r > 0, on a :
ah(uh; uh)
Z
2 (u )2 dx + Z ru2 dx ? Z ( ? 2 )u u dx
=
h
2 h
2 h h
2
2
(ku k2 ? ju j2 ) ? j ? j ku k ju j
l
l
2
l
2
2
2
En prenant = j ? 2 j et = 2 , pour > 0, on a :
h
h
h
h
ah(uh ; uh) + juhj2 kuh k2 ? juhj kuh k + ( ? )juhj2
et il sut de choisir 0 = 42 et tel que (x; y) ! 2 x2 ? xy + ( ? )y2 soit positive.
Comme ah (uh ; vh ) = ?(Ah uh ; vh ), bh (uh ; vh ) = ?(Bh uh; vh ) en utilisant le lemme 4.16 et
le lemme 4.12, on a :
(( 1 I ? A ? B )u ; u ) = 1 (u ; u ) + a (u ; u ) + b (u ; u )
k
h
h
h
h
k
h
h
h
h
h
h
h
h
k1 juhj2 ? juhj2 + 0kuh k2 ? Cbjuhj2
= ( k1 ? ? Cb )juh j2 + 0 kuh k2
Pour k est assez petit tel que k1 ? ? Cb soit positive, et par ((4.22)), on obtient :
2
(( k1 I ? Ah ? Bh )uh ; uh ) (( k1 ? ? Cb ) Ch 2 + 0 )kuh k2 > 0
0
ce qui veut dire que l'operateur ( k1 I ? Ah ? Bh ) est coercif.
Remarque 4.17 En revenant au schema (4.27), il n'est pas dicile de voir que : si uih
est donne, pour tout appartient a [0; 1] et tout appartient a [0; 1], l'inequation (4.27) a
une unique solution uih?1 a cause du fait que ( k1 I ? Ah ? Bh ) est coercif. ( cf : \Analyse
numerique des inequations variationnelles". Chapitre I, Theoreme 2.1 et 2.2 [22]).
En e et, (4.27) peut ^etre ecrit sous la forme suivante :
(( k1 I ? Ah ? Bh )uih?1 ; vh ? uhi?1 ) (fhi?1 ; vh ? uhi?1 )
avec :
fhi?1 = ( k1 I + (1 ? )Ah + (1 ? )Bh)uih ? fh
4.4. Convergence de la solution du probleme discretise
113
4.4.2 Theoreme de convergence
R. Glowinsky, J. L. Lions et R. Tremolieres ont etudie les schemas de discretisation des
inequations variationnelles dans [22] et montre des theoremes de convergence sous une hypothese de coercivite assez forte. Cette hypothese n'est pas veri ee dans notre probleme et
les resultats de [22] ne s'appliquent pas directement. L'objet de cette section est de montrer
que, dans notre cadre, la solution approchee uh;k converge fortement vers la solution u du
probleme (4.19), si 2 W 2;2; (R) et sous certaines conditions de stabilite.
D'apres les resultats precedents (Voir le theoreme 4.3 et la section 4.3), on sait deja que, si
2 V , le probleme (4.20) a une unique solution. D'autre part, si 2 W 2;2; (R), en revenant
aux de nitions de , f (voir le page 95), il n'est pas dicile de voir que f ? A ? B~ l 2 Hl .
Selon les resultats de [22], on sait que (4.20) est equivalent au probleme suivant (4.37) (cf. [22]
Ch. 6 la remarque 2.3 et le page 179), qui est une formulation \faible" du probleme (4.20) :
3
Trouver u 2 Kf tel que u(T; ) = et :
( RT 0
~l
8 v 2 K0
0 (v + Au + B u + f; v ? u)dt 0
avec Kf = fv jv 2 L2 ([0; T ]; Vl ); v(t) 2 K; p:p t 2 [0; T ]g
(4.37)
Avant de montrer le theoreme du convergence, on prouvera d'abord quelques lemmes.
La remarque 4.19, qui est une consequence du lemme 4.18, expliquera la relation entre
l'inequation discrete \faible" et l'inequation discrete \forte".
Lemme 4.18 Soit wh;k = PNi whi 1
i?1)k;ik] (t),
](
=1
Z T ?k
0
et wh;k (T ) = 0. Alors, on a :
(wh;k (t); wh;k (t))dt 0
Demonstration : Remarquons la de nition de (cf. (4.26) page 102), on a :
Z T ?k
(wh;k (t); wh;k (t))dt = 1
Z T ?k
(wh;k (t + k) ? wh;k (t); wh;k (t))dt
k
Et en utilisant la relation elementaire (b ? a; a) = jbj ? jaj ? ja ? bj , en prenant
b = wh;k (t + k), a = wh;k (t), on en deduit :
Z T ?k
Z T ?k
(jwh;k (t + k)j ? jwh;k (t)j ? jwh;k (t + k) ? wh;k (t)j )dt
(wh;k (t); wh;k (t))dt = 21k
Z T ?k
1
2k
(jwh;k (t + k)j ? jwh;k (t)j )dt
Z
Z T ?k
T
1
jwh;k (t)j dt)
= 2k ( jwh;k (t)j dt ?
k
ZT
Zk
= 21k (
jwh;k (t)j dt ? jwh;k (t)j dt)
0
0
1
2
2
1
2
1
2
2
2
2
2
2
2
2
0
0
0
2
2
0
T ?k
3
2
2
0
Comme l'on considere une formulation \faible" du probleme, on introduit la notation Kf .
114
Chapitre 4. Localisation, Discretisation et Convergence
P
Comme wh;k (T ) = 0, et wh;k = Ni=1 whi 1](i?1)k;ik](t), on voit que wh;k (t) = 0 sur l'intervalle
]T ? k; T ]. D'ou :
Z T ?k
(wh;k (t); wh;k (t))dt 0
0
Remarque 4.19 Soient vh;k = PNi=1 vhi 1](i?1)k;ik](t), uh;k = PNi=1 uih1](i?1)k;ik](t) et vh;k (T ) =
uh;k (T ). Si l'on a :
Z T ?k
0
alors, on a aussi :
(uh;k + Ah uh;k + Bh uh;k
+ fh; vh;k ? uh;k )dt 0
Z T ?k
0
(vh;k + Ah uh;k + Bh uh;k
+ fh; vh;k ? uh;k )dt 0
(4.38)
sont de nis par (4.28) dans la section 4.3.3.
ou est de ni par (4.26) et uh;k , uh;k
Cette remarque resulte directement du lemme 4.18. En e et, en prenant wh;k = vh;k ? uh;k ,
comme vh;k (T ) = uh;k (T ), d'ou wh;k (T ) = 0. Par le lemme 4.18, on voit que :
Z T ?k
On obtient :
ZT
0
0
((vh;k ? uh;k ); vh;k ? uh;k )dt 0
(uh;k ; vh;k ? uh;k )dt ZT
0
(vh;k ; vh;k ? uh;k )dt
+ f ; v ? u ) de
ce qui entra^ne le resultat enonce en ajoutant le terme (Ah uh;k + Bh uh;k
h h;k
h;k
chaque c^ote et en utilisant l'hypothese.
Le lemme 4.20 et lemme 4.22 nous donneront des estimations de la solution du probleme
discretise sous des hypotheses de stabilite convenables. i.e il existe deux constantes 1 > 0,
2 > 0 tel que :
2 2
(4.39)
1 ? (1 ? ) 8C02Ca hk2 1 > 0
1 ? Cb k ? Ca hk2 2 > 0
(4.40)
ou C0 , Ca , Cb sont des constantes donnees dans (4.22), (4.36) et le lemme 4.12 respectivement.
Lemme 4.20 On suppose 2 W 2;2; (R). Soit uh;k la solution du probleme discretise (4.27),
on a alors, si l'hypothese de stabilite (4.39) est veri ee :
kuh;k kL1 ([0;T ];L2(
l
)) C
(4.41)
4.4. Convergence de la solution du probleme discretise
Z
T
0
115
j(uh;k (s; ))j2L2 ( )ds C
(4.42)
X ju ? u ?1j2 C
l
N
i=1
i
h
i
h
(4.43)
h
Demonstration : Comme h 2 Kh, en prenant vh = h dans (4.27) et en remarquant que
(Ah uh ; vh ) = ?ah (uh ; vh ), on a :
1 i?1 i i?1 i? i?1
k (uh ? uh; uh ? h) + ah(uh ; uh )
ah(uih? ; h) + (Bhuhi?; uih?1 ? h) + (fh; uhi?1 ? h)
Or :
(4.44)
uih? = uih?1 + (1 ? )uih
D'ou :
ah(uih? ; uih?1 ) = ah(uih?1 ; uih?1 ) + (1 ? )ah(uih; uih) + (1 ? )ah(uih; uih?1 ? uih)
(4.45)
Remplacant ah (uih? ; uih?1 ) par (4.45) dans (4.44) et utilisant le lemme 4.16, on sait qu'il
existe deux reels 1 , 2 strictement positifs independant de , et tel que :
1 (ui?1 ? ui ; ui?1 ? ) + [kui?1 k2 + (1 ? )kui k2 ]
k
h
h
h
h
0
h
h
h h
? 1juih?1j2h ? 2 (1 ? )juihj2h + (1 ? )ah(uih; uhi?1 ? uih)
ah(uih? ; h ) + (Bhuhi?; uih?1 ? h) + (fh; uhi?1 ? h)
(4.46)
ou 0 = 42 . En utilisant la relation elementaire :
(a ? b; a) = 12 jaj2h ? 12 jbj2h + 21 ja ? bj2h
pour le premier terme du membre de gauche dans l'inegalite precedente (4.46) avec a =
uih?1 ? h et b = uih ? h et en multipliant par 2k de chaque cote de (4.46), On obtient :
juhi?1 ? hj2h ? juih ? h j2h + juih?1 ? uihj2h
+ 2k 0 [kuih?1 k2h + (1 ? )kuih k2h ]
2k[1 juih?1j2h + 2 (1 ? )juihj2h]
? 2k(1 ? )ah(uih; uih?1 ? uih) + 2kah (uih? ; h )
? 2k(Bh uih?; uih?1 ? h) + 2k(fh ; uih?1 ? h)
(4.47)
116
Chapitre 4. Localisation, Discretisation et Convergence
Pour majorer le membre droite de (4.47), on l'estime terme par terme en utilisant la relation
classique : 2(a; b) jaj2 + 1 jbj2 8 > 0. D'ou :
j2ah(uih; uih?1 ? uih)j 2Ca kuihkh kuih?1 ? uihkh
2
20 kuihk2h + 2Ca kuih?1 ? uihk2h
0
2
0
2 2
kui k2 + 2C0 Ca jui?1 ? ui j2
h h
2
0h
h
h h
( = 20 )
par (4.22)
Comme uhi? = uhi?1 + (1 ? )uih , on deduit :
j2ah (uhi? ; h)j
= j2ah(uih?1 ; h ) + 2(1 ? )ah(uih ; h )j
2Cakuih?1 kh k hkh + 2(1 ? )Cakuihkh k h kh
2
2
0kuih?1k2h + Ca k hk2h + (1 ? ) 20 kuih k2h + (1 ? ) 2Ca k hk2h
0
0
2
= 0 kuhi?1 k2h + (1 ? ) 20 kuih k2h + Ca (2 ? )k h k2h
0
D'autre part, en utilisant le lemme 4.12, et en remarquant uih? = uih?1 + (1 ? )uih , on a :
j2(Bh uih?; uhi?1 ? h)j
= j2(Bh uih?1 ; uih?1 ? h ) + 2(1 ? )(Bh uih ; uih?1 ? h )j
2Cbjuhi?1 jh (juih?1 jh + j hjh) + 2(1 ? )Cb juihjh (juih?1 jh + j hjh)
Cb (3juih?1j2h + j hj2h + 2(1 ? )juihj2h + (1 ? )juih?1 j2h + (1 ? )j h j2h)
= Cb (1 + 2)juih?1 j2h + 2Cb (1 ? )juih j2h + Cb j h j2h
et
j2(fh; uih?1 ? h)j 2jfhjh (juih?1 jh + j hjh)
2jfhj2h + juih?1j2h + j hj2h
ce qui entra^ne, apres un arrangement, que :
juhi?1 ? hj2h ? juih ? hj2h + juih?1 ? uihj2h + k 0 [kuih?1k2h + (1 ? )kuihk2h]
k(21 + (1 + 2)Cb + 1)juih?1 j2h + k(22 (1 ? ) + 2(1 ? )Cb)juih j2h
2
+ (2 ? ) Ca k k h k2h + (Cb + 1)kj h j2h + 2kjfh j2h
0
2 2
+ (1 ? ) 2C0 Ca hk2 juhi?1 ? uih j2h
0
puisque 0 = 4 , d'apres l'hypothese de stabilite (4.39), on sait qu'il existe une constante
1 > 0 tel que :
2 2
1 ? 8C02Ca hk2 (1 ? ) 1 > 0
2
4.4. Convergence de la solution du probleme discretise
117
et de plus, notant 3 = 21 + (1 + 2)Cb + 1 > 0, 4 = 22 (1 ? ) + 2(1 ? )Cb > 0, on a
alors :
juih?1 ? hj2h ? juih ? hj2h + 1 juhi?1 ? uihj2h + k 0 [kuih?1k2h + (1 ? )kuihk2h]
k(3 juhi?1j2h + 4juihj2h) + C1kk h k2h + C2kj h j2h + 2kjfhj2h
(4.48)
avec C1 = (2?0)Ca et C2 = 1 + Cb . En sommant (4.48) de i = n + 1 0 a N et remarquant
PNi=n+1 kjfhj2 C et PNi=n+1 kk hk2 C , on obtient :
uN
h = uh;T = h et les faits que :
h
h
2
junh ? hjh ? juNh ? hjh +
2
+k
0
2
N
X
[kui? k
C +k
h
X ( jui? j
i=n+1
N
1 2
h
h
3
i=n+1
C + 2 maxf ; g
3
4
1
2
i=n+1
+ (1 ? )kuih k2h ]
1 2
h
N
X
juih? ? uihjh
1
(4.49)
+ 4 j j )
N
X
kjui j
uih 2h
2
h h
i=n
Par la relation elementaire 21 jaj2h ? jbj2h ja ? bj2h avec a = unh , b = h , on deduit, de (4.49)
junh jh 2j h jh + 2C + C 0
2
Comme uh;k (t) =
PNi
=1
2
uih 1](i?1)k;ik](t),
uh;k (t) =
unh
ZT
?1)k
(n
juh;k (s)jhds =
2
=
Revenant a (4.50), on a :
juh;k (t)jh C 0
2
ZT
t
(4.50)
2
h h
i=n
par consequent : si t 2](n ? 1)k; nk], alors,
ZT
N
X
i
kjuh jh =
juh;k (s)jh ds
n? k
et
Or, pour t 2](n ? 1)k; nk],
N
X
kjui j
2
2
(
i=n
1)
ZT
Zt
juh;k (s)jhds +
juh;k (s)jh ds
t
n? k
ZT
juh;k (s)jhds + (t ? (n ? 1)k)juh;k (t)jh
Zt T
2
2
(
1)
2
2
juh;k (s)jhds + kjuh;k (t)jh
2
2
t
juh;k (s)jh ds + 2C + 2j h jh + C 0kjuh;k (t)jh
2
2
2
Pour k assez petit tel que 1 ? C 0 k > 0, par le lemme de Gronwall, on obtient :
juh;k (t)jh C
p:p t 2](n ? 1)k; nk]
118
Chapitre 4. Localisation, Discretisation et Convergence
ce qui donne (4.41). Par ailleurs, on deduit, remarquant uNh = h ,
N
X
i=n+1
k(kuhi?1 k2h + (1 ? )kuihk2h )
= k(kunh k2h +
N
X
i=n+1
ZT
N
X
i=n+1
kuihk2h ? k hk2h )
kkuih k2h ? kk hk2h
kuh;k (s)k2h ds ? kk hk2h
R
En revenant a (4.49) et utilisant (4.41), on a T ku (s)k2 ds C , ce qui donne (4.42). Il est
=
nk
facile de montrer (4.43) a partir de (4.49).
nk
h;k
h
Remarque 4.21 On voit clairement, de la demonstration du lemme 4.20, qu'on a encore les
estimations (4.41), (4.42) et (4.43) m^eme dan le cas ou 2 W 1;2; (R).
Avant de montrer le lemme suivant, il n'est pas dicile de voir que (4.27) est equivalent
a la forme suivante :
8 Trouver ui?1 2 V tel que :
>
h
h
>
i ? ui?1
>
u
h
h + Ah ui? + Bhui? + fh 0
>
>
h
h
>
< uih?1 k h
(4.51)
i ? ui?1
>
u
i
?
i
?
i
?
1
h
h
>
( k
+ Ah uh + Bh uh + fh)( h ? uh ) = 0
>
>
N
>
>
: uuhi (m=1 hh) = ui (m2 h) = 0
h
h
ou :
fj = (Ah ~h )j + (Bh ~h)j + (Bh uh )j = (
et
Ah , uih? , uih? ont
mX
2 ?j
i=m1 ?j
X
i+j>m2
i+j<m1
i+j gi h
ui+j gi h ? uj )
les m^eme formes que celles dans (4.27).
Lemme 4.22 Sous les hypotheses du lemme 4.20 et si, de plus l'hypothese de stabilite (4.40)
est veri ee, alors on a :
kuh;kkL1 ([0;T ];L2(
l ))
C
(4.52)
4.4. Convergence de la solution du probleme discretise
119
Z
X0 j ?1 ? j2
kuh;k kL1 ([0;T ];L2( )) C
T
kuh;k k2hds C
(4.53)
l
N
i
i
i=1
o
u:
h
(4.54)
C
(4.55)
?1
i?1 = uh ?kuh
i
i
Demonstration : D'apres le schema (4.27), on a :
(i?1 + Ah uih? + Bh uih? + fh; vh ? uih?1 ) 0
(i + Ah uhi+1? + Bh uhi+1? + fh; vh ? uih ) 0
Prenant vh = uih dans (4.56) et vh = uih?1 dans (4.57)
8 v h 2 Kh
(4.56)
8 v h 2 Kh
(4.57)
(i?1 + Ah uih? + Bhuhi? + fh ; uih ? uih?1 ) 0
(?i ? Ah uhi+1? ? Bh uhi+1? ? fh; uih ? uih?1 ) 0
En ajoutant et puis en divisant par k, on a :
(i?1 ? i ? Ah (uhi+1? ? uih? ) ? Bh (uhi+1? ? uih?); i?1 ) 0
Remarquant le fait que ah (uh ; vh ) = ?(Ah uh ; vh ), on peut ecrire :
(i?1 ? i ; i?1 ) + ah(uhi+1? ? uih? ; i?1 ) (Bh (uhi+1? ? uih?); i?1 )
Puisque :
(4.58)
uhi+1? ? uih? = k(i + (i?1 ? i )) = ki?1 + k(1 ? )i
D'ou :
ah(uhi+1? ? uhi? ; i?1 ) = k[ah(i?1 ; i?1 )+(1 ? )ah(i ; i )+(1 ? )ah(i ; i?1 ? i)] (4.59)
Remplacant ah (uhi+1? ? uih? ; i?1 ) par (4.59) dans (4.58) et utilisant le lemme 4.16, on sait
qu'il existe deux reels 1 , 2 strictement positifs independants de tels que :
(i?1 ? i ; i?1 )
+ k 0 (ki?1 k2h + (1 ? )ki k2h )
? k(1 ji?1 j2h + 2 (1 ? )jij2h)
+ k(1 ? )ah (i ; i?1 ? i )
(Bh (uhi+1? ? uih?); i?1 )
(4.60)
120
Chapitre 4. Localisation, Discretisation et Convergence
ou 0 = 42 > 0. En utilisant la relation elementaire : (a ? b; a) = 12 jaj2h ? 21 jbj2h + 21 ja ? bj2h
pour le premier terme du membre de gauche dans l'inegalite precedente (4.60) avec a = i?1 ,
b = i et en multipliant par 2 de chaque c^ote de (4.60). On obtient :
ji?1 j2h ? ji j2h + ji?1 ? i j2h
+ 2k 0 (ki?1 k2h + (1 ? )ki k2h )
2k(1 ji?1 j2h + 2(1 ? )ji j2h)
? 2k(1 ? )ah(i ; i?1 ? i )
+ 2k(Bh (uhi+1? ? uih?); i?1 )
En utilisant la relation classique : 8 > 0; 2(a; b) jaj2h + 1 jbj2h , on a :
j2ah(i ; i?1 ? i )j Caki kh ki?1 ? i kh
2
20 ki k2h + 2Ca ki?1 ? i k2h ( = 20 )
0
8
C02 Ca2 i?1 i 2
0 i 2
2 k kh + 2 h2 j ? jh par (4.22)
D'autre part, comme :
uhi+1? ? uhi?
= k(i + (i?1 ? i )) = ki?1 + k(1 ? )i
et en utilisant le lemme 4.12, on deduit :
j2(Bh (uhi+1? ? uhi?; i?1 )j = j2k(Bhi?1 ; i?1 ) + 2k(1 ? )(Bhi ; i?1 )j
2kCb ji?1 j2h + k(1 ? )Cb(ji j2h + ji?1 j2h)
= (1 + )Cb kji?1 j2h + (1 ? )Cb kji j2h
D'ou :
ji?1 j2h ? ji j2h + ji?1 ? i j2h + 2k 0 ki?1 k2h + 23 k 0(1 ? )ki k2h
k(21 + (1 + )Cb)ji?1 j2h + k(22 (1 ? ) + (1 ? )Cb )ji j2h
2 2
+ (1 ? ) 8C02Ca hk2 ji?1 ? i j2h
D'apres l'hypothese de stabilite (4.39), on sait qu'il existe une constante
2 2
1 ? (1 ? ) 8C02Ca hk2 1
>
1
>0
tel que :
0
De plus, notons : 3 = 21 + (1 + )Cb et 4 = 22 (1 ? ) + (1 ? )Cb , on a alors :
ji?1 j2h ? ji j2h + 1 ji?1 ? i j2h + 2k 0 ki?1 k2h + 32 k 0 (1 ? )ki k2h
(4.61)
k(3 ji?1 j2h + 4 ji j2h)
4.4. Convergence de la solution du probleme discretise
121
En sommant (4.61) de i = n + 1 0 a N ? 1 et en remarquant uNh = h , on obtient :
jn j2h ? jN ?1 j2h +
+ 2 0
?
N
X1
i=n+1
C
?
i=n
i=n+1
ji?1 ? i j2h
kki?1 k2h + 23 0 (1 ? )
maxf3 ; 4g
N
X1
?
N
X1
1
?
N
X1
i=n+1
?
N
X1
i=n+1
kki k2h
k(ji?1 j2h + ji j2h )
kji j2h
(4.62)
Si l'on reussit a montrer jN ?1 j2h C , en utilisant la m^eme technique que dans le lemme 4.20,
on peut deduire, par le lemme de Gronwall :
uh;k (t + k) ? uh;k (t) C p:p t 2](n ? 1)k; nk]
k
h
ce qui donne (4.52). Maintenant, il reste a montrer que :
jN ?1 jh C
En e et, a partir du schema (4.51) en prenant i = N ? 1, on a :
8
>
N ?1 + Ah uhN ? + Bh uNh ? + fh 0
>
>
<
uNh ?1 h
>
(N ?1 + Ah uNh ? + BhuNh ? + fh )( h ? uNh ?1 ) = 0
>
>
:
uNh = h
Pour j quelconque appartenant a [m1 ; m2 ], on n'a que deux cas :
-A). soit :
D'ou :
-B). Soit :
D'ou :
uNj ? ujN ?1
+ (Ah uNh ? )j + (Bh uNh ?)j + fj 0
k
ujN ?1 = j
jN ?1 = 0
uNj ? uNj ?1
+ (Ah uNh ? )j + (Bh uNh ?)j + fj = 0
k
ujN ?1 j
jN ?1 = ?(Ah uNh ? )j ? (Bh uhN ?)j ? fj
122
Chapitre 4. Localisation, Discretisation et Convergence
On peut donc ecrire :
jN ?1 jh jAhuNh ? jh + jBhuhN ?jh + jfhjh
or :
uNh ? = uNh + (uNh ?1 ? uNh ) = h ? kN ?1
uNh ? = uNh + (uNh ?1 ? uNh ) = h ? kN ?1
En utilisant le lemme 4.12, on a :
jN ?1 jh jAh hjh + kjAhN ?1 jh + jBh hjh + kjBhN ?1 jh + jfhjh
jAh hjh + kjAhN ?1 jh + Cbj h jh + kCb jN ?1 jh + jfhjh
Or, en remarquant la de nition de Ah , on voit que :
2
2
jAhN ?1 jh 2h2 jN ?1 jh + j ?h 2 j jN ?1 jh + rjN ?1 jh
0
C2a jN ?1 jh
h
avec Ca0 = 22 + j ? 22 jh + rh2 3(2 + jj + r) = Ca , quand h < 1. D'ou :
a jN ?1 j + C j j + kC jN ?1 j + jf j
jN ?1 jh jAh hjh + kC
h
b hh
b
h
hh
2
h
On obtient :
(1 ? Ca hk2 ? Cb k)jN ?1 jh jAh h jh + Cb j h jh + jfh jh
Puisque 2 W 2;2; (R), d'ou l'est aussi, on a donc : jAh h jh C . D'autre part,
comme :
X i j gihjh
i j<m
X
X
jAh ~hjh + jBh ~hjh + C( i j h) ( gi h)
jfhjh jAh ~hjh + jBh ~hjh + j
i+j>m2
+
1
+
2
+
2
En tenant compte des faits que ~ est assez reguliere et k h kh C et kgkh C , on a :
jfhjh C . Et remarquons (4.40), on deduit :
jN ?1 jh C
4.4. Convergence de la solution du probleme discretise
123
Pour avoir (4.54) et (4.55), il sut de partir de (4.62) et utiliser la m^eme technique dans
le lemme 4.20. Par ailleurs, (4.53) est une consequence immediate de (4.54). Puisque :
unh
=
uN
h
?
X kui
N ?1
i=n
N ?1
h
X
= h ? kuih
i=n
Or k h kh C , et par (4.54), on obtient (4.53). Cela acheve la demonstration du lemme.
Remarque 4.23 Si
(R) et si les conditions de stabilite (4.39), (4.40) sont
veri ees, a partir des (4.41), (4.42), (4.52) et remarquant que les resultats dans \Analyse
numerique des inequations variationnelles" Chapitre I (5.18), (5.19) et (5.20), (cf. [22]),
on sait qu'il existe une fonction u, pour des suites extraites, encore notee uh;k ; tel que
uh;k converge faiblement vers u dans L2 ([0; T ]; L2 ( l )), uh;k converge faiblement vers @u
@x
2 ([0; T ]; L2 ( l )). D'ou :
dans L2 ([0; T ]; L2 ( l )) et uh;k converge faiblement vers @u
dans
L
@t
@u 2 L2 ([0; T ]; L2 ( )). Par le lemme 4.11, on a u
converge
vers u fortement dans
l
h;k
@t
2
2
L ([0; T ]; L ( l )). Le lemme 4.25 nous permettra de dire que cette u est une solution du
(4.37).
2
W 2;2;
On introduit maintenant un operateur h , qui servira dans les demonstrations du lemme
4.25 et du theoreme 4.26,
X 1 (v; M )M
(4.63)
hv =
h h
h
M2 h
Avant d'enoncer le lemme 4.25, on montre, d'abord, le lemme suivant.
Lemme 4.24 Soient v 2 W (0; T ) et vh;k = PNi=1 vhi (x)1](i?1)k; ik](t) avec vhi (x) =
On a alors :
vh;k
?! v
fortement dans L2 ([0; T ]; L2 ( l ))
h v (ik; x).
124
Chapitre 4. Localisation, Discretisation et Convergence
De plus, si
@v
@t
2 L2([0; T ]; V ) on a :
l
vh;k
@v
?! @x
fortement dans L2 ([0; T ]; L2 ( ))
l
Demonstration :
Notons e =](i ? 1)k; ik]. A partir de la de nition de v , on peut ecrire :
i
h;k
X
N
(v ? v)(t; x) =
h;k
=1
(v (x) ? v(t; x))1 (t)
i
ei
h
i
X
(
N
=
=1
h
v (ik; x) ? v (t; x))1ei (t)
i
X
N
=
=1
(
h
v (ik; x) ? v (ik; x))1 ei (t) +
i
X
N
=1
(v(ik; x) ? v(t; x))1 (t)
ei
i
On note le premier terme ( resp. le deuxieme terme ) a droite par Y1 (resp. Y2 ). Posons :
I (t; x) = v (ik; x) ? v (t; x), alors, pour t 2 e , on a : ik ? t k , d'o
u, par l'inegalite de
Cauchy-Schwarz,
Z @v
jI (t; x)j = j @s (s; x)dsj
! 12
Z @v
p
2
( @s (s; x)) ds
ik ? t ! 12
Z @v
1
2
k2 ( @s (s; x)) ds
i
i
ik
i
t
ik
t
ik
t
ce qui entra^ne :
X
jY2j = j
N
=1
Ii (t; x)1ei (t)j
i
X
N
=1
i
1
k2
jI (t; x)j1 (t)
i
ei
X Z
N
=1
i
t
ik
! 12
(s; x))2 ds
( @v
@s
En utilisant le theoreme de Fubini et en remarquant
X Z Z
1
jY2j
L2
([0 ]; 2 ( l ))
;T
L
N
k2
=1
i
1
k2
X
k
l
t
@v
@t
ik
1 (t)
ei
2 L2([0; T ]; L2 ( )), on a :
( @v
(s; x))2 dsdx
@s
@v
k j j2L2 ([0;T ];L2 ( l ))
@s
i=1
N
l
! 12
! 12
4.4. Convergence de la solution du probleme discretise
125
Ck 21
?! 0 k ! 0
Maintenant, pour k xe, on va montrer que jY1 j 2 ([0 ]; 2 ( )) ! 0 quand h tend vers
zero. En e et, il n'est pas dicile de veri er (cf. [22] Ch. 1) que, pour t quelconque xe
dans [0; T ],
L
h
v
h
v
?!
?!
v
@v
@x
;T
L
l
fortement dans L2 ( )
fortement dans L2 ( )
l
l
ce qui veut dire que, pour 1 i N , 8" > 0, il existe h > 0 tel que, pour tout
h 2 [0; h ], on a :
j v(ik; ) ? v(ik; )j 2 ( ) "
Prenons h0 = minfh1 ; ; h g, pour tout h 2 [0; h0 ], on deduit :
! 21
X
"
jY1j 2 ([0 ]; 2( )) =
k j v (ik; ) ? v (ik; )j2 2 ( )
i
i
h
L
l
N
N
L
;T
L
l
h
=1
L
l
i
Par ailleurs, comme :
jv ? vj
h;k
L2
([0 ]; 2( l ))
;T
On obtient, nalement, v
h;k
L
jY1 j
L2
([0 ]; 2( l )) + jY2 j 2 ([0 ]; 2 ( l ))
;T
L
L
;T
L
converge vers v fortement dans L2 ([0; T ]; L2 ( )).
l
De m^eme, on a :
@v
(v ? @x
)(t; x)
X
X @v
@v
@v
=
( v(ik; x) ? @x
(ik; x)) 1 (t) + ( @x
(ik; x) ? @x
(t; x)) 1 (t)
h;k
N
=1
N
ei
h
ei
=1
i
i
On note le premier terme ( resp. le deuxieme terme ) a droite par Z1 (resp. Z2 ). Posons :
J (t; x) = (ik; x) ? (t; x), en suivant le m^eme methode que le premiere partie, on
deduit, pour t 2 e , que :
Z @2v
jJ (t; x)j = j @[email protected] (s; x)dsj
! 21
Z @2v
1
2
( @[email protected] (s; x)) ds
k2
i
@v
@v
@x
@x
i
ik
i
t
ik
t
ce qui donne :
jZ2 j 1
k2
X Z
N
=1
i
t
ik
! 21
@2v
( @[email protected]
(s; x))2 ds
1 (t)
ei
126
Chapitre 4. Localisation, Discretisation et Convergence
Puisque
@2v
@[email protected]
2 L2([0; T ]; L2 ( )), on a :
l
jZ2 jL2([0;T ];L2(
l
))
! 21
N Z Z ik @ 2 v
X
2
k
k
(
(s; x)) dsdx
t @[email protected]
i=1
@2v k 2
k 12 k @[email protected]
L ([0;T ];L2 ( ))
?! 0 k ! 0
1
2
l
l
D'autre part, puisque :
@v fortement dans L2 ( )
h v ?! @x
l
en suivant le m^eme raisonnement que la premier partie, on a :
jZ1 jL2([0;T ];L2(
l
)) ?! 0
D'ou le resultat.
Lemme 4.25 Supposons que 2 W 2;2; (R), que uh;k est la solution du probleme discretise
(4.27), et qu'il existe une fonction u tel que :
uh;k ! u faiblement dans L2 ([0; T ]; L2 ( ));
2
2
uh;k ! @u
@x faiblement dans L ([0; T ]; L ( ));
et
2
2
uh;k ! @u
@t faiblement dans L ([0; T ]; L ( )):
On suppose de plus, hk2 ou est une constante assez petite pour que les conditions de
stabilite (4.39) et (4.40) soient veri es. Alors, u est une solution du probleme (4.37). C'est
a dire que :
(
Ru T2 K0 f
8 v 2 K0
0 (v + Au + B~ u + f; v ? u)dt 0
l
l
l
l
Demonstration : 8 v 2 K0, de nissons : vh;k = PNi=1 vhi (x)1](i?1)k; ik](t) avec vhi (x) =
h v (ik; x). Remarquons la de nition de K0 , on sait que v 2 W (0; T ). Utilisons le lemme 4.24,
on a :
vh;k ?! v
fortement dans L2 ([0; T ]; L2 ( ))
D'autre part, compte tenu des de nitions de K0 , h et Kh (cf. (4.18) et la section 4.3.1), il
n'est pas dicile de veri er que h v 2 Kh . Par ailleurs, puisque v 2 K0 , d'ou v(T; x) = (x),
l
4.4. Convergence de la solution du probleme discretise
127
et en tenant compte de nouveau de la de nition de h et le fait que uh;k (T ) = h , on deduit
que vh;k (T; x) = uh;k (T; x).
Par ailleurs, en portant vh;k dans le probleme discretise (4.27), on a :
Z
?
T k
0
(uh;k + Ah uh;k + Bh uh;k
+ fh; vh;k ? uh;k )dt 0
Par la remarque 4.19, on a :
Z
?
T k
0
D'ou :
Z
?
T k
0
+
(vh;k + Ah uh;k + Bh uh;k
+ fh; vh;k ? uh;k )dt 0
(vh;k + Ah uh;k + Bh uh;k
+ fh ; vh;k )dt
Z
Z
?
T k
0
0
?
T k
(vh;k ; uh;k )dt +
Z
?
T k
Z
0
(Bh uh;k
; uh;k )dt +
Ah(uh;k ; uh;k )dt
?
T k
0
(fh ; uh;k )dt +
Z
?
T k
0
(Ah uh;k ; uh;k ? uh;k )dt (4.64)
Par les hypothese de ce lemme et les de nitions de uh;k et uh;k
, il est facile de voir que :
uh;k ?! u faiblement dans L2([0; T ]; L2 ( ))
(4.65)
@u faiblement dans L2 ([0; T ]; L2 ( ))
(4.66)
uh;k ?! @x
E videmment, (4.65), (4.66) sont encore vrai pour au lieu de . En combinant les resultats
l
l
dans les lemmes 4.20 et 4.22 et en utilisant le lemme 4.15 et la remarque 4.14, on a :
lim sup
Z
?
T k
0
(Ah (uh;k ; uh;k )dt Z
T
0
Bhuh;k
?! B~ u
(Au; u)dt
fortement dans L2 ([0; T ]; L2 ( ))
En passant a la limite dans (4.64), on obtient :
l
Z
T
0
l
(v0 + Au + B~ u + f; v ? u)dt lim sup
l
Z
?
T k
0
(Ah uh;k ; uh;k ? uh;k )dt
Il sut de montrer que le second membre est plus petit que zero. En utilisant la m^eme
technique que \Analyse Numerique des inequations variationnelle" P178 (cf. [22]) et en remarquant les de nitions de uh;k , uh;k (cf. page 102), on ecrit :
Ih;k =
=
Zj ? (A u ; u
? Z
X
j
(A u
T k
h h;k
0
N 1
i=1
ik
(i?1)k
h;k
h h;k
? uh;k )dtj
; uh;k ? uh;k)dtj
128
Chapitre 4. Localisation, Discretisation et Convergence
= j
X k(A ui+1? ; ui ? ui+1? )j
N ?1
h h
i=1
h
h
X k(1 ? )j(A ui+1? ; ui ? ui+1)j
N ?1
h h
i=1
h
h
NX
?1 p
k(1 ? )Ca
kkuhi+1? kh kuih ? uih+1kh
i=1
p
NX
?1
NX
?1
kCh0Ca (1 ? )( kkuhi+1? k2h)1=2 ( juih ? uih+1 j2h)1=2
i=1
i=1
p
en utilisant (4.22). Or, puisque juh;k jL2 ([0;T ];L2( )) C ,
l
(
X jui+1 ? ui j2 )1=2 = (k NX?1 kj uih+1 ? uih j2 )1=2 Ck1=2
N ?1
hh
h
i=1
i=1
k
h
Par (4.41) et (4.42) et les hypotheses du lemme, on a alors :
Ih;k Ck1=2 ! 0
Ce qui entra^ne :
ZT
0
(v0 + Au + B~ u + f; v ? u)dt 0
l
8 v 2 K0
P
Par ailleurs, comme uih 2 Kh et uh;k (t; x) = Ni=1 uih (x)1](i?1)k;ik](t), d'ou uh;k h . Or h
converge vers fortement dans L2 ( ), uh;k converge vers u fortement dans L2 ([0; T ]; L2 ( )),
2
2
on obtient u . D'autre part, puisque uh;k converge vers @u
@x faiblement dans L ([0; T ]; L ( )),
on voit que u 2 L2 ([0; T ]; V ), d'ou u 2 K , ce qui donne u 2 Kf . D'ou, u est la solution du
probleme (4.37).
l
l
l
l
Maintenant, on enonce le theoreme de convergence.
Theoreme 4.26 Soit 2 W 2;2; (R). On suppose que uh;k (t; x) = PNi=1 uih(x)1](i?1)k;ik](t)
est la solution du probleme discretise (4.27) et u est la solution du probleme (4.19). Si 2
[0; 1], 2 [0; 1], h; k tendent vers zero, et de plus, si hk2 ou est une constante assez
petite pour que les conditions de stabilite (4.39) et (4.40) soient veri ees. On a alors :
uh;k ?! u fortement dans L2([0; T ]; L2 ( ))
@u fortement dans L2([0; T ]; L2 ( ))
uh;k ?! @x
l
l
Demonstration : D'apres les hypotheses dans le theoreme, en combinant les resultats dans
4.4. Convergence de la solution du probleme discretise
129
le lemme 4.20, 4.22, la remarque 4.23 et le lemme 4.25, on sait qu'il existe une fonction u~
veri ant :
u ?! u~ faiblement dans L2([0; T ]; L2 ( ))
u ?! @ u~ faiblement dans L2 ([0; T ]; L2 ( ))
l
h;k
@x
u ?! @@tu~ faiblement dans L ([0; T ]; V )
l
h;k
2
h;k
et
@u
~
@t
l
appartient a L2 ([0; T ]; V ), u~ est la solution du probleme (4.37). De plus,
l
u ?! u~ fortement dans L ([0; T ]; L ( ))
2
h;k
2
l
D'autre part, en prenant au debut de la section 4.4.2, on sait que le probleme (4.20) est
equivalente au probleme (4.37). Cela dit que u~ concide avec la fonction u qui est la solution
du probleme (4.20). D'ou :
u ?! u faiblement dans L ([0; T ]; L ( ))
@u faiblement dans L ([0; T ]; L ( ))
u ?! @x
u ?! @u
@t faiblement dans L ([0; T ]; V )
2
h;k
2
2
h;k
l
2
2
h;k
l
l
et appartient a L2 ([0; T ]; V ). Cela dit qu'on a obtenu la convergence faible. De plus, on a
aussi :
u ?! u fortement dans L2([0; T ]; L2 ( ))
(4.67)
Maintenant, il reste a montrer u converge fortement vers . Pour cela, on va utiliser
lemme 4.16.
P
Prenant u~ = =1 u~ (x)1]( ?1) ](t) avec u~ (x) = u(ik; x) ou est de ni par (4.63),
comme appartient a L2 ([0; T ]; V ), par le lemme 4.24, on a :
@u
l
@t
l
h;k
@u
h;k
N
h;k
i
h
i
i
@u
@x
i
h
k;ik
h
l
@t
u~ ?! u fortement dans L ([0; T ]; L ( ))
u~ ?! @u
@x fortement dans L ([0; T ]; L ( ))
2
h;k
2
l
(4.68)
l
(4.69)
ku ? u~ k ds ?! 0 quand h; k ! 0
(4.70)
2
h;k
Or :
h
2
ku ? uk ku ? u~ k + ku~ ? uk
h;k
h;k
h;k
h;k
Il sut de montrer que :
Z
T
0
Notant :
h;k
Y =?
h;k
h;k
Z
0
T
?
k
2
(A u ? A u~ ; u ? u~ )dt
h
h;k
h
h;k
h;k
h;k
130
Chapitre 4. Localisation, Discretisation et Convergence
En utilisant le lemme 4.16 et compte tenu de (4.67), (4.68), il n'est pas dicile de voir qu'il
sut de montrer que :
lim sup Yh;k 0
Cela peut ^etre obtenu en appliquant les methodes analogues que [22] et en utilisant les
techniques pour traiter Ih;k dans la demonstration du lemme 4.25. En e et, on recrit, d'abord,
Yh;k sous la forme suivante :
Yh;k = ?
T
0
(Ah uh;k ; uh;k )dt +
Z T ?k
?
Or, par (4.28) :
Z
0
Z T ?k
0
(Ah uh;k ; u~h;k )dt
(Ah u~h;k ; u~h;k ? uh;k )dt
(4.71)
uh;k (t) = uh;k (t + k) + (uh;k (t) ? uh;k (t + k))
D'ou :
Ahuh;k (t) = Ahuh;k (t) ? ( ? 1)Ah (uh;k (t) ? uh;k (t + k))
En remplacant Ah uh;k par (4.72) dans le premier terme a droite de (4.71), on a :
Z T ?k
Yh;k = ?
0
+ ( ? 1)
+
Z T ?k
0
(4.72)
(Ah uh;k ; uh;k )dt
Z T ?k
0
(Ah (uh;k (t) ? uh;k (t + k)); uh;k )dt
(Ah uh;k ; u~h;k )dt ?
Z T ?k
0
(Ah u~h;k ; u~h;k ? uh;k )dt
(4.73)
D'autre part, puisque u est la solution du probleme (4.20), u 2 K0 . Remarquons la construction de la fonction u~h;k et la de nition de l'operateur 0 (cf. (4.63), il n'est pas dicile de
voir que u~ih 2 Kh et u~h;k (T ) = h = uh;k (T ). En prenant vh;k = u~h;k dans (4.38), comme
vh;k (T ) = u~h;k (T ) = uh;k (T ), d'apres la remarque 4.19, on deduit :
?
Z T ?k
0
(A u ; uh;k )dt ?
h h;k
?
?
Z T ?k
0
Z T ?k
0
Z T ?k
0
(u~h;k ; u~h;k ? uh;k )dt
(Ah uh;k ; u~h;k )dt
(fh; u~h;k ? uh;k )dt
En appliquant (4.74) et en faisant un arrangement, (4.73) donne :
Yh;k ?
?
Z T ?k
0
Z T ?k
0
(u~h;k ; u~h;k ? uh;k )dt ?
(Ah u~h;k ; u~h;k ? uh;k )dt
Z T ?k
0
(fh; u~h;k ? uh;k )dt
(4.74)
4.4. Convergence de la solution du probleme discretise
+( ? 1)
+
?
Z T ?k
0
Z T ?k
0
Par (4.72),
Z T ?k
Yh;k ?
avec :
0
Zh;k = (1 ? )
(Ah (uh;k (t) ? uh;k (t + k)); uh;k )dt
Z T ?k
0
(Ah uh;k ; u~h;k )dt
(u~h;k + Ah u~h;k + fh ; u~h;k ? uh;k )dt
Z T ?k
0
(Ah (uh;k (t) ? uh;k (t + k)); uh;k )dt
(Ah (uh;k ? uh;k ); u~h;k )dt
Z T ?k
0
0
(Ah uh;k ; u~h;k )dt ?
+( ? 1)
+
Z T ?k
131
(u~h;k + Ah u~h;k + fh; u~h;k ? uh;k )dt + Zh;k
Z T ?k
0
(Ah (uh;k (t) ? uh;k (t + k)); u~h;k ? uh;k )dt
Or :
jZh;k j = j(1 ? )
?
N
X1
i=1
k(Ah(uih ? uih+1); u~ih ? uih)j
p NX
?1
N
?1
X
C
0
(1 ? ) h k ( juih ? uih+1 j2h) 12 ( kku~ih ? uihk2h) 12
i=1
i=1
en utilisant (4.22). Puisque : juh;k jL2 ([0;T ];L2( )) C , on a :
l
?
N
X1
(
i=1
juih ? uih+1 j2 )1=2 = (k
?
N
X1
i=1
i+1
kj uh ?kuh j2 )1=2 Ck1=2
i
Par (4.42), (4.43) et les faits que u~h;k , u~h;k restent borne dans L2 ([0; T ]; L2 ( )), et les
hypotheses du theoreme, on deduit :
l
p
jZh;k j C k ?! 0
si k ! 0
R
D'autre part, il n'est pas dicile de voir que ? 0T ?k (u~h;k + Ah u~h;k + +Bhu~h;k + fh;k ; u~h;k ?
uh;k )dt tend vers zero a cause de (4.67), (4.68) et (4.69). Donc, on obtient, nalement :
lim sup Yh;k ?! 0
ce qui acheve notre demonstration.
132
Chapitre 4. Localisation, Discretisation et Convergence
Remarque 4.27 Dans leur theoreme de convergence, R. Glowinsky, J. L. Lions et R. Tremolieres
[22] ont indique que, contrairement au cas des equations, la stabilite n'entra^ne pas necessairement
la convergence (cf. [22] page 179). Ils imposent donc une condition de convergence, i.e :
2
(1 ? ) Ch02k ?! 0;
condition qui est vide pour = 1. Or, ici, nous avons montre que les conditions de stabilites
(4.39), (4.40) :
2 2
1 ? (1 ? ) 8C02C hk2 1 > 0
a
1 ? C k ? C hk2 2 > 0
peuvent enta^ner directement la convergence. Ces conditions sont un peu plus faibles que celle
de R. Glowinsky, J. L. Lions et R. Tremolieres [22] pour 6= 1, mais il faut noter que la
deuxieme condition n'est pas vide pour = 1.
Maintenant,
les conditions depstabilites plus precise. En prenant h < 1, on
p nous verrons
2
a : C0 = 5, C = 3( + jj + r) et C = 10 (cf. (4.22), (4.36) et le lemme 4.12). Si
de plus l'on prend 1 = 2 = 21 , les conditions ci-dessus peuvent ^etre ecrites sous la forme
suivante :
a
b
a
b
2
(1 ? ) hk2 90C 2
k
1 ? 2C k
2 h
2C
a
b
a
4.4.3
Monotonie de la solution discretisee
Dans cette section, notre but est de montrer que la solution discretisee du probleme (4.27)
t 7! u (t) est decroissante. Mais avant de le faire, nous introduirons quelques proprietes des
inequations variationnelles en dimension nie, qui ont ete montrees dans le livre [22] \Analyse
Numerique des inequations variationnelles", chapitre I, 3.1 et [24].
Nous noterons (u; v) le produit scalaire de deux vecteur u et v de R , et u v si
8 i 2 f1; : : : ; ng u v . Par ailleurs, nous dirons qu'une matrice M est coercive s'il existe
une constante C > 0 telle que, pour tout vecteur x 2 R , (Mx; x) C jxj2 ; jxj designant la
norme euclidienne. Nous enoncons, d'abord, un resultat elementaire [23].
Proposition 4.28 Soit M une matrice carree reelle d'ordre n, pour tous vecteurs u, q, ' de
R , les deux systemes suivants sont equivalents :
h;k
n
i
i
n
n
et
(
8
>
< Mu q
u'
>
: (Mu ? q; ' ? u) = 0
u'
(Mu; v ? u)
(q; v ? u) pour tout vecteur v '
(4.75)
(4.76)
4.4. Convergence de la solution du probleme discretise
133
La proposition suivante nous permettra de montrer la decroissance de uh;k (t) en t. Pour la
demonstration de cette proposition, nous renvoyons a [24].
Si la matrice coercive M a des coecients non diagonaux negatifs ou nul,
la solution du systeme (4.75) est le plus petit vecteur u veri ant : Mu q; et u '.
Proposition 4.29
Maintenant, nous commencons nos etudies sur la monotonie de la solution discretise. Les outils
essentiels est a'appliquer la proposition 4.29. Pour que nous puissions utiliser la proposition
4.29, nous devons mettre le schema (4.27) a la forme (4.75). Mais, d'abord, rappelons que
(4.27) peut ^etre ecrit sous la forme equivalente (4.51) page 118.
Supposons que u(t; x) est la solution du probleme (4.19), on approche le vecteur
(u(it; j x))0iN;m1 j m2 par le vecteur [uji?1 ] qui est la solution du systeme suivant
venant du (4.51), apres un calcul :
8
>>
<
>>
:
umi?11 = 0; umi?12 = 0 1 i N
uNj = j
m1 j m 2
9
i
?1
i?1
i
>= 1 i N
auj?1 + (1 + b)uij?1 + cuji?1
+1 + sj qj
uji?1 j
>; m1 + 1 j m2 ? 1
i?1
i?1
i?1
i?1
i
(auij?1
?1 + (1 + b)uj + cuj +1 + sj ? qj )( j ? uj ) = 0
= ? 2 ,
ou, si l'on pose :
2
8
>
k2 + k
>
a
=
?
>
< k22h2 2h
b = h2 + rk
>
>
2
>
: c = ? k2 ? k
2h 2h
mX
2 ?j
sij?1 = ?k(
uil+?1j gl h ? uij?1 )
l=m1 ?j
qji = uij ? (1 ? )(auij?1 + buij + cuij+1 ) + k(1 ? )(
avec :
fj = (Ah ~h )j + (Bh ~h )j + 2
mX
2 ?j
l=m1 ?j
X
l+j>m2
l+j<m1
uil+j gl h ? uij ) + kfj
(4.77)
(4.78)
(4.79)
(4.80)
l+j gl h
Supposons < h , on a, alors : a < 0, c < 0. De plus, il est evident que : 1+ b > 0. Posons :
m = m2 ? m1 ? 1 et notons ui, qi, ' , F les vecteurs de Rm de composantes de :
uij = uij+m1 1 j m
qji = qji +m1 1 j m
'j = j+m1 1 j m
Fj = fj+m1 1 j m
134
Chapitre 4. Localisation, Discretisation et Convergence
v_ designe, pour tout vecteur v, le vecteur de composantes de : 4
8
>
< v_ 1 = v1 ? aum1 + y1
v_ = v ? cu + y
>
: v_ jm= vjm+ yj m2 2 m j m ? 1
ou le vecteur [yj ] est donne par :
yj = khg?j um1 + khgm?j+1 um2
1jm
(4.81)
(4.82)
A partir de cette de nition, il est clair de voir que le vecteur v_ a la propriete :
v v^ =) v_ v^_
Avec ces notations, le systeme (4.77) est equivalent au systeme suivant :
umi?11 = 0; uim?12 = 0; 1 i N
et
ou :
8 uN = '
>
<
)
i?1 q_i ; ui?1 '
Mu
>
: (Mui?1 ? q_i; ' ? ui?1) = 0 1 i N
qji = uij ? (1 ? )(auij?1 + buij + cuij+1 ) + k(1 ? )(
mX
+1
l+j =0
uil+j gl h ? uij ) + kFj
(4.83)
(4.84)
avec la convention u0 = um1 = 0, um+1 = um2 = 0.
Notant : d = ?k, d < 0, alors, la matrice M d'ordre m peut s'ecrire sous la forme suivant :
M = M~ + G
(4.85)
ou :
et
0 1 + b c
1
0 0
0
B
a 1 + b c 0
0 C
CC
B
B
0
a
1
+
b
0
0
~
CC
B
M = B
.
.
.
.
.
B
..
..
..
.. C
A
@ ..
0
0
0 a 1 + b mm
0
1
?(1 ? g0 h)d
g1 hd
g2 hd gm?1 hd
B
B g?1 hd ?(1 ? g0 h)d g1 hd gm?2 hd CCC
G = B
..
..
..
..
..
B
CA
@
.
.
.
.
.
g1?m hd
g2?m hd g3?m hd ?(1 ? g0 h)d mm
4
On note um1 = uim1 et um2 = uim2 pour tout 0 i N . Dans cette section, comme les conditions aux
bords sont nul, i.e um1 = um2 = 0, on a en e et v_ j = vj pour tout 0 j N . Ici, nous donnons une forme
plus generale, qui se servira pour traiter le cas ou les conditions aux bords ne sont pas nul, dans la section
suivante. A ce moment la, on a um1 = (m1 h) et um2 = (m2 h).
4.4. Convergence de la solution du probleme discretise
135
i.e M~ = (m~ ij ) avec :
i = 1; ; m
i = 2; ; m
i = 1; ; m ? 1
m~ ii = 1 + b
m~ i?1;i = c
m~ i+1;i = a
m~ i;j = 0
et G = (gij ) ou :
sinon
gii = ?(1 ? g0 h)d et gij = gj?i hd si i 6= j
Posons : M = (mi;j ); alors elle veri e :
mii > 0
mij 0 si i 6= j
et
(4.86)
En e et :
Il est facile de voir que 1 ? g0 h > 0 pour h assez petite. Par ailleurs, puisque b > 0, d < 0,
on en deduit alors : mii = 1+b?(1?g0h)d > 0. D'autre part, si i 6= j; mij = m~ ij +gj ?ihd < 0
par consequence du fait que a, c, d sont negatifs et gl 0 pour l = m1 ; ; m2 : De plus, la
matrice M a la propriete suivante.
Lemme 4.30 Soit M = (mij ) la matrice qui est de ni par (4.85), pour h assez petit, on a
alors :
mii >
mjj >
X jm j
ij
j 6=i
X jm j
i6=j
pour 1 i m
pour 1 j m
ij
~ G ont les inegalites
Demonstration : Pour montrer ce lemme, il sut de veri er que M;
analogues.
2
A partir de laPde nition de a, b, c,Pil est facile de voir que : jaj + jcj = k
h2 < 1 + b.
D'ou : m~ ii > j 6=i jm~ ij j et m~ jj > i6=j jm~ ij j.
Puisque g est la fonction positive de classe C 1 telle que R g(z)dz = 1, il est facile de
voir que, pour h assez petite :
X jg j
ij
j 6=i
= ?
Xg
j 6=i
m
= ?d(
gii
De m^eme,
j ?i hd
Xg
j =1
j ?ih ? g0 h)
m
X jg j = ? X g hd ?d( X
gl h ? g0 h) gjj .
ji
i?j
i6=j
i6=j
l=?m
136
Chapitre 4. Localisation, Discretisation et Convergence
Ce qui entra^ne le resultat annonce.
Lemme 4.31 Soit M une matrice d'ordre m veri ant :
X jm j
ij
j i
X jm j
mii >
=
pour 1 i m
6
mjj >
ij
i=j
pour 1 j m
6
alors M est coercive.
Demonstration :
(Mx; x) =
m
m X
X
( m
ij xj )xi
i=1 j =1
m
m m
mii x2i +
mij xi xj
i=1
i=1 j=1
j =i
m
m m
x2 + x2
mii x2i ?
jmij j( i 2 j )
i=1
i=1 j=1
j =i
m
1 ( (m x2 ? m jm jx2 )) + 1 ( m (m x2 ? m jm jx2 ))
2 i=1 ii i j=1 ij i
2 j =1 jj j i=1 ij j
i=j
j =i
m
m
m
m
1
1
2
2
2 i=1(mii ? j =i jmij j)xi + 2 j =1(mjj ? i=j jmij j)xj
X
XX
X
XX
=
=
=
6
X
X
X
X
6
X
6
X
X
6
X
6
6
Revenant aux hypotheses, on sait qu'il existe 1 ; 2 deux constantes positives, tel que : pour
P
P
tout i, mii ? j =i jmij j 1 > 0, et pour tout j , mjj ? i=j jmij j 2 > 0. Ce qui entra^ne
P
(Mx; x) ( 1 + 2 ) mi=1 x2i .
6
6
Remarque 4.32 Gr^ace aux lemmes 4.30 et 4.31, on a la coercivite de la matrice M qui
est de nie par (4.85). De plus, par (4.86), on sait que cette matrice a des coecients non
diagonaux negatifs ou nul, et des coecients diagonaux positifs. C'est a dire que cette matrice
veri e tous les hypotheses de la proposition 4.29.
La proposition suivante parlera de la monotonie de la solution discretise.
Proposition 4.33 Si l'hypothese de stabilite suivante :
1 ? ((1 ? ) + r(1 ? ))k ? (1 ? )2 hk2 > 0
(4.87)
4.4. Convergence de la solution du probleme discretise
137
est veri e, et supposons que les vecteurs u0 ; u1 ; ; uN sont les solutions du probleme (4.83),
alors, ils ont les proprietes suivante :
8i 2 f1; ; N g
ui ui?1
(4.88)
Demonstration : On montre, d'abord, le fait que :
si ui?1 ui =) qi?1 qi
En e et, a partir de la de nition de q (Vu (4.84)), on deduit :
i?1
qji?1 = ?(1 ? )(auji?1
?1 + cuj +1 ) + k(1 ? )(
X uil+?1j glh)
m+1
l+j =0
i
?1
+(1 ? (1 ? )b ? k(1 ? ))uj + kFj
Remarquons que b = h22k + rk, et l'hypothese de stabilite, on sait que : 1 ? (1 ? )( h22k +
rk) ? (1 ? )k > 0. De plus, comme a < 0, c < 0, 2 [0; 1], 2 [0; 1], > 0 et gl 0 pour
l = m1 ; ; m2 , on peut deduire, en utilisant ui?1 ui,
qji?1
?(1 ? )(auij?1 + cuij+1) + k(1 ? )(
+ (1 ? (1 ? )b ? k(1 ? ))uij + kFj
= qji
X uil+j glh)
m+1
l+j =0
maintenant, on commence a montrer le resultat enonce dans la proposition, ca se fait par
recurrence sur i. Il est clair que l'on a uN ?1 uN , gr^ace au fait que uN = '. Supposons
l'inegalite ui?1 ui acquise, ce qui donne qi?1 qi d'apres ce qui precede. Revenant a la
de nition de q_ (Vu (4.81)), il est evident que : qi?1 qi =) q_i?1 q_i . D'ou Mui?2 q_i?1 q_i . Or ui?2 ', de plus, remarquant les faits que : la matrice M est coercive et a des
coecients non diagonaux negatifs ou nul, on a alors ui?2 ui?1 par la proposition 4.29.
4.4.4 A aiblissement de l'hypothese sur
Dans cette section, nous reprenons les notations introduites a la section 4.3, i.e. u~ = u ? ~
ou u~ est la solution de (4.19) et u est la solution de (4.4). Si l'on note u~h;k la solution du
probleme discretise homogene (4.27), et u~ la solution du probleme homogene (4.19), d'apres
le theoreme 4.26, on a deja montre que si 2 W 2;2; (R), on a :
u~h;k ?! u~ fortement dans L2 ([0; T ]; L2 ( ))
@ u~ fortement dans L2 ([0; T ]; L2 ( ))
u~h;k ?! @x
l
l
138
Chapitre 4. Localisation, Discretisation et Convergence
Dans cette section, on va montrer qu'on a encore le theoreme de convergence sous une condition plus faible sur (i.e : 2 W 1;2; (R)). Pour cela, on aura besoin d'une estimation du
genre :
ju~h;k ? u^~h;k jL1([0;T ] l) C j h ? ^hjL1 ( l)
ou u~h;k (resp. u^~h;k ) est la solution du probleme (4.27) associee a h (resp. ^h ).
Par ailleurs, en revenant a la section 4.3, il est facile de voir que la solution du probleme
de depart (4.4) est donnee par :
u = u~ + ~
et que :
uh;k = u~h;k + ~h
est la solution du probleme discretise suivant :
8
Trouver uhi?1 2 Vh tel que :
>
>
>
uih ? uhi?1 + A ui? + B ui? + f 0
>
h h
h h
h
>
k
>
<
>
>
>
>
>
>
:
avec
uih?1 h
i?1
i
( uh ?kuh + Ah uih? + Bh uih?)( h ? uhi?1 ) = 0
uNh = h
uih (m1 h) = h(m1 h); uih (m2 h) = h (m2 h)
fj = X
l+j>m+1
(4.89)
l+j gl h
l+j<0
ou j = ((m1 + j )x) pour 1 j m. De plus, remarquons l'hypothese de regularite sur
~ (voir page 95), il n'est pas dicile de voir que si 2 W 2;2; (R), on a :
uh;k ?! u fortement dans L2 ([0; T ]; L2 ( l))
2
2
uh;k ?! @u
@x fortement dans L ([0; T ]; L ( l ))
On verra, dans la demonstration du lemme 4.34, qu'il est commode de prouver, tout d'abord,
deux lemmes qui preciseront la dependance de la solution approchee uh;k du schema (4.89)
par rapport a h : En fait, ces deux lemmes sont analogues aux lemmes de monotonie et de
continuite L1 . (Voir lemme 3.8, lemme 3.9).
Avant de les montrer, en suivant la m^eme methode que dans la section 4.4.3, on ecrit le
schema (4.89) sous la forme suivante :
1 = (m h); 1 i N
ui0?1 = (m1 h); uim?+1
2
et
8 N
>
< u =i?1 i i?1
)
Mu
q
_
;
u
>
: (Mui?1 ? q_i; ? ui?1 ) = 0 1 i N
(4.90)
4.4. Convergence de la solution du probleme discretise
139
ou :
qji = uij ? (1 ? )(auij?1 + buij + cuij+1 )
+ k(1 ? )(
X uil jg h ? uij ) + k X
m+1
l+j =0
+
l
l+j>m+1
l+j gl h
(4.91)
l+j<0
ou la matrice M est de ni comme dans (4.85) et le vecteur q_ est de ni comme dans (4.81) et
(4.82). 5
Maintenant, on peut enoncer le lemme suivant :
Lemme 4.34 Soient h et ^h appartient a Vh et veri ent h ^h, et de plus, si l'hypothese
de stabilite (4.87) est veri ee. Alors, les solutions uh;k et u^h;k du schema (4.90) associees
veri ent :
uh;k u^h;k
Demonstration : Nous utilisons une methode analogue a celle de la proposition 4.33. Cela
se fait en deux etapes.
1). Nous montrons le fait que :
b) i _ i
si uih u^ih =(a)) qi q^i =()
q_ q^
En e et, pour montrer (a), nous partons de la de nition de q (Voir (4.91)), on deduit :
X uil j glh)
Xl j g h
qji = ?(1 ? )(auij?1 + cuij+1 ) + k(1 ? )(
+ (1 ? (1 ? )b ? k(1 ? ))uij + k
m+1
+
+ =0
l+j>m+1
l+j l
l+j<0
remarquons que b = h22k + rk (Voir (4.78)), et que sous l'hypothese de stabilite (4.87) :
1 ? (1 ? )b ? k(1 ? ) > 0
De plus, comme a < 0, c < 0, 2 [0; 1], 2 [0; 1], > 0 et gl 0 pour l = m1 ; ; m2 ,
on peut deduire6 , en utilisant uih u^ih , h ^h ,
qji ?(1 ? )(au^ij?1 + cu^ij+1 ) + k(1 ? )(
X u^il j glh)
m+1
l+j =0
+
5 En e et, on ecrit (m1 h) au lieu de um , (m2 h) au lieu de um dans (4.81) et (4.82) a cause des conditions
2
1
aux bords.
6 Si l'on part directement du probleme homogene (4.19) et son probleme discretise (4.27), dans la membre
droite de qji (voir (4.84)), on aura un terme plus kFj avec :
l+j gl h
Fj = (Ah ~h )j+m1 + (Bh ~h )j+m1 + k
X
l+j>m+1
l+j<0
140
Chapitre 4. Localisation, Discretisation et Convergence
+ (1 ? (1 ? )b ? k(1 ? ))^uij + k
=
X
l+j>m+1
^l+j gl h
l+j<0
q^ji
De plus, pour montrer (b), en revenant a la de nition de v_ (Voir (4.81) et (4.82)), dans
ce cas, on a :
q_1 = q1 ? a (m1 h) + y1
q^_ 1 = q^1 ? a ^(m1 h) + y^1
q_m = qm ? c (m2 h) + ym
q^_ m = q^m ? c ^(m2 h) + y^m
q_j = qj + yj 2 j m ? 1
q^_ j = q^j + y^j 2 j m ? 1
avec :
yj = khg?j (m1 h) + khgm?j+1 (m2 h)
y^j = khg?j ^(m1 h) + khgm?j+1 ^(m2 h)
comme h ^h , et a < 0, c < 0, gl > 0, si qi q^i , on peut armer que :
q_1 q^_ 1
q_m q^_ m
q_j q^_ j
D'ou :
pour 2 j m ? 1
q_i q^_ i
2). Nous utilisons une methode de recurrence sur i pour montrer le resultat enonce dans
le lemme. Pour i = N , comme uNh = h , u^Nh = ^h , or h ^h et j = ((m1 + j )x),
d'ou h ^h . On a uN u^Nh .
Maintenant, supposons l'inegalite uih u^ih acquise. Cela entra^ne, par la premiere partie,
que :
q_i q^_ i
D'ou :
M u^i?1 q^_ i q_i
Or u^i?1 ^ , de plus, remarquant les faits que : la matrice M est coercive et a des
coecients non diagonaux negatifs ou nul, on a alors, par la proposition 4.29,
uih?1 u^ih?1
quand ^, si l'on note ~h (resp. ^~h ) la fonction approchee de ~ (resp. ^~), a partir de la de nition de ~
(voir la section 4.3), on n'a pas forcement la relation suivante :
(Ah ~h )j+m1 + (Bh ~h )j+m1 (Ah ^~h )j+m1 + (Bh ^~h )j+m1
ce qui veut dire qu'on n'a pas forcement qji q^ji comme ici. C'est la raison pour laquelle on revient, d'abord,
au probleme original.
4.4. Convergence de la solution du probleme discretise
On obtient nalement :
Lemme 4.35 Si
uh;k u^h;k
h 2 Vh , ^h 2 Vh et h ? ^h 2 L1 (
(4.87) est veri ee. Alors :
141
l
), et si de plus la condition de stabilite
uh;k ? u^h;k 2 L1([0; T ] )
l
et
juh;k ? u^h;k jL1([0;T ] ) j h ? ^hjL1(
l
l
)
Demonstration : On voit que pour avoir le resultat enonce, il sut de montrer que :
? j h ? ^hjL1( ) uh;k ? u^h;k j h ? ^hjL1 ( )
(4.92)
Posons : K = j h ? ^h jL1 ( ) et notons vh;k la solution du probleme discretise (4.90) associe
l
l
^h + K . On commence par montrer l'inegalite :
l
uh;k u^h;k + K
Cela se fait en deux etapes.
montrer : uh;k vh;k
montrer : vh;k u^h;k + K
1). Remarquant que uh;k (resp. vh;k ) est la solution du probleme discretise (4.90) associee
h (resp. ^h + K ), et le fait que h ? ^h K , d'ou h ^h + K , il resulte du lemme
4.34 que :
uh;k vh;k
2) On introduit d'abord quelques notations. Les vecteurs , ^ sont de nies par :
j = ^((m1 + j )x) + K
^j = ^((m1 + j )x)
Le vecteur Q (resp. q^) est de ni par (4.91) pour vhi (resp. u^ih ) au lieu de uih , et j (resp.
^j ) au lieu de j . Et de plus,
8
>
< Q_1 = Q1 ? a( ^h(m1 h) + K ) + y1
^ m 2 h) + K ) + y m
_
(4.93)
>
: QQ_ mj == QQmj +?ycj ( h(pour
2j m?1
142
Chapitre 4. Localisation, Discretisation et Convergence
8 _
>
< q^1 = q^1 ? a ^h(m1h) + y^1
_
^ 2 h) + y^m
>
: qq^^_jm == qq^^jm+?y^cj h(mpour
2 j m?1
(4.94)
avec (voir (4.82))
yj = khg?j ( ^(m1 h) + K ) + khgm?j+1 ( ^(m2 h) + K ) 1 j m
y^j = khg?j ^(m1 h) + khgm?j+1 ^(m2 h)
1jm
D'ou :
yj = y^j + khK (g?j + gm?j+1 )
1jm
Par un calcul, on voit que vh;k veri e :
8 vN = >
>
< Mvi?1 Q_ i 1 i N
i?1 >
1iN
>
: v(Mvi?1
? Q_ i; ? vi?1 ) = 0 1 i N
et u^h;k veri e :
8
>
u^N = ^
>
< M u^i?1 q^_ i 1 i N
>
u^i?1 ^
1iN
>
: (M u^i?1 ? q^_ i ; ^ ? u^i?1 ) = 0 1 i N
(4.95)
Maintenant, il faut montrer que :
vh;k u^h;k + K
(4.96)
Pour cela, on utilisera une methode analogue a celle utilisee dans le lemme 4.34. On
procede en deux etapes.
a). Pour i xe, si vhi u^ik + K , alors Q_ i q^_ i + MK .
b). Une methode recurrence sur i pour obtenir (4.96).
Pour obtenir a), partons de la de nition de Q (Voir (4.91)), on peut ecrire :
Qij = vji ? (1 ? )(avji ?1 + bvji + cvji +1 )
mX
+1
X
+ k(1 ? )(
vli+j gl h ? vji ) + k
l+j gl h
l+j =0
D'ou :
l+j>m+1
l+j<0
Qij = ?(1 ? )(avji ?1 + cvji +1 ) + k(1 ? )(
+
(1 ? (1 ? )b ? k(1 ? ))vji + k
mX
+1
Xl+j=0
l+j>m+1
l+j<0
vli+j gl h)
l+j gl h
4.4. Convergence de la solution du probleme discretise
143
en tenant compte du fait que b = h22k + rk et l'hypothese de stabilite, on sait que :
1 ? (1 ? )b ? k(1 ? ) > 0
De plus, comme a < 0, c < 0, 2 [0; 1], 2 [0; 1], > 0 et gl 0, on peut deduire, en
utilisant vhi u^ih + K , et j = ^j + K ,
Qij ?(1 ? )(a(^uij?1 + K ) + c(^uij+1 + K )) + k(1 ? )(
+ (1 ? (1 ? )b ? k(1 ? ))(^uij + K ) + k
X
= u^ij ? (1 ? )(au^ij ?1 + bu^ij + cu^ij +1 ) + k(1 ? )(
+ k
X
l+j>m+1
l+j<0
^l+j gl h + kK
X
l+j>m+1
gl h
l+j<0
+ K ? (1 ? )K (a + b + c) + k(1 ? )K (
X
m+1
l+j =0
l+j =0
l+j + K )gl h)
l+j gl h
l+j>m+1
l+j<0
X (^ui
m+1
X
m+1
l+j =0
u^il+j gl h ? u^ij )
gl h ? 1)
R
En tenant compte du fait que g est une fonction positive de classe C 1 telle que g(z )dz =
P gl h + Pl+j>m+1 glh ? 1) ? rk < 0. D'autre part, en
1, il est facile de voir que k( ml++1
j =0
l+j<0
remarquant la de nition de q^ et a + b + c = rk, r est positive, on peut deduire que :
Qij q^ji + K + K (a + b + c) ? kK (
? K (a + b + c) + kK (
X
m+1
l+j =0
gl h +
X
m+1
l+j =0
gl h ? 1)
X
l+j>m+1
glh ? 1)
l+j<0
m+1
q^ji + (a + (1 + b) + c)K ? kK (
X
l+j =0
gl h ? 1)
Par ailleurs, a partir de la de nition de la matrice M (Voir (4.85)), on voit que :
X
(MK )1 = ((1 + b) + c)K ? kK ( gl h ? 1)
m?1
l=0
(MK )m = (a + (1 + b))K ? kK (
X0
l=1?m
(MK )j = (a + (1 + b) + c)K ? kK (
gl h ? 1)
m
X
l+j =1
gl h ? 1) pour 2 j m ? 1
144
Chapitre 4. Localisation, Discretisation et Convergence
D'ou, si l'on note : xj = khK (g?j + gm?j +1 )
Qi1 q^1i + (MK )1 + aK ? x1
Qim q^mi + (MK )m + cK ? xm
Qij q^ji + (MK )j ? xj pour 2 j m ? 1
D'autre part, en revenant a (4.93), (4.94) et (4.95), on a :
Q_ i1 = Qi1 ? a( ^h (m1 h) + K ) + y1
q^1i + (MK )1 + aK ? aK ? a ^h(m1h) + y^1
= q^1i ? a ^h(m1 h) + (MK )1 + y^1
= q^_ i1 + (MK )1
De m^eme,
Q_ im q^_ im + (MK )m
et
Q_ ij = Qij + yj
= Qij + y^j + xj
q^ji + (MK )j + y^j
= q^_ ij + (MK )j pour m ? 1 j 2
On obtient nalement :
Q_ i q^_ i + MK
D'ou a).
Pour montrer b), on raisonne par recurrence sur i pour montrer (4.96). Pour i = N ,
comme vhN = h = ^h + K , u^Nh = ^h , on a vhN = uNh + K . Supposons que l'on a
vhi u^ih + K , en utilisant a), on a :
Q_ i q^_ i + MK
Or :
D'ou :
M u^i?1 q^_ i
M (^ui?1 + K ) q^_ i + MK Q_ i
Par ailleurs, u^i?1 ^h , d'ou :
u^i?1 + K ^h + K = h
4.4. Convergence de la solution du probleme discretise
145
Ce qui entra^ne, par la proposition 4.29, que :
v ?1 u^ ?1 + K
D'ou :
i
i
h
h
u^ + K
v
h;k
On obtient nalement :
u
h;k
ce qui donne :
h;k
v u^ + K
h;k
h;k
? u^ K
De m^eme, on peut montrer que u^ ? u K , ce qui donne ?K u ? u^ K .
u
h;k
h;k
h;k
D'ou :
u
et
h;k
h;k
Si l'on note, de plus, u^~
h;k
l
h;k
h;k L
;T
] ) K
l
= j ? ^ j 1( )
h
h L
l
est la solution du probleme (4.27) associe a ^ , on a, alors :
h
u
u^
h;k
h;k
= u~ + ~
= u^~ + ^~
h;k
h
h;k
h
ou u (resp. u^ ) est la solution de (4.89) associee a (resp. ^ ) et u~
(4.27) associe a . Et ~ (resp. ^~ ) est la fonction approchee de ~ (resp.
h;k
h;k
h
h
h;k
? u^ 2 L1([0; T ] )
ju ? u^ j 1([0
h;k
h;k
h
h
h;k
h
est la solution de
^~).
Si les conditions du lemme 4.35 sont veri ees, alors, on a :
ju~ ? u^~ j 1
j ~ ? ^~ j 1 + j ? ^ j 1
Corollaire 4.36
h;k
([0 ] )
h;k L
;T
h
l
h L
( )
h
l
h L
( )
l
En e et,
ju~ ? u^~ j 1 ([0
h;k
h;k L
;T
] )
l
= ju ? ~ ? u^ + ^~
ju ? u^ j 1([0 ]
j ? ^ j 1( ) + j ~
h;k
h
h;k
h;k L
h
h L
h;k
;T
l
j 1 ([0 ] )
^
) + j ~ ? ~ j 1 ([0
? ^~ j 1( )
h L
h
l
;T
l
h
h L
h L
l
par le lemme 4.35.
Maintenant, on peut enoncer le theoreme principal de cette partie.
;T
] )
l
146
Chapitre 4. Localisation, Discretisation et Convergence
Theoreme 4.37 Soit 2 W 1;2; (R). On suppose que u~h;k (t; x) = PNi=1 u~ih(x)1](i?1)k;ik](t)
est la solution du probleme discretise (4.27) et u~ est la solution du probleme (4.19). Si 2
[0; 1], 2 [0; 1], h; k tendent vers zero, et de plus, si hk2 ou est une constante assez
petit tel que les conditions de stabilite (4.87), (4.39) et (4.40) sont veri es. On a alors :
u~h;k ?! u~
u~h;k ?!
fortement dans L2 ([0; T ]; L2 ( ))
l
@ u~
@x
faiblement dans L2 ([0; T ]; L2 ( ))
l
Demonstration :
Puisque 2 W 1;2; (R), d'ou j
l
7
2 W 1;2( ) C ( ), par la convolution, on sait
l
l
qu'il existe une suite m d'element de W 2;2 ( ) qui converge uniformement vers . Par
ailleurs, si l'on suppose u~m est la solution du probleme (4.19) associee a m , d'apres le
l
lemme 4.7, on a :
ju~ ? u~m jL1([0;T ] ) j ?
l
Supposons que
m jL1 ( ) + j ~ ? ~m jL1 ( )
l
(4.97)
l
(resp. h;m ) est la fonction approchee de (resp. m ), u~h;k;m est la
solution discretise associe a h;m . Par le corollaire 4.36, on a alors :
h
ju~h;k ? u~h;k;mjL1([0;T ]
l
)
j h?
h;m jL1 ( ) + j ~h ? ~h;m jL1 ( )
l
(4.98)
l
On a par ailleurs, d'apres (4.98),
ju~h;k ? u~jL2 ([0;T ]
l
ju~h;k ? u~h;k;mjL2 ([0;T ] )
+ ju~h;k;m ? u~m jL2 ([0;T ] ) + ju~m ? u~jL2 ([0;T ]
C (j h ? h;mjL1( ) + j ~h ? ~h;mjL1( ))
+ ju~h;k;m ? u~m jL2 ([0;T ] ) + ju~m ? u~jL2 ([0;T ]
)
l
l
l
l
)
l
)
l
l
(4.99)
Or, puisque m 2 W 2;2 ( ), d'apres le theoreme 4.26, on sait que :
l
u~h;k;m ! u~m
fortement dans L2 ([0; T ]; L2 ( )) quand h; k ! 0
l
D'autre part, comme :
j h?
h;m jL1 ( ) j h ?
l
jL1 ( ) + j ?
l
m jL1 ( ) + j m ? h;m jL1 ( )
l
l
et
j ~h ? ~h;mjL1 ( ) j ~h ? ~jL1( ) + j ~ ? ~m jL1( ) + j ~m ? ~h;mjL1(
l
7
j
l
designe la restriction de a
l
l
l
l
)
4.4. Convergence de la solution du probleme discretise
147
en utilisant les faits que h (resp. ~h ) converge vers (resp. ~) et h;m (resp. ~h;m )
converge vers m (resp. ~m ) quand h tend vers 0, on en deduit, pour chaque m,
lim sup ju~h;k ? u~jL2 ([0;T ] l)
h;k!0
C (j ? mjL1 ( l) + j ~ ? ~m jL1( l) ) + ju~m ? u~jL2([0;T ]
C 0(j ? m jL1( l ) + j ~ ? ~m jL1( l ))
l)
(4.100)
d'apres (4.97), et C 0 est une autre constante.
Comme (4.100) est vrai pour tout m, en faisant tendre m vers l'in ni, on obtient
nalement le resultat enonce.
En remarquant la remarque 4.21, on en deduit :
u~h;k ?! @@xu~
faiblement dans L2 ([0; T ]; L2 ( l )):
Pratiquement, pour calculer le prix d'un put americain dans ce modele, nous prenons
PM 2 (M )M comme la fonction approchee de . Ceci est base sur les raisonnements
h
h
suivants : Premierement, dans ce cas, est une fonction uniformement continue sur l , donc,
on a :
p
h=
p
h
h
!
!
uniformement sur
uniformement sur
l
l
Supposons que uph;k la solution discretisee associee a hp , d'apres le lemme 4.35, on a :
juh;k ? uph;k jL1([0;T ] l) j h ? hp jL1(
l)
Or :
j h ? hp jL1(
l)
j h ? jL1 ( l) + j hp ? jL1 (
?! 0
l)
D'ou :
juh;k ? uph;k jL2 ([0;T ]
l)
juh;k ? uph;k jL1([0;T ]
?! 0
l)
D'autre part, en utilisant le theoreme 4.37, on a :
juph;k ? ujL2 ([0;T ]
l)
juh;k ? uph;k jL2([0;T ] l) + juh;k ? ujL2 ([0;T ]
?! 0
l)
148
Chapitre 4. Localisation, Discretisation et Convergence
ce qui entra^ne que :
p
u
h;k
?! 0 fortement dans 2 ([0 ] )
L
;T
l
:
Chapitre 5
Formules d'approximations
quasi-explicites
5.1 Approximation de Mac-Millan
Dans les chapitres precedents, nous avons presente la methode des inequations variationnelles
pour calculer le prix d'une option americaine dans ce modele. Le but de ce chapitre est de
donner une autre methode analytique qui nous permet de donner une valeur approchee du
prix du put americain faisant intervenir le prix du put europeen. C'est une generalisation
de l'algorithme de MacMillan (cf. [30] [27]). Cette methode nous donne des valeurs assez
precises, et en plus, est facile a programmer.
Nous rappelons que le prix d'un put americain, apres un changement de la variable, est
donne par :
u(t; x) = sup E([e?r( ?t) (Xt;x ))]
avec (x) = (K ? e )+ et :
2T
t;T
x
N
X
X = x + ( ? 2 )(s ? t) + (Bs ? Bt ) +
Zj
2
t;x
s
s
j =Nt +1
D'apres le chapitre 3, u (t; x) est egal a la solution u(t; x) de l'inequation aux derivees partielles suivante :
8 @u
>
+ Au + Bu 0
p:p dans [0; T ]]0; +1[
>
>
< [email protected](t; x) (x)
p:p dans [0; T ]]0; +1[
@u
>
>
( + Au + Bu)( ? u) = 0 p:p dans [0; T ]]0; +1[
>
: u(@tT; x) = (x)
ou les operateurs A et B sont de nis par :
@u ? ru
Au = 2 @@xu + ( ? 2 ) @x
2
2
2
2
149
Chapitre 5. Formules d'approximations quasi-explicites
150
Z
Bu = (u(t; x + z) ? u(t; x)) (dz)
Pour avoir un lien entre le prix d'un put americain avant la changement de la variable et
la solution d'une inequation variationnelle, nous posons : y = ex . Si l'on note le prix spot a
l'instant 0 par y et la fonction v(t; y) = u(t; ln y) = u(t; x), apres un calcul, on peut deduire
que le prix d'un put americain :
2
v (t; y) = sup E[e?r ?t (K ? ye ? 2 ?t
2Tt;T
(
)
(
)(
)+ (B
?Bt )
N
Y
(1 + Uj ))+ ]
j =Nt +1
est egal a la fonction v(t; y) ou v(t; y) veri e l'inequation aux derivees partielles suivante :
avec :
8 @v
>
+ Bv
0
+ Av
p:p dans [0; T ]]0; +1[
>
>
< [email protected](t; y) h(y)
p:p dans [0; T ]]0; +1[
@v
>
+ Bv
)(h ? v) = 0 p:p dans [0; T ]]0; +1[
>
( + Av
>
: v(@tT; y) = h(y)
(5.1)
= y @ v + y @v ? rv
Av
@y
Z2 @y
= (v(t; y(1 + z )) ? v(t; y)) (dz )
Bv
h(y) = (K ? y)
A partir de la de nition du prix d'un put, on sait que limy!1 v (t; y) = 0, cela nous permet
2 2
2
2
+
d'ecrire :
lim v(t; y) = 0
(5.2)
D'autre part, il n'est pas dicile de veri er que le prix d'un put europeen ve dans ce modele
est solution de l'equation suivante :
y!1
8
< @ve + Av
e + Bv
e = 0 p:p dans [0; T ]]0; +1[
@t
: ve(T; y) = h(y)
(5.3)
8 @w
>
+ Bw
0
+ Aw
p:p dans [0; T ]]0; +1[
>
>
@t
< w(t; y) h(y) ? ve(t; y)
p:p dans [0; T ]]0; +1[
@w
>
+ Bw
)(w ? h + ve (t; y)) = 0 p:p dans [0; T ]]0; +1[
( @t + Aw
>
>
: w(T; y) = 0
(5.4)
Posons : w = v ? ve . De (5.1), (5.3), on deduit que w veri e :
Notre but est de chercher une solution approchee de (5.1). Pour cela, il sut d'approximer
la solution w = v ? ve de (5.4). On discretise l'inequation (5.4) uniquement en temps. Puis si
l'on prend un seul pas en temps, et en suivant une methode totalement implicite et notons :
h~ (y) = h(y) ? ve(0; y)
5.1. Approximation de Mac-Millan
151
w = w(T; y) = 0;
w = w(0; y)
1
0
le schema d'approximation du probleme (5.4) peut ^etre ecrit sous la forme suivante :
8
>
>
>
<
>
>
>
:
w ? w + Aw
+ Bw
0
T ~
w h(y)
w + Aw
+ Bw
) = 0
(w ? h~ )( w ?
T
w =0
1
0
0
0
0
0
1
0
0
0
1
Si l'on note w0 = w~ (y), le schema precedente devient :
8
>
0
< ?w~ + T (Aw~ + B w~)
~
w~(y) h(y)
>
: (w~ ? h~ )(?w~ + T (Aw~ + B w~)) = 0
Maintenant on introduit le systeme suivant :
8
>
?w~ + T (Aw~ + B w~) = 0 pour y > y
>
>
pour y y
< w~(y) = h~ (y)
w~(y) est continue en y
dw
~ (y )
>
est continue en y
>
>
: limdyy!1 w~(y) = 0
On cherche une solution w~ de (5.6) sous la forme :
(5.5)
(5.6)
(
> y
w~(y) = h~ (yy) yy y
ou , , y sont des constantes a preciser.
Avant d'enoncer la proposition suivante, on introduit deux notations en posant : v0 = @v
@y
et v00 = @@y2 v2 .
Proposition 5.1 La solution de (5.6) sous la forme pr
ecedente est donnee par les formules
suivantes :
( > y
w~(y) = Ky? y ? v (0; y) yy (5.7)
y
e
ou :
= K ? y y?ve (0; y ) 0;
est l'unique solution negative de l'equation :
2 2 + ( ? 2 ) ? (r + + 1 ) + E(1 + U ) = 0
1
2
2
T
et y est la solution unique de l'equation :
f (y) = y dans [0; K ]
ou :
K ? ve(0; y)
f (y) = jj v0 (0
; y) + 1 + jj
e
(5.8)
(5.9)
(5.10)
Chapitre 5. Formules d'approximations quasi-explicites
152
Avant de montrer cette proposition, on etudie quelque proprietes du prix d'un put europeen ve (t; y). D'apres le chapitre 7 3.3 du livre [27], on sait que le prix d'un put europeen
ve est donne par :
2
ve (t; y ) = E[e?r(T ?t) h(ye(? 2 )(T ?t)+BT ?t
Y
NT ?t
j =1
(1 + Uj ))]
avec h(y) = (K ? y)+ . D'ou :
a).
ve (0; 0)
= e?rT K
< K
b). limy!1 ve (0; y) = 0
c).
ve (t; y ) 0
d). et y 7! ve (t; y) est une fonction convexe a cause du fait que y 7! h(y) = (K ? y)+ est
convexe, donc, ve00 (t; y) est positive.
e). c), d), a) entra^nent que ve (0; y) est strictement plus petit que K .
f). 1 + ve0 (0; y) 0
La derniere propriete f) resulte du fait2 suivant :
Q T (1 + U ), alors S = yV , et
En e et, si l'on note : VT = e(? 2 )T +BT Nj =1
j
T
T
= E(e?rT (K ? ST )+ )
= E(e?rT (K ? yVT )+ )
ve0 (0; y ) = ?E(e?rT VT )1fy<K=VT g
?E(e?rT VT )
= ?e?rT E(VT )
ve (0; y )
Puisque le prix actualise (e?rt St )t0 est une martingale, d'ou :
E(VT ) =
erT
E(erT VT )
= erT E(V )
=
rT
0
e
D'ou f).
Demonstration : (Demonstration de la proposition 5.1)
On va, d'abord, montrer que l'equation (5.8) a une et une seule racine negative. En
e et, posons :
( ) =
2
2
2 + ( ?
1
)
? (r + + ) + E(1 + U1 )
2
T
2
5.1. Approximation de Mac-Millan
153
puisque U1 est une variable aleatoire a valeurs dans ] ? 1; 1[,
= 2 + ( ? 2 ) + E(1 + U1 ) ln(1 + U1 )
00 () = 2 + E(1 + U1 ) ln2 (1 + U1 ) 2 > 0
2
0 ()
D'ou, la fonction 7! () est une fonction convexe. Par ailleurs, comme 1 + U1 > 0,
alors, pour tout appartenant a l'intervalle ] ? 1; 1[, on a E(1 + U1 ) 0. D'ou :
lim!?1 () = +1. D'autre part, on sait que (0) = ?(r + T1 ) < 0, on peut alors
enoncer que (5.8) a une et une seule racine negative.
Maintenant, on commence a veri er notre formule.
Determination de Pour preciser la valeur de , on remplace w~ (y) par y dans la premiere equation de
(5.6), on obtient :
2
1
2 2
+ ( ? ) ? (r + + ) + E(1 + U1 ) = 0
2
2
T
D'apres la premiere etape de cette demonstration, on sait que cette equation a une et
une seule racine negative, on la note .
Determination de et y
Puisque w~(y) est continue en y ,
dw
~ (y )
dy
y
y(?1)
D'ou :
est continue en y , on a :
= (K ? y ) ? ve (0; y )
= ?1 ? ve0 (0; y )
= K ? y y?ve (0; y )
K ? y ? ve (0; y )
y
=
jj
1 + ve0 (0; y )
e (0;y )
Par calcul, on voit que y est la solution de f (y) = y ou f (y) = jj veK(0?;yv)+1+
jj .
D'autre part, en tenant compte des faits que 1 + ve0 (0; y) 0, ve(t; y) 0, et ve (0; y) <
K , on sait que :
0 jj 1 +Kv?0 (0v;ey(0;)y+)jj K ? ve (0; y ) K
e
D'ou :
0
y
0 K ? ve (0; y )
y
K
Chapitre 5. Formules d'approximations quasi-explicites
154
On a alors :
= K ? y y?ve (0; y ) 0
Il reste a montrer que y = f (y) a une seule solution dans [0; K ]. On va, d'abord, montrer
que f (y) ? y est une fonction decroissante. Comme :
K ? ve (0; y)
= jj v0 (0
e ; y ) + 1 + j j
ve0 (0; y)
(K ? ve (0; y))ve00 (0; y) f 0(y) = ?jj 0
+
v (0; y) + 1 + jj
(v0 (0; y) + 1 + jj)2
f (y)
e
e
En utilisant les faits que K ? ve (0; y) > 0, et ve00 (0; y) > 0, d'ou :
f 0(y) ? 1 < 0
Cela entra^ne que f (y) ? y est une fonction strictement decroissante. D'autre part,
puisque ve (0; 0) = e?rT K et ve0 (0; 0) + 1 > 0, alors,
K ? ve(0; 0)
f (0) = jj 0
ve (0; 0) + 1 + jj
?rT
K ?e K
= jj v0 (0
>0
; 0) + 1 + jj
e
Par ailleurs, a cause des faits ve0 (0; K ) + 1 0, et ve (0; K ) > 0, on a evidemment que :
?jjve (0; K ) < K (ve0 (0; K ) + 1)
Donc :
D'ou :
jjK ? jjve (0; K ) < jjK + K (ve0 (0; K ) + 1)
K ? ve (0; K )
<K
f (K ) = jj 0
ve (0; K ) + 1 + jj
Il en resulte que y = f (y) a une solution unique dans [0; K ], or y s'il existe est une
solution de cet equation dans [0; K ]. Donc, y est la seule solution de y = f (y) dans
[0; K ].
La proposition suivante nous permettra de calculer le prix d'un put americain v(t; y).
Proposition 5.2
La fonction w~ (y) de nie par (5.7) est une solution de (5.5).
Demonstration : Comme (5.7) est une solution de (5.6), pour montrer la proposition 5.2,
il sut de veri er les deux points suivants.
5.1. Approximation de Mac-Millan
155
1). w~ (y) = K ? y ? ve (0; y) = h~ (y) (quand y < y ) satisfait la premiere inequation dans
(5.5).
2). w~ (y) = y (quand y y ) satisfait la deuxieme inequation dans (5.5).
Pour montrer 1), on note :
'(y) = ?h~ (y) + T (Ah~ + B h~ ) pour y < y
Remarquons h~ (y) = h(y) ? ve (0; y), d'ou h~ (y) = K ? y ? ve (0; y) pour y y < K . On a
donc :
e (0; y) + Bv
e (0; y))
'(y) = ?(K ? y) + ve(0; y) + T (A(K ? y) + B (K ? y)) ? T (Av
A partir des de nitions des operateurs A et B , et utilisons la relation ? r + EU1 = 0, on
deduit :
Z
A(K ? y) + B (K ? y) = ?y ? r(K ? y) + (K ? y(1 + z) ? (K ? y)) (dz)
= ?rK ? ( ? r)y ? yEU1
= ?rK
Par ailleurs, puisque ve00 (0; y) 0, 1 + ve0 (0; y) 0, et r; y sont positifs, et en remarquant, de
nouveau, ? r + EU1 = 0, on a :
2 2 2
e = y @ v2e + y @ve ? rve
Av
2 @y
@x
2
2
= 2y ve00 + ryve0 ? yve0 EU1 ? rve
?ry ? rve ? yve0 EU1
On peut donc ecrire :
e
'(y) ?(K ? y) + ve(0; y) ? rTK +ZrTy + rTve + Tyve0 EU1 ? T Bv
e
= (1 + rT )(ve ? (K ? y)) ? T (ve (0; y(1 + z )) ? ve (0; y) ? yz @v
@y (0; y)) (dz)
Comme la fonction y 7! ve (0; y) est convexe, alors :
D'ou :
e
ve(0; y(1 + z)) ? ve(0; y) yz @v
@y (0; y)
'(y) (1 + rT )(ve ? (K ? y))
Posons '(y) = (1 + rT )(ve ? (K ? y)), maintenant, il reste a montrer '(y) 0 pour y y .
Puisque (K ? y ) ? ve (0; y ) = y ,
'(y) = ? (1 + rT )y
0 car > 0; y 0
Chapitre 5. Formules d'approximations quasi-explicites
156
Or :
'0 (y) = (1 + rT )(ve0 + 1) 0
Il en resulte que '(y) est une fonction croissante de y. D'ou pour y y , on a '(y) '(y ) 0.
Maintenant, il reste a veri er 2). Montrons d'abord l'inegalite pour y y K , on a :
h~ (y) = K ? y ? ve (0; y). Posons :
'^(y)
= w~ (y) ? h~ (y) = y ? K + y + ve (0; y)
On voit qu'il sut de montrer '^(y) 0. Puisque :
'^0 (y)
y?1 + 1 + ve0 (0; y)
=
'^00 (y) =
( ? 1)y?2 + ve00 (0; y)
et < 0, ve00 (0; y) 0, d'ou :
'^00 (y) >
0 dans [y ; K ]
Ce qui implique '^0 (y) est une fonction croissante dans [y ; K ]. Et, de plus, comme la fonction
dw
~ (y )
dy est continue en y , on a :
'^0 (y ) = y(?1) + 1 + ve0 (0; y ) = 0
d'ou '^0 (y) 0 pour [y ; K ]. On en deduit, donc, '^(y) est une fonction croissante dans [y ; K ].
Or :
'^(y ) = y ? K + y + ve (0; y ) = 0
a cause du fait que la fonction w~(y) est continue en y . D'ou '^(y) 0 sur [y ; K ], i.e :
~ (y) sur [y ; K ].
w~ (y) h
Par ailleurs, pour y < K y, on a h~ (y) = (K ? y)+ ? ve (0; y) = ?ve (0; y) 0. Or
w~ (y) = y > 0 a cause du fait que est strictement positif et y K > y > 0. D'ou
w~ (y) = y > h~ (y) pour y K . On a donc w~ (y) = y h~ (y) pour y y .
Une approximation du prix d'un put americain est donnee par :
v(0; y) =
(
ve (0; y) + y
K ?y
si y > y
si y y
E videment, on a : v(0; y) ve (0; y):
Dans un cas special ou la variable aleatoire Z1 = ln(1 + U1 ) suit une loi que la loi
exponentielle de parametre 0 > 1, on peut calculer la valeur de et le prix d'un put
5.2. Une forme approchee du prix du put americain
157
europeen ve (t; y) explicitement, cela peut faciliter le calcul du prix d'un put americain. En
e et : comme Z1 = ln(1 + U1 ),
E(1 + U ) = Ee
1
Z1
= 0
Z
ey e?0 y dy = ? si < 0
y>0
0
0
alors, l'equation (5.8) peut s'ecrire sous la forme suivante :
2 2 + ( ? 2 ) ? (r + + 1 ) + 0 = 0
2
2
T 0 ? i.e :
2 3 + ( ? (1 + ) 2 )2 ? (r + + 1 + ( ? 2 )) + (r + 1 ) = 0
0
2
2
T 0
2
T 0
C'est une equation d'ordre trois. Elle a une racine negative. Il existe une formule explicite
pour resoudre cet equation. (voir le cas d'un put perpetuel).
5.2 Une forme approchee du prix du put americain
Le but de cette section est de montrer que, dans ce modele avec des sauts, le prix d'un put
americain peut ^etre ecrit comme le prix d'un put europeen plus un terme d'integrale qui
contient le prix critique. (Dans le cas sans sauts, voir le papier de Myneni [34]).
On utilise les m^eme notations qu'avant. Le prix d'un put americain v(t; y) peut ^etre ecrit
sous la forme suivante :
2
Y
(1 + Uj ))+ )
v(t; y) = sup E(e?r( ?t) (K ? ye(? 2 )( ?t)+(B ?Bt)
2Ft;T
j =Nt +1
N
et le prix d'un put europeen est :
2
ve(t; y) = E(e?r T ?t (K ? ye ? 2 T ?t
(
)
)(
(
)+ (BT
?Bt )
NT
Y
j =Nt +1
(1 + Uj ))+ )
On rappelle que v(t; y) est la solution de l'inequation aux derivees partielles suivant :
avec :
8 @v
>
+ Bv
0
+ Av
p:p dans [0; T ]]0; +1[
>
>
< [email protected](t; y) h(y)
p:p dans [0; T ]]0; +1[
@v
>
+ Bv
)(h ? v) = 0 p:p dans [0; T ]]0; +1[
( + Av
>
>
: v(@tT; y) = h(y)
= y @ v + y @v ? rv
Av
@y
Z2 @y
= (v(t; y(1 + z )) ? v(t; y)) (dz )
Bv
h(y) = (K ? y)
2 2
2
2
+
Chapitre 5. Formules d'approximations quasi-explicites
158
Maintenant, on de nit le prix critique s (t) de la facon suivante :
s(t) = supfy j v(t; y) = (K ? y)+g
Financierement, il signi e qu'on doit exercer l'option des que le prix du cours devient plus
petit que s (t). C'est la raison pour laquelle l'on lui donne le nom de \prix critique".
Proposition 5.3
Z
N
2
T ?t ?r
X
v(t; y) = v (t; y) + rK
e P(( ? ) + B + ln(1 + U ) log s ( + t) )d
On a :
e
2
0
j
j =1
y
Demonstration : D'apres le theoreme 3.31, on sait que,
dans le cas du put americain, la
2v
@v
@
@v
fonction v(t; y) admet des derivees partielles @t , @y , @y2 localement bornees sur [0; T [ R.
Comme v n'appartient pas a C 2 , donc, on ne peut pas utiliser la formule d'Ito directement
a e?rt v(t; St ). Cependant, on peut se debrouiller a l'aide de la methode d'approximation (cf.
la demonstration du theoreme 3.20). Nous de nissons vm de la m^eme facon que celui dans le
theoreme 3.20 (i.e, en utilisant le technique de la convolution), alors vm 2 C 1. En appliquant
la formule d'Ito a e?rt vm (t; St ), on a :
e?rt vm(t; St ) ? vm(0; S0 ) =
Z t e?r( @vm ? rv )d + Z t e?r @vm (S d + S dB )
m
@
@y 0
0
N
1 Z t S 2 2 e?r @ 2 vm d + X
[e?r (v ( ; S ) ? v ( ; S
t
+ 2
0 @y2
j =1
j
m j
j
m j j? ))]
ou les j sont les temps de sauts du processus de Poisson.
Z
XN0 [e?r (vm(j; S ) ? vm(j; S
Z t e?rS @vm dB
@y
0
Z
Z
t
?
r
))] ? d e
(dz)(v (; S (1 + z)) ? v (; S ))
e?rt vm(t; St ) ? vm(0; S0 )
t ?r @vm
m + Bv
m )(; S )d +
=
e ( @ + Av
+
t
j
j =1
j
j
Notant :
Lt =
Mt =
XN [e?r (vm(j; S )?vm(j; S
t
j =1
?
j
j
j
?
m
0
m
Z t e?rS @vm dB
@y
0
Zt Z
))] ? d e?r (dz )(v (; S (1+ z )) ? v (; S ))
0
m
m
On a :
Z
e?rt vm(t; St ) ? vm(0; S0 )
t ?r @vm
m + Bv
m )(; S )d + Mt + Lt
e ( @ + Av
=
0
(5.11)
5.2. Une forme approchee du prix du put americain
159
En suivant le m^eme raisonnement que dans le theoreme 3.18, on peut montrer que Mt^ R +
Lt^ R est une martingale ou R est de nit de la m^eme facon que le lemme 3.15. En faisant
t = T dans (5.11) et en prenant l'esperance, on obtient :
Ee?rT ^ R vm (T ^ R ; ST ^ R ) ? vm (0; S0 )
Z T ^ R ?r @vm
m + Bv
m )(; S )d + E(MT ^ R + LT ^ R )
= E
e ( @ + Av
0
Z T ^ R ?r @vm
m + Bv
m )(; S )d
= E
e ( @ + Av
0
(5.12)
Nous faisons passer a la limite en appliquant les m^eme technique que celui dans le theoreme
3.20. Nous obtenons :
Ee?rT v(T; ST ) ? v(0; S0 )
ZT
+ Bv
)(; S
= E e?r ( @v + Av
@
0
)d
D'autre part, a partir de la de nition du prix critique, on voit facilement que :
D'ou :
( @v
@ + Av + Bv)(; S ) = 0 sur fy > s (t)g
Z T ?r @v
?
rT
+ Bv
)1fS s()g d
E(e v(T; ST )) ? v(0; S0 ) = E
e ( + Av
(5.13)
@
mais sur fS s ()g, on a v(t; y) = (K ? y) = K ? y. Par calcul, en tenant compte du
fait que r ? ? EU = 0, on deduit :
Z
@v + Av
+ Bv
= y 0 + y(?1) ? r(K ? y) + [(K ? y(1 + z )) ? (K ? y)] (dz )
@
2
Z
= ?y + ry ? rK + (?yz ) (dz )
= (r ? ? EU )y ? rK
= ?rK
0
+
1
2 2
1
ce qui entra^ne que :
Z T ?r
?
rT
E(e v(T; ST )) ? v(0; S0 ) = E
e (?rK )1fS s()g d
0
= ?rK
D'ou :
ZT
0
e?r P(S s())d
Z T ?r
?
rT
v(0; S0 ) = E(e (K ? ST )+) + rK e P(S s())d
Q
Or, si l'on note S = y, S = y Nj (1 + Uj )e ?
0
=1
(
0
2 ) +
2
B , remarquons :
ve(0; y) = E(e?rT (K ? ST ) )
+
Chapitre 5. Formules d'approximations quasi-explicites
160
on obtient :
v (0; y )
= ve (0; y) + rK
Z
T
0
2
e?r P(( ?
) + B +
2
Plus generalement, pour t quelconque, on a :
v (t; y )
= ve (t; y) + rK
Z
0
? ?r
2
) + B +
e P(( ?
T t
2
Ce chapitre est une version detaillee de [43].
X ln(1 +
N
j =1
X ln(1 +
N
j =1
Uj )
Uj )
log s y() )d
log s (y+ t) )d
Chapitre 6
Resultats Numeriques
Les programmes realisant les di erentes algorithmes presentes dans cette these sont ecrits en
langage \Pascal" et e ectues sur station de travail SUN.
Dans cette partie numerique, nous supposons que les variables aleatoires 1 + Uj suivent
une loi lognormale.
6.1 Volatilite implicite
Dans cette section, on va presenter quelques courbes de volatilite implicite (CdV).
Nous rappelons que le prix risque St est contr^ole par l'E.D.S :
Nt
X
dSt
=
dt + dBt + Uj
St?
j =1
et sous la condition = r ? EU1 , le prix actualise S~t = e?rt St est une martingale. Il est
clair que sa variation quadratique est :
< S~t ; S~t > =
Z t
0
= 2
S~u2 (2 + EU12 )du
Z t
0
S~u2 du
avec :
2 = 2 + EU12
(6.1)
Or on sait que dans le modele de Black et Scholes, la variation quadratique de S~t est egale a
R
2 0t S~u2 du. Il est clair que la presence des sauts modi e la volatilite observable du processus
(S~t )t0 et la volatilite purement Brownienne n'est plus observable. Si le nombre moyen de
sauts annuel = 0, on retrouve le modele de Black et Scholes avec = . Dans la suite, on
introduit un parametre p qui contr^ole les sauts, en posant p = 22 , (6.1) devient :
161
Chapitre 6. Resultats Numeriques
162
EU 2 = 1
2 1
On fait varier les valeurs de p de 0 a 1. Alors, p = 1 correspond du cas sans sauts (i.e
le modele de Black et Scholes), et p = 0 correspond le cas ou on n'a que des sauts et p < 1
p+
correspond au modele avec des sauts.
Nous supposons dans un premier temps qu'on a un marche nancier suivant le modele de
Black et Scholes. Nous calculons la prime (note P) dans ce modele. P doit ^etre une fonction
de x, s, K , r et . Notons :
P = (x; s; K; r; )
(6.2)
ou x est le prix du sous-jacent, s est la maturite residuelle, K le prix d'exercice, r le taux
d'inter^et, la volatilite.
Remarquons que dans le cas europeen, a une forme explicite. Or dans le cas americain,
elle n'a pas de formule explicite, mais il existe des methodes numeriques pour calculer P .
Maintenant, supposons que le taux d'inter^et r, le prix d'exercice K sont connus, et le cours
est observe sur le marche, on peut toujours inverser (6.2) pour avoir une valeur approchee
de (Par exemple par la methode de Newton). C'est la volatilite implicite Brownienne. Si
l'on considere plusieurs options ecrites sur le m^eme sous-jacent, mais avec des prix d'exercice
di erents, en observant les cours sur le marche et en utilisant la methode precedente, on peut
avoir une courbe de volatilite implicite (CdV) en fonction du prix d'exercice.
Si on interprete le marche par le modele de Black et Scholes, on aura une CdV plate.
(Voir la gure 3, p = 1).
Maintenant, si l'on suppose que le \bon" modele correspondant au marche est le modele
avec sauts, on calcule la prime en utilisant la `formule' de valorisation dans notre modele avec
la volatilite historique = 0:3 pour la gure 1. Admettons que les autre parametres sont xes,
on inverse (6.2) avec cette prime pour avoir une volatilite implicite. Cette volatilite implicite
nous permet d'egaliser la prime de Black et Scholes a la prime observee sur le marche.
Nous etudions l'allure des CdV et leurs deformations en fonction de la variance de U , de
et de p.
Nous prenons les parametres de la facon suivante :
- Le taux d'inter^et sans risque : r = 9%.
- Le prix du sous-jacent : x = 45F F .
- L'esperance de U1 : EU1 = 0.
- La maturite residuelle s = T ? t = 30 jours.
Dans un premier temps, on xe les valeurs de p et la volatilite historique , et on fait
varier la variance de U1 . On a alors les courbes suivantes.
6.1. Volatilite implicite
163
Cas europeen :
Figure 1
Volatilite implicite (cas europeen)
= 0:3, p = 0:3
0:32
VarU=0.01
VarU=0.008
VarU=0.005
0:315
0:31
Volatilite 0:305
implicite
0:3
0:295
0:29
0:285
35
40
45
50
Le prix d'exercice
55
Cette gure presente di erentes CdV pour di erentes amplitudes des sauts. Lorsque
l'amplitude des sauts devient grande, le niveau d'in exion de CdV devient \fort". Ce sont
les sauts qui l'emportent. Lorsque l'amplitude des sauts tend vers 0, CdV tend vers celui de
Black et Scholes (de plus en plus proche d'une droite).
Figure 2
0:55
0:5
0:45
0:4
0:35
Volatilite 0:3
implicite
0:25
0:2
0:15
0:1
0:05
30
Volatilite implicite (cas europeen)
V ariance de U = 0:04, p = 0:3
= 0:1
= 0:2
= 0:3
= 0:4
= 0:5
35
40
45
50
Le prix de l'exercice
55
60
164
Chapitre 6. Resultats Numeriques
En faisant varier les valeurs de volatilite historique de 0:1 a 0:5, on a trouve les m^emes
phenomenes qu'avant. Lorsque decro^t, c'est la partie des sauts qui l'emportent, on a une
CdV ou l'in exion est tres \forte". Or, pour grand, on a une CdV plus proche d'une droite
(CdV de Black et Scholes).
Figure 3
0:38
0:36
0:34
0:32
Volatilite 0:3
implicite
0:28
0:26
0:24
0:22
Volatilite implicite (cas europeen)
V ariance de U = 0:04, = 0:3
p=1
p = 0:7
p = 0:5
p = 0:3
p = 0:1
35
40
45
Le prix d'exercice
50
55
Cette gure presente les di erentes CdV pour les di erentes valeurs de p. Rappelons que
p est un parametre qui represente le niveau des sauts intervenu. Lorsque p decro^t, les sauts
l'emportent, et le CdV devient plus convexe. Or pour p = 1, c'est a dire dans le cas ou il n'y
a pas de sauts, on a retrouve la CdV de Black et Scholes.
On rappelle qu'une option de vente est dans la monnaie (`in-the-money' en Anglais ) si
le prix du sous-jacent est inferieur au prix d'exercice, ce qui correspond au fait qu'elle sera
exercee. Au contraire, une option de vente est hors de la monnaie (`out-of-the money' en
Anglais ) si le prix du sous-jacent est superieur au prix d'exercice. De plus, on dira qu'une
option est a la monnaie (`at-the-money' en Anglais ) dans le cas ou il y a egalite entre le prix
du sous-jacent et le prix d'exercice.
En utilisant cette notion de CdV, on peut aussi donner une interpretation complementaire
pour comparer les deux modeles. Supposons que la volatilite observe sur le marche est = 0:3.
D'apres la gure 3, lorsque l'option est tres fortement hors de la monnaie, la volatilite implicite
est plus grande que la volatilite observe . Si les nanciers considerent comme la volatilite
Brownienne, c'est a dire qu'ils ont pris une volatilite plus faible, alors la prime de Black et
Scholes est plus faible que la prime dans le modele avec sauts.
Au contraire, quand on est a la monnaie, la volatilite brownienne est plus faible que la
volatilite observe . Si les nanciers prennent comme la volatilite Brownienne, ils ont fait
6.2. Resolution du probleme discretise
165
une sur-estimation, ce qui entra^ne que la prime de Black et Scholes est plus grande que la
prime du modele avec sauts.
Cas put perpetuel :
Figure 4
Volatilite implicite (put perpetuel)
= 0:3 , EU = 0, varU = 0:04
0:32
p=0.1
p=0.2
p=0.3
p=0.5
p=0.7
p=1
0:31
0:3
Volatilite 0:29
implicite
0:28
0:27
0:26
30
35
40
45
Le prix d'exercice
50
55
60
Pour le put perpetuel, supposons la volatilite observee sur la marche est = 0:3, on voit
que, par le gure 4, tous les CdV se trouvent au-dessous de = 0:3. Ce qui veut dire que
si l'on considere comme la volatilite Brownienne, on a fait une sur-estimation. La prime
donnee par le modele de Black et Scholes est alors superieur a celle donnee par le modele
avec sauts.
6.2 Resolution du probleme discretise
En pratique, pour calculer le prix d'un put americain, nous suivons le schema correspondant
a = 1 et = 0. Pour resoudre (4.89), nous nous ramenons, a chaque pas de temps, a
un \probleme de complementarite lineaire". Les algorithmes de ce probleme ont ete etudies.
Notre objet est de chercher un algorithme ecace compte tenu des proprietes particulieres
de notre probleme. Maintenant, nous rappelons, d'abord, quelques proprietes du probleme
de complementarite lineaire. Pour en savoir plus, nous renvoyons aux livres de Murty [33] et
de Cottle, Pang et Stone [11].
6.2.1 Probleme de Complementarite Lineaire
Beaucoup de problemes en mecanique structurels, en physique, en economie etc peuvent ^etre
interpretes comme des problemes de complementarite. Un probleme de complementarite se
presente sous la forme suivante :
Chapitre 6. Resultats Numeriques
166
Trouver Z
2
R tel que :
n
8
>< W = f (Z )
W 0; Z 0
>: W
TZ = 0
ou f : R R et W R .
Si f est ane, de la forme : f (Z ) = q + MZ ou q R et M est une matrice de n n,
on parle de probleme de complementarite lineaire (P.C.L). La resolution de ce probleme est
bien etudiee. Les algorithmes numeriques , comme celui de Lemke [29] et celui de Saigal [38],
exitent.
Nous verrons que le calcul du prix d'une option americaine peut se ramener a un cas
special de P.C.L ou la matrice M est une matrice de Minkowski tri-diagonales. On rappelle
que la matrice de Minkowski est une matrice ayant des coecients diagonaux positives,
des non diagonaux negatives ou nuls et des mineurs principaux positives. Le but de cette
paragraphe est de suggerer deux algorithmes ecaces, i.e : celui de Cryer (cf. [14]) et celui
de Brennan-Schwartz (cf. [24], [8]) en tenant compte des proprietes particulieres de notre
probleme.
n
n
7!
2
n
n
2
6.2.2 L'algorithme de Cryer
L'algorithme de Cryer est une modi cation de l'algorithme de Saigal (cf. [38]). Il possede
deux caracteristiques :
Les donnees sont balayees alternativement entre le `forward passes' et `backward passes'.
Le nombre d'operations e ectues par etape est O(n).
Nous allons presenter cet algorithme. Rappelons que le probleme est de trouver les vecteurs
W = (W ) et Z = (Z ) dans R tel que :
i
n
i
8
>
< W = q + MZ (6.3.1)
W 0; Z 0 (6.3.2)
>
: WTZ = 0
(6.3.3)
ou M = (m )
ij
2
R
n
(6.3)
R , q = (q ) R . Notons : N = 1; 2; ; n , si J N ,
n
i
2
n
f
g
J designe le nombre d'elements dans J .
j
j
N J designe le complementaire de J par rapport a N .
n
MZ + q J
0 signi e le systeme de J inegalites obtenu en supprimant les lignes et
les colonnes d'indice n'appartenant pas a J .
j
j
j
6.2. Resolution du probleme discretise
167
L'idee principale de cet algorithme est de : choisir la valeur initiale tel qu'elle veri e (6.3.1) et
(6.3.3), garder ces deux conditions pendant toutes les etapes de l'algorithme, et faire veri er,
au fur et a mesure, la condition de non-negative (6.3.2). On obtient, nalement, la solution
du probleme.
On rappelle que si M est une matrice de Minkowski, alors, M jJ l'est aussi, et M ?1 0.
L'algorithme peut alors ^etre decrit par le schema suivant :
etape 0 :
Choisir Z 0 0, tel que :
MZ 0 + qjJ 0 = 0;
ou J 0 = fi 2 N : Zi0 > 0g. On peut supposer que : 3
J 0 Q = fi 2 N : qi0 < 0g
Posons p := 0.
1ere -etape :
Notons :
W p = MZ p + q;
I p = fi 2 N j Wip < 0g
Si I = , stop. (W ; Z ) est la solution du probleme.
Sinon, Choisir i
p
p
p
p
2 Ip
et poser :
J p+1 = J p
[fi g
p
Calculer Z +1 tel que :
p
MZ p+1 + qjJ p+1 = 0;
Z p+1jN nJ p+1 = 0
Poser : p = p + 1 et repeter.
Il est evident que cet algorithme se terminera apres n etapes au maximum. Pour la
justi cation de l'algorithme, nous renvoyons a [14].
Jusqu'a present, ce qu'on a utilise, c'est que M est une matrice de Minkowski. On n'a pas
utilise le fait que M est le tri-diagonale. C'est a dire que l'algorithme qu'on a enonce avant est
valable pour toute matrice de Minkowski. Le calcul principal de cet algorithme est base sur
la resolution du systeme et le process pour ajouter i . Theoriquement, chaque fois qu'on fait
une extension de J , on doit resoudre, de nouveau, le systeme. Mais dans notre cas special ou
M est une matrice de Minkowski tri-diagonale, il existe une facon plus ecace pour realiser
p
p
Au moins, par exemple, on peut prendre J 0 = Q, il est facile de voir que, MZ 0 jQ = ?qjQ > 0, or
remarquons que M est une Minkowski matrice, il n'est pas dicile de voir que : Z 0 jQ > 0.
3
Chapitre 6. Resultats Numeriques
168
cet algorithme. Le point essentiel est que : les donnees sont balayees alternativement entre le
`forward passes' et `backward passes'.
Supposons que t est le nombre de signes changes dans les composants du vecteur q, et
l'ensemble J p est ecrit par la facon suivante :
Jp =
[
k2
p
Bkp
ou p fi 2 N : 1 i 1 + tg. Et chaque bloc Bk est non vide et est compose
d'une suite d'entier sans interruption. De plus, les blocs sont disjoints, non continus, et avec
un ordre croissant. Cela veut dire que : si i 2 Bkp, j 2 Brp, et k < r, alors, i + 1 < j .
Maintenant, on va utiliser le fait que M est une matrice tri-diagonale. Ayant cette propriete,
S
et remarquant J p = k2 Bkp, il n'est pas dicile de voir que : MZ p + qjJ p = 0 est equivalent
a MZ p + qjBkp = 0 pour k 2 p . Donc, il sut de considerer le systeme :
p
MZ p + qjBkp = 0
ou Bk = fi 2 N : f i lg avec f (resp. l) le plus petit (resp. le plus grand) entier dans
le bloc. Nous utilisons la methode de Gauss pour le resoudre. Si l'on note :
mi;i?1 = ai
mi;i = bi
mi;i+1 = ci
et = ?q, on peut exprimer la methode de Gausse par la facon suivante :
Forward E limination :
(~
(~
f = f
bf = bf
~bi = bi ? ~ a ci?1 pour f + 1 i l
~i = i ? ~b a?1 ~i?1 pour f + 1 i l
b ?1
i
i
i
Calcul Zlp :
Back substitution :
i
~
Zlp = ~l
bl
Zip = ~1 (~i ? ci Zip+1) f i l ? 1
bi
S
Il n'est pas dicile de voir que : si p~ > p et Bkp~ = Bkp fl + 1g, il n'est pas necessaire de
refaire le calcul de forward elimination qu'on a deja fait pour Bkp. Pour calculer Zlp~+1 , il sut
de faire :
et
~bl+1 = bl+1 ? al+1 cl ;
~bl
~l+1 = l+1 ? a~l+1 ~l
bl
~
Zlp~+1 = ~l+1
bl+1
Bien s^ur, si on a besoin de toutes les valeurs de Zlp~; ; Zfp~, on devrait faire back substitution.
Il para^t que, selon la schema principal, Z p+1 doit ^etre recalcule apres chaque choix de ip .
6.2. Resolution du probleme discretise
169
Mais, en realite, ce n'est pas le cas, parce que Cryer [14] a montre que si I p 6= , alors J p+1
est obtenu de J p en ajoutant un adjacent point ip a un des blocs Bkp. C'est a dire que nous
calculons seulement un composant de Z p si l'on en a besoin pour determiner ip . En plus, les
composants non nuls de Z p, dont on a besoin pour determiner ip , correspondent a des bouts
de blocs. Donc, ce n'est pas la peine d'avoir toutes les valeurs de Zlp; ; Zfp dans chaque
etape, la seule valeur dont on a besoin pour tester le signe de Wip, c'est Zlp+1 (ou. Zfp?1 . Il
peut, donc, ^etre calcule en utilisant forward (ou backward) elimination sans backward (ou
forward) substitution.
Le point essentiel de ce nouveau algorithme est : On utilise alternativement `forward pass'
et `backward pass' pendant l'implementation.
Remarque 6.1 Theoriquement, on ajoute un indice ip+1 par etape pour elargir le bloc. Mais,
en pratique, l'extension de ce bloc Bkp est fait en ajoutant tous les points possibles suivant le
bloc courant. Dans le cas ou Q a seulement un bloc contenant 1 (ou n), l'erreur de calcul de
cette algorithme est moins que :
2n divisions + 4n operations
ou une operation signi e une soustraction plus une multiplication.
Avant de terminer cette section, on rappelle encore un resultat.
Remarque 6.2 Cotte et Sacher (cf. [12] P327 et P335) et Elliott et Ockendon (cf. [18]
P117) ont montre que si le vecteur q dans (6.3) a la propriete suivant :
qi < 0
1 i k0
qi
0
k0 < i
1ik
zi
=0
k<i
n
alors, il existe k k0 tel que :
zi > 0
n
Dans ce cas, l'algorithme de Cryer se reduit a l'algorithme de Elliott et Ockendon. Il est clair
que la remarque 6.1 s'applique dans ce cas.
6.2.3 L'algorithme de Brennan-Schwartz
L'objet de cette section est de rappeler l'algorithme de Brennan-Schwartz, un algorithme
assez ecace pour resoudre un cas special de P.C.L qui nous interesse. Pour plus de details
sur cet algorithme, nous renvoyons a [8], [24].
Nous considerons le probleme suivant : trouver les vecteurs u = (ui ) 2 Rn tel que :
8
>
< Mu u'
>
: (M u ? ; ' ? u) = 0
(6.4)
Chapitre 6. Resultats Numeriques
170
ou ;
'
2 Rn et M est une matrice de la forme :
0 b c 0 1
1
B
a
b
2
2 c2 B
B
0
a
B
3 b3 M = B
.
.
B
.. .. ... . . .
B
B
@ 0 0 0 0 0 0 0
0
0
..
.
0
0
0
..
.
bn?1
an
cn?1
bn
1
CC
CC
CC
CC
A
(6.5)
Les deux propositions suivantes ont ete montrees dans [24].
Si ci = 0 pour i 2 f1; ; n ? 1g et
solution unique de (6.4) est donnee par :
Proposition 6.3
1
b1
0 pour i 2 f1; ; ng, alors la
_ '1
u1
=
uj
= [ b1 (j ? aj uj ?1)] _ 'j
j
bi >
2jn
De plus, si l'on introduit les notations suivantes :
0~
BB ab12 ~b02 00 00 00
BB 0 a ~b 0 0
~ = B
M
BB .. ..3 ..3
.. ..
. .
BB . . .
~
@ 0 0 0 bn?1 0
0 0 0 an ~bn
1
CC
CC
CC
CC
CA
avec ~bn = bn , ~bi?1 = bi?1 ? c ~b?1 ai pour i 2 f2; ; ng et ~n = n, ~i?1 = i?1 ? c ~b?1 ~i pour
i 2 f2; ; ng. Nous avons la deuxi
eme proposition.
i
i
i
i
On suppose que la matrice M coercive et de la forme (6.5), avec cj 0
pour j = 1; ; n ? 1. Si la solution u du systeme (6.4) veri e : ui = 'i pour 1 i k et
ui > 'i si i > k , avec k 2 f1; 2; ; ng, alors u est aussi solution du syst
eme :
8 ~ ~
>
< Mu u'
(6.6)
>
: (M~ u ? ~; ' ? u) = 0
Proposition 6.4
La diculte d'utiliser cet algorithme vient de la veri cation de la propriete portant sur u.
Dans [24], il a ete montre que cet algorithme est valable pour le modele de Black-Scholes.
Nous n'avons pas pu donner une justi cation rigoureuse analogue pour le modele avec des
sauts, mais, numeriquement, cet algorithme semble egalement valide (voir les courbes dans
la section suivante).
6.3. Mise en uvre des algorithmes de Brennan-Schwartz et Cryer pour le put americain
171
6.3 Mise en uvre des algorithmes de Brennan-Schwartz et
Cryer pour le put americain
Nous considerons le put Americain. En tenant compte de ce qui precede, pour calculer le prix
d'une option americaine dans ce modele, il sut de chercher une solution approchee de (4.4).
Apres le changement de variable t ! T ? t, (4.4) peut s'ecrire de la facon suivante :
8 ? @u + Au + B lu 0
>
@t
>
>
< u @u
(? @t + Au + B lu)( ? u) = 0
>
>
: uu((0t;;xx)) == ((xx)) si x 2 @
ou :
2 @ul
2 2
? rul
Aul = 2 @@xu2l + ( ? 2 ) @x
Z
Z
( (x + z ) ? ul (t; x)) (dz )
(ul (t; x + z ) ? ul (t; x)) (dz ) + B l ul = z;z+x62 l
z;z+x2 l
(x) = (K ? ex )+
Nous suivons le schema analogue a (4.89), mais correspondant au probleme ci-dessus (i.e,
apres le changement de variable t ! T ? t), en prenant = 1, = 0. Precisement, nous
approchons le vecteur (u(it; j x))0in;m1 j m2 par le vecteur [uij ] solution du systeme
suivant :
8 u0 = j m1 j m2
>> j i
9>
>< auj?1 + (1 + b)uij + cuij+1 qji?1
= 1in
i j
u
j
>> (aui + (1 + b)ui + cui ? qi?1 )( ? ui ) = 0 >; m1 + 1 j m2 ? 1
j
j
j +1
j
j
>: i j?1
um1 = (m1 h); uim2 = (m2 h) 1 i n
ou a, b et c sont donnes par (4.78) et q est donne :
qji?1 = uij?1 + kh
mX
2 ?j
l=m1 ?j
uil+?j1 gl + kh
X
l+j>m2
i?1
l+j gl ? kuj
l+j<m1
Introduisons les m^emes notations que dans la section 4.4.3, i.e : m = m2 ? m1 ? 1, pour
1 j m, uj = uj +m1 , 'j = j +m1 , et qj = qj +m1 , le systeme ci-dessus peut ^etre ecrit sous
la forme suivante :
8 u0 = ' 1 j m
>> j i j
9
>< auj?1 + (1 + b)uij + cuij+1 qji?1
>=
1in
i
j j
>> u(au
>
1jm
>: i ij?1 i+ (1 + b)uij + cuiji +1 ? qji?i1)( j ? uij ) = 0 ;
u0 = um1 = (m1 h); um+1 = um2 = (m2 h) = 0
0in
Chapitre 6. Resultats Numeriques
172
et
qji?1 = uij?1 + kh
mX
+1?j
l=?j
uli+?1j gl + kh
X
l+j>m+1
l+j<0
'l+j gl ? kuij?1
En suivant le m^eme raisonnement que dans la section 4.4.3, ce systeme est equivalent au
probleme de complementarite lineaire suivant :
8 u0 = '
>
<
)
i q_i?1 ; ui '
Mu
>
1in
: (Mui ? q_i?1)(ui ? ') = 0
et M est donnee par (4.85) avec = 1 et G = 0, i.e :
0 1+b c
1
0 0 0
B
a 1 + b c 0 0 C
B
CC
B
0
a
1
+
b
0
0
CC
M = B
B
.
.
.
.
.
B
.
.
.
.
.
@ .
A
.
.
. . C
0
0
0 a 1 + b mm
et le vecteur q_ est donne par (4.81) avec = 1 et = 0 et m2 = 0, i.e :
v_ 1 = q1 ? a
v_ j = qj
m1
2jm
Si l'on note bi = 1 + b pour 1 i m, alors l'algorithme de Brennan-Schwartz peut ^etre
decrit de la facon suivante :
1). Donner les valeurs initiales : u0j = 'j 0 j m + 1
2). En partant de (uij?1 )0j m+1 , on calcule (uij )0j m+1 par le schema de recurrence
suivant :
ui0 = (m1 h)
i?1
ui1 = q1b _ '1
1
1
i
uj = [ ~ (~qji?1 ? auij?1
?1)] _ 'j
bj
uim+1 = (m2 h) = 0
avec
~bm = bm
~bj ?1 = bj ?1 ? ~c a
bj
2jm
q~mi?1 = qmi?1
i?1 c i?1
q~ji?1
?1 = qj ?1 ? ~bj q~j
6.3. Mise en uvre des algorithmes de Brennan-Schwartz et Cryer pour le put americain
173
Pour appliquer l'algorithme de Cryer, on fait le changement de variable : Z = ui ? ',
Q = M' ? q_i?1 , alors le probleme ci-dessus peut ^etre ramene a la forme de (6.3).
8
>
< W = Q + MZ
W 0; Z 0
>
: WTZ = 0
Maintenant, nous allons xer dans un premier temps certains parametres pour les calculs.
Nous prenons :
- Le taux d'inter^et sans risque : r = 9%.
- Le prix d'exercice : K = 45F F .
- L'esperance de U1 : EU1 = 0.
- La variance de U1 : V arU1 = 0:04.
Comme U = StS?tS?t? , la variable aleatoire U represente l'amplitude relative de sauts.
Nous interessons d'abord aux courbes du prix de l'option americaine en fonction du cours.
Nous prenons l'echeance de l'option egale a trois mois, et la frequence moyenne des sauts annuelle T = 3, et la volatilite brownienne = 0:3.
Figure 5
Comparaison de l'algorithme de B-S et Cryer
r = 9%, K = 45, T = 3 mois, = 0:3, EU1 = 0, V arU1 = 4%, = 3
45
40
35
30
Prix 25
d'option 20
15
10
5
0
Brennan-Schwartz
Cryer
0
10
20
30
40
Prix de sous-jacent
50
60
70
D'apres la gure 5, nous voyons que les resultats obtenus par les deux algorithmes sont
pratiquement les m^emes. Or, nous savons bien que, theoriquement, l'algorithme de Cryer
est valide. Donc, bien que nous n'ayons pas pu donner de justi cation rigoureuse pour
l'algorithme de Brennan-Schwartz, on peut, au moins dire qu'il marche numeriquement.
L'avantage de l'algorithme de Brennan-Schwartz est sa facilite de programmation.
Chapitre 6. Resultats Numeriques
174
6.4 Put europeen
Nous rappelons que le prix d'un put europeen dans le modele avec des sauts est donne par :
Y
NT
2
ue (t; x) = E(e?r(T ?t) (K ? xe(? 2 )(T ?t)+(BT ?Bt )
2
= E(e?r(T ?t) K ? xe(? 2 ?r)(T ?t)+BT ?t
=
X1 e?
(1 + Uj )+ )
Y (1 + U ) )
j =Nt +1
NT ?t
j
j =1
(T ?t) (
+
Y
(T ? t))n E(e?r(T ?t) K ? xe(? 22 ?r)(T ?t)+BT ?t n (1 + U ) )
j +
n!
j =1
n=0
Dans le cas ou U1 a m^eme loi que eg ? 1 ou g est une gaussienne de moyenne m et de variance
2 , on a une formule explicite (cf. [7], [32]), si l'on note = T ? t :
1 ((1 + EU ) ))
X
e?
u (t; x) =
e
n=0
n!
n
1
E
(1+ U1 )
Kn (t; x)
(6.7)
ou :
2
Kn (t; x) = E(Ke?rn ? x exp(n B ? 2n ))+
= Ke?rn N (?d2 ) ? xN (?d1 )
avec :
d1
d2
n2
rn
=
log Kx + (p
rn + 2n )
2
pn = d1 ? n 2
= 2 + n
= r ? EU1 + n ln(1 + EU1 )
De plus, sa derivee par rapport a x (appelee \delta" par les nanciers) est donnee par :
X
@ue = ? 1 ((1 + EU1 ) ))n e?(1+EU1) N (?d )
1
@x
n!
n=0
Par ailleurs, comme N (?d1 ) + N (d1 ) = 1, on a :
e
1 + @u
@x =
X1 ((1 + EU ) )) e?
n=0
n!
1
n
E
(1+ U1 )
N (d )
1
Cette formule sera utilisee dans la programmation de l'algorithme de Mac-Millan.
175
6.4. Put europeen
D'autre part, il n'est pas dicile de voir que :
2
E(1 + U1) = em+ 2
E(1 + U1 )2 = e2m+22
D'ou :
2 = ln[E(1 + U1 )2 ] ? 2 ln(1 + EU1 )
m = 2 ln(1 + EU1 ) ? 12 ln[E(1 + U1 )2 ]
Il est clair que, lorsqu'on conna^t l'esperance et la variance de U1 , on peut calculer m et 2 ,
ce qui nous permet d'achever le calcul du prix d'option. Dans les exemples qu'on va traiter
apres, on suppose EU1 = 0. Dans ce cas, on a :
2 = ln(1 + EU12) = ln(1 + V arU1 )
m = ? 12 ln(1 + EU12 ) = ? 12 ln(1 + V arU1 )
En resume, une fois qu'on conna^t les valeurs de x, r, K , T , , et V ar U1 (la variance de
U1 ), on peut calculer la prime dans ce modele.
Nous comparons les prix du put americain et du put europeen. La gure 6 presente les
courbes de la prime de ce modele dans les cas europeen et americain respectivement.
Figure 6
Comparaisons des prix europeen et american
r = 9%, K = 45, T = 3 mois, = 0:2, EU1 = 0, V arU1 = 4%
20
Am
Eu
15
Le prix
de l'option 10
5
0
25
30
35
40
45
Le prix du sous-jacent
50
55
Une option americaine peut ^etre exercee a tout moment avant l'echeance. Alors qu'une
option europeenne, elle, peut ^etre exerce seulement a l'echeance, ce qui veut dire que l'option
americaine donne plus de droit que l'option europeenne. Il est donc normal que le prix d'une
option americaine soit plus eleve que le prix europeen.
176
Chapitre 6. Resultats Numeriques
6.5 L'algorithme du put perpetuel et de Mac-Millan
6.5.1
Put perpetuel
L'objet de cette section est de realiser les algorithmes de put perpetuel et de Mac-Millan
presentes respectivement dans le chapitre 2 et 5. Comme la variable Uj + 1 suit une loi de
log-normale et : ln(1 + Uj ) N (m; 2 ), on peut ecrire :
E(1 + Uj ) = Ee
U
ln(1+ 1 )
=e
2 2
2 +
m
Le calcul d'un put perpetuel contient trois etapes :
1). Calcul de la solution approchee (note ~) de l'equation
2 2 + ( ? 2 ) ? (r + ) + e 222 +m = 0
2
par la methode de dichotomie.
2
2). Calcul du prix critique x = ?1?~K~ .
3). Calcul du prix du put perpetuel :
u(x) =
Figure 7
45
40
35
30
Le prix 25
de l'option 20
15
10
5
0
(
K ?x
(K ? x )( xx )
si x < x
si x x
Les prix d'un put americain avec echeance nie et in nie
r = 9%, K = 45, = 0:3, EU1 = 0, V arU1 = 4%, = 3
Echeance = 3 mois
Echeance in nie
0
10
20
30
40
Le prix du sous-jacent
50
60
70
Nous comparons le prix d'un put americain d'echeance 3 mois avec le prix d'un put
perpetuel (Les restes des donnees sont prises comme avant). Il est clair que le prix d'un
6.5. L'algorithme du put perpetuel et de Mac-Millan
177
put perpetuel est plus eleve qu'un put americain d'echeance ni. Parce que le detenteur du
premier titre peut exercer l'option a tout moment, or l'echeance du second titre est limitee a
3 mois, ce qui veut dire que le detenteur du premier titre aura plus de droit que le deuxieme.
D'autre part, en revenant a l'algorithme de Brennan-Schwartz, et en faisant varier l'echeance,
on voit que les prix d'options americaines sont augmentes en fonction de l'echeance. L'interpreta
-tion est analogue au cas precedent.
Figure 8
Variation des mois (Am)
r = 9%,K = 45, = 0:3, EU1 = 0, V arU1 = 4%, = 3
25
3 mois
6 mois
20
12 mois
Prix
de l'option
15
10
5
0
20
25
30
35
40
45
50
Prix du sous-jacent
55
60
65
70
6.5.2 L'algorithme de Mac-millan
Si l'on note :
on a :
( ) = 2
2
2
2
+ ( ? 2 ) ? (r + + T1 ) + e
0 ( ) = 2 + ( ? 2 ) + (2 + m)e
2
2 2
2 +
2 2
2 +
m
m
L'algorithme de Mac-Millan peut ^etre decrit par :
e
1). Calcul du prix d'option europeenne ue (0; x) et son derive @u
@x .
2). Calcul de la solution approchee (note ~) de l'equation () = 0 a l'aide de la methode
de Newton.
e (0;x) ,
3). Calcul du prix critique x , solution de l'equation f (x) = x ou f (x) = j~j u0eK(0?;xu)+1+
j~j
par la methode de dichotomie.
4). Calcul de = K ?x ?xue (0;x )
178
Chapitre 6. Resultats Numeriques
5). Calcul du prix du put americain :
u~(0; x) =
Figure 9
Prix
d'option
(
ue (0; x) + x
K ?x
si x > x
si x x
Comparaison de l'algorithme de B-S et MacMillan
r = 9%, K = 45, T = 3 m, = 0:3, EU1 = 0, V arU1 = 4%, = 3
9
8
7
6
5
4
3
2
1
0
Figure 10
Brennan-Schwartz
MacMillan
40
45
50
55
Prix du sous-jacent
60
65
70
Comparaison de l'algorithme de Cryer et MacMillan
= 45, T = 3 m, = 0:3, EU1 = 0, V arU1 = 4%, = 3
r = 9%, K
Prix
d'option
9
8
7
6
5
4
3
2
1
0
Cryer
MacMillan
40
45
50
55
Prix du sous-jacent
60
65
70
6.6. Comparaisons du modele de Black-Scholes et du modele avec sauts
179
Nous prenons les m^emes donnes qu'avant pour comparer les algorithmes de BrennanSchwartz, de Cryer, et de Mac-Millan. Nous voyons, sur les gures 9 et 10, qu'il n'y a pas
des di erences signi catives entre les resultats obtenus par ces trois algorithmes. Au niveau
de rapidite, l'algorithme de Mac-Millan est le plus rapide. Mais, il est limite aux d'echeances
courtes.
6.6 Comparaisons du modele de Black-Scholes et du modele
avec sauts
Rappelons que 2 = 2 + EU12 et p = 22 . Comme est la volatilite observee sur le marche,
pour comparer les deux modeles, il est donc indispensable de prendre comme la volatilite
dans les deux modeles. Nous rappelons que dans le modele de di usion avec des sauts 2 =
2 + EU12 , et dans le modele de Black et Scholes 2 = 2 .
On compare les deux modeles dans les cas europeen et americain. La gure 12 ci-dessous
est la m^eme que la gure 11, sauf que l'echelle y est augmentee.
Cas europeen :
Figure 11
10
9
8
7
6
Prix
de l'option 5
4
3
2
1
0
Comparaison du modele de B-S et du modele avec sauts (Eu)
r = 9%, K = 45, T = 1 an, = 0:2, EU1 = 0, V arU1 = 0:04
p = 0:1
p=1
35
40
45
50
Prix du sous-jacent
55
60
180
Chapitre 6. Resultats Numeriques
Figure 12
Comparaison du modele de B-S et du modele avec sauts (Eu)
= 45, T = 1 an, = 0:2, EU1 = 0, V arU1 = 0:04
r = 9%, K
4
3:5
3
2:5
Prix
de l'option 2
1:5
1
0:5
0
40
p = 0:1
p=1
45
50
Prix du sous-jacent
55
60
On voit clairement qu'on a les m^emes phenomenes dans le cas americain que dans le cas
europeen.
Cas americain :
Figure 13
Comparaison du modele de B-S et du modele avec sauts (Am)
= 45, T = 1 an, = 0:2, EU1 = 0, V arU1 = 0:04
r = 9%, K
10
9
8
7
6
Prix
de l'option 5
4
3
2
1
0
35
p = 0:1
p=1
40
45
50
Prix du sous-jacent
55
60
6.6. Comparaisons du modele de Black-Scholes et du modele avec sauts
Figure 14
5
Comparaison du modele de B-S et du modele avec sauts (Am)
= 45, T = 3 an, = 0:2, EU1 = 0, V arU1 = 0:04
r = 9%, K
p = 0:1
p=1
p = 0:5
4
Prix
de l'option
181
3
2
1
0
40
45
50
Prix du sous-jacent
55
60
Nous rappelons que l'amplitude de sauts U1 est une variable aleatoire a valeurs a ] ? 1; +1[
tel que 1 + U1 suit une loi lognormale. Donc, les sauts dans ce modele peuvent ^etre positifs
ou negatifs. D'autre part, la prime est reliee directement au risque d'exercer de l'option. Plus
la prime est elevee, plus on a de chance d'exercer l'option.
Ici on decrit seulement les phenomenes ( gure 13 et 14 ) dans le cas americain :
Si on note le prix du sous-jacent par S , quand on est tres fortement dans la monnaie,
alors la prime d'option va ^etre K ? S .
Quand on est tres fortement hors de la monnaie, la prime dans le modele avec sauts est
t
t
plus elevee que le modele de Black et Scholes.
Quand on est autour de la monnaie, la prime dans le modele de Black et Scholes est
plus elevee que dans le modele avec sauts.
182
Chapitre 6. Resultats Numeriques
Put perpetuel
Figure 15
20
18
16
14
12
Prix
de l'option 10
8
6
4
2
25
Comparaison du modele de B-S et du modele avec sauts
r = 9%,K = 45, = 0:3, EU1 = 0, V arU1 = 4%
p = 0:1
p=1
30
35
40
45
Prix du sous-jacent
50
55
60
De cette gure, on voit que, dans le cas d'un put perpetuel, la prime dans le modele de
Black et Scholes est plus elevee que dans le modele avec sauts.
6.7 Prix en fonction du temps
Les allures des courbes suivantes sont coherentes avec les courbes europeennes dans le modele
de Black et Scholes donnees dans le livre de Cox et Rubinstein (cf. [13] Figure 5-9 P220 , voir
le cas ou p = 1 a la gure 16).
On prend le prix d'exercice K = 45F F , r = 9%, l'esperance de U egale a 0, la variance de
U egale a 0:04, la volatilite historique = 0:3. L'axe du temps represente : T ? t. Autrement
dit, quand on approche de 0, on approche de la maturite. On considere dans un premier
temps un put americain. Les six courbes tracees dans la gure 16 orrespondent aux trois cas
suivants :
1). le prix du sous-jacent x est egal a 40, c'est a dire que on est dans la monnaie.
2). le prix du sous-jacent x est egal a 45, c'est a dire que on est a la monnaie.
3). le prix du sous-jacent x est egal a 50, c'est a dire que on est hors de la monnaie.
Par le gure 16, on voit que quand on approche de l'echeance, la prime tends vers 5, 0, 0
respectivement.
6.7. Prix en fonction du temps
183
Figure 16
cas americain
= 0:3, V arU
6
= 0:04
x=40, p=0.1
x=40, p=1
x=45, p=0.1
x=45, p=1
x=50, p=0.1
x=50, p=1
5
4
Le prix
de l'option
3
2
1
0
0
20
40
60
Le temps
80
100
120
Maintenant, on traite le cas ou le prix du sous-jacent x = 40 (dans la monnaie). Les autres
parametres sont pris comme avant. Rappelons que p est un parametre qui contr^ole les sauts,
en faisant varier les valeurs de p, on voit que quand p augmente, la courbe de la prime est
plus proche de celle de Black et Scholes (p = 1).
Figure 17
6:4
6:2
6
5:8
Le prix
de l'option 5:6
5:4
5:2
5
4:8
cas americaine
= 0:3, V arU
= 0:04, x = 40
p=1
p=0.3
p=0.1
0
50
100
150
200
Le temps
250
300
350
Chapitre 6. Resultats Numeriques
184
Conclusion
Nous avons compare le modele de Black et Scholes avec le modele avec sauts (ici, on precise
le 1 + U1 suit une loi lognormale). On a trouve, dans le cas europeen et le cas americain,
qu'on a presque les m^emes phenomenes.
Supposons que le prix du sous-jacent est St. Lorsque l'option est fortement dans la
monnaie, l'existence de sauts est insusante pour que l'on puisse \esperer" que le spot
passe en dessus du prix d'exercice K , l'option sera \a peu pres s^ur" d'^etre exercee. On
trouve, donc, dans les deux modeles que, la prime d'option europeenne est a peu pres
egale a e?rt K ? St ; la prime d'une option americaine est egale a K ? St .
Lorsque l'option est fortement hors de la monnaie, la prime d'option dans le modele
avec sauts est superieure a la prime dans le modele de Black et Scholes.
Lorsque l'option est a la monnaie, la prime d'option dans le modele avec sauts est
inferieure a la prime dans le modele de Black et Scholes.
Annexe A
Demonstration du lemme 3.17
La demonstration de ce lemme est exactement la m^eme que celle du lemme 2-2 Ch 7 [28].
Ici, nous donnons sa demonstration suivante, seulement pour completer la lecture.
Demonstration : On suppose d'abord que est bornee et on pose :
C=
sup
j(t; y; z)j
d
t;y;z 2RR R
(
On a alors :
j
Nt
X
j =1
)
(j ; Yj ; Uj )j CNt et j
Zt Z
0
ds
(dz )(s; Ys ; z )j Ct
Donc, Mt est de carre integrable. Fixons s et t, avec s < t, et posons :
Nt
X
Z=
(j ; Yj ; Uj )
j =Ns +1
Une subdivision = (s0 = s < s1 < < sm = t) de l'intervalle [s; t] associons :
Z =
si+1
mX
?1 NX
i=0 j =Nsi +1
(si ; Ysi ; Uj )
(.8)
La continuite a gauche de (Yt )t0 , la continuite de par rapport a y et la continuite de
par rapport a t impliquent que Z converge presque s^urement vers Z quand le pas de la
subdivision tend vers 0. On a de plus jZ j C (Nt ? Ns ), ce qui entra^ne que la convergence
a lieu aussi dans L1 et m^eme dans L2 . On a :
!
mX
?1
E(Z jFs ) = E
E(Zi+1 jFsi )jFs
i=0
en posant :
Zi+1
=
NX
si+1
j =Nsi +1
(si; Ysi ; Uj ) =
185
Nsi+1 ?Nsi
X
j =1
(si ; Ysi ; UNsi +j )
Annex
186
En utilisant le lemme 2.1 dans [28], et le fait que Ysi est Fsi -mesurable, on voit que :
E(Zi+1 jFsi ) = i(si; Ysi )
ou i (si ; y) est de nie par :
1
0Nsi+1 ?Nsi
X
(si; y; UNsi +j )A
i (si ; y) = E @
j =1
La quantite i (s; y) est donc l'esperance d'une somme aleatoire et, d'apres l'exercice 38 [28] :
Z
i (si ; y) = (si+1 ? si ) (dz )(si ; y; z )
En revenant a l'equation (.8), on a alors :
E(Z jFs) = E(
= E
mX
?1
i (si ; Ysi )jFs )
i=0
mX
?1
i=0
(si+1 ? si )
Z
(dz )(si ; Ysi ; z )jFs
!
En faisant tendre le pas de vers 0, on obtient :
0 Nt
1 Z Z
t
X
@
A
E
(j ; Yj ; Uj )jFs = E du (dz )(u; Yu ; z )jFs
s
j =Ns+1
ce qui prouve que Mt est une martingale.
R R
Si l'on ne suppose plus bornee, mais E( 0t ds (dz )2 (x; y; z )) < +1 pour tout t, on
peut introduire les fonctions (bornees) n de nies par :
n(t; y; z ) = inf(n; sup(?n; (t; y; z ))
les martingales (Mtn )t0 de nies par :
Zt Z
Nt
X
n
n
Mt =
(j ; Yj ; Uj ) ? ds (dz )n (s; Ys ; z ))
0
j =1
R
R
On voit facilement que : E( 0t ds (dz )(n (s; Ys ; z ) ? (s; Ys; z ))2 ) tend vers 0 lorsque n tend
vers l'in ni. Il en resulte que la suite (Mtn )n1 est une suite de Cauchy dans L2 et comme Mtn
tend vers Mt p.s, Mt est de carre integrable et par passage a la limite, le lemme est veri e
pour .
Bibliographie
[1] R. A. Adams. Sobolev Spaces. Academic Press, New York, 1975.
[2] A. Bensoussan. On the theory of option. Acta applicandae mathematicae, 2 :139{158,
1984.
[3] A. Bensoussan and J.L Lions. Applications des inequations variationnelles en contr^ole
stochastique. Dunod, paris, 1978.
[4] A. Bensoussan and J.L Lions. Contr^ole impulsionnel et inequations quasi variationnelles.
Dunod, paris, 1982.
[5] F. Black and M. Scholes. The pricing of options and corporate liabilities. Journal of
Political Economy, 81 :635{654, 1973.
[6] H. Bonnaz, P. Micottis, L. Tollie, A. Vanney, and G. Vinaver. Valorisation et couverture
d'options sur actifs avec sauts poissoniens. Groupe de Travail anime par G. Pages,
ENSAE - 3eme annee, 1989-1990.
[7] N. Bouleau and D. Lamberton. Residual risks and hedging strategies in markovian
markets. Stoch. Proc. and Appl., 33 :131{150, 1989.
[8] M.J. Brennan and E.S. Schwartz. The valuation of american put options. Journal of
nance, 32 :449{462, 1977.
[9] H. Brezis. Analyse fonctionnelle, theorie et applications. Masson, paris, 1983.
[10] David B. Colwell and Robert J. Elliott. Martingale representation and non-attainable
contingent claims. preprint.
[11] R. W. Cottle, J. S. Pang, and R. E. Stone. The Linear Complementarity Problem.
Academic Press, NewYork, 1992.
[12] R. W. Cottle and R. S. Sacher. On the solution of large structured linear complementarity
problems : The tridiagonal case. Appl. Math. Optim., 3 :321{340, 1977.
[13] John C. Cox and Mark Rubinstein. Options Markets. Prenctice-Hall, London, 1985.
187
188
Bibliographie
[14] C. W. Cryer. The ecient solution of linear complementarity problems for tridiagonal
minkowski matrices. ACM Trans. Math. Softwave, pages 199{214, 9 1983.
[15] C. Doleans-Dade. Quelques applications de la formule de changement de variables pour
les semimartingales. Z. Wahrsch. Verw. Gebiete, 16 1970.
[16] N. EL Karoui. Analyse nanciere et probabilites. Cours du D.E.A de probabilite Paris
6.
[17] N. El Karoui and M.C. Quenez. Dynamic programming and pricing of contingent claims
in incomplete market. Siam J. of Control and Opti., 1991.
[18] C. M. Elliott and J. R. Ockendon. Weak and Variational Methods for Moving Boundary
Problems. Pitman, Boston, 1982.
[19] Robert J. Elliott. Stochastic Calculus and Applications. Springer-Verlag, New York
Heidelberg Berlin, 1982.
[20] H. Follmer and M. Schweizer. Hedging of contingent claims under incomplete information. Gordon and Breach, London, 1990.
[21] H. Follmer and D. Sondermann. Hedging of non redundant contingent claims. In
W. Hildebrand and A. Mas-Colell, editors, Contributions to Mathematical Economics
in Honor of Gerard Debreu, North-Holland, Amsterdam, 1986.
[22] R. Glowinski, J. L. Lions, and R. Tremolieres. Analyse numerique des inequations variationnelles. Dunod, 1976.
[23] P. Jaillet, D. Lamberton, and B. Lapeyre. Analyse numerique des options americaines.
Cahier du CERMA, No. 9 :66{126, 1988.
[24] P. Jaillet, D. Lamberton, and B. Lapeyre. Variationnal inequalities and the pricing of
american options. Acta Applicandae Mathematicae, 21 :263{289, 1990.
[25] I. Karatzas. On the pricing of american options. Applied Math. Optimization, 1987.
[26] O.A. Ladyzenskaja, V. A. Solonnikov, and N. N. Uralceva. Linear and quasilinear equations of parabolic type. Translations of mathematical monographs, 23, AMS, 1968.
[27] D. Lamberton and B. Lapeyre. Probabilites numeriques et theorie des options. In
N. Bouleau and D. Talay, editors, Probabilites Numeriques. Collection Didactique de
l'INRIA, 1991.
[28] D. Lamberton and B. Lapeyre. Introduction au Calcul Stochastique Applique a la Finance. Ellipses-Edition Marketing, 1992.
Bibliographie
189
[29] C. E. Lemke. Bimatrix equilibrium points and mathematical programming. Management
Science, 11 :681{689, 1965.
[30] L. MacMillan. Analytic approximation for the american put option. Advances in Futures
and Options Research, 1 :119{139, 1986.
[31] R.C. Merton. Theory of rational option pricing. Bell J. of Econom. and Management
Sci., pages 141{183, 4 1973.
[32] R.C. Merton. Option pricing when underlying stock returns are discontinuous. J. of
Financial Economics, pages 125{144, 3 1976.
[33] K. Murty. Linear Complementarity, Linear and Nonlinear Programming. Number 3 in
Sigma Series in Applied Mathematics. Heldermann Verlag Berlin, 1988.
[34] R. Myneni. The price of the american option. Annals of Applied Probability, 1992.
[35] J. Neveu. Bases Mathematiques du Calcul des Probabilites. Masson, 1964.
[36] P. Protter. Stochastic Integration and Di erential Equations. Number 21 in Applications
of Mathematics. Springer-Verlag, 1990.
[37] M.C. Quenez. Methodes de contr^ole stochastique en Finance. These de l'universite de
Paris VI, 1993.
[38] R. Saigal. A note on a special linear complementary problem. Opsearch, 7 :175{183,
1970.
[39] M. Schweizer. Hedging Of Options In A General Semimartingale Model. Thesis Of Swiss
Federal Institute Of Technology Zurich, 1988.
[40] M. Schweizer. Option hedging for semi-martingales. Stochastic Processes and their
Applications, 37 :339{363, 1991.
[41] M. Schweizer. Some remarks on hedging under incomplete information. preprint.
[42] X.L. Zhang. Options americaines et modeles de di usion avec saut. Note aux Comptes
Rendus de l'Academie des Sciences, Paris, Serie I,(317) :857{862, 1993.
[43] X.L. Zhang. Formules quasi-explicites pour les options americaines dans un modele de
di usion avec sauts. In Actes du Colloque Probabilites Numeriques. a para^tre, Paris,
Mars 1993.
1/--страниц
Пожаловаться на содержимое документа