1227384

Techniques de contrôle optimal pour un modèle
quasi-géostrophique de circulation océanique.
Application à l’assimilation variationnelle des données
altimétriques satellitaires
Bruno Luong
To cite this version:
Bruno Luong. Techniques de contrôle optimal pour un modèle quasi-géostrophique de circulation
océanique. Application à l’assimilation variationnelle des données altimétriques satellitaires. Modélisation et simulation. Institut National Polytechnique de Grenoble - INPG, 1995. Français. �tel00005055�
HAL Id: tel-00005055
https://tel.archives-ouvertes.fr/tel-00005055
Submitted on 24 Feb 2004
HAL is a multi-disciplinary open access
archive for the deposit and dissemination of scientific research documents, whether they are published or not. The documents may come from
teaching and research institutions in France or
abroad, or from public or private research centers.
L’archive ouverte pluridisciplinaire HAL, est
destinée au dépôt et à la diffusion de documents
scientifiques de niveau recherche, publiés ou non,
émanant des établissements d’enseignement et de
recherche français ou étrangers, des laboratoires
publics ou privés.
THESE
Presentee par
Bruno LUONG
Pour obtenir le titre de
Docteur de l'Universite Joseph Fourier - Grenoble I.
(arr^etes ministeriels du 5 juillet 1984 et du 30 mars 1992)
Specialite : Mathematiques Appliquees.
Techniques de contr^ole optimal pour un
modele quasi-geostrophique de circulation oceanique.
Application a l'assimilation variationnelle
des donnees altimetriques satellitaires.
Date de soutenance : 11 juillet 1995.
Composition du jury :
M.
M.
M.
M.
M.
M.
M.
F.-X. Le Dimet
P. De Mey
O. Pironneau
J. Blum
O. Talagrand
J. Verron
I.M. Navon
President
Rapporteur
Rapporteur
Examinateur
Examinateur
Examinateur
Invite.
These preparee au sein du laboratoire LMC-IMAG
en collaboration avec l'equipe MEOM du laboratoire LEGI.
Dedie e a Tru'o'ng Thu Thao
et a ma famille.
?
Remerciements
Jacques Blum pour son soutien constant depuis l'annee de ma ma^{trise et qui m'a
-A
appris les mathematiques appliquees.
Jacques Verron qui m'a transmis le gou
-A
^t de la mecanique et l'art de l'assimilation
(dans tous les sens du mot).
Sans la complementarite de leurs competences et sans leurs excellentes directions, cette
these n'aurait pas abouti.
Francois-Xavier Le Dimet, avec qui les discussions orales jouent un r^ole essentiel
-A
dans ce travail et qui m'a fait l'honneur d'accepter d'^etre le president du jury.
M. Pierre De Mey et a M. Olivier Pironneau d'avoir accepte d'examiner ce present
-A
memoire. Leurs remarques judicieuses m'ont aide a corriger la premiere version du memoire.
MM. Olivier Talagrand et Michael Navon. Leur inter^et -A
a l'egard de mon travail m'a
encourage. Je leur temoigne ma sincere reconnaissance.
Je remercie specialement Christine Bernier. Les discussions pendant ses passages a
Grenoble (surtout, mais pas uniquement, en math.) etaient tres utiles.
Je remercie egalement l'ensemble des personnels du LMC, surtout la (( communaute ))
des thesards (ou non-permanents), qui ont su creer une bonne ambiance generale dans le
laboratoire. Une (( distinction )) speciale est (( attribuee )) (attention : il y a des ex aequo
suivant l'ordre cite) a : Khanh, Helene, Laurence, Hans-Emmanuel, Romeo, Malek, Otman,
Emmanuelle, Remi, Yves, ... pour leurs precieuses amities.
J'adresse mes remerciements a tous les membres de l'equipe MEOM, en collaboration
avec laquelle cette these a ete realisee. En particulier, je pense a Eric Blayo, Christian Le
Provost, Josiane Fagot-Revurat.
Enfin, je tiens a exprimer ma gratitude envers MM. Jean-Charles Gilbert et Claude
Lemarechal pour leur code numerique d'optimisation M1QN3 (librairie MODULOPT de
l'INRIA), le GDR Methodes Variationnelles en Meteorologie et Oceanographie qui a soutenu
mes participations a des reunions scientifiques tres enrichissantes, et le Centre Grenoblois
de Calcul Vectoriel du CEA de Grenoble qui nous a autorises a effectuer une partie des
calculs sur C90 et C94 .
These de Doctorat de l'Universite Joseph Fourier :
Techniques de contr^ole optimal pour un
modele quasi-geostrophique de circulation oceanique.
Application a l'assimilation variationnelle
des donnees altimetriques satellitaires.
Auteur : Bruno LUONG.
(1)
Sous la direction de :
Jacques BLUM et Jacques VERRON .
(1)
(2)
Resume :
Cette etude concerne la mise en uvre de methodes numeriques d'optimisation de type
contr^ole optimal appliquees a un probleme d'assimilation de donnees en oceanographie.
Il s'agit d'etudier la faisabilite de la methode dans un probleme de grande taille et dans
un modele turbulent, caracteristique des circulations oceaniques aux latitudes moyennes.
Le modele de circulation utilise est un modele quasi-geostrophique strati e en plusieurs
couches. Les donnees a assimiler sont les mesures altimetriques satellitaires (hauteur de la
surface libre de l'ocean). Elles se trouvent uniquement sur la couche de surface. Le vecteur
de contr^ole est choisi comme etant la condition initiale du systeme dynamique sur toutes
les couches.
Sur le plan theorique, sont etudies :
- l'existence et l'unicite de la solution de l'equation linearisee ;
- l'existence et l'unicite de l'etat adjoint ;
- la convergence de la methode de contr^ole par des suites minimisantes.
Nous etudions ensuite la qualite de l'identi cation des circulations en profondeur en
connaissant les informations de surface. Nous abordons aussi les di erentes strategies
d'assimilation en temps (sequentielle, incrementale, ...).
Une etude au second ordre de la fonctionnelle permet d'estimer l'erreur de l'identi cation et de quanti er la propagation des informations de surface en profondeur. Un test
de la validation croisee generalisee sur notre probleme pour determiner le coecient de
regularisation est fait gr^ace a cette etude au second ordre.
Projet IDOPT, commun a l'INRIA Rh^one-Alpes et au Laboratoire LMC de l'IMAG (l'IMAG est une
federation d'unites de recherche de l'INPG et/ou de l'UJF, associees au CNRS), BP 53, 38041 Grenoble
Cedex 9, France.
2 Laboratoire LEGI, URA 1509 CNRS, BP 53, 38041 Grenoble Cedex 9, France.
1
Optimal control techniques for the
quasi-geostrophic model in oceanography.
Application to variational assimilation of
altimeter satellite data.
Abstract :
This thesis is concerned with the implementation of the optimal control numerical
method applied to the data assimilation problem in oceanography.
In this study, the question of the feasibility of this method is addressed for the case of
a large dimension and turbulent model (turbulence is a prominent dynamical feature of
mid-latitude circulation). We use a multilayered quasi-geostrophic circulation model. The
assimilated data are altimeter satellite measurements (the surface topography). These
data are given in the surface layer only. The control vector is the initial state for all layers
of the dynamical system.
We studied theoretically:
- the existence and uniqueness of the solution of linearized equation;
- the existence and uniqueness of the adjoint state;
- the convergence of the control method using the minimizing sequences.
A key issue is to assess the ability of assimilating surface-only altimeter data to control
deep ows. We consider di erent strategies of splitting the assimilation period (sequential,
incremental,...).
The second order analysis of the cost-function allows the estimation of the identication error and the evaluation of the identi cation quality for the deep ows. The
generalized cross-validation method is applied to this problem in order to determine the
regularization parameter.
Table des matieres
Introduction.
I Le modele de circulation Quasi-Geostrophique (QG).
1.1
1.2
1.3
1.4
Introduction.
Hypotheses d'approximation et les equations.
Passage de couches en modes.
Conditions aux limites.
1
9
: : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : :
: : : : : : : : : : : : : : : :
: : : : : : : : : : : : : : : : : : : : : : : : :
: : : : : : : : : : : : : : : : : : : : : : : : : : : : :
II L'existence et l'unicite de la solution de l'equation Q.G. linearisee.
2.1
2.2
2.3
2.4
2.5
Introduction.
Premiere majoration a priori de dans 2(0 ; 2( )).
Deuxieme majoration a priori de
dans 2(0 ; 1( )).
Troisieme majoration a priori de dans 2(0 ; 3( )).
Theoreme d'existence de Q.G.L. par la regularisation elliptique.
2.5.1 L'existence et l'unicite des solutions de l'equation Q.G. non-lineaire.
2.5.2 Cadre fonctionnel pour l'equation linearisee.
2.5.3 E nonce et demonstration du theoreme.
2.6 Qualite de l'approximation des solutions de l'equation non-lineaire par linearisation.
: : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : :
L
@
[email protected] t
;T
H
L
L
;T
;T
H
: : : : : : : : : :
H
: : : : : : :
: : : : : : : : : :
: : : : : :
: : : : : : : : : : : : :
: : : : : : : : : : : : : : : :
: : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : :
III Formulation de l'adjoint faible de l'equation Q.G. linearisee.
9
9
14
15
17
17
18
31
39
57
57
58
64
74
77
3.1 Introduction.
77
3.2 Nouvelle formulation faible.
78
3.2.1 Rappel sur la formulation faible.
78
3.2.2 Autre ecriture de formulation faible equivalente.
79
3.3 Adjoint faible de l'equation quasi-geostrophique.
81
3.4 Interpretation de l'adjoint faible sous forme des equations aux derivees
partielles fortes.
89
3.4.1 Observations completes de la fonction de courant en surface .
89
3.4.2 Donnees satellitaires - observations incompletes de la fonction de
courant en surface.
101
3.4.3 Observations tomographiques.
102
3.4.4 Quelques remarques.
103
: : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : :
: : : : : : : : : : : : : : : : : : : : : : : : : :
: : : : : : : : : : : : : : : : : : : :
: : : : : : : : : : :
: : : : : : : : : : : : : : :
: : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : :
: : : :
: : : : : : : : : : : : : : : : : : : : : : : : : : :
: : : : : : : : : : : : : : : : : : : : :
: : : : : : : : : : : : : : : : : : : : : : : : : :
i
Table des matieres.
3.5 Suites minimisantes pour le probleme de contr^ole. : : : : : : : : : : : : : : 104
IV Pratique de l'assimilation variationnelle - Optimisation numerique. 107
4.1 Caracteristiques du modele discret direct. : : : : : : : : : : : : : : :
4.1.1 Discretisation temporelle. : : : : : : : : : : : : : : : : : : :
4.1.2 Discretisation spatiale. : : : : : : : : : : : : : : : : : : : : :
4.1.3 Resolution a chaque pas de temps. : : : : : : : : : : : : : :
4.1.4 Remarque sur la stabilite du schema numerique. : : : : : : :
4.2 Modele adjoint discret. : : : : : : : : : : : : : : : : : : : : : : : : :
4.2.1 Introduction. : : : : : : : : : : : : : : : : : : : : : : : : : :
4.2.2 Linearisation du modele direct. : : : : : : : : : : : : : : : :
4.2.3 Transposition du modele discret linearise. : : : : : : : : : : :
4.3 Description du modele test turbulent. : : : : : : : : : : : : : : : : :
4.4 Experiences jumelles - echantillonnage des donnees. : : : : : : : : :
4.5 Regularisation de Tikhonov - Methode de minimisation numerique.
4.6 Test de la precision du vecteur gradient discret. : : : : : : : : : : :
4.7 Estimation du temps de decorrelation du modele. : : : : : : : : : :
4.8 Estimation du temps de penetration verticale des observations. : : :
4.9 Tests d'arr^et pour l'optimiseur. : : : : : : : : : : : : : : : : : : : :
4.10 Choix de la norme Hilbertienne du contr^ole. : : : : : : : : : : : : :
4.10.1 Quelques normes Hilbertiennes testees. : : : : : : : : : : : :
4.10.2 Quelques remarques. : : : : : : : : : : : : : : : : : : : : : :
4.10.3 Conclusion. : : : : : : : : : : : : : : : : : : : : : : : : : : :
4.11 Quelques resultats numeriques - strategies d'assimilation. : : : : : :
4.11.1 Strategie sequentielle. : : : : : : : : : : : : : : : : : : : : : :
4.11.2 Strategie incrementale. : : : : : : : : : : : : : : : : : : : : :
4.11.3 Comparaison des strategies. : : : : : : : : : : : : : : : : : :
4.11.4 Deux experiences de haute resolution avec l'e et . : : : : :
4.12 Conclusion. : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : :
V Analyse au second ordre.
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
5.1 Introduction. : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : :
5.2 Le calcul du produit Hessien vecteur. : : : : : : : : : : : : : : : : : : : :
5.2.1 Presentation du modele evolutif abstrait. : : : : : : : : : : : : : : :
5.2.2 Presentation de la fonctionnelle. : : : : : : : : : : : : : : : : : : : :
5.2.3 Base hilbertienne - ecriture de l'equation dans la base. : : : : : : :
5.2.4 Hypothese de bi-derivabilite de l'operateur A. : : : : : : : : : : : :
5.2.5 L'operateur stationnaire linearise et son adjoint. : : : : : : : : : : :
5.2.6 Rappel sur le systeme d'equations donnant le vecteur gradient de
la fonctionnelle J . : : : : : : : : : : : : : : : : : : : : : : : : : : :
5.2.7 Calcul de la derivee directionnelle du vecteur gradient : produit
Hessienvecteur. : : : : : : : : : : : : : : : : : : : : : : : : : : : :
5.2.8 La symetrie du Hessien de la fonctionnelle J . : : : : : : : : : : : :
ii
107
107
108
108
111
112
112
113
113
119
122
123
126
128
129
131
133
133
142
145
145
149
153
157
158
178
179
179
180
180
180
181
181
182
182
183
184
Table des matieres.
5.2.9 Application au modele quasi-geostrophique. : : : : : : : : : : : : : 186
5.3 Test du Hessien. : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 188
5.4 Diagonalisation du Hessien par la methode de Lanczos. : : : : : : : : : : : 189
5.5 Experience 1 : E tude du spectre par rapport a une norme. : : : : : : : : : : 191
5.5.1 Decomposition spectrale par rapport a une norme. : : : : : : : : : : 192
5.5.2 Quelques resultats et commentaires. : : : : : : : : : : : : : : : : : : 193
5.6 Sensibilite du vecteur contr^ole optimal par rapport aux bruits d'observation.197
5.7 Application dans le determination du coecient de regularisation de Tikhonov - Methode de la validation croisee generalisee. : : : : : : : : : : : : 200
5.7.1 Critere de la validation croisee ordinaire (VCO). : : : : : : : : : : : 200
5.7.2 Critere de la validation croisee generalisee (VCG). : : : : : : : : : : 201
5.7.3 E valuation de vcg ("). : : : : : : : : : : : : : : : : : : : : : : : : : : 202
5.7.4 Experience numerique. : : : : : : : : : : : : : : : : : : : : : : : : : 203
5.8 Quelques caracteristiques du spectre - Autres experiences. : : : : : : : : : 204
5.8.1 Lien entre le Hessien et la sensibilite par rapport aux donnees. : : : 204
5.8.2 L'in uence sur les couches profondes. : : : : : : : : : : : : : : : : : 206
5.8.3 Conditionnement du probleme de contr^ole. : : : : : : : : : : : : : : 209
5.9 Conclusion. : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 210
Conclusion.
Annexe
Commentaires bibliographiques.
Bibliographie.
211
213
217
221
iii
Introduction.
Motivation.
Ces dernieres annees, le besoin de decrire avec precision l'etat de la circulation de
l'ocean a grande echelle est devenu une necessite capitale. En e et, le systeme climatique
est gouverne principalement par l'interaction dynamique et thermodynamique des deux
systemes uides que sont l'atmosphere et l'ocean. Pour mieux prevoir le (( temps )), il
est donc necessaire de bien prevoir la circulation des courants oceaniques a des echelles
de temps relativement courtes. Mais l'evolution lente du climat - donc a grande echelle
en temps - phenomene important a comprendre, donc a modeliser, comme le montre par
exemple le phenomene de rechau ement de l'atmosphere constate ces dernieres decennies.
Le phenomene climatique El-Ni~no est l'exemple le plus connu des e ets climatiques du
systeme couple ocean - atmosphere, qui se manifeste particulierement dans le Paci que.
Ses e ets sont perceptibles durant plusieurs annees : secheresse en Amerique Latine tropicale et pluies torrentielles en Asie.
Dans un regime de circulation turbulente comme celui de l'ocean ou de l'atmosphere,
un modele de simulation numerique (c.-a-d. un code numerique qui resout l'equation de
Navier-Stokes decrivant les mouvements du uide), si bon soit-il, est toujours tres insufsant pour faire une bonne prevision de la circulation du fait de la grande instabilite du
regime de circulation et, du manque de connaissance (ou bien de l'imprecision dans la
connaissance) des parametres physiques qui gouvenent le modele comme le forcage du
vent a la surface de la mer, le frottement au fond ou bien tout simplement l'estimation de
la condition initiale et les conditions de frontiere ouverte du systeme dynamique evolutif.
D'un autre c^ote, nous disposons de plus en plus de donnees d'observation de l'ocean. On
peut citer par exemple la plus signi cative d'entre elles : les donnees altimetriques satellitaires qui mesurent l'elevation de la surface libre de l'ocean. Cette mesure a une variabilite
maximale de l'ordre de quelques metres sur l'ocean mondial. Cette hauteur topographique
de la surface libre se relie directement a la circulation des grands courants en surface de
la mer : l'equilibre geostrophique indique qu'en surface ceux-ci circulent suivant les lignes
d'isovaleurs de la topographie de sa surface libre. Les lancements des satellites europeen
ERS-1 (juillet/1991), franco-americain Topex-Poseidon (ao^ut/1992), et le tres recent europeen ERS-2 (avril/1995), ampli ent de surcro^t l'inter^et des techniques d'assimilation
de donnees en plein essor a partir de 1978 avec les premieres mesures altimetriques four1
Introduction.
nies par le satellite americain SEASAT.
Notre motivation est donc : d'incorporer ces donnees pour permettre une ame-
lioration des reconstructions numeriques des circulations oceaniques, dans le
but de produire une simulation la plus realiste possible.
Les deux techniques les plus actuelles pour des problemes d'assimilation de donnees sont celle du ltre de Kalman etendu et celle du contr^ole optimal (voir [Ghil et
Manalotte-Rizzoli, 1991] passant en revue ces deux techniques).
Decrivons dans un premier temps tres brievement le principe de la technique du ltrage. C'est une technique de type stochastique qui requiert des hypotheses et des connaissances statistiques assez nes sur les bruits d'observation, sur l'erreur du vecteur (( rstguess )), et sur celui du modele dynamique. Designons par Xk le vecteur d'etat (vecteur
decrivant l'etat de l'ecoulement) a l'instant tk . Soient Ak les operateurs (ou le modele)
permettant de calculer recursivement (Xk )k0 et Ck les operateurs d'observation :
8
< Xk+1 = Ak :Xk + : Ykobs = Ck :Xk + "
(2 Rn );
(2 Rm );
ou et " sont respectivement les bruits du modele et de l'observation. Ces bruits sont
evidemment ignores, mais on suppose qu'il s'agisse des variables aleatoires Gaussiennes
de moyennes nulles et de matrices de variance-covariance qui sont connues. En donnant
X0g un vecteur (( rst-guess )) - vecteur d'etat approchant plus ou moins l'initialisation X0
- la methode de ltrage fournit un processus permettant de calculer sequentiellement une
suite de vecteurs d'etat (( analyses )) (Xka)k0 . Ce processus exploite, a chaque etape k,
astucieusement et de facon optimale le vecteur d'observation Ykobs . Cette utilisation est
optimale dans le sens ou elle est basee sur le caractere minimal de la variance de l'erreur
des vecteurs d'etat analyses, du moins dans le cas ou le modele (c.-a-d. les Ak ) est lineaire.
Nous donnons ici une description du principe de la methode variationnelle qui est celle
que nous avons choisie dans le cadre de notre etude. Son principe est naturel et se resume
au probleme de minimisation d'une fonctionnelle :
J (X ) = Xinf
J (X )
2U
ad
ou X est le vecteur de contr^ole optimal a chercher dans un espace de contr^ole admissible
Uad . Cet espace de contr^ole est choisi comme l'espace des parametres (( non-connus )) (ou
mal-connus) dans le modele, comme par exemple le vecteur d'initialisation de l'ecoulement
ou bien le ux de circulation sur des frontieres ouvertes (frontieres arti cielles) du bassin
oceanique. La fonctionnelle J dans la plupart des cas est prise comme l'ecart quadratique
entre la trajectoire calculee par le modele et les observations fournies. Resoudre ce probleme de minimisation revient en quelque sorte a utiliser des observations donnees pour
identi er les parametres mal connus, et permet donc de corriger les erreurs du modele.
2
Introduction.
Sous l'hypothese que le modele est exact, on montre que si, dans l'expression de la
fonctionnelle J , on pondere les quantites des ecarts quadratiques aux observations par
l'inverse de la matrice de variance-covariance de ses erreurs, alors la methode variationnelle donne strictement le m^eme resultat d'analyse que la methode du ltrage. Ces deux
methodes sont donc equivalentes et optimales.
Par contre, du point de vue pratique et de la mise en uvre, ces deux techniques d'estimation comportent leurs propres avantages et leurs propres inconvenients. La technique
variationnelle est relativement plus simple que celle du ltrage car elle ne suppose pas
avoir une connaissance statistique ne
sur les erreurs des donnees ainsi que sur les
erreurs du modele. De plus la technique du contr^ole optimal permet de traiter un eventail
assez large et diversi e de problemes car il est relativement facile de changer le type de
donnees traitees (ou d'ajouter un autre type de donnees) dans la fonctionnelle J . Il en est
de m^eme pour l'espace de contr^ole : on peut le modi er aisement suivant les parametres
X que l'on veut identi er.
Parmi les inconvenients de la methode du ltrage, on peut citer :
{ les calculs et manipulations des matrices (de variance-covariance) de tres grande
taille ;
{ les proprietes nes et cruciales de statistique sur les vecteurs des erreurs qui sont
delicates a obtenir ;
{ l'instabilite numerique de la technique dicile a ma^triser lorsqu'on l'applique sur
des modeles non-lineaires.
Parmi les avantages de cette m^eme methode, on pense a :
{ la modelisation eventuelle des erreurs liees au modele ;
{ les proprietes statistique sur l'erreur de l'analyse qui sont fournies naturellement par
le processus du ltrage ;
{ les dicultes lies a l'ecriture du code adjoint (voir ci-dessous) que l'on peut eviter.
La motivation physique expliquee plus haut et la volonte de l'equipe de Modelisation des E coulements Oceaniques et des Marees (MEOM) de l'Institut de Mecanique de
Grenoble en vue de la mise en place d'une methode d'assimilation (( optimale )) nous ont
amenes naturellement a etudier l'application possible de l'une de ces deux techniques. Les
avantages et les inconvenients de ces deux techniques ne permettent pas de les departager facilement. Nous avons neanmoins choisi d'aborder le probleme d'assimilation par la
technique variationnelle, du fait de sa plus grande souplesse.
a priori
La theorie mathematique permettant de resoudre le probleme de la minimisation de
la fonctionnelle J est due a J.L. Lions (c.f. [Lions, 1968]) a la n des annees 60. Plus
recemment, les progres spectaculaires accomplis dans le domaine des performances des
super-calculateurs notamment durant ces dernieres annees ont incite les meteorologues
3
Introduction.
(F.X. Le Dimet, O. Talagrand et P. Courtier dans 2 articles [Le Dimet et al.,
1986] et [Courtier, 1990]) a utiliser cette methode.
La modelisation de la dynamique oceanique est moins avancee que son homologue
atmospherique necessite encore un travail important. Cette diculte est liee, d'une part,
en pratique, a un manque d'observations, notamment en profondeur, et d'autre part, a la
grandeur des echelles caracteristiques (a la fois en temps et en espace) de la circulation
oceanique.
Les questions que l'on peut se poser a propos de ces dicultes sont nombreuses :
1. Comment peut-on exploiter au mieux la faible densite des observations disponibles?
2. Quelles informations peut-on en extraire et quelles sont celles que l'on ne peut pas en
extraire? Plus particulierement, on peut se demander s'il est possible de reconstruire
la circulation en profondeur de l'ocean avec la seule connaissance des informations
de surface?
3. Quelle est la methode la (( mieux adaptee )) a un probleme d'assimilation des observations dans les modeles de circulation oceanique?
L'un des obstacles essentiels dans l'application de cette methode variationnelle est
l'ecriture informatique de l'adjoint du code direct permettant de calculer le vecteur
gradient de la fonctionnelle J a n de la minimiser. Typiquement dans un code numerique
d'un modele de circulation le nombre d'instructions executables en langage fortran est de
l'ordre de 105 et, ces instructions se repartissent en moyenne sur environ une centaine de
subroutines di erentes. Pour cette raison la transposition du code est une t^ache longue
et dicile. Elle est dicile car elle demande au developpeur de conna^tre parfaitement
le graphe d'execution, souvent complique, du code direct pour pouvoir le dualiser. Le
developpeur du code adjoint doit aussi estimer de facon assez ne le temps d'execution
et le nombre de variables intermediaires utilisees dans chaque partie du code direct pour
pouvoir realiser un code adjoint avec un bon compromis entre :
{ la place de stockage des variables intermediaires et,
{ le temps necessaire pour recalculer eventuellement ces variables.
Notons que la place stockee necessaire est evaluee a quelques giga octets dans un
programme de transposition. Cette t^ache de transposition est longue car elle exige un
contr^ole (( sans-faute )) en permanence de toutes les transpositions elementaires e ectuees.
Un autre fait a remarquer est le lien evident entre les techniques de transposition des
algorithmes et les techniques de di erentiation de ces m^emes algorithmes. Signalons par
ailleurs que l'INRIA est l'un des premiers organismes de recherche tres implique dans les
techniques d'automatisation des transpositions et des di erentiations, en vue de toutes
les applications du contr^ole optimal des systemes regis par des equations aux derivees
partielles, gr^ace a la resolution de ces equations adjointes, plus particulierement dans le
domaine de l'oceanographie et de la meteorologie.
4
Introduction.
Le deuxieme inconvenient de cette methode de contr^ole optimal dans des problemes
d'assimilation de donnees des systemes de grande taille (c.f. la remarque sur la dimension du vecteur d'etat dans la section precedente) comme en oceanographie est son tres
important co^ut de calcul. Ce co^ut est encore pour le moment a la limite du raisonnable
dans le cadre d'une application operationnelle de la methode. En e et, pour minimiser la
fonctionnelle J de facon satisfaisante, on doit evaluer ses valeurs ainsi que ses gradients
au moins une centaine de fois, c'est a dire autant de fois qu'une simulation simple sur la
periode d'assimilation.
En resume, si l'on symbolise la resolution numerique de notre equation dynamique,
discretisee en espace, par l'equation suivante :
= ( )+
dY
F Y
dt
V
Y
( ) 2 Rn
t
n
' 107
:
(0.1)
ou est le vecteur d'etat et un forcage connu,
nous nous interessons essentiellement au developpement d'un code adjoint de celle-ci,
c.-a-d. le code resolvant l'equation :
Y
V
,
dP
dt
= [ ]t( ) +
F
0
P
W
( ) 2 Rn
P t
(0.2)
ou est la variable adjointe, [ ]t represente la transposee du jacobien de l'operateur
. Le second membre est un pseudo-forcage de l'equation adjointe (souvent c'est un
terme de rappel de la variable d'etat vers les observations).
Le code adjoint (0.2) nous donnera ensuite le moyen de resoudre les problemes de
contr^ole optimal avec l'objectif d'assimiler divers types de donnees observees de l'ocean,
a n d'ameliorer la qualite des previsions des modeles et de decrire avec rigueur et exactitude les circulations oceaniques a grande echelle.
Par ailleurs, signalons que l'assimilation variationnelle de donnees dans les modeles de
circulation oceanique quasi-geostrophique a ete exploree par plusieurs auteurs, parmi lesquels on peut citer notamment : [Moore, 1990] dans le cadre du contr^ole des conditions
aux limites ouvertes ; [Schroter, Seiler, Wenzel, 1993] dans le cadre des donnees altimetriques fournies par Geosat dans la region de Gulf-Stream ; et [Morrow, De Mey,
1995] dans le cadre de l'assimilation dans la region des courants des Acores. L'approche
pratique de cette presente etude, sur plusieurs points, est assez similaire a celle decrite
par [Schroter, Seiler, Wenzel, 1993].
P
F
F
0
W
Y
5
Introduction.
Resume de l'etude.
Cette etude concerne la mise en uvre de methodes numeriques d'optimisation de type
contr^ole optimal appliquees a un probleme d'assimilation de donnees en oceanographie.
Il s'agit d'etudier la faisabilite de la methode dans un probleme de grande taille et dans
un modele turbulent, caracteristique des circulations oceaniques aux latitudes moyennes.
Le modele de circulation utilise est un modele quasi-geostrophique strati e en plusieurs
couches. Les donnees a assimiler sont les mesures altimetriques satellitaires (hauteur de la
surface libre de l'ocean). Elles se trouvent uniquement sur la couche de surface. Le vecteur
de contr^ole est choisi comme etant la condition initiale du systeme dynamique sur toutes
les couches.
Sur le plan theorique, sont etudies dans les chapitres II et III :
- l'existence et l'unicite de la solution de l'equation linearisee ;
- le lien entre la nature des observations et la di erentiabilite de la fonctionnelle ;
- l'existence et l'unicite de l'etat adjoint ;
- la convergence de la methode de contr^ole par des suites minimisantes.
Cette partie theorique de l'etude montre, a notre connaissance pour la premiere fois, les
proprietes importantes de la di erentiabilite des solutions de l'equation quasi-geostrophique
par rapport a la condition initiale. Cette propriete est la base de toute consideration theorique des problemes d'optimisation pour ce modele. Les limites de ces resultats se trouvent
dans le fait qu'ils ne s'appliquent, pour l'instant, que dans un cadre assez restreint avec
des conditions aux limites correspondant au domaine a frontiere fermee. Les proprietes
de di erentiabilite sur les modeles a frontiere ouverte (ou mixte) sont diciles et restent
un probleme ouvert. Par ailleurs, une formulation mathematique des equations adjointes
faibles et fortes du modele quasi-geostrophique est donnee. Cette formulation permet une
presentation rigoureuse de ces equations adjointes evoquees dans des references sur le
m^eme sujet, a savoir : [Moore, 1990], [Schroter, Seiler, Wenzel, 1993] et [Morrow, De Mey, 1995].
Dans le chapitre IV, nous etudions ensuite la qualite de l'identi cation des circulations
en profondeur en connaissant les informations de surface. Nous abordons aussi les di erentes strategies d'assimilation en temps (sequentielle, incrementale, ...). La plupart des
tests numeriques sont realises en utilisant un modele a basse resolution et assez academique. Nous montrons que, si l'on ne s'interesse qu'a une bonne prevision de l'ecoulement,
la strategie sequentielle est largement susante. Cette strategie qui est une sorte de compromis entre la technique variationnelle et la technique de ltrage, donne d'excellents
resultats d'identi cation de l'etat nal, donc une bonne qualite de la prevision de l'ecoulement, avec un moindre co^ut de calcul. Deux experiences, a haute resolution avec e et
, plus realistes sont donnees a la n du chapitre. Ceci nous permet de justi er, d'une
certaine maniere, que nos conclusions precedentes sont encore applicables dans un cadre
beaucoup moins academique.
En n dans le chapitre V, une etude au second ordre de la fonctionnelle permet d'estimer l'erreur de l'identi cation et de quanti er la propagation des informations de surface
en profondeur. Un test de la validation croisee generalisee sur notre probleme pour de6
Introduction.
terminer le coecient de regularisation est fait gr^ace a cette etude au second ordre. Nous
avons surtout voulu montrer dans ce dernier chapitre, a l'aide d'un certain nombre d'applications, le potentiel de l'etude au second ordre due a F.-X. Le Dimet [Wang et al,
1990].
7
Chapitre I :
Le modele de circulation
Quasi-Geostrophique (QG).
1.1 Introduction.
Les ecoulements oceaniques a grande echelle dans l'espace et dans le temps sont des
mouvements sur lesquels l'e et de la rotation terrestre joue un r^ole dynamique essentiel. Le
recours a des hypotheses fortement simpli catrices conduit a une representation approchee
de cette dynamique par ce que l'on appelle l'equilibre geostrophique c'est-a-dire un
equilibre dynamique entre la force de Coriolis et le gradient de pression. En realite la notion
d'equilibre geostrophique est insusante en elle m^eme pour conduire a la determination
de toute la dynamique de l'ecoulement. L'introduction de termes correspondants a un
degre superieur d'approximation peut seule permettre cette determination : c'est le sens
de l'approximation quasi-geostrophique.
Le systeme dynamique oceanique est extr^emement complexe ; du seul point de vue de la
mecanique des uides, il requiert le respect des principes fondamentaux de la mecanique :
conservation de la masse et de la quantite de mouvement ; lois de la thermodynamique.
Nous ecartons ici les dicultes associees a la prise en compte des equations de la thermodynamique. Une grande partie des caracteres dynamiques des systemes geophysiques
reels est neanmoins preservee.
1.2 Hypotheses d'approximation et les equations.
On note respectivement L, D et U les echelles de distance horizontale, de distance
verticale et de vitesse horizontale de l'ecoulement dans un milieu spherique tournant a
une vitesse angulaire constante (c'est la rotation terrestre). La force de Coriolis moyenne
dans le domaine de circulation f0 a pour l'unite 1=T (T l'echelle de temps). Cette quantite
de force depend a la fois de la vitesse de rotation du milieu tournant et aussi de la latitude
centrale du domaine.
9
Chapitre I.
A partir de ces parametres, on de nit des nombres adimensionnels :
{ = : le parametre d'aspect ;
D
L
{ " = 0 : le nombre de Rossby. Il mesure l'importance relative des e ets d'inertie
(de temps caracteristique L=U ) et de rotation terrestre (de temps caracteristique
1=f0).
U
f
L
La formulation du modele quasi-geostrophique suppose les approximations suivantes :
{ << 1 : la profondeur du bassin est petite devant sa longueur, ce qui traduit la
caracteristique de l'ocean d'^etre une couche mince a l'echelle planetaire.
{ " << 1 : l'e et d'inertie est faible devant l'e et de rotation de la terre.
{ La linearisation de l'e et de la sphericite terrestre permet d'approcher le parametre
de Coriolis par f = f0 + 0 y ou y designe la latitude du point considere. Il s'agit la
de l'hypothese du -plan.
Le developpement a l'ordre 0 en " et de l'equation de Navier-Stokes, conduit a une
relation exprimant l'equilibre geostrophique presente plus haut.
Le developpement a l'ordre 1 de cette m^eme equation de Navier-Stokes dans un milieu
tournant donne une approximation dont le champ de vitesse de l'ecoulement est a divergence nulle. En supposant une strati cation en N couches d'epaisseurs au repos H1, H2,
..., H avec une densite consideree comme constante dans chaque couche k, la nondivergence permet d'introduire une fonction de courant dans chaque couche , nous
obtenons un systeme Quasi-Geostrophique de N equations couplees d'inconnues :
N
k
k
k
Soit (bassin d'ecoulement) un ouvert borne regulier de R2.
k
: [0; T ] ,! R;
D ( ( ) + f ) + :C :
Dt
la fonction de courant de la couche k ;
k
k;N
B
N
, A4:2 = F ; 8k = 1; 2: : : : ; N ;
k
10
k
(1.1)
(1.2)
Le modele de circulation Quasi-Geostrophique (QG).
avec les notations suivantes :
= ( k k) = ,
du uide ;
~
V
k
u ;v
t
@
k
@y
;
@
k
!t
@x
est le vecteur vitesse instantanee de l'ecoulement
designe l'operateur de derivee particulaire. Elle s'exprime de plusieurs facons
equivalentes :
D:
Dt
D:
Dt
=
=
@:
@t
@:
@t
+
,
u
@
@:
@x
+
@:
@y @x
@:
v
+
@y
@
@:
@x @y
(ici, il convient de noter que le vecteur de vitesse (
couche consideree).
u; v
11
:
)t depend evidemment de la
Chapitre I.
( ) est la somme de la vorticite dynamique et la vorticite thermique (ou stretk
ching) :
( ) =
k
f0 h 1 ( ) , h 1 ( ) :
+
| {z }
H + 2 {z , 2 }
|
dynamique
thermique
k
k
k
k
ou : pour k = 1; : : : ; N , 1 on de nit h + 12 ( ) = g0f0 1 ( +1 , ) : il s'agit de la
+2
hauteur de denivellation de l'interface entre la couche k et k + 1. Pour les indices
k extr^emes, on de nit h 21 = 0 et h + 12 = h (hauteur de la topographie de fond).
def
k
k
k
k
B
N
Les constantes g0 + sont appellees gravites reduites. Elles sont calculees a partir des
densites des couches : g0 = g +1 , (avec g et respectivement l'attraction
k
1
2
k
k
+ 12
k
s
terrestre moyenne et la densite moyenne du uide et la densite moyenne de la
couche k).
Les constantes H sont les hauteurs des couches au repos. Au regime non stationnaire
il faut rajouter en plus a ces hauteurs les denivellations intercouches h , 12 et h + 12
pour avoir les hauteurs dynamiques des couches.
f est la force de Coriolis. Dans l'hypothese -plan, elle varie lineairement suivant la
latitude : f = f0 + :y.
:C : est un terme de dissipation par frottement au fond du bassin. Le symbole de Kronecker signi e donc que l'e et de frottement se presente uniquement
sur la couche de fond. C est le coecient de frottement, suppose ^etre xe.
,A4:2 est un terme de dissipation par friction laterale. Ce terme se presente
dans toutes les couches. A4 est le coecient de viscosite, suppose ^etre xe.
F est le forcage, moteur du systeme dynamique. Dans le cadre physique, ce forcage
~ ~ ,
est d^u uniquement a l'e et de la tension du vent en surface, c.-a-d. F1 = H1 rot
1
avec ~ la tension du vent, et F = 0 pour k 2.
s
k
k
k
k;N
B
k
N
k;N
B
k
k
z
k
Les autres quantit
es physiques et notations utiles a conna^
tre :
Le terme de convection dans l'expression de devivation particulaire u + v s'exprime le plus souvent a l'aide d'un operateur Jacobien de ni par :
@g , @f @g :
J (f; g) = @f
@x @y @y @x
def
et donc :
@: + v @: = J ( ; :):
u @x
@y
12
@:
@:
@x
@y
Le modele de circulation Quasi-Geostrophique (QG).
Remarquons que l'operateur Jacobien est bilineaire et anti-symetrique. Dans les
equations quasi-geostrophiques c'est le seul terme qui soit non lineaire par rapport
a la variable .
La somme des trois vorticites
(1) dynamique k ;
(2) thermique Hf0k k+ 12 ( ) ,
(3) et planetaire ;
h
hk
,
1
2
( ) ;
f
est la vorticite potentielle. Les equations quasi-geostrophique expriment donc la loi
de conservation de la vorticite potentielle.
La quantite
wk
+ 12
=
def
0
g 0k + 1
2
f
"
(
@
@t
, k) + (
k+1
k;
J
k
,
#
k+1
)
est comme la vitesse verticale intercouche.
L'energie cinetique de la couche est de nie par :
k
Kk
Z
= 2k
def
H
kr k k2
~
dx:
L'energie potentielle entre la couche + 1 et la couche est de nie par :
k
Pk
=
def
k
2 Z
0
2 g0k+ 12
f
(
k+1
, k )2
dx:
Notation ( ) : on verra que les conditions aux limites en espace exige que les fonctions
de courant soient constantes sur les frontieres (en espace uniquement). Les notations
a k sa constante sur la bord :
k signi e donc que l'on retranche :
k
=
def
k
, [email protected] 1I( )
:
;
L'enstrophie de la couche est de nie par :
k
Ek
Z
= 2k ( k )2
def
H
13
dx:
Chapitre I.
1.3 Passage de couches en modes.
Le passage de couches aux modes est, en plus les considerations physiques, requis par
la formulation des conditions aux limites (voir la section 1.4).
Introduisons la matrice de couplage des couches (W ) :
0
,b1 b1
0 ::: :::
:::
B
B
a
,
a
,
b
b
:
:
:
:
:
:
:::
2
2
2 2
B
B
.
.
.
.
.
...
..
.. .. ..
W = BB . .
B
: : : : : : 0 a ,1 ,a ,1 , b
@ 0
0
::: ::: ::: 0
a
kl
n
n
0
0
...
b ,1
,1
,a , b
n
n
n
n
1
CC
CC
CC
CA
n
2
2
ou a = H fg00 1 et b = H fg00 1 .
,2
+2
k
k
k
k
k
k
Alors le vecteur des vorticites ( ) est :
0 1
0
1
1
1
B
B . C
. C
B
@ .. CA = (: + W:) [email protected] .. CA
k
N
N
Et les equations quasi-geostrophiques secrivent sous la forme vectorielle :
0
1
0
F1 , J ( 1; 1( ) + f ) + A4:2 1
1 C
B
B
@ (: + W:) B .. C = B
...
.
@
A
@
@t
F , J ( ; ( ) + f ) , C : + A4:2
0
1
G
1
B .. CC
= B
@ . A
N
N
N
N
B
G
N
1
CC
A
N
(1.3)
N
avec G = F , J ( ; ( ) + f ) , :C :
def
k
k
k
k
k;N
B
N
+ A4:2 .
k
Il est facile de veri er que la matrice produit :
diag (,H1; ,H2; : : :; ,H ):W
N
est symetrique positive. On montre aussi qu'elle admet une unique valeur propre nulle.
On en deduit qu'il en est donc de m^eme pour la matrice [,W ]. Soit D = diag(1; : : : ; )
la matrice diagonale semblable a ,W (on classe les valeurs propres en ordre croissant :
0 = 1 < 2 : : : ), et B la matrice de passage :
N
N
W = ,B:D:B ,1
14
Le modele de circulation Quasi-Geostrophique (QG).
et posons
0
B
B
@
1
0
1
1 C
1
... C = [B ,1]: B
[email protected] ... CCA
(1.4)
A
Donc :
0
1
0
1
1
1
B
B . C
. C
B
(1.5)
@ .. CA = [B ]: [email protected] .. CA
Le vecteur ( ) est appele le vecteur des modes, en particulier 1 est le mode barotrope
et avec k 2 est le kieme mode barocline.
Le passage (1.4) est le passage couches en modes et (1.5) est le passage modes en
couches.
Le systeme (1.3), ecrit en modes, devient :
0
1
0
1
G1
1
B .. CC
B .. CC
@
(
: , D:) B
=
[
B ,1 ]: B
.
@
A
@ . A
@t
G
def
N
N
N
N
k
k
N
N
Un vecteur propre de W correspondant a la valeur propre 1 = 0 est le vecteur
(1; 1; : : : ; 1) (en e et la somme des colonnes de W s'annule). Dans la suite, on fait la
normalisation en prenant B 1 = 1 8k.
t
k;
1.4 Conditions aux limites.
Dans notre etude, on se restreint uniquement a des conditions aux limites utilisees pour
les frontieres terrestres. Nous supposons donc que le domaine soit un bassin ferme, il
n'y a pas donc de ux de circulation entrant ou sortant du domaine.
Nous utilisons la condition dite de glissement sur la frontiere terrestre, plus une condition de conservation de masse, c.-a-d. :
8 8 (t) C (t) sur @ 8t 2 [0; T ] 8k = 1; : : : N tel que :
>
>
>
>
>
>
<
>
si = [B ,1: ] (la transformation en modes)
>
>
Z
<>
>
>
:
alors 1 0 sur @ [0; T ] et (t) dx = 0 8t 2 [0; T ] 8k 2
>
>
>
>
et :
>
>
: 0 sur @ [0; T ] 8k = 1; : : : ; N:
k
te
k
k
k
k
k
15
(1.6)
Chapitre
II :
L'existence et l'unicite de la
solution de l'equation Q.G.
linearisee.
2.1
Introduction.
Dans un probleme de minimisation d'une fonctionnelle J il est important de conna^tre
quand celle-ci est di erentiable ? (faudrait-il encore preciser le sens du mot (( di erentiable ))).
La fonctionnelle J que l'on considere ici, comme dans presque tous les problemes de
contr^ole optimal, est l'ecart au sens des moindres carres entre les donnees issues du modele
dynamique et un vecteur d'observation xe. E tudier la di erentiabilite de la fonctionnelle
J revient donc a etudier dans quelle mesure le modele linearise reste (( valable )). Bien s^ur
ce resultat de validite dependra de la nature des observations considerees, par exemple :
des observations de nature ponctuelle de la fonction de courant ont-elles vraiment un sens
ou non?
Dans cette partie nous allons etudier le modele quasi-geostrophique linearise autour d'un etat de reference, cet etat de reference etant solution de l'equation quasigeostrophique non lineaire.
Les hypotheses permettant d'assurer la garantie de l'existence et de l'unicite d'une
solution de cette equation linearisee peuvent se (( transposer )) facilement dans le cadre
de l'equation adjointe du linearise. On peut donc en deduire que le vecteur gradient de
la fonctionnelle a minimiser - obtenu en projetant l'etat adjoint sur l'espace de contr^ole est donc bien de ni sous certaines hypotheses trouvees.
Presentation de l'equation quasi-geostrophique linearisee :
Regardons l'equation quasi-geostrophique non lineaire :
"
#
@: + J ( ; :) ( ( ) + f ) + :C :
@t
k
k
k;N
17
B
N
, A4:2 = F :
k
k
(2.1)
Chapitre II.
Le seul terme non lineaire present dans cette equation est celui correspondant a l'operateur Jacobien J ( ; :). Comme nous l'avons remarque dans le chapitre I precedent, cet
operateur est lineaire par rapport a chacun de ces deux arguments. Soit ( ) un etat de
reference autour duquel on veut lineariser (on peut supposer que ( ) soit une solution
quelconque et xee de l'equation non lineaire (2.1)). L'equation linearisee associee s'ecrit
donc, en decomposant en deux ce terme de Jacobien :
k
ref
ref
k
k
"
@: + J (
@t
#
ref
k
; :) ( ( ) + f ) + J ( ; (
k
k
) + f ) + :C :
ref
k
k;N
B
N
, A4:2 = F :
k
k
(2.2)
( ) etant le vecteur d'inconnues.
k
Comme les conditions aux limites de l'equation quasi-geostrophique non lineaire sont
lineaires par rapport a sa variable inconnue, pour l'equation (2.2) on garde donc les m^emes
types de conditions aux limites, c.-a-d. (1.6).
Pour demontrer l'existence et l'unicite de cette equation nous allons etablir d'abord
trois majorations
de la solution ( ) de (2.2) :
{ majoration dans L2(0; T ; H 2( )) de ( ) ;
a priori
k
k
{ majoration dans
L2(0; T ; H 1(
!
)) de @@t ;
k
{ majoration dans L2(0; T ; H 3( )) de ( ).
Ensuite nous donnons deux demonstrations de l'existence de l'unicite, gr^ace a ces trois
majorations, par deux techniques di erentes :
{ par la methode de Faedo-Galerkin ;
{ par regularisation elliptique.
Dans la suite, pour etablir les estimations
, on suppose que ( ) soit une
solution de l'equation (2.2) avec les conditions aux limites de nies par (1.6).
k
a priori
2.2 Premiere majoration a priori de
L2(0 T; H2( )).
k
dans
;
Dans cette partie, nous allons multiplier la kieme equation Q.G. linearisee (2.2) par
H V , ou V represente les fonctions de courant nulles au bord correspondant a V ,
c.-a-d. :
k
k
k
k
V = V , V j 1I( )
def
k
k
k
18
@
(2.3)
L'existence et l'unicite de la solution du modele lineaire.
Nous allons etablir une premiere majoration en prenant Vk =
en k les N produits obtenus. On obtient l'egalite suivante :
ZT Z @
Hk
@t k ( )
k=1
0
N
X
+
N
X
k=1
Hk
+ HN CB
=
N
X
k=1
ZT Z
J(
0
ZT Z
0
Hk
ZT Z
0
k dxdt
ref ; (
k
k
))
N N dxdt
fk
k
et ensuite sommons
+
k dxdt
, A4
+
N
X
k=1
N
X
k=1
Hk
Hk
ZT Z
0
ZT Z
J ( k; k (
0
2
k k dxdt
ref ) + f )
k dxdt
+
=
k dxdt:
(2.4)
E tudions de plus pres chaque terme de cette egalite :
Premier terme:
ZT Z @
N
X
Hk @t k ( )
k=1 0
k dxdt
Developpons d'abord le terme suivant :
N
X
k=1
Z
Hk k ( )
Z
Hk k k dx +
k=1
Z f0 2 f0
N
X
+ Hk H 4 g0 1 ( k+1 , k ) , g0f0 1 ( k ,
k k+ 2
k, 2
k=1
k dx
=
N
X
Z
N
X
~ k k2 dx ,
= , Hk kr
k=1
N,
X1 Z
pk+ 12 ( k+1 , k )( k+1 , k ) dx:
k=1
0
1
2
f
def
@ avec pk+ 12 = 0 0 A
g 1
k+ 2
19
3
k,1 )5
k dx
(2.5)
Chapitre II.
Gr^ace au lemme 2.2.1 qui suit, nous obtenons :
Z
,1
X Z
X
X Z
, H ( ) dx = H kr~ k2 dx + p + 12 (
N
N
k
=1
k
k
k
k
N
k
=1
k
=1
k
Lemme 2.2.1 On a l'egalite suivante :
Z
Z
( +1 , )( +1 , ) dx = (
k
k
k
k
k
k
+1 ,
k
k
+1 ,
k
)2 dx (2.6)
)2 dx:
(2.7)
Demonstration
Comme on a :
=
def
k
et donc :
Z
k
k
dx
=
, j 1I( )
k
@
Z
k
dx
, j j j
k
@
8k
(2.8)
8k:
(2.9)
De plus, en utilisant la transformation de modes en couches (1.5), on a :
13
2 0R
1 dx
66 BB
CC77
Z
Z
.
6
B
7
.. C
=
B
:
dx = 6B: B
1 1 dx 8k:
4 @ R dx CA75
k
k
N
(2.10)
k
La matrice de transformation [B ] est normalisee de telle sorte que B 1 = 1 8k, on
conclut que :
Z
Z
dx = 1 dx
8k:
(2.11)
k;
k
Remplacons (2.11) dans (2.9), on trouve que :
Z
Z
dx = 1 dx , j j j
k
k
On en deduit que la valeur de
j =
k
@
8k:
au bord du domaine sera determinee par :
R dx , R dx
1
(2.12)
k
k
j j
@
20
8k:
(2.13)
L'existence et l'unicite de la solution du modele lineaire.
L'egalite (2.8) devient :
R
k
D'ou :
Z
(
k
+1 ,
=
dx
k
, j j 1I( ) + j j 1I( )
k
k
R
1 dx
)(
+1 ,
k
k
Z
) dx =
1 Z(
j j
|
=0
k
(
k
+1 ,
8k:
k
)2 dx +
Z
+1 ,
k
) dx : (
{z
k
+1 ,
k
) dx:
(2.15)
}
(2 11)
D 0 apr es
(2.14)
:
Un calcul similaire avec les expressions avec les derivees en temps nous donne :
,
X
k
=1
Z Z @
T
N
Hk
@t
0
k (
)
k
=
dxdt
X
N
=1
k
+
,1
X
N
k
=1
ZZ @
T
pk+ 1
2
@t
0
(
k
ZZ @
r~
H
T
k
@t
0
+1 ,
k
)(
k
k
r
:~
+1 ,
dxdt +
k
) dxdt:
k
(2.16)
Donc en n pour le premier terme on obtient :
,
X
Z Z @
T
N
k
=1
Hk
@t
0
Z
= 12
0
k (
2
)
N
d 4X
Hk
dt k=1
T
Z
k
dxdt
=
kr~ k2 dx +
,1
X
N
k
k
=1
pk+ 1
Z
2
2
Z
,1
X Z
X
1
2
~
4
= 2
H kr k dx +
p +1 (
2
=1
=1
N
N
k
k
k
k
k
(
k
+1 ,
k
k
=1
ZZ
T
N
Hk
0
J(
ref
k
21
; k (
))
k
3
k
)2 dx5
:
(= )
t
Deuxieme terme:
X
+1 ,
3
)2 dx5 dt
k
dxdt
T
(2.17)
Chapitre II.
X
Z Z
T
N
k
=1
Hk
J(
0
X
k
=1
X
Hk
k
=1
; k (
))
2
Z 66Z
66 J (
64
k
Hk
k;
0
Z Z
T
N
=
k
T
N
=
ref
0
J(
ref
k
dxdt
=
Green
) ( ) dx ,
Z
k
k
|
@
) @
k (
;
ref
k
k
{z
@
k
ref
=0
3
77
7
d7 dt
75
}
) ( ) dxdt:
(2.18)
k
Voici quelques majorations generales que nous allons appliquer tout de suite, et qui,
par la suite, seront aussi tres utiles :
Inegalites d'interpolation de Gagliardo-Nirenberg :
Soit
un ouvert borne regulier de R .
n
{ Soit u 2 L ( ) \ W 2 ( ) avec 1 p 1 et 1 r 1. Alors u!2 W 1 ( )
1 1 1 + 1 , et :
ou q est la moyenne harmonique de p et r, c.-a-d. =
q
2 p r
p
;r
;q
kDuk
Lq
( )
C:kuk1 2 kuk1 2(
=
=
W 2;r
Lp
(2.19)
):
{ Soit u 2 L ( ) \ W 1 ( ). Soit 1 q p < 1. Alors u 2 L ( ), et :
q
kuk
;n
Lp
( )
p
C:kuk1,( )kuk
a
Lq
a
W 1;n
avec a = 1 , q :
( )
p
(2.20)
Inegalite de Holder :
Soient f1, f2 , : : : f des fonctions telles que
k
fi
2L ( ) 1ik
avec
pi
1 = 1 + 1 + : : : 1 1:
p
p
p
p
1
2
k
Alors le produit f = f1 f2 : : : f appartient a L ( ) et :
p
k
kf k
Lp
( )
kf1k
22
1
p
L
( ) : : : kf
k
k
p
L k
( ):
(2.21)
L'existence et l'unicite de la solution du modele lineaire.
Nous allons pouvoir maintenant majorer le terme correspondant a l'operateur Jacobien.
Lemme 2.2.2 Soient u et deux fonctions de H 2( ) dont les traces sur le bord
@
Z
sont constantes. Alors on a :
!2 3
Z @ 2 u 2 @ !2
Z @ 2u @ 2u ! @ @
@
4
5 dx+
J (u; ) dx =
,
dx:
2, 2
@[email protected]
@x
@y
@y
@x
@x @y
(2.22)
Demonstration
Z
J (u;
) dx =
=
=
Z
Z
Z
, uy x)(
(ux
y
+
(ux
y
xx
+ ux
y
yy
, uy
(ux
y
xx
, uy
x
yy
) dx
xx
yy
) dx
x
xx
Z
1
+ 2 [ux( 2y )y , uy ( 2x)x] dx
=
Z
,(ux y )x x + (uy x)y
,
=
Z
Z
uy
Z
y dx +
ux
x
y
yy
) dx
xnx d
@
1 Z [u ( 2 ) , u ( 2 ) ] dx
n
d
+
y y
x
y
y y
x x
2
x
@
(,uxx
, uy
y
x
, ux
xy
x
+ uyy
x
y
+ uy
) dx
xy
y
+ uy
xy
Z
1
+ 2 [ux( 2y )y , uy ( 2x)x] dx
Z
+ ux
=
y
[email protected]
Z
x nx d ,
(,uxx + uyy )
uy
@
x
y
dx +
y ny
x
Z
(,ux
d
xy
Z
+ 12 [ux( 2y )y , uy ( 2x)x] dx
Z
+ ux
y
x nx d
@
,
Z
@
23
uy
x
y ny
d
x
y
) dx
Chapitre II.
Z
=
(,uxx + uyy )
x
Z
1
[
,
ux( 2x )y + uy ( 2y )x ] dx
y dx +
2
Z
1
+ 2 [ux( 2y )y , uy ( 2x)x] dx
Z
+ ux
y
[email protected]
(,uxx + uyy )
=
Z
x nx d ,
uy
x
y ny
d
@
x
y
dx
Z
Z
1
1
2
2
+ 2 [uxy ( x) , uxy ( y )] dx + 2 [,uxy ( 2y ) + uxy ( 2x)] dx
Z
+ ux
Z
J (u;
y
[email protected]
(,uxx + uyy )
) dx =
Z
+ ux
y
Z
x nx d ,
uy
@
x
x nx d
@
y
,
dx +
Z
uy
x
Z
x
y ny
d
[uxy ( 2x) , uxy ( 2y )] dx
y ny
d
@
Z
Z
1
1
2
2
+ 2 ,ux xny + uy y nx d + 2 ux 2y ny , uy 2xnx d:
@
@
Il nous reste a veri er que les integrales sur le bord @ s'annulent. En fait on va
couper les deux premieres integrales sur @ en deux pour sommer avec les autres
termes.
1Z u
[email protected] x
x nx d ,
y
Z
1
, 2 uy
@
1 Z u 2 n d = 1 Z u @ d = 0:
[email protected] x x y
2 @ x x @
Z
Z
1
1
@
2
uy y nx d =
uy y
d = 0:
y ny d +
[email protected]
[email protected]
@
x
Et
1Z u
[email protected] x
Z
1
, 2 uy
@
Z
Z
+ 12 ux 2y ny d = 12 ux y @@n d:
@
@
y
x nx d
x
Z
Z
1
1
@
2
uy x nx d = ,
uy x
d:
y ny d ,
[email protected]
[email protected]
@n
24
(2.23)
(2.24)
L'existence et l'unicite de la solution du modele lineaire.
Et nalement la somme de (2.23) et de (2.24) donne :
1 J (u; ) @ d = 1
2
@n
2
Z
@
!
@u @
@n @
Z
@
@ @
, @u
d = 0:
@ @n @n
C.Q.F.D.
Lemme 2.2.3 On a la majoration suivante :
N
X
k
=1
ZT Z
H
J( ;
k
ref
k
k
0
ref
k
) ( ) dxdt k
k
1 (0 ; 2( ))
L
;T H
C
k
k2 2
L
:C k
(0 ; 1( )) +
;T H
k2 2
L
(0 ; 2( ))
;T H
; (2.25)
ou C est une constante qui ne depend que de , T , et des parametres du modele.
est une constante que l'on peut choisir arbitrairement dans R+ .
Demonstration
Fixons d'abord un t dans l'intervalle [0; T ] et majorons d'abord a l'instant t :
Z
J( ;
k
ref
k
) ( ) dx Z
k
+
J( ;
ref
J( ;
ref
k
Z
k
kJ (
+kJ (
k
;
k
;
k
k
ref
k
ref
k
) dx +
k
) (W: ) dx
k
) k 1( ) +
) (W: ) k 1( ):
k
L
k
L
(2.26)
Majorons d'abord le 1er terme (le moins facile a majorer parmi ces deux). En appliquant a la fois le lemme 2.2.2 et l'inegalite de Holder, (appliquee en espace a
l'instant t) on trouve que :
kJ (
k
;
ref
k
) k
k
L1
( )
kD2 k ( ) k(D )2k
k k ( )kD k2 ( ):
ref
k
ref
25
H2
L2
k
L4
L2
( )
Chapitre II.
D'apres l'inegalite de Gagliardo-Nirenberg (2.20) appliquee a u = D nous avons1 :
kD k
L4
kD k2
L4
( )
( )
C:kD k1 22( ):kD k1 21 2 ( )
C:k k1 12( ):k k1 22( ):
C:k k 1( ):k k 2( )
C k k2 1 + :C k k2 2 :
( )
( )
=
=
L
=
=
H
H
H
H
H
H
D'ou :
kJ ( ;
ref
k
) k
k
k
k
( )
L1
;
W
ref
k
H2
( )
C
k k2
H1
2
) + :C k k 2(
(
)
H
:
Majorons maintenant le 2ieme terme gr^ace encore une fois a l'inegalite de Holder :
kJ ( ;
k
ref
k
) (W: ) k
L1
k
jkAkj1 kD
( )
ref
k
k
L4
( ) kD
k
k
L2
( )k
k
L4
( ):
D'apres l'inegalite de Gagliardo-Nirenberg (2.19) nous avons2 :
kD
ref
k
k
L4
( )
C:k
ref
k
k1 2
=
W 2;2
( )k
ref
k
k1 12 ( ):
=
L
En plus comme l'injection de H 2( ) = W 2 2( ) dans L1( ) est continue, on a :
;
kD
De m^eme :
ref
k
k
L4
k k
k
( )
L4
C:k
( )
k
ref
k
H2
C:k k
H1
C:k
( )
( )
ref
C:k k
H2
k
H2
( ):
( ):
D'ou :
kJ ( ;
ref
k
k
) (W: ) k
k
L1
( )
C:k
ref
k
H2
( )k
k
H1
( )k
k
H2
( ):
Par la m^eme technique que celle utilisee pour majorer le 1er terme, nous obtenons
encore :
kJ ( ;
k
ref
k
) (W: ) k
k
L1
( )
k
ref
k
H2
( )
C
k
k2 1
H
( )+
:C k
k2 2
H
( )
:
Il sut maintenant d'appliquer l'inegalite de Hoder en temps pour retrouver le
resultat.
1q
2q
= 2; p = 4; a = 1=2 et
= 4; r = 2 et p = 2
n
=2
26
L'existence et l'unicite de la solution du modele lineaire.
Troisieme terme:
ZT Z
N
X
Hk J ( k ; k (
k=1
Z
J ( k ; k (
ref
) + f ) k dxdt
ref
0
Z
) + f ) k dx = , J ( k ; k )(k (
Green
,
Z
k
@
(k (
= 0:
ref
ref
) + f ) dx
) + f ) @@k d
(2.27)
Donc:
ZT Z
N
X
Hk J ( k ; k(
k=1
0
Quatrieme terme:
HN CB
Z
N
ref
ZT Z
0
) + f ) k dxdt = 0:
N
N
(2.28)
dxdt
Z
[email protected] N
2
~
kr N k dx + @n
N dx = ,
@
|
{z
=0
N
d :
}
Donc:
,HN CB
ZT Z
0
Cinquieme terme:
N
N
dxdt = HN CB
ZT Z 2
N
P
A4 Hk k=1
0
27
k
k
ZT Z
0
dxdt
kr~ N k2 dxdt:
(2.29)
Chapitre II.
Z
2
Z
Z @ k
~
~
r k :r k dx + @n
k dx = ,
@
k
Z
=
(
k
)2 dx ,
|
Z
|
@
k
k
{z
d
}
=0
@ k d :
@n
{z
}
=0
Donc :
A4
N
X
k=1
Hk
ZT Z
0
2
k
k
dxdt = A4
N
X
k=1
Hk
ZT Z
0
( k )2 dxdt:
(2.30)
Sixieme terme:
ZT Z
N
P
Hk fk
k=1
0
k
dxdt
D'abord notons par ,d 1 l'inverse de l'operateur laplacien pour le probleme de Dirichlet homogene, c.-a-d. u = ,d 1f est de nie comme la solution dans H01( ) du
probleme :
(
u = f
u = 0
dans ;
sur @ :
(2.31)
On remarque que ,d 1 = Id (H ,1( )). Appliquons cela a fk :
Z
fk
=
k dx
Z
,d 1fk
k
dx
Z
Z @ ,1fk
d
,
1
~
~
= , rd fk :r k dx +
@n
@
Green
=
Green
Z
,1f
d
k
Z
|
k
{z
}
=0
k dx , ,d 1fk @@nk d :
|
@
28
{z
=0
d
}
L'existence et l'unicite de la solution du modele lineaire.
On peut maintenant majorer notre terme :
N
X
k=1
Hk
ZT Z
0
k dxdt C:
fk
N X
kd,1fk kL (0;T ;L ( )) k k kL (0;T ;L (
2
k=1
C:k kL (0;T ;H (
2
2
Soit F = (f1; f2; : : : fN ), posons kF k,2; def
=
N
X
k=1
Hk
ZT Z
0
fk
k
))
2
N
X
k=1
2
2
))
k,d 1fk kL (0;T ;L ( )):
2
N
P
2
k
,d 1fk kL (0;T ;L ( )). On a :
k=1
2
2
dxdt C:k k2L2(0;T ;H 2( )) kF k,2;
:C k k2L (0;T ;H ( )) + C kF k2,2; :
2
2
(2.32)
(ou un nombre que l0on peut choisir arbitrairement dans R+ ):
Nous pouvons maintenant enoncer notre premiere majoration a priori :
Proposition 2.2.4 On a l'inegalite suivante :
2
4
N
X
k=1
Z
~ k k2 dx +
Hk kr
+ HN CB
ZT Z
0
NX
,1
k=1
pk+ 12 (
k+1
, k )2 dx
5
(t=T )
+
kr~ N k2 dxdt +
T
N
A
4
( k )2 dxdt
+ 2 Hk
k=1
0
X
3
Z
Z Z
C ( ; T;
):kF k2,2; ;
(2.33)
ou C ( ; T; ref ) est une constante qui ne depend que de , T , des parametres du
modele et de k ref kL1 (0;T ;H 2( )) .
Demonstration
ref
Faisons d'abord un changement de variables en posant (t) def
= e,t (t) ; ou est un
nombre reel positif que l'on precisera ulterieurement. veri e l'equation suivante :
@ () + () + J (ref ; ()) + J ( ; (ref ) + f )
k
k
k k
k
@t k
+CB N , A42k = e+tfk : (2.34)
29
Chapitre II.
On voit qu'il appara^t le terme k () qui ne gure pas dans l'equation Q.G. linearisee
initiale veri ee par , et que le second membre fk est mutiplie par e+t. Pour simpli er
les notations, on renote par . Appliquant les resultats donnes par (2.6) (2.17) (2.25)
(2.28) (2.29) (2.30) (2.32), on obtient :
2
Z
Z
N
N ,1
1 4X
2 dx + X p 1 (
~
H
k
r
k
k
k+ 2
2 k=1 k
k=1
2
ZT Z
N
X
4+ Hk
k=1
+HN CB
ZT Z
0
kr~
0
kr~
k
k2 dxdt +
NX
,1
k=1
k+1
pk+ 12
3
2
k ) dx5
,
ZT Z
0
ZT Z
N
X
2
Hk
N k dxdt + A4
k=1
0
(
k+1
(t=T )
,
k
3
)2 dxdt5
( k )2 dxdt
C1 k k2L (0;T ;H ( )) + 1:C1k k2L (0;T ;H (
2
1
1
2
2
+ 2:C2k k2L2 (0;T ;H 2( )) + C2 kF k2,2; :
2
))
(2.35)
On commence par choisir 1 et 2 assez petit, en utilisant la propriete de regularite
de l'operateur inverse du laplacien gr^ace a des proprietes particulieres de notre espace
fonctionnel, de telle sorte que :
( 1:C1 + 2:C2) k
k2 2
L (0;T ;H 2( ))
ZT Z
N
X
A4 H
2
k
k=1
0
( k)2 dxdt:
Ensuite, nous choisissons assez grand, en utilisant l'inegalite de Poincare, pour que :
2
ZT Z
N
X
4 Hk
k=1
0
kr~ k k2 dxdt +
NX
,1
k=1
pk+ 12
ZT Z
0
(
k+1
3
C1 k
2
k ) dxdt5 ,
1
Avec ces choix, (2.35) se simpli e en :
2
Z
Z
N
N ,1
1 4X
2 dx + X p 1 (
~
H
k
r
k
k
k+ 2
2 k=1 k
k=1
+HN CB
ZT Z
0
kr~ N k2 dxdt + A24
N
X
k=1
k+1
Hk
,
ZT Z
0
C tekF k2,2; :
30
3
2
k ) dx5
k2L (0;T ;H ( )):
2
1
(t=T )
( k)2 dxdt
(2.36)
L'existence et l'unicite de la solution du modele lineaire.
2.3 Deuxieme majoration a priori de
L2(0 T; H1( )).
@
[email protected]
t dans
;
k , ou
Nous allons multiplier la kieme equation Q.G. linearisee, cette fois ci par Hk @V
@t
Vk , fonctions nulles au bord, de nies comme dans (2.3).
Nous allons etablir une deuxieme majoration a priori en prenant Vk = k et ensuite
sommons en k les N produits obtenus. On obtient l'egalite suivante :
N
X
k=1
+
Hk
N
X
k=1
ZT Z
0
Hk
+ HN CB
=
N
X
k=1
@ ( ) @ dxdt +
@t k @t k
ZT Z
J(
0
ZT Z
@
N @t
0
Hk
ref ; (
k
k
ZT Z
0
ZT Z
N
X
@
)) k dxdt + Hk
J ( k ; k (
@t
k=1 0
N dxdt
, A4
N
X
k=1
Hk
ZT Z
0
2
@
k @t k dxdt
ref ) + f )
@ dxdt +
@t k
=
@ dxdt:
fk @t
k
(2.37)
Comme dans la section 2.2, nous allons examiner de plus pres chaque terme de cette
egalite.
Premier terme:
N
X
k=1
N
X
k=1
Hk
ZT Z
0
Hk
ZT Z
0
@ ( ) @ dxdt
@t k @t k
2
ZT Z
N
X
@ ( ) @ dxdt Green
@
~
= , Hk
@t k @t k
@t r k dxdt
k=1 0
ZT Z
N,
X1
@(
, pk+ 12 @[email protected] ( k+1 , k ) @t
k+1 , k ) dxdt
k=1
0
D'apres le lemme (2.3.1) ci-dessous, nous obtenons :
31
Chapitre II.
,
N
X
k=1
Hk
ZT Z
0
@
k (
@t
)
@
@t
N
X
=
k dxdt
+
k=1
Hk
NX
,1
k=1
pk + 1
2
ZT Z
0
ZT Z
0
@ ~
@t
@
(
@t
Lemme 2.3.1 On a l'egalite suivante :
Z
Z
@
@
@
,
)
dx
=
(
,
)
(
(
k
+1
k
k
+1
k
@t
@t
@t
r
k
2
dxdt
2
k+1 , k ) dxdt:
2
k+1 , k ) dx:
(2.38)
(2.39)
Demonstration
Z
@
(
@t
k+1 ,
@
k ) @t (
k+1 , k ) dx
Z
,
@
(
@t
=
Z
@
(
@t
k+1 , k )2 dx
@
k+1 , k ) @t ( k+1 , k , k+1 + k ) dx:
Regardons cette derniere integrale. On a :
Z
@
(
@t
=
@
k+1 , k ) @t ( k+1 , k , k+1 + k ) dx =
Z
@
(
@t
@
k+1 , k ) @t (Ck+1 1I(
) , Ck 1I( )) dx
(ou Ck est de nie comme la constante de m^eme valeur de k sur le bord.)
Z
@
@
= j j: @t
(Ck+1 , Ck ) @t
( k+1 , k ) dx:
Or, cette derniere integrale vaut 0 ; la preuve est la m^eme que dans le lemme 2.2.1.
C.Q.F.D.
Deuxieme terme:
N
X
k=1
Hk
ZT Z
0
J(
ref ; (
k k
32
@
)) @t
k dxdt
L'existence et l'unicite de la solution du modele lineaire.
Lemme 2.3.2 On a la majoration suivante :
X ZZ
T
N
k
H
=1
k
0
k
J(
ref
k
ref
k
; ( ))
k
dxdt
k
0
r~ @
B
:C
@
))
@t
1 (0 ; 3(
L
@
@t
;T H
2
2
L
+ C k k2 2(0
; (
;T H 2
L
(0 ; 2( ))
1
C
)) A ; (2.40)
;T L
ou C est une constante qui ne depend que de , T , et des parametres du modele.
est une constante que l'on peut choisir arbitrairement dans R+ .
Demonstration
Regardons d'abord l'expression comportant seulement l'integrale en espace, on a :
Z
J(
ref
@
; ( ))
@t
k
k
k
Z
=
dx
Green

J(
r~
H older
;
ref
k
k
) ( ) dx
k
~ @
1( ) r
@t
ref
k
@
@t
L
k
L2
( )
k ( )k
L2
k
( ):
En utilisant la continuite de l'injection canonique H 2( ) ,! L1 ( ), on majore
donc :
r~
ref
k
1 ( ) C:
r~
L
ref
k
H2
( )
C:
ref
H3
k
( )
C:
ref
:
( 3( ))N
H
On majore ensuite :
k ( )k
L2
k
Donc :
Z
J(
ref
k
; ( ))
k
@
@t
k
( )
dx
k( )k(
L2
C:
( ))N
k k(
ref
H3
H2
( )
r~ @[email protected]
( ))N :
k
L2
( )
k k
H2
( ):
Il sut maintenant d'appliquer l'inegalite de Holder par rapport a l'integrale en
temps de cette majoration en espace, on obtient ainsi :
ZZ
@
J(
; ( ))
dxdt @t
T
ref
0
k
k
k
33
Chapitre II.
C:
k
L
ref
[email protected]
1 (0 ; 3( )) r @t
k
ref
;T H
k 1 (0 ; 3(
L
;T H
Troisieme terme:
0
@
)) @ :C
@t
X ZZ
N
k
=1
T
H
k
2
(0 ; 2( ))
k k 2 (0 ; 2( ))
L
;T H
;T L
L2
+
C
k k2 2 (0 ; 2(
L
(0 ; 2( ))
J( ; (
k
0
L2
;T H
1
))A :
;T L
ref
k
@
) + f ) @t
k
dxdt
Lemme 2.3.3 On a la majoration suivante :
X ZZ
T
N
k
H
=1
J( ; (
k
k
0
C(
ref
k
ref
@
) + f ) @t
0
[email protected]
): B
@ :C ( ) [email protected]
k
dxdt 2
L2
(0 ; 2( ))
+ C( )k
k2 2 (0 ; 2(
L
;T H
1
C
))A ; (2.41)
;T L
ou :
n
o
{ C ( ) est une constante de la forme C ( ) = max j k 1 (0 ; 3( )) ; C ( ) ,
{ C ( ) est une constante qui ne depend que de , T des parametres du modele,
{ et est une constante que l'on peut choisir arbitrairement dans R+ .
ref
ref
ref
L
;T H
Avant de demontrer ce lemme, commencons par un autre lemme (( technique )) :
Lemme 2.3.4 Soient
U 2 H 1 ( ), V 2 H 1 ( ) et W 2 H 2 ( ). Alors si U est
constante sur le bord @ , on a la majoration :
Z
J (W; U ) V dx =
Z
J (U; V ) W dx
C:kU k 1( ) kV k 1 ( ) kW k 2( )
H
.
Demonstration
Utilisant Green, on a :
34
H
H
(2.42)
L'existence et l'unicite de la solution du modele lineaire.
Z
J (U; V ) W dx
Z
Z
, J (U; W ) V dx ,
=
@U
d
@
WV
@
H older
kr~ W kL ( )kr~ U kL ( )kV kL (
4
2
4
):
D'apres l'inegalite de Gagliardo-Nirenberg (2.19)1, on a :
kr~ W kL (
)
4
k k1H=2( )kW k1L=12(
C:kW kH ( )
C: W
2
2
)
(gr^ace a l'injection H 2( ) ,! L1( )).
Ensuite l'inegalite de Gagliardo-Nirenberg (2.20)2 donne :
kV kL (
4
)
k k1H=2( )kV k1L=2(
C:kV kH ( ) :
C: V
1
)
2
1
Donc :
Z
J (U; W ) V dx
k kH ( ) kU kH ( )kV kH (
C: W
2
1
1
):
On va pouvoir maintenant donner la :
Demonstration de 2.3.3
La demonstration de ce lemme utilise les m^emes arti ces que ceux du lemme 2.3.2.
Regardons d'abord l'expression comportant seulement l'integrale en espace. Appliquons le lemme 2.3.4 en posant U = k ( ref ) + f , V = @@tk et W = k , on a :
Z
J(
k ; k
(
ref
) + f ) @@tk dx 1 avec
2 avec
1
q = 4, p =
p = 4, p = 2
C: k (
C:
r=2
a = 1=2
et
et
35
ref
ref
)+f
H3
(
H 1(
+C
)
)
@ k
@t
H 1(
)
k k kH (
2
@
@t (H 1 ( ))N
k k(H (
2
)
))N :
Chapitre II.
Il sut donc d'appliquer l'inegalite de Holder par rapport a l'integrale en temps de
cette majoration en espace, on obtient ainsi :
ZZ
J( ; (
) + f ) @ dxdt @t
0
@
C:
+
C
k k 2(0 ; 2( ))
1 (0 ; 3( ))
@t 2 (0 ; 1( ))
0
1
2
@
C
(
)
C ( ) @ :C ( ) @t
+
k k2 2(0 ; 2( ))A ;
T
k
ref
k
k
ref
L
L
;T H
L
;T H
;T H
ref
L2
ou les constantes C (
ref
ZZ
T
H C
N
Z
;T H
;T L
), C ( ) et sont comme dans l'hypothese du lemme.
Quatrieme terme:
On a :
L
(0 ; 2( ))
N
@
@t
N
B
0
dx
=
Green
=
=
N
@
@t
N
dxdt
Z
, r~
N
Z @
1
, 2 @t
Z
, 12 @[email protected]
@~
r
@t
r~
r~
N
2
N
2
N
dx
dx
dx:
Integrons ceci en temps, nous obtenons :
ZZ
Z @Z
2
@
1
~
H C
@t dxdt = , 2 H C @t r
dxdt
0
0
2Z
3=
2
1
~
= ,2H C 4 r
dx5 :
=0
T
N
T
B
N
N
N
N
B
t
N
T
N
B
t
Et donc :
,H
ZZ
T
N
C
B
0
N
@
@t
N
Z
1
dxdt = H C
r~
2
N
36
B
N
2
(= )
t
T
dx:
(2.43)
L'existence et l'unicite de la solution du modele lineaire.
Cinquieme terme:
ZZ
P
A4 H 2
T
N
k
On a :
Z
2
k
=1
k
0
@ dxdt
@t
k
@ dx = ,Z r~ @ r
~ dx
@t
@t
Z
@ dx
=
@t
Z @
( )2 dx
= 12 @t
@ Z ( )2 dx:
= 12 @t
Green
k
k
k
k
Green
k
k
k
k
De m^eme que le terme precedent, on integre en temps, ce qui nous donne :
X Z
X ZZ 2 @
1
A4 H @t dxdt = 2 A4 H ( )2( = ) dx: (2.44)
=1
=1 0
T
N
N
k
k
k
k
k
t
T
k
k
Sixieme terme:
P H Z Z f @ dxdt
@t
=1 0
T
N
k
k
k
k
On utilise l'inserve du l'operateur laplacien ,1 introduit precedemment par (2.31).
Appliquons ,1 = Id ,1 a f :
Z @
Z
@ dx
f @t dx =
,1f @t
Z
Z @ ,1f @
@
,
1
~
~
= , r f @t r dx +
@n @t d :
{z
}
|
d
H
d
k
k
k
k
d
k
Green
k
d
d
k
k
k
@
=0
Donc on peut majorer ce terme par :
X
N
k
=1
H
ZZ
T
k
0
1
X @ ,1
@
@
A
f @t dxdt C:
k f k 2(0 ; 1( )) @t
2 (0 ; 1( ))
=1
X ,1
C: @@t
k f k 2(0 ; 1( )):
2 (0 ; 1( )) =1
N
k
k
0
k
d
k
L
;T H
k
L
;T H
N
d
L
37
;T H
k
k
L
;T H
Chapitre II.
Posons kF k,1 =
N
P
def
;
N
X
H
=1
k
k
=1
k,1f k
k
d
L2
(0 ; 1( ))
;T H
ou F = (f1; f2; : : :f ), on a :
N
@ dxdt C: @
f @t
@t
:C @@t
ZT Z
k
k
0
k
L2
kF k,1
;
(0 ; 1( ))
;T H
L2
(0 ; 1( ))
+ C kF k2,1 ; (2.45)
;
;T H
(ou un nombre que l0on peut choisir arbitrairement dans R+ ):
Nous pouvons maintenant enoncer notre deuxieme majoration
a priori
:
Proposition 2.3.5 On a l'inegalite suivante :
N
X
k
=1
H
@r
~
@t
ZT Z
k
0
2
k
Z
+ H C
N
B
=1
2
r~
,1
X
k
2
4
dxdt +
N
N
p + 12
k
ZT Z
0
dx + A4
@(
@t
N
X
k
=1
k
+1 ,
k
)2 dxdt+
3
Z
H ( )2 dx
k
5
k
(= )
t
C ( ; T;
o
u
C ( ; T;
ref
) est une constante de ne depend que de
,
T
T
ref
):kF k2,1 ; (2.46)
;
et de
k
ref
k
1 (0 ; 3( )) .
L
Demonstration
;T H
La demonstration s'appuie bien s^ur sur les egalites et les inegalites (2.39) (2.40) (2.41)
(2.43) (2.44) (2.45) etablies plus haut mais aussi sur la majoration (2.33) donnee dans la
proposition 2.2.4. Voyons cela de plus pres :
Dans l'egalite (2.37), on fait d'abord passer les deux termes avec les operateurs Jacobien J (:; :) a droite, ensuite on remplace les egalites (2.39) (2.43) (2.44) dans le membre de
gauche, et en n on utilise les inegalites (2.40) (2.41) et (2.45) dans le membre de droite,
on trouve :
N
X
k
=1
@r
~
@t
ZT Z
H
k
2
0
+ 12 H C
4
N
Z
B
r~
2
k
dxdt +
N
k
2
N
,1
X
=1
dx + A4
k
N
X
k
38
p + 12
=1
ZT Z
0
@(
@t
Z
k
+1 ,
k
)2 dxdt+
3
H ( )2 dx
k
k
5
(= )
t
T
L'existence et l'unicite de la solution du modele lineaire.
0
1
2
~
[email protected] :C [email protected]@
+ C k k2 2(0 ; 2( ))C
A+
2 (0 ; 2 ( ))
+ C :kF k2,1 ;
(ou C est une constante veri ant l'hypothese du lemme).
Quitte a choisir assez petit et a multiplier par 2 les deux c^otes de l'inegalite, le terme
~ ) 2 2 2 passe a gauche et se simpli e avec le premier terme
de droite :C @[email protected](r
(0 ; ( ))
(du m^eme type) de ce c^ote.
te
te
L
L
;T H
;T L
te
;
te
te
L
;T L
Or d'apres la proposition 2.2.4 et d'apres la propriete de regularite de l'operateur
inverse du laplacien (( )) on a aussi la majoration :
X ZZ
( )2 dxdt
k k2 2(0 ; 2( ))N C : H
T
N
te
L
;T H
k
Nous obtenons en n :
X ZZ @~
H
@t r
=1 0
2
Z
~
+ 4H C r
k
k
N
B
ref
):kF k2,2 :
;
ZZ @
dxdt + p + 12 @t ( +1 , )2 dxdt+
=1
0
3
Z
X
2
dx + A4 H ( )2 dx5
2
k
k
0
C ( ; T;
T
N
k
=1
,1
X
T
N
k
k
k
k
N
N
k
=1
k
k
t
C1 :kF k2,2 + C2 :kF k2,1
;
C ( ; T;
ref
(= )
T
;
):kF k2,1 :
;
Remarque:
La constante C ( ; T; ) cette fois ci depend de la norme k k 1(0 ; 3( )) plut^ot
que k k 1(0 ; 2( )). Ceci est d^u a une moins bonne majoration des termes Jacobien
que celles utilisees dans la premiere majoration a priori enoncee dans la proposition 2.2.4.
ref
ref
L
ref
L
;T H
;T H
2.4 Troisieme majoration a priori de
L2(0 T; H3( )).
dans
;
Notre troisieme (!) et derniere estimation a priori sera obtenue en multipliant le gra~ V et en integrant en espacedient de la kieme equation Q.G. linearisee par le gradient H r
k
39
k
Chapitre II.
temps. Ensuite sommons en k les N produits obtenus, nous obtenons :
XN Hk ZT Z hr~ @ k (
~ Vk i dxdt +
); r
TZ
Z
N
X
+ Hk
hr~ J (
ref ; (
k
k
TZ
Z
N
X
+ Hk
hr~ J (
k ; k (
k=1
@t
0
k=1
0
k=1
0
+ HN CB
ZT Z hr~ 0
~ Vk i dxdt +
)); r
ref ) + f ); r
~V
+
TZ
Z
N
X
~ VN i dxdt , A4 Hk
hr~ 2
N; r
k=1
TZ
Z
N
X
= Hk
hr~ fk ; r~ Vk i dxdt:
k=1
k i dxdt
0
~ Vk i dxdt
k; r
=
(2.47)
0
Dans cette partie nous allons faire des integrations par parties avec Vk (et non avec
).
k Nous pro terons des resultats de ces integrations par parties pour de nir notre formulation faible de l'equation quasi-geostrophique linearisee. Dans la partie formulation
faible des equations adjointes quasi-geostrophique du chapitre III suivant, nous aurons
besoin de cette forme faible pour transposer les equations, en considerant Vk comme variables adjointes.
E tudions chacun des termes de (2.47) :
Premier terme:
XN Hk ZT Z hr~ @ k(
k=1
XN Hk ZT Z hr~ @ k(
k=1
0
@t
0
~ Vk i dxdt
); r
@t
~ Vk i dxdt
); r
TZ
Z
N
X
=
Hk
h @[email protected] r~ k ; r~ Vk i dxdt
k=1 0
TZ
Z
N
X
+ pk+
h @[email protected] r~ ( k+1 , k ); r~ Vk i dxdt
k=1
0
TZ
Z
N
X
, pk,
h @ r~ ( k , k,1); r~ Vk i dxdt:
1
2
k=1
40
1
2
0
@t
L'existence et l'unicite de la solution du modele lineaire.
On applique la formule de Green au premier terme, ce qui nous donne :
X ZZh
N
k=1
T
Hk
0
Z
Z
X
,
=1 0
X ZZ +
|=1 0 =0{z
Z
Z
X
,
r
T
N
@ ~
Green
~
=
k ; Vk dxdt
@t
r i
k
N
k
X ZZh
T
N
k=1
Hk
0
@ ~
k ; ~ Vk dxdt
@t
r
r i
T
@
Hk
k=1
@
Z
Z
X
,
hr
N
k=1
T
Hk
~ @ k (
@t
0
r i
); ~ Vk dxdt
T
pk
k
N
1
2
T
pk
1
2
k=1
Z
Z
X
,
hr
T
N
k=1
Hk
k
0
, nous obtenons :
~ @ k (
@t
r k i dxdt =
); ~
X + ZZh
+
0
=
X ZZh
, +
=1
0
Z
Z
X
+
h
,
N
Dans le cas ou Vk =
N ,1
k=1
X ZZ
N
pk
T
1
2
0
k=1
r
@ ~
( k
@t
r
k=1
@ ~
( k+1
@t
r
T
k=1
pk
1
2
0
D'ou l'egalite suivante :
k=1
Hk
0
~ @ k (
@t
0
k ,1
@ k
@t
, k ); r~ (
k+1
~ k i dxdt =
); r
41
T
@
@t
Hk
@ ~
2 @t
Vk dxdt:
s'annule sur @ ).
Vk dxdt
~ Vk i dxdt: (2.48)
); r
k
k dxdt
+
, k )i dxdt
X Z Z 1 (
=
2
=1 0
Z
Z
,1
X
1 kr(
+
+1 ,
+
N
T
Hk
k
@ k
@t
,
T
N
}
, k ); r~ Vk i dxdt
X ZZ
k
N
0
@ ~
( k+1
@t
N
Z
Z
X
,
hr
T
Hk
k
@t
0
(Ce dernier vaut 0 car la condition aux limites exige que Donc :
@Vk
ddt
@n
k
@t
T
Hk
Vk dxdt
k
@t
@
N
=
@
Hk
k
k
)2 dxdt +
)k2 dxdt:
Chapitre II.
2
Z
Z
N
N
,1
X
X
1
2
~(
4
= 2
Hk ( k ) dx +
pk+ 1 kr
2
k=1
k=1
Deuxieme terme:
ZT Z
N
X
k=1
Hk
0
hr~ J (
ref
k ; k
3
2
k+1 , k )k dx5
:
t=T
(2.49)
~ Vk i dxdt
( )); r
Appliquons la formule de Green, on trouve :
ZT Z
N
X
k=1
Hk
=
0
Green
hr~ J (
,
ref
k ; k
ZT Z
N
X
Hk
k=1
0
X ZT Z
+
N
Hk
k=1
[email protected]
~ Vk i dxdt
( )); r
J ( k ; k (
ref
)) Vk dxdt
J ( k ; k (
k
ddt:
)) @V
@n
ref
Dans cette expression, l'integrale sur le bord @ vaut 0 gr^ace au lemme suivant :
Lemme 2.4.1 Soient f
et g deux fonctions de nies sur et qui sont constantes
sur le bord @ , telles que l'operateur Jacobien appliquees a f et g ait un sens sur
, alors :
Z
J (f; g ) d
= 0:
(2.50)
@
Demonstration
Fixons x0 2 @ . Soient n~0 et ~0 les vecteurs normal et tangent a la frontiere pris au
point x0. Faisons le changement de variables suivant :
( ~
~ :n~0 + X
~ :~
F (X ) = f (X
0)
~ ) = g (X
~ :n~0 + X:~
~ 0 ):
G(X
et
Calculons l'operateur Jacobien au point x0 :
J (f; g )(x0)
@f
@g
@f
@g
(
x0) (x0)
(
x0 ) (x0)
@x
@y
@y
@x
@F
@G
@G
= ( @F
(
x0)nx +
(
x0)ny )(
(
x0)ny +
(x0)nx)
@x
@y
@x
@y
@F
@G
@G
+( @F
(
x0)ny
(
x0)nx )(
(
x0)nx +
(x0)ny )
@x
@y
@x
@y
@G
@F
@G
= @F
(
x0)
(
x0 )
(
x0 )
(x0):
@x
@y
@y
@x
,
=
,
,
,
42
L'existence et l'unicite de la solution du modele lineaire.
Or, comme f est constante sur @ , donc :
@f
@F
(
x0 ) = (x0 ) = 0:
@x
@
De m^eme, on a aussi :
@g
@G
(
x0) = (x0) = 0:
@x
@
Le terme Jacobien s'annule donc en x0. Comme x0 est un point choisi quelconque
sur @ , on en deduit que le terme Jacobien s'annule presque partout sur le bord.
D'ou le resultat.
Finalement on a :
,
N
X
k
=1
H
k
0
X
k
k
hr~ J (
k
N
=
Dans le cas ou V =
lemme suivant :
ZT Z
=1
H
ZT Z
k
0
ref
J(
~ V i dxdt
; ( )); r
k
k
ref
k
; ( )) V dxdt:
k
k
(2.51)
k
, nous obtenons une majoration du terme, comme dans le
Lemme 2.4.2 On a la majoration :
N
X
k
=1
H
ZT Z
k
k
0
hr~ J (
ref
k
L
ref
k
~
; ( )); r
k
1 (0 ; 3( ))
;T H
:C k
k
i dxdt k2
L2
(0 ; 3( ))+
;T H
C
k
k2 2
L
(0 ; 2( ))
;T H
; (2.52)
ou C est une constante qui ne depend que de , T , et des parametres du modele.
est une constante que l'on peut choisir arbitrairement dans R+ .
Demonstration
D'apres (2.51) nous avons :
N
X
k
=1
H
ZT Z
k
0
hr~ J (
ref
k
~
; ( )); r
k
k
i dxdt =
N
X
k
X
k
43
H
k
=1
N
0
ZT Z
H
=1
ZT Z
k
0
J(
ref
J(
ref
k
k
; ( )) k
; ( )) k
k
dxdt
k
dx dt:
Chapitre II.
Appliquons l'inegalite de Holder par rapport a l'integrale en espace, nous avons :
Z
J(
ref
; ( )) k
k

~
r
H older
dx
k
~
1 ( ) r ( )
ref
k
k
L
L2
( )
k(
k
)k
L2
( ):
En plus, comme l'injection de H 2( ) = W 2 2( ) dans L1 ( ) est continue, on a :
;
~
kr
ref
k 1 ( ) C:kD
L
k
On a aussi :
~
r
k
Et en n, on a :
( )
k(
k
L2
)k
L2
ref
k 2( ) C:k
ref
H
k
k 3( ):
H
C:k k 3( ) :
( )
H
( ) C:k k 2( ) :
H
Donc l'integrale en espace est majoree par :
Z
J(
ref
; ( )) k
k
k
dx C:k
ref
k 3 ( ) k k 3 ( ) k k 2( ) :
H
H
H
Il sut maintenant d'appliquer l'inegalite Holder par rapport a l'integrale en temps
de cette majoration en espace, nous obtenons en n :
N
X
k
H
=1
ZT Z
k
0
C:k
k
~ J(
hr
ref
~ i dxdt ; ( )); r
k
k
k
k 1 (0 ; 3( )) k k 2 (0 ; 3( )) k k 2 (0 ; 2( ))
C
2
2
k 1 (0 ; 3( ))
:C k k 2 (0 ; 3( ))+ k k 2 (0 ; 2( )) ;
ref
ref
L
L
;T H
L
;T H
;T H
L
L
;T H
L
;T H
;T H
ou une constante choisie arbitrairement dans R+ .
Troisieme terme:
N
X
k
=1
H
ZT Z
k
0
~ J(
hr
k
; (
44
k
ref
~ V i dxdt
) + f ); r
k
L'existence et l'unicite de la solution du modele lineaire.
Appliquons la formule de Green, on trouve :
N
X
k
=1
ZT Z
H
hr~ J ( ; (
k
k
0
ZT Z
, H
N
X
=
Green
k
k
=1
+ H
k
N
X
k
X
+ H
k
0
J( ; (
ref
) + f ) @V
@n ddt
J( ; (
ref
) + f ) V dxdt
k
) + f ) V dxdt
k
k
k
k
k
J ( ; f ) @V
@n ddt:
k
k
=1
ref
k
ZT Z
N
J( ; (
@
ZT Z
k
=1
k
k
0
, H
=
0
k
=1
~ V i dxdt
) + f ); r
k
ZT Z
N
X
ref
k
k
0
@
En utilisant l'hypothese -plan, c.-a-d. la force de Coriolis f depend de facon lineaire de la latitude : f (x; y) = f0 + :y nous obtenons :
ZT Z
, H
N
X
k
=1
k
0
N
X
=
k
=1
,
k
k
ZT Z
H
k
0
J( ; (
ZT Z
H
=1
ref
k
k
N
X
k
Dans le cas ou V =
lemme suivant :
hr~ J ( ; (
k
0
@
(2.53)
) + f ) V dxdt
(2.54)
k
ref
k
k
@ @V ddt:
@x @n
k
k
~ V i dxdt
) + f ); r
(2.55)
k
, nous obtenons la majoration du terme, comme dans le
Lemme 2.4.3 On a la majoration :
N
X
k
=1
H
ZT Z
k
hr~ J ( ; (
k
0
C(
ref
)
ref
k
:C ( ) k
~ i dxdt ) + f ); r
k
k2
L2
(0 ; 3(
;T H
C ( ) k k2
2 (0
))+
L
!
; ( ))
;T H 2
;
(2.56)
ou C ( ) est une constante de la forme C ( ) = maxf ; k k 1 (0 ; 3( ))g
et C ( ) est une constante qui ne depend que de , T , et des parametres du modele
(avec est une constante que l'on peut choisir arbitrairement dans R+ ).
ref
ref
45
ref
L
;T H
Chapitre II.
Demonstration
D'apres (2.55), nous avons :
N
X
k
=1
H
ZT Z
hr~ J (
k
0
N
X
k
=1
H
k
ZT Z
; (
ref
k
k
J( ; (
k
k
0
~ i dxdt
) + f ); r
ref
k
N
X
) + f ) dxdt +
k
k
=1
@ @
ddt :
@x @n
ZT Z
H
k
k
k
0
@
La demarche pour majorer le 1er terme ressemble beaucoup a celle du lemme (2.4.2)
precedent. En e et, pour l'integrale en espace nous avons :
Z
J( ; (
k
ref
k
r~
k

) + f ) dx
H older
k
~ ( (
1 ( ) k( )k 2 ( ) r
k
L
k
L
ref
) + f)
L2
( )
:
Avec les m^emes techniques que celles utilisees dans la demonstration du lemme
(2.4.2), on obtient donc facilement :
N
X
k
=1
H
ZT Z
J( ; (
k
k
0
C(
ref
ref
k
) + f ) dxdt k
:C ( ) k
):
k2
L2
(0 ; 3( ))+
C( )
;T H
(ou C (
ref
k
k2 2
L
!
(0 ; 2( ))
;T H
;
) et C ( ) sont comme dans l'enonce).
Reste donc a majorer la deuxieme integrale :
N
X
k
=1
H
ZT Z
@ @
ddt
@x @n
k
k
0
@
k
N
X
k
H
ZT Z
=1
!2
@
h~n;~ii d dt:
@n
k
k
0
@
Or on a :
Z
!2
@
h~n;~ii d
@n
k
@
@
~iij) [email protected] j
sup
(
jh
~
n
;
|
{z
}
@n
= =2
@ 2
2 [email protected] j @n 2 ( ) :
Z
k
@
k
L
46
(2.57)
@
2
!
d
L'existence et l'unicite de la solution du modele lineaire.
On utilise maintenant la continuite de l'application trace ,̀! @ [email protected] de H 2( )
dans L2(@ ), d'ou :
N
X
k
=1
@ @ ddt C ( ; ; T ) k k2
2 (0
@x @n
ZT Z
H
k
k
k
k
0
@
L
; ( )) :
;T H 2
Et comme k k2 2 (0 ; 2( )) k k2 2 (0 ; 3( )), on en deduit facilement que cette
deuxieme integrale est majoree par une expression de la m^eme forme que la majoration de la premiere integrale (c.-a-d. le membre de droite de (2.57)). Regroupons
ces deux majorations, nous obtenons en n le resultat.
k
L
k
;T H
L
;T H
Quatrieme terme:
H C
ZT Z
N
ZT Z
B
hr~ ; r~ V i dxdt
N
0
ZT Z
hr~ ; r~ V i dxdt = ,
Green
N
0
N
0
N
N
V dxdt +
ZT Z
N
0
|
@V ddt :
@n
N
N
@
{z
=0
}
Donc :
ZT Z
,H C
N
B
N
0
Dans le cas ou V =
k
,H C
N
ZT Z
B
k
N
N
B
0
N
V dxdt:
N
, on obtient :
hr~ ; r~ i dxdt = H C
N
0
ZT Z
hr~ ; r~ V i dxdt = H C
N
N
ZT Z
B
0
Cinquieme terme:
ZT Z
N
X
A4 H
k
=1
k
hr~ 2 ; r~ V i dxdt
k
0
47
k
(
N
)2 dxdt:
(2.58)
Chapitre II.
Pour ce terme, nous supposons dans un premier temps que les ( k ) soient assez
regulieres pour que tous les termes que l'on ecrit aient un sens. Nous allons appliquer
deux fois successivement la formule de Green en espace, cela nous donne :
ZT Z
N
X
~ 2 k ; r~ Vk i dxdt =
Hk hr
k=1
0
ZT Z
ZT Z
N
N
X
X
k
2
= , Hk k Vk dxdt + Hk 2 k @V
@n ddt
k=1
k=1
0
[email protected]
ZT Z
ZT Z @ k
N
N
X
Green X
~ k; r
~ Vk i dxdt , Hk
=
Hk hr
Vk ddt +
@n
k=1
k
=1
0
[email protected]
{z
}
|
=0
ZT Z
N
X
k
+ Hk 2 k @V
@n ddt:
k=1
[email protected]
Green
Cette derniere integrale sur le bord @ est, a premiere vue, un terme tres g^enant
pour notre formulation faible theorique pour plusieurs raisons :
{ Ce terme ne s'elimine pas comme d'habitude, car les conditions aux limites en
espace ne donnent aucune information sur la trace du 2 sur la frontiere @
du domaine.
{ La trace de 2 est (en terme de regularite) du m^eme ordre que @ 4 [email protected],
dans le cas par exemple ou la frontiere du domaine est reguliere. Et cette
derivee normale a l'ordre quatre ne peut se majorer a l'aide de la norme dans
H 2( ) de mais plut^ot par la norme dans H 5( ) de . Or, notre but est de
majorer seulement la norme de dans H 3( ) !
En fait, dans le cas general ou les ( k ) ne sont pas assez regulieres, nous n'avons
evidemment pas le droit d'introduire la trace de 2 sur la frontiere dans la consideration de notre espace Hilbertien, introduit prochainement dans la section 2.5.2.
Nous allons donc utiliser l'equation Q.G. linearisee forte pour transformer ce terme.
Sur la frontiere @ , 2 s'ecrit formellement, gr^ace a l'equation, comme suit :
"
#
1
@
2
k = A @t k ( ) + J ( k ; f ) , fk
4
2 0 2
1
2
1
d
f
f
= A 4 dt @ H g00 1 ( k+1 , k ) , H g00 1 ( k , k,1)A +
4
k k+ 2
k k, 2
#
+ @@xk , fk :
48
L'existence et l'unicite de la solution du modele lineaire.
Pour simpli er un peu les notations, nous allons utiliser la matrice de couplage des
couches (Wkl), rappelons sa de nition :
0
1
,
b
b
0
:
:
:
:
:
:
:
:
:
0
1
1
B
CC
B
a2 ,a2 , b2 b2 : : : : : :
:::
0
B
CC
...
... ... ...
...
... C
W = BBB . . .
CC
B
0
:
:
:
:
:
:
0
a
,
a
,
b
b
@
A
n,1
n,1
n,1
n,1
0
::: ::: ::: 0
an
,an , bn
ou ak = H fg00
2
k k, 1
2
et bk = H fg00 1 .
2
k k+
2
On utilise aussi la notation suivante :
2 0
13
1
6 B
C7
Wk ( ) = 64W: [email protected] ... CA75
N
k
Pour les fonctions ( k ) qui ne sont pas assez regulieres, par abus de notation, nous
(( d
e nissons )) la quantite :
!
ZT Z
ZT Z d
N
N
X
X
@V
1
@
@Vk ddt:
def
k
k
2
W
,
f
Hk k @n ddt = A Hk
k( ) +
k
dt
@x
@n
k=1
4 k=1
[email protected]
[email protected]
Par consequent, avec cette de nition, on a donc :
ZT Z
ZT Z
N
N
X
X
2
~ Vk i dxdt = Hk hr~ k ; r
~ Vk i dxdt +
Hk hr~ k ; r
k=1
0
k=1
0
!
ZT Z d
N
X
1
@
@Vk ddt:
k
+ A Hk
W
,
f
k( ) +
k
@x
@n
4 k=1 0 @ dt
(2.59)
Et dans le cas ou Vk = k on a :
ZT Z
ZT Z
N
N
X
X
2
~
~
A4 Hk hr k ; r k i dxdt = A4 Hk kr~ k k2 dxdt +
k=1
k=1
0
0
!
TZ
Z
N
X
d
@
@ k ddt: (2.60)
k
+ Hk
W
,
f
k( ) +
k
dt
@x
@n
k=1
[email protected]
49
Chapitre II.
Sixieme terme:
X
N
k
ZZ
H
T
hr~ f ; r~ V i dxdt
k
=1
k
0
k
Une fois de plus, appliquons la formule de Green :
X
N
k
=1
H
ZZ
ZZ
X
hr~ f ; r~ V i dxdt = , H
T
T
N
Green
k
k
0
k
k
N
f V dxdt +
k
=1
X
k
0
k
k
=1
H
ZZ
T
k
f @V
@n ddt:
k
k
0
@
Appliquons maintenant l'operateur ,1 introduit comme dans (2.31), nous avons
aussi :
d
X
N
=1
k
H
ZZ
T
X
N
f V dxdt =
k
k
0
k
k
H
=1
ZZ
T
d
0
ZZ
X
T
, H
N
=
Green
ZZ
T
N
+ H
k
k
=1
k
k
d
0
X
k
hr~ ,1f ; r~ V i dxdt +
k
=1
k
,1f V dxdt
k
k
@ (,1f ) V ddt :
@n
k
d
|0
@
k
{z
}
=0
L'expression de depart se transforme donc en :
X
N
k
=1
H
ZZ
T
X
hr~ f ; r~ V i dxdt =
k
k
0
N
k
k
H
=1
ZZ
T
k
0
X
+ H
k
=1
T
k
N
k
k
k
k
k
0
@
+1 ,
k
a priori
3
)k2 dx5
k
ZZ
+H C
T
N
B
0
(
N
)2 dxdt + A24
X
N
k
=1
H
ZZ
T
k
suivante :
+
=
t
T
kr~ k2 dxdt
k
0
C ( ; T;
50
(2.61)
k
k
Proposition 2.4.4 On a l'inegalite suivante :
N
k
f @V
@n ddt:
Nous pouvons maintenant enoncer notre 3ieme majoration
2
Z
,1
1 4XH Z ( )2 dx + X
~(
p + 12 kr
2 =1
=1
k
d
ZZ
N
hr~ ,1f ; r~ V i dxdt +
ref
):kF k,1 :kF k,2 ; (2.62)
;
;
L'existence et l'unicite de la solution du modele lineaire.
ou C ( ; T;
) est une constante qui ne depend que de , T de k k 1(0 ; 3( )) et
des parametres du modele. On remarque qu'en particulier le coecient dans l'hypothese
(( -plan )) de la force de Coriolis joue un r^
ole tres important dans cette estimation.
ref
ref
L
;T H
D'abord, commencons par donner quelques lemmes techniques d'estimation dont on
aura besoin pour demontrer cette proposition.
Lemme 2.4.5 Il existe une constante C (qui, comme d'habitude, ne depend que de , T
et des parametres du modele) telle que nous ayons l'estimation suivante :
N
X
k
=1
H
2
!
d
W
dt
ZT Z
k
k
0
@
( ) ddt C
N
X
k
=1
H
ZT Z
k
0
@~
r
@t
2
k
(2.63)
dxdt:
Demonstration
La demonstration de ce lemme va se faire en trois etapes :
1. Nous allons d'abord veri er que :
kW (')k2 ( ) C: r~ ' 2(
L2 @
k
( ))N
L2
8k = 1; : : : N ;
et 8' 2 V:
( Rappelons la de nition de V :
V
n
= ' = (' ) 2 (H 3( )) qui veri e (i) et (ii)
N
o
k
avec :
(i) ' C sur @ 8k, les constantes C choisies de telles sortes que, si =
[B ,1:'] la transformation en modes de ', l'on ait : 1 0 sur @ et dx = 0
8k 2 ;
(ii) (' ) 0 sur @ 8k. ).
2. La deuxieme etape consiste a montrer que ceci est encore juste quand on introduit
la derivee en temps, mais valable pour des fonctions plus regulieres.
3. La derniere etape consiste a passer par densite l'inegalite aux fonctions qui ne sont
pas regulieres.
k
te
te
k
k
def
k
Z
k
k
k
E tape 1 :
Soit ' une fonction de V quelconque. On a :
W (')j jkW jk2: (' )j
k
@
l
51
@
8k = 1; : : : N ;
Chapitre II.
avec :
jkW jk2
k2
la norme 2 de la matrice W de nie par : jkW jk2 = sup kW:X
,
kX k
et (' )j
l
X
=
@
2
N X
'j
l
=1
l
@
6=0
2
.
Or, en ecrivant la transformation de modes en couches sur (' ), nous avons :
l
'j
l
=
@
N
X
k
=1
8l = 1; : : : N ;
B : j
l;k
k
@
ou ( ) = [B ,1]:(' ) la transformation en mode de (' ).
= 0, on obtient donc :
k
Puisque 1j
@
'j
l
=
@
N
X
k
=2
l
8l = 1; : : : N:
B : j
l;k
k
l
@
(2.64)
D'un autre c^ote, d'apres le theoreme de traces nous avons aussi :
k k 2 ( ) C:k k 1 ( )
1 2
2 d
C:k k 1 ( )
~ k 2( ) :
[email protected] j1 2: j
C: k k 2 ( ) + kr
k
L
@
Z
k
H
k
H
=
k
@
=
k
k
@
k
L
L
Z
Donc, comme dx = 0, et d'apres l'inegalite de Poincare-Wirtinger la norme
~ k 2 ( ) , on obtient :
k k 2 ( ) est majoree par kr
k
k
k
L
j
k
@
L
8k = 1; : : : N:
~ k 2( )
C:kr
k
L
Remplacons ceci dans (2.64), cela nous donne :
'j
l
N
X
@
~ k 2( )
C: max fjB jg :
kr
2
=2
k
C:
N
X
k
=2
l;k
k
L
k
~ k 2( )
kr
k
L
8l = 1; : : : N:
(2.65)
~ =
Il sut maintenant d'utiliser la transformation de couches en modes r
N
X
k
k
~ k 2( )
kr
k
L
= jkB ,1jk2:k(' )k(
l
L2
( ))N
=1
8k = 1; : : : N:
Il sut de combiner ceci avec (2.65), nous terminons ainsi notre 1iere etape.
52
~'
B ,1 :r
k;l
l
:
L'existence et l'unicite de la solution du modele lineaire.
Etape
2:
Prenons maintenant des fonctions-test ('k ) qui, cette fois ci dependend aussi du temps
t, et qui sont regulieres. Plus exactement on prend des 'k dans C 1 (]0; T [ ) et telles que
pour tout t dans ]0; T [ on ait ('k )(t) 2 V . Comme ('k ) sont regulieres, ses derivees
peuvent ^etre exprimees comme une limite classique :
1
d
Wk (')[email protected] (t) = lim Wk (')[email protected] (t + h) , Wk (')[email protected] (t)
8t 2]0; T [:
h!0 h
dt
Integrons ceci sur le bord du domaine et d'apres le theoreme de la convergence dominee,
comme on peut intervertir le signe (( integrale )) et (( limite )), on obtient :
!2
Z
@
d
W (') (t)
dt k [email protected]
Z
=
d
C:V:
dominee
=
=
2
1 W (') (t + h) , W (') (t) d
lim
k
k
[email protected]
[email protected]
@ h!0 h
Z 2
1
lim
Wk (')[email protected] (t + h) , Wk (')[email protected] (t) d
h!0 h @
Z 2
1
Wk ('(t + h) , '(t))[email protected] d:
lim
h!0 h
@
Appliquons le resulat de l'etape 1 a la fonction '(t + h) , '(t) (car cette fonction
appartient a V ), nous avons l'inegalite suivante :
!2
Z
1Z r
~ ('(t + h) , '(t)) 2 dx
h!0 h
@
1Z r
~ '(t + h) , r
~ '(t) 2 dx:
C: hlim
!0 h
Repassons a la limite en utilisant encore une fois le theoreme de la convergence dominee, on trouve que :
Z
@
d
Wk (')[email protected] (t)
dt
d
!2
d
W (') (t) d
dt k [email protected]
C: lim
2
d~
r
'(t) dx
dt
2
Z
N
X
d~
C
Hl
r
'l (t) dx
dt
l=1
C
Z
8t 2]0; T [:
D'ou, apres avoir integre en temps puis multiplie par Hk puis fait la somme sur k,
nous arrivons a l'egalite :
N
X
k=1
Hk
ZT Z
[email protected]
!2
d
W (') ddt
dt k
C
N
X
k=1
Hk
ZT Z
0
2
@~
r
'k dxdt:
@t
Nous venons de montrer le resultat du lemme mais valable uniquement pour des fonctions tres regulieres.
53
Chapitre II.
Etape
3:
Comme C 1(]0; T [ ) T L2(0; T ; V ) est dense dans V = L2(0; T ; V ) et que l'operateur
' ,̀!
d
W:(')[email protected]
dt
est ferme de V dans L2(0; T ; L2(@ )). Il en est aussi de m^eme pour l'operateur
'
,̀! dtd r~ '
de V dans L2(0; T ; L2( )). Quitte a prendre une suite f'ng telle que l'on ait la convergence
~ 'n vers d r
~ dans L2 (0; T ; L2( )), on en deduit
a la fois de 'n vers dans V , et de d r
dt
dt
que la quantite :
d
W:('n)[email protected]
dt
est - d'apres l'etape 2 - bornee dans L2(0; T ; L2(@ )) (par rapport a n) par
N
X
lim
!1 C k=1Hk
n
ZT Z
0
2
ZT Z
N
X
@~
@~
r
'n k dxdt = C Hk
r
@t
@t
k=1
0
2
k
dxdt:
On peut donc extraire de f'n g une sous-suite, que l'on note encore par f'n g, telle que
converge faiblement vers une limite notee u dans L2(0; T ; L2(@ )). De plus,
d
W:('n )[email protected]
dt
comme le graphe de l'application ' 7! dtd W:(')[email protected] est convexe (car elle est lineaire !), et que
les deux notions (( faiblement ferme )) et (( fortement ferme )) cocident sur des ensembles
convexes (c.f. [Brezis, 1992] page 38), la limite u trouvee est unique (c.-a-d. ne depend
pas de la sous-suite d'extraire). La limite de la suite f'ng etant la fonction , et comme
la convergence forte implique la convergence faible, nous en deduisons qu'en fait :
2D
d(W:)
dt [email protected]
!
; L2(0; T ; L2(@
)) ;
et que :
N
X
Hk
k=1
ZT Z
[email protected]
d
W(
dt k
!2
N
X
) ddt = nlim
!1 k=1Hk
C
N
X
Hk
k=1
54
ZT Z
[email protected]
ZT Z
0
!2
d
W (' ) ddt
dt k n
@~
r
@t
2
k
dxdt:
L'existence et l'unicite de la solution du modele lineaire.
Lemme 2.4.6 Nous avons la majoration :
N
X
k
=1
@
@n
H
ZT Z
k
0
@
2
!
k
ddt N
X
k
H
=1
ZT Z
( )2 dxdt:
k
(2.66)
k
0
Demonstration
D'apres le theoreme de traces, l'operateur 7! @@n j est continue de H 2( ) dans
L2(@ ).
En utilisant maintenant la propiete de regularite de l'operateur inverse du laplacien
nous avons :
k k2( 2( ))N C H ( )2 dx:
@
Z
N
X
H
k
D'ou le resultat en integrant en temps.
k
=1
k
Demonstration de la proposition 2.4.4
D'abord, dans la formulation faible (2.47), on remplace V par (, ). Ensuite, en utilisant
(2.49) (2.52) (2.56) (2.58) (2.60) et (2.61), et apres avoir pris garde de simpli er les deux
k
ZT Z
termes H
k
f @@n ddt presentes a la fois dans dans (2.60) et dans (2.61) (avec deux
k
k
k
0
signes opposes), nous obtenons :
1
2
@
2
4
N
X
k
H
Z
=1
k
( )2 dx +
N
k
k
+H C
N
ZT Z
B
0
(
,1
X
N
=1
~(
p + 12 kr
+
N
X
k
=1
+1 ,
k
)k2 dx
N
X
H
=1
ZT Z
k
=
kr~ k2 dxdt :C ( ) k 2(0 ; 3( ))+ C ( ) k k2 2(0
dW ( )+ @
@ ddt :
dt
@x @n
L
L
;T H
k
k
!
; ( ))
;T H 2
+
!
ZT Z
H
T
k
0
k2
)
+
5
t
)2 dxdt + A4
ref
k
k
k
C(
3
Z
k
k
0
@
(2.67)
En utilisant la propriete de regularite de l'operateur inverse du laplacien applique a
, et comme s'annule sur @ , d'apres l'inegalite de Poincare nous avons :
k k 3( ) C k k 1( ) C kr~ k 2( ):
H
H
55
L
Chapitre II.
Gr^ace a ceci, nous pouvons choisir la constante dans (2.67) assez petite de telle
maniere que la norme dans L2(0; T ; H 3( )) de dans le membre de droite de l'inegalite
~ k2 2(0 ; 2( )).
puisse passer de l'autre c^ote pour se simpli er avec A24 kr
L
;T L
Ensuite, le terme correspondant a la norme dans L2(0; T ; H 2( )) de a droite de
(2.67) sera majore - gr^ace a la regularite de l'inverse du laplacien - par la norme de dans L2(0; T ; L2( )), donc par kF k2,2 d'apres la proposition 2.3.5.
;
En n, pour le dernier terme (avec la valeur absolue) dans le membre de droite de
(2.67), en utilisant les deux majorations etablies dans les lemmes 2.4.5 et 2.4.6, nous
faisons la majoration comme ceci :
N
X
k
=1
d W ( ) @ ddt dt
@n
ZT Z
H
k
k
k
0
@
C
2
4
N
X
k
=1
H
C
4
N
X
k
=1
!
0
@
@r
~
@t
ZT Z
H
k
0
2
=
:
5
k
k
2
12
3
d W ( ) 2 ddt
dt
ZT Z
2
k
k
12
3
5
:
4
N
X
k
H
=1
H
=1
2
=
dxdt
4
N
X
@
@n
ZT Z
k
k
0
ZT Z
k
0
@
2
!
3
ddt
12
=
5
31 2
2
) dxdt5 :
=
(
k
Ces deux termes sont majores respectivement par les normes k : k,1 et k : k,2 du
second membre F = (f ) de notre equation Q.G. linearisee, gr^aces respectivement aux
propositions 2.3.5 et 2.2.4. Nous obtenons donc la majoration :
;
;
k
N
X
k
=1
H
ZT Z
d W ( ) @ ddt C:kF k :kF k :
,1
,2
dt
@n
k
k
k
0
@
;
;
De m^eme, nous majorons l'integrale :
N
X
k
=1
H
ZT Z
@ @ ddt =
@x @n
k
k
0
@
k
N
X
k
=1
H
ZT Z
h,r! ; ~i i @@n ddt
k
k
X
0
@
: sup jh~n; ~i ij :
2
x
@
C H
=1
N
X
k
ZT Z
N
X
k
=1
H
ZT Z
@
@n
k
k
0
@
2
!
ddt
( )2 dxdt
k
0
C:kF k,2
k
k
;
:
Donc, apres avoir combine toutes ces majorations, en remarquant que kF k,2 C:kF k,1 , nous terminons ainsi la demonstration de la proposition.
;
;
56
L'existence et l'unicite de la solution du modele lineaire.
2.5 Theoreme d'existence de Q.G.L. par la regularisation elliptique.
Dans cette partie nous allons demontrer l'existence de la solution des equations linearisees par deux methodes :
La premiere est la methode de (( Faedo-Galerkin )). Cette methode a l'avantage d'avoir
une approche similaire quand on utilise une discretisation de l'equation par une methode
d'elements nis. Elle re ete d'un certain point de vue les proprietes de la convergence des
solutions numeriques vers la solution exacte de l'equation continue.
La deuxieme methode est dite (( regularisation elliptique )). Pour plus de precision, on
pourra consulter le livre de J.L. Lions, [Lions, 1969]. Cette methode consiste donc a
approcher les equations par une (( meilleure )) equation que l'on sait resoudre. Dans notre
cas nous allons modi er les equations pour qu'elles deviennent elliptiques non seulement
par rapport aux variables d'espace mais aussi par rapport au variable en temps. Ensuite
nous allons etudier la convergence des solutions de ces equations approchees, et nous
montrons qu'a la limite, nous obtenons bien une solution de l'equation evolutive initiale.
Nous allons donner d'abord le theoreme de l'existence et de l'unicite des solutions
de l'equation quasi-geostrophique non-lineaire. Ce theoreme est d^u a C. Bernier (c.f.
[Bernier, 1992]).
2.5.1 L'existence et l'unicite des solutions de l'equation Q.G.
non-lineaire.
Theoreme 2.5.1 Soient F 2 L2(0; T ; L2( )) et 0 2 H 1( ) . Alors il existe une
solution dans C 0 (0; T ; H 1) \ L2 (0; T ; H 2) \ L2 (0; T ; H 3) unique et continue dans cet
espace par rapport a la condition initiale de l'equation :
N
N
loc
@ ( ) + J( ; ( ) + f) +
@t
+ C : , A4:2
k
k
k;N
k
B
N
avec les conditions aux limites :
k
k
(t = 0) =
= F sur [0; T ] 8k = 1; : : : N ;
(2.68)
k
0
k
sur : ;
8> (t) C (t) sur @ 8t 2 [0; T ] 8k = 1; : : : N tel que :
>><
si = [B ,1 : ] alors
>>
Z
>:
1 0 sur @ [0; T ] et (t) dx = 0 8t 2 [0; T ] 8k 2
(2.69)
te
k
k
k
k
(2.70)
k
et :
( ) 0 sur @ [0; T ] 8k = 1; : : : N:
k
57
(2.71)
Chapitre II.
2.5.2 Cadre fonctionnel pour l'equation linearisee.
Nous allons d'abord demontrer l'existence et l'unicite des equations avec la condition
initiale supposee nulle, mais avec un forcage dans le second membre de l'equation qui, a
priori, peut ^
etre non homogene sur toutes les couches (et pas seulement pour la couche
de surface). Ainsi, la condition initiale nulle sera prise en compte directement dans le
cadre de l'espace fonctionnel considere. Pour montrer l'existence et l'unicite dans le cas
des conditions initiales non nulles, il sut que l'on applique le theoreme de traces sur des
fonctions de nies sur un cylindre du domaine espacetemps, et ensuite de translater la
variable pour se ramener au premier cas.
Espace fonctionnel en espace.
Considerons les espaces de Hilbert suivants :
V
n
= ' = ('k ) 2 (H 3( ))N qui veri e (i) et (ii)
o
avec :
(i) 'k Ckte sur @ 8k, les constantes Ckte choisies de telles sortes que, si k def
= [B ,1:']k
la transformation en modes de ', l'on ait : 1 0 sur @ et k dx = 0 8k 2,
(ii) 'k 0 sur @ 8k.
Z
Il est facile de veri er que V un espace de Hilbert pour le produit scalaire :
X Z hr~ fk; r~ gk i dx:
N
hf; giV def
= Hk
k=1
On montrera aussi, gr^ace a la propriete de regularisation de l'operateur inverse du
laplacien, que la norme associee sur V est equivalente a la norme (H 3( ))N .
En e et, soit f 2 V . D'apres la propriete de regularisation de l'operateur inverse du
laplacien, d'une part on a :
kf kH (
3
)N
C1 kf kH 1( )N :
D'autre part, l'inegalite de Pointcare nous donne
kf kH (
1
)N
~ f kL2 ( )N :
C2 kr
Lemme 2.5.2 Soit H l'espace de Hilbert de ni comme l'adherence de V dans (H 1( ))N .
Alors H peut s'ecrire aussi comme :
H
n
o
= ' = ('k ) 2 (H 1( ))N qui veri e la condition (i) dans la de nition de V :
58
L'existence et l'unicite de la solution du modele lineaire.
Demonstration
1. Il est clair que :
V dans (H 1 ( ))N
n
o
' = ('k ) 2 (H 1( ))N veri ant (i) :
En e et, pour tout k, l'application :
,! RZ
( k ) ,̀! [B: ]k dx
V
est continue de (L1( ))N donc de (H 1( ))N (en supposant que le domaine soit borne)
dans R. Donc l'application = ( k ) ,̀! Ckte, avec Ckte la constante de nie dans la condition (i), est bien continue de (H 1( ))N dans R.
2. Inversement, soit
une fonction donnee dans (H 1( ))N veri ant la condition (i).
Nous allons chercher une suite fvng dans V qui tend vers dans (H 1( ))N .
Puisque D( ) est dense dans L2( ) et aussi que L2( ) est dense dans H ,1( ) avec
l'injection canonique continue, on peut trouver une suite fueng telle que :
uen 2 (H ,1 ( ))N et
(H ,1( ))N
uen ,n,,
! !1
2 (H ,1 ( ))N :
On de nit ensuite fvng les solutions dans V du probleme :
vn = uen:
comme suit :
(2.72)
De nition la solution dans V de 2.72.
La solution dans V de ce probleme est trouvee par le procede suivant :
On commence par resoudre le probleme de Dirichlet :
(
ven = uen
dans ;
ven = 0
sur @ :
Ensuite on passe en mode les solutions trouvees, c.-a-d. on prend wen = B ,1:ven, puis
on rajoute les fonctions indicatrices a wen de telle sorte que son laplacien ne change pas et
que les conditions aux limites imposees dans V soient veri ees, c.-a-d. :
Par abus de langage, nous identi ons les fonctions wn a leurs modes (c.-a-d. [B ]kwn ) Z
8
>
< w def
= we , 1
we dx 1I( )
pour les modes baroclines et
n
n
>
: w def
n = we n
j j
n
pour le mode barotrope.
59
Chapitre II.
Et utilisant ces fonctions n on repasse en couche n = n.
Les fonctions n ainsi construites appartiennent bien a . En e et :
Puisque n 2 D( ) ( 1( ))N on en deduit que n 2 ( 3( ))N par regularite de
l'inverse du laplacien.
De plus comme les n appartient a D( ), les solutions de l'equation (2.72) sont des
solutions classiques (c.-a-d. solutions fortes) C 1 du laplacien. On peut donc bien passer a
la limite la restriction sur les deux membres de cette equation et on trouve donc :
w
v
B :w
v
V
e
u
e
v
H
H
e
u
@
[email protected] = [email protected] = 0
e
v
Donc :
e
u
:
[email protected] = [email protected] = 0
Et en n par construction, on a [email protected] = 0 en barotrope et, en barocline l'integrale sur
le domaine vaut :
=0
=
, 1
e
v
v
:
w
Z
Z
Z
Z
j j
e n dx
w
wn dx
e n dx
w
dx
:
2
Veri ons maintenant que n n,!1
! dans 1( ) :
Posons def
= , [email protected] 1I( ). Cette fonction appartient donc a
v
e
H
:
= = nlim
!1 n dans
e
e
v
H
,1 (
e
Z
en
v
,
e
2
:
C'est-a-dire que :
Z
en dx
v
On conclut facilement que :
= , 1
Z
wn
en
w
j j
e n dx
w
) dans
H
,1 (
), on
:
j j ( n , )2
e
v
P oincare
1
0(
H
Z
dx
H
) et on a :
)
Par consequent, comme le laplacien est un isomorphisme de
a la convergence :
dans 01( )
n ,!
n!1
On en deduit que :
e
v
1
0(
H
C
,!
n!1
e
dx
( ) k n , k2H01( ) n,!1
!0
e
v
e
:
Z
e
dx:
1I( ) ,n,,
! = , j1j !1
sur des modes baroclines ;
H 1(
60
)
Z
e
e
dx
L'existence et l'unicite de la solution du modele lineaire.
et que :
e
e
H 1( )
wn = wn ,n,,
!=
!1
sur le mode barotrope.
H 1( )
Repassons en couches, nous obtenons ainsi la convergence vn ,n,,
!
!1
couches.
sur toutes les
On vient donc de montrer que :
' = ('k ) 2 (H 1 ( ))N veri ant (i) V dans (H 1 ( ))N
Ceci termine donc notre demonstration.
n
o
Remarque:
Au travers de la demonstration de ce lemme, on voit que si l'on munit l'espace H
de ni dans l'enonce du produit scalaire :
X Z hr~ uk; r~ vki dx;
N
def
hu; viH = Hk
k=1
=
alors la norme induite par ce produit scalaire est equivalente a la norme (H 1( ))N gr^ace
a l'inegalite de Poincare et Poincare-Wirtinger. H est donc un espace de Hilbert.
On identi e le dual de H a lui-m^eme par le theoreme de representation de Riesz, et
on fait donc le schema d'inclusion classique suivante :
V ,! H ,! V 0 :
H0
Chacun des espaces dans ce schema est donc dense dans le suivant par construction
de H .
Espace fonctionnel en temps.
Soit [0; T ] l'intervalle de temps considere. De nissons les espaces de Hilbert suivants :
V def
= L2(0; T ; V );
H def
= L2(0; T ; H ):
V 0, l'espace dual de V , est alors donne par :
V 0=L2(0; T ; V 0):
61
Chapitre II.
Comme precedemment, le schema d'inclusion est encore valable pour ces espaces avec
le temps, c.-a-d. :
=
V ,! H ,! V 0:
H0
Soit L l'operateur de derivation de la vorticite totale en temps presente dans l'equation :
def
L: = ,@[email protected] k ( ). L est un op
erateur lineaire non borne de domaine D(L) V et a
valeur dans V 0. L est ferme de domaine dans V et tel que :
8
< hL: ; iH 0
8 2 D(L);
: hL : ; iH 0
8 2 D(L ):
En e et, d'une part, on a :
D(L)
=
(
= ( k ) 2 V tel que :
@
k (
@t
)
) 2 V 0 et jt=0= 0 ;
et d'autre part, d'apres l'egalite (2.49) on a :
hL:
2
;
3
Z
Z
N
NX
,1
X
iH = 21 4 Hk ( k )2 dx + pk+ 12 kr~ ( k+1 , k )k2 dx5
k=1
k=1
t=T
0:
De m^eme, pour l'operateur adjoint L = @[email protected] k (:), nous avons d'une part :
D(L ) =
(
= ( k ) 2 V tel que :
@
k (
@t
) 2 V0
)
et jt=T= 0 ;
et les m^eme calculs nous donnent aussi d'autre part :
2N Z
3
Z
NX
,1
X
1
hL : ; iH = 2 4 Hk ( k )2 dx + pk+ 12 kr~ ( k+1 , k )k2 dx5 0:
k=1
k=1
t=0
Les proprietes importantes de l'operateur L sont donnees dans le lemme suivant. Pour
la demonstration on peut consulter le livre de J.L. Lions, [Lions, 1969 (page 313)]:
Lemme 2.5.3 Soit L de ni par L = ,@[email protected] k (:). L veri e les deux conditions suivantes :
est un operateur lineaire de D(L) dans V qui est maximal monotone a domaine
dense ;
(ii) pour tout couple ( ; F ) 2 V V 0 tel que :
(i)
L
on a :
hL: , F; ' , i 0 8' 2 D(L);
2 D(L) et F = L:
62
:
L'existence et l'unicite de la solution du modele lineaire.
Remarque:
Les conditions (i) et (ii) sont equivalentes et sont dues essentiellement a deux choses :
(1) la stricte convexite de V et de son dual, (2) les proprietes de positivite remarquee plus
haut de L et L.
Base Hilbertienne speciale pour V .
Considerons l'espace suivant :
V2 def
= l'adherence V de V dans H 2( )N :
On montre aussi (la demonstration est strictement analogue a celle du lemme 2.5.2)
que V2 peut ^etre de ni d'une autre facon et directement par :
V2 = ' = ('k ) 2 (H 2 ( ))N qui veri e la condition (i) dans la de nition de V :
Gr^ace aux proprietes de regularite de l'operateur inverse du laplacien, on voit aussi
que si l'on munit V2 du produit scalaire :
n
o
Z
Z
N
NX
,1
X
hu; viV = Hk uk vk dx + pk+ hr~ (uk+1 , uk ); r~ (vk+1 , vk )i dx;
2
k=1
1
2
k=1
alors V2 est encore un Hilbert dont la norme associee est equivalente a la norme H 2( )N .
Designons par D(V ) l'ensemble des fonctions dans V telles que la forme lineaire :
u 7! h ; uiV
soit continue pour la topologie induite par la norme de V2. Il existe un operateur non
borne que l'on note par (( ,V )) de domaine D(V ) tels que :
h ; uiV = h,V ( ); uiV2
(Le produit scalaire de V sera precise ulterieurement).
Il est facile de veri er que ,V est un operateur autoadjoint et positif, en e et :
h,V ; iV2 = k k2V C:k k2V2 :
En particulier ,V est une application injective. On note par T son inverse, de nie
sur l'ensemble d'image ,V (V ). T est continue dans V par rapport a la topologie de V2,
en e et :
hT ( ); uiV = h,V T ( ); uiV2
= h ; uiV2
k kV :kukV
C:k kV :kukV 8 2 ,V (V ); 8u 2 V:
2
2
2
63
Chapitre II.
Donc kT ( )kV C:k kV2 . E tant donne que ,V (V ) est dense dans V2, on prolonge
donc T sur V2. Par compacite de l'injection canonique de V dans V2, on en deduit que
T est compact de V2 dans lui-m^eme. D'apres la theorie sur la decomposition spectrale
des operateurs compacts, il existe une base Hilbertienne de V2 formee par des vecteurs
propres de T (qui sont orthogonaux sur V2 deux a deux) :
T (wn) = n wn wn 2 V2:
En fait les wn appartiennent donc a V (car T (V2) V ). Donc fwng est aussi une base
Hilbertienne de V avec :
8 8n hw ; ui = hw ; ui 8 u 2 V
>
n V
n n V2
>>
< et Z
Z
N
NX
,1
>> X
~
~
>> k=1Hk wnk wmk dx + k=1 pk+ 12 hr(wn k+1 , wnk ); r(wmk+1 , wmk )i dx = 0
:
8 m 6= n:
2.5.3 E nonce et demonstration du theoreme.
Theoreme 2.5.4
Supposons que ref soit dans V \ L1 (0; T ; H 3 ( ))N . Alors, pour tout second membre
F 2 V 0, il existe une solution 2 V unique de l'equation :
@ ( ) + J ( ref ; ( )) + J ( ; ( ref ) + f )+
k
k k
k
@t k
+ k;N CB : N , A4:2 k = Fk sur [0; T ] 8k = 1; : : : N ;
(2.73)
avec la condition initiale homogene :
k (t = 0) = 0
sur :
(2.74)
Rapellons que l'on a les deux conditions aux limites en espace suivantes qui sont incluses dans la de nition de V :
8 (t) C te(t) sur @ 8t 2 [0; T ] 8k = 1; : : : N tel que :
>> k
k
><
si k = [B ,1 : ]k alors
>>
Z
>:
1 0 sur @ [0; T ] et k (t) dx = 0 8t 2 [0; T ] 8k 2;
et :
k
0 sur @ [0; T ] 8k = 1; : : : N:
64
(2.75)
(2.76)
L'existence et l'unicite de la solution du modele lineaire.
Demonstration de l'unicite
Comme l'equation est lineaire, il sut de veri er que la seule solution pour un second
membre F = 0 est la solution triviale = 0. Or ceci est donne par la majoration que
nous avons obtenu dans le lemme 2.4.4.
Nous allons maintenant montrer l'existence de la solutions par deux methodes. Mais
d'abord donnons quelques notations utiles. Posons :
A( ) def
= ,J (
)) , J ( k ; k( ref ) + f ) , k;N CB : N + A4:2 k :
La preuve de l'existence revient donc a montrer qu'il existe un element de 2 D(L)
tel que :
L( ) + A( ) = ,F:
(2.77)
ref ; (
k
k
1. L'existence par Faedo-Galerkin.
a. Approximation Faedo-Galerkin.
On designe Gm l'espace de Galerkin engendre par m fonctions (w1; w2; : : : ; wm). Soit
a resoudre l'equation :
8
< m 2 Gm telle que :
(2.78)
: hL( ) + A( ); w i
8i = 1; : : : ; m:
m
m
i ; = ,hF; wi i ;
V0 V
V0 V
b. Estimations a priori de (2.78).
Cette equation se reecrit comme un systeme d'equations di erentielles en temps suivant :
8
>
>
< m (t = 0) = 0
d ( m ) ; w i + hA( ); w i = ,hF; w i
>
>
:h
8i = 1; : : : ; m:
i V2
m
i ;
i ;
dt
D'apres le theoreme de Caratheodory, ce probleme admet une solution. Les estimations
que l'on a fait dans la proposition 2.4.4 sont encore valables.
Donc en particulier les solu- tions sont bien de nies sur [0; T ] et elles sont bornees dans L2(0; T ; V ) \ L (0; T ; H 2( ))N
par rapport a m.
Montrons maintenant que les L: m sont bornes dans L2(0; T ; V ). Pour cela introduisons Pm l'operateur de projection dans H sur l'espace Gm .
En e et, comme d'une part :
L( m) = ,PmA( m) , Pm F
V0 V
V0 V
1
0
65
Chapitre II.
(on remarque que Pm L( m ) = L( m) gr^ace au choix de la base), et comme d'autre part
l'operateur A est continue de V dans V , il sut donc de montrer que les Pm sont uniformement bornes dans V . En fait on va prouver, par transposition, qu'ils sont uniformement
bornes dans V . Soit v 2 V , on de nit (v) 2 H - quitte a un reajustement en ajoutant
des fonctions indicatrices - de telle sorte que :
r~ (v) = r~ (v) p.p.:
0
0
La de nition du produit scalaire sur V2 s'ecrit aussi comme :
hu; viV = h(u); viH = hu; (v)iH :
2
On veri e sans peine d'autre part que le produit scalaire de ni comme suit
hhu; viiV def
= h(u); (v)iH
a la norme associee qui est equivalente a celle de nie initialement sur V . Travaillons plut^ot
avec ce produit scalaire. Nous avons :
h(wi); (v)iH = hhwi ; viiV
= i hwi; viV
= i hwi; (v)iH :
Par densite on en deduit que (wi) = i wi 8i. Et en plus :
hhwi ; viiV = h2(wi); viH
= 2i hwi ; viH :
Soit u 2 V . On decompose u = Pm(u) + (u , Pm (u)) ; ( avec Pm (u) 2 Gm et (u ,
Pm (u)) 2 Gm ). Calculons la norme de u dans V :
kuk2V = kPmuk2V + ku , Pm uk2V + 2hhPm (u); u , Pm (u)iiV
Xm
= kPmuk2V + ku , Pm uk2V + 2 uihhwi; u , Pm (u)iiV
2
?
i
m
X
kPmukV + ku , Pm ukV + 2 uii h|wi; u ,{zPm (u)iH} :
i
=1
=
Donc :
2
2
2
=1
=0
kPmuk2V kuk2V 8 m:
Soit u 2 H . Calculons maintenant la norme de Pm u dans V :
hPm u; viV ;V
kPm ukV = sup
kvkV
v =0
0
0
0
6
66
L'existence et l'unicite de la solution du modele lineaire.
= sup hPmkvu;k viH
v6=0
V
= sup hu;kPvmk viH
v6=0
=
kPm ukV
Donc les L(
m)
0
V
sup hu; PkmvkviV ;V
v6=0
V
kPm vkV
kukV sup
v=
6 0 kv kV
kukV :
0
0
0
demeurent bornes dans L2(0; T ; V 0).
c. Passage a la limite
On peut donc, d'apres l'etape (b) et gr^ace a la compacite de D(L) dans L2(0; T ; H 2( ))N ,
extraire de m une sous-suite telle que :
8
>> *
dans L2(0; T ; V ) faible,
>><
dans L1 (0; T ; H 2( ))N faible etoile,
*
>> !
dans L2(0; T ; H 2( ))N fort et p.p. dans ]0; T [;
>:
L: * L:
dans L2(0; T ; V 0) faible.
Donc nous veri ons sans peine qu'a la limite de l'equation (2.78), on obtient :
hL( ) + A( ); ' wiiV ;V = ,hF; ' wiiV ;V 8i; 8' 2 D(]0; T [):
0
0
Par densite, veri e l'equation :
L(
) + A( ) = ,F:
2. L'existence par regularisation elliptique.
a. Regularisation elliptique.
On introduit l'operateur J (a ne pas confondre avec l'operateur de Jacobien) de dualite
canonique V ,! V 0
(donc kJ ( )kV = k( )kV 8 ). On va (( approcher )) l'equation (2.77) par :
0
"L J ,1L "
+ L " + A( ") = ,F; avec " > 0:
67
(2.79)
Chapitre II.
On munit D(L) de la norme du graphe k kV + kL:( )kV qui est en fait un espace de
Hilbert. Pour et V dans D(L) on pose :
0
hB ( ); V iV V = "hJ , L ; LV i + hL ; V i + hA( ); V i B ( ) 2 D(L)0 :
Veri ons que B est monotone de D(L) ,! D(L)0 . Il est immediat que B est borne.
"
0
def
;
1
"
"
"
Si, par ailleurs nous introduisons M" par :
hM ( ); V iV V = "hJ , L
"
0
;
def
1
; LV
i + hL
i
;V
M" (
) 2 D(L)0 ;
alors cet operateur M" est borne, lineaire donc hemi-continu, et monotone de D(L) !
D(L)0 . Puisque B" ( ) = A( ) + M" ( ), donc B" est somme d'un op
erateur A pseudo0
monotone de D(L) ! D(L) (voir le lemme 2.5.5 page 71 ci-dessous) et d'un operateur
M" monotone borne h
emi-continu, donc B" est pseudo-monotone.
Par ailleurs comme L est 0 on a :
hB ( ); ( )iV V hA( ); ( )iV V + "kL( )kV ;
"
et par consequent
0
;
0
2
;
hB ( ); ( )iV V ,! 1 si k( )k
k( )k
"
0
;
D (L)
D (L)
0
,! 1:
(2.80)
(2.81)
Donc d'apres le theoreme d'existence des solutions pour des operateurs pseudo-monotones
veri ant (2.81) (voir [Lions, 1969 page 180]), il existe " 2 D(L) tel que :
B ( ) = ,F:
"
(2.82)
"
Cette egalite equivaut a :
h
" J ,1L
" ; LV
i + hL
"; V
i + hA( ); V i = ,hF; V i 8 V 2 D(L):
"
Et donc l'application :
i = ,hF + L + A( ); V i
est continue sur D(L) muni de la topologie induite par V . Donc :
J, L
2 D(L );
V
,̀!"hJ , L
1
" ; LV
1
"
"
"
(2.83)
et (2.82) equivaut a (2.79).
On a donc demontre l'existence, pour tout " > 0, de
(2.79).
68
"
2 D(L) veri ant (2.83) et
L'existence et l'unicite de la solution du modele lineaire.
b. Estimation sur les .
"
Tout d'abord, d'apres (2.80), on peut choisir
"
"
de facon que :
demeure dans un borne de V lorsque " ! 0:
(2.84)
On va maintenant montrer que :
L
"
demeure dans un borne de V 0 lorsque " ! 0:
(2.85)
Prenons en e et le produit scalaire des deux membres de (2.79) avec J ,1(L "), qui
est dans D(L ) d'apres (2.83) :
"hL J ,1 L " ; J ,1(L " )i + hL " ; J ,1 (L " )i + hA( " ); J ,1(L " )i =
(2.86)
,hF; J ,1(L )i
et comme L 0 d'apres la condition (i) du lemme 2.5.3, on a : L 0, et l'egalite
"
ci-dessus devient :
kL k2V + hA( ); J ,1(L )i ,hF; J ,1(L )i:
D'apres (2.84) et d'apres le fait que A est borne : kA( )kV C , on a donc :
kL k2V C kL kV ; d'ou (2.85).
"
"
"
"
te
"
te
"
"
c. Passage a la limite en ".
On deduit de (2.84), (2.85) et du fait que A( " ) est borne et que L est ferme, que l'on
peut extraire une sous-suite, encore notee par ", telle que :
8
>
" *
<
L
* L:
>
: A( ")" * Montrons que :
limsup hA( " );
En e et, d'apres (2.79) :
!0
"
hA( ); , i ,hF + L
"
dans V faible ; 2 D(L)
dans V 0 faible ;
dans V 0 faible :
"
"
;
"
69
"
(2.87)
, i 0:
, i , "hJ ,1L
(2.88)
"
;L
"
, L i:
Chapitre II.
D'apres (2.84), jhJ ,1L
hA( );
"
"
, L ij C ; donc :
, i ,hF + L ; , i , hL( , ); , i + ":C
,hF + L ; , i + ":C :
"; L
te
"
"
"
"
"
"
"
te
te
d'ou (2.88).
On a alors, A etant pseudo-monotone :
liminf hA( ");
"
, V i hA( ); , V i:
(2.89)
Mais d'apres (2.79), 8V 2 D(L) on a :
hA( ); , V i = ,hF + LV; , V i , hL , LV; , V i
,"hJ ,1L ; L , LV i
,hF + LV; , V i + ":C :
"
"
"
"
"
"
"
"
te
D'ou, en comparant a (2.89), on a :
,hF + LV; , V i hA( ); , V i 8V 2 D(L):
Prenant V = , W; > 0; W 2 D(L), apres la division par , nous obtenons :
,hF + L( , W ); W i hA( ); W i:
D'ou, en faisant tendre vers zero, on obtient :
et donc L
,hF + L + A( ); W i 0 8W 2 D(L);
+ A( ) = ,F .
Remarque 1.
Nous avons encore l'existence et l'unicite de la solution dans l'espace
W (0; T )
= f 2 V et L 2 V 0 g ; muni de la norme du graphe de L
def
non seulement dans le cas ou la condition initiale (t = 0) est homogene mais appartenant
plus generalement a V2. En e et d'apres le theoreme de traces on a d'une part W (0; T ) C 0([0; T ]; V2) de facon continue, et de plus la restriction 7! (t = 0) est surjective sur
V2 . Pour tout V 0 2 V2 x
e, on choisit donc un relevement continue V 2 W (0; T ) de telle
0
sorte que V (t = 0) = V . Alors , V doit veri er l'equation :
8
< L( , V ) + A( , V ) = F , (L: + A:)(V ) = Fe
: ( , V )j = 0:
t=0
70
L'existence et l'unicite de la solution du modele lineaire.
On est donc ramene au cadre general pour appliquer le theoreme.
Remarque 2.
Dans le cas ou le second membre F de l'equation est dans L2(0; T ; H ,1( )) , la
solution de l'equation satisfait les trois majorations donnees dans les propositions 2.2.4,
2.3.5 et 2.4.4. Donc elle appartient a l'espace :
N
2 L2(0; T ; H 3( )) \ C 0(0; T ; H 2( ));
N
et sa derivee en temps appartient quant a elle a l'espace :
~
@r
2
2
2
L
(0
;
T
;
L
( ))
@t
N
2 :
Remarque 3.
Contrairement au modele non-lineaire (c.f. [Bernier, 1990]), le passage a la limite
dans la methode Faedo-Galerkin dans le modele linearise est beaucoup plus simple car
l'inconnue se trouve seulement dans l'un des membre de l'operateur Jacobien J (:; :).
Par contre la majoration de ces m^emes termes est un peu plus delicate.
Il nous reste donc a veri er le pseudo-monotonie de A :
Lemme 2.5.5 L'operateur en espace presente dans l'equation Q.G. linearisee suivant :
A( ) = ,J ( ; ( )) , J ( ; ( ) + f ) , C : + A4:2
def
ref
k
ref
k
k
k
k;N
B
N
k
est un operateur pseudo-monotone sur D(L).
Demonstration
Soit fu g une suite qui converge faiblement vers dans D(L) et telle que :
limsup hA(u ); u , i 0:
!1
j
j
j
j
Il faut que nous montrions :
liminf
hA(u ); u , V i hA( ); , V i 8V 2 D(L):
!1
j
j
j
Comme dans la demontration du lemme (2.4.4) (page 55), on voit que :
hA(u , ); u , i + jR(u , )j 0;
j
j
j
71
(2.90)
Chapitre II.
ou R est de nie par :
R(V )
=
def
X ZZ
N
k
T
H
=1
@V
d
W (V )
ddt:
dt
@n
k
k
k
0
@
V L( ) et u *
V , la premiere convergence implique la
Mais comme on a L(u ) *
convergence faible de
0
j
j
~u
~
@r
@r
*
@t
@t
dans L2(0; T ; L2( )) ;
j
N
et la deuxieme convergence implique la convergence forte de
u ! dans L2 (0; T ; H 2 ( ))
( par compacite de l'injection de V dans L2(0; T ; H 2( )) ).
N
j
N
Utilisant aussi la continuite des deux applications suivantes :
8 2
>
< L (0; T ; L2( )) ! L2(0; T ; L2(@ ))
~V
@r
>
:
7! @W (V )
N
N
@t
et
@t
8 L2(0; T ; H 2( )) !
<
:
V 7!
L2(0; T ; L2 (@
@V
@n
N
))
N
(voir respectivement les lemmes 2.4.5 et 2.4.6), on a donc d'une part la convergence faible :
@W (u )
@W ( )
*
dans L2(0; T ; L2(@ ))
(2.91)
j
@t
N
@t
( En e et, soit f 2 L2(0; T ; L2(@ ))
xe, l'application :
N
~V
@r
@t
7! hf; @[email protected](V ) i
L2
(0 ; 2( ))N
;T L
@
est une forme lineaire sur L2(0; T ; L2( )) . Donc l'image de cette forme appliquee a
V = u , tend vers 0 quand j ! 1. Et en remarquant que ceci est vrai quelque soit
f , on obtient (2.91) ) ;
et d'autre part la convergence forte :
N
j
@u
@n
j
! @@n dans L2(0; T ; L2(@ ))
N
:
(2.92)
D'apres (2.91) et (2.92) on a :
R(u
j
, ) ,!
!1 0;
j
72
(2.93)
L'existence et l'unicite de la solution du modele lineaire.
d'ou :
hA(uj ); uj , i hA( ); uj , i j,!
!1 0:
Combinons ceci avec (2.90), on en deduit que :
hA(uj ); uj , i j,!
!1 0:
a:
(2.94)
Soit V 2 D(L) xe et X = (1 , ) + V , avec 2]0; 1[. De m^eme que plus haut, on
hA(uj , X ); uj , X i , jR(uj , X )j :
E crivons :
uj
, X = (uj , ) + ( , X )
= (uj , ) + ( , V ):
Nous avons donc :
R(uj , X ) =
avec :
S1
S2
=
def
=
def
R(uj
X ZZ
=1 0
X ZZ
T
N
k
Hk
N
k=1
@
T
Hk
[email protected]
(2.95)
(2.96)
, ) + 2R( , V ) + (S1 + S2) ;
d
Wk (uj
dt
, V )k ddt
, ) @ ( @n
d
Wk (
dt
, )k ddt:
, V ) @ ([email protected]
Utilisant la convergence faible de fuj g * dans D(L) qui implique que S1 et S2 j,!
!1
0, et (2.93), nous avons d'une part :
2
jR(uj , X )j j,!
(2.97)
!1 jR( , V )j:
Remplacons (2.96) dans (2.95), nous avons donc d'autre part :
hA(uj ); , V i ,hA(uj ); uj , i + hA(X ); uj , i +
+hA(X ); , V i , jR(uj , X )j:
Quand j ! 1, utilisant (2.94) (2.97), ceci devient :
liminf hA(uj ); , V i hA(X ); , V i , 2 jR( , V )j:
Divisons par , en tenant compte de (2.94) et en faisant tendre ! 0, on en deduit :
liminf
hA(uj ); uj , V i hA( ); , V i 8V 2 D(L):
j !1
C.Q.F.D.
73
Chapitre II.
2.6 Qualite de l'approximation des solutions de l'equation non-lineaire par linearisation.
L'expression de l'equation Q.G. linearisee que l'on vient d'etudier est obtenue en derivant formellement les equations Q.G. non lineaires initiales. On peut se poser la question :
jusqu'a quelle mesure cette approximation est-elle bonne?
Dans le but de ne pas encombrer les notations, on regarde seulement le cas des equations a une couche (les raisonnements qui vont suivre s'etendent sans peine pour le cas
ref
multicouche). Pour repondre a cette question on considere deux solutions ref
1 et 2
qui sont supposees assez proches l'une de l'autre de l'equation Q.G. non-lineaire dans le
sens suivant :
(i) il y a un petit ecart a l'instant initial entre deux solutions :
ref
k( ref
1 , 2 )jt=0kV2 h; h 0 assez petit ;
(ii) elles veri ent par contre la m^eme equation Q.G. avec le m^eme second membre :
@( ref
i ) + J ( ref ; ( ref ) + f ) + C ref , A 2 ref = F ; i = 1; 2;
B
4
i
i
i
i
@t
avec les conditions aux limites adequates comme dans (2.75) et (2.76).
ref
Alors la di erence = ref
1 , 2 veri e l'equation suivante :
8 @( )
><
ref ; ( ref ) + f ) , J ( ref ; ( ref ) + f ) + C , A 2 = 0
+
J
(
B
4
1
1
2
2
>: @t = ( ref , ref ) :
2 jt=0
jt=0 1
Or, la di erence des termes Jacobiens s'ecrit aussi comme :
ref
ref
ref
J ( ref
1 ; ( )) + J ( ; ( 2 ) + f ) = J ( 1 ; ( )) + J ( ; ( 1 ) + f ) +
ref
ref
ref
+J ( ref
1 , 2 ; ( 2 , 1 )):
L'equation que veri e devient donc :
8 @( )
>>
+ J ( ref ; ( )) + J ( ; ( ref ) + f ) + C , A 2 = R( ref ; ref )
>< @t
>> jt=0= (
>: avec R(
ref
1
1
ref )
,
2
B
1
jt=0
ref ; ref ) = J ( ref , ref ; ( ref
1
2
1
2
1
,
4
1
2
ref )):
2
On tombe evidemment sur l'equation linearisee avec une sorte de (( pseudo secondref
membre )). Montrons que R( ref
1 ; 2 ) est un terme d'ordre deux en h. En e et considerons le produit scalaire :
Z TZ
0
hr~ J ( ; ); r~ U i dxdt; avec U 2 V :
74
L'existence et l'unicite de la solution du modele lineaire.
Or :
Z
hr
~ J( ; r i
); ~ U dt
Z
=
Green

H older
J ( ; U ) dt
kr k ( ):kr~ U k ( ):k k
kr k ( ):k k ( ):kU k
C k k :k k ( ) :kU k :
C ~
C ~
L2
L1
H2
V
H2
H2
L2
( )
V
V
Donc l'integral en temps est majoree par :
Z
T
0
Z
hr~ J ( ; ); r~ U i dt C
k k
2
L
(0 ; ) :k
;T V
k
1
L
(0 ; 2( )) :kU k 2(0 ; ) :
;T H
L
;T V
Comme, d'apres le theoreme 2.5.1 k k 2(0 ; ) h et k k (0 ; 2( )) h, on conclut
donc que :
kJ ( ; ( ))kV h2:
(2.98)
On peut donc enoncer le theoreme suivant sur la di erentiabilite des solutions de
l'equation Q.G. non-lineaire :
Theoreme 2.6.1 L'application suivante :
L
L1
;T V
;T H
0
(
V2
j =0
t
,! V
7! (t 2 [0; T ])
par resolution de l'equation Q.G. non-lineaire est une application Frechet-di erentiable.
De plus, si on muni V de la topologie induite par L1 (0; T ; H 2( )) elle est encore Frechetdi erentiable. La di erentielle de cette application s'exprime en resolvant l'equation Q.G.
linearisee donnee comme dans le theoreme 2.5.4 (mais bien-s^ur avec une condition initiale
non nulle).
N
Remarque:
Considerons un probleme ou le contr^ole optimal porte sur la condition initiale pour un
modele quasi-geostrophique. La fonctionnelle J est supposee au sens des moindres carres
via un operateur d'observation lineaire C qui s'applique a la solution du modele. L'un
des corollaires important du theoreme 2.6.1 est :
Si l'operateur C est continu par rapport a la topologie de V , ou bien par rapport a la
topologie induite par L1 (0; T ; H 2( )) , alors la fonctionnelle J est di erentiable en tout
point. Autrement dit, le vecteur gradient de cette fonctionnelle est bien de ni en tout
point.
On verra dans le chapitre III que le vecteur gradient d'une telle fonctionnelle s'obtient
naturellement a l'aide des equations adjointes quasi-geostrophique.
N
75
Chapitre
III :
Formulation de l'adjoint faible
de l'equation Q.G. linearisee.
3.1
Introduction.
Dans un probleme de contr^ole optimal, c.-a-d. une generalisation du calcul des variations aux systemes regis par des equations aux derivees partielles, on aboutit a des
equations d'Euler qui expriment la condition d'optimalite du premier ordre du minimum
de la fonctionnelle consideree. Cette condition d'optimalite est donnee en general par un
systeme de deux equations couplees et une condition dite (( condition d'optimalite )) (ce
systeme + la condition d'optimalite est appele systeme d'optimalite). La premiere equation de ce systeme est l'equation (( directe )), qui exprime que la contrainte forte imposee
par le modele doit ^etre veri ee. La deuxieme equation est l'equation (( adjointe )) (dans
le sens ou c'est la transposee de la matrice Jacobienne de l'equation (( directe )) calculee
au point optimal) dont l'inconnue P (variable adjointe) exprime une sorte de derivee de
la fonctionnelle par rapport a la variable directe X correspondante. La condition d'optimalite donne quant a elle, comme son nom l'indique, l'annulation de la di erentielle de
la fonction co^ut au point optimal (le contr^ole optimal) dans le cas d'une minimisation
sans contrainte (l'ensemble ou l'on cherche le minimum est un espace vectoriel). Numeriquement, ce systeme d'optimalite en general ne se resout pas directement (dans les cas
les plus simples, ceci revient a resoudre une equation integro-di erentielle de Ricatti). Il
sera resolu plut^ot par une methode de minimisation de fonctionnelle, d'ou l'importance
du calcul du vecteur gradient de la fonctionnelle, et donc de la formalisation des equations
adjointes associees.
Dans ce chapitre nous allons formuler les equations adjointes des equations quasigeostrophiques linearisees sous sa forme faible, et nous donnons l'interpretation de cette
forme faible en terme des equations aux derivees partielles fortes, et ceci dans plusieurs
cas de gures : observations altimetriques completes en espace, observations altimetriques
sur des traces et observations tomographiques.
Signalons en n que la formulation de l'adjoint est assez simple a obtenir dans des
exemples d'equations (( academiques )) mais elle se complique de facon notable des que les
equations du modele s'ecartent du cadre (( academique )), comme dans notre etude.
77
Chapitre III.
3.2 Nouvelle formulation faible.
3.2.1 Rappel sur la formulation faible.
Espace fonctionnel.
Rappelons quelques notations sur les espaces fonctionnels que l'on utilise. On a deux
espaces de Hilbert de nis comme suit :
=
H =
avec :
V
n ' = ('k ) 2 (H 3( ))N qui veri e les deux conditions (i) et (ii) o et
n ' = ('k ) 2 (H 1( ))N qui veri e seulement la condition (i) o :
Z
(i) 'k Ckte sur @ 8k, les constantes Ckte choisies de telles sortes que, si k def
= [B ,1:']k
designe la transformation en modes de ', l'on ait : 1 0 sur @ et k dx = 0 8k 2,
(ii) 'k 0 sur @ 8k.
Ces espaces V et H sont munis des produits scalaires suivants :
hf; giV =
hf; giH =
XN Hk Z hr~ fk; r~ gki dx
k=1 Z
XN Hk hr~ fk ; r~ gk i dx
8f; g:
k=1
On montre gr^ace aux proprietes de regularite de l'operateur inverse du laplacien que
les normes associees a ces produits scalaires sont equivalentes respectivement aux normes
(H 3( ))N et (H 1( ))N . On a aussi le schema d'inclusion classique suivant avec l'injection
continue et dense des trois espaces :
=
V ,! H ,! V 0 :
H0
On de nit aussi les espaces de Hilbert avec le temps :
V = L2(0; T ; V ) et H = L2(0; T ; H );
avec bien s^ur les produits scalaires deninis par :
hf; giV =
hf; giH =
Z T hf (t); g(t)i dt
Z0T hf (t); g(t)iV dt
H
0
78
8f; g:
Formulation de l'adjoint de l'equation QG.
Et le schema d'inclusion :
=
V ,! H ,! V 0
H0
est encore valable.
Et nalement on pose :
W (0; T ) =
(
)
k( )
= ( k ) 2 V tel que : L: = , @@t
2 V0 :
Formulation faible de l'equation linearisee directe.
Comme dans la section 2.4, en utilisant (2.48) (2.51) (2.55) (2.58) (2.59) et (2.61), et
en prenant garde de simpli er les deux termes :
ZT Z @
N
X
@Vk ddt dans (2.55) et (2.59),
@x @n
k=1
[email protected]
ZT Z @Vk
N
X
et , Hk fk @n ddt dans (2.59) et (2.61) ;
k=1
[email protected]
Hk
k
on de nit la formulation faible de l'equation Q.G. linearisee comme suit :
N
X
ZT Z @ k
Vk dxdt+
@t
k=1
0
ZT Z @
N
,1
X
+ pk+ 12
h @t r~ ( k+1 , k ); r~ (Vk+1 , Vk )i dxdt+
k=1
0
Hk
ZT Z
N
X
+ Hk
k=1
0
+HN CB
ZT Z
0
J(
ZT Z d
N
X
+ Hk
k=1
[email protected]
ref
k
; k ( )) Vk dxdt +
ZT Z
N
X
k=1
T
0
J ( k; k (
ref
) + f ) Vk dxdt+
ZZ
N
X
hr~ k ; r~ Vk i dxdt+
Hk
N VN dxdt + A4
@Vk ddt
W
k( )
dt
@n
Hk
k=1
0
ZT Z
N
X
~ ,d 1fk ; r
~ Vk i dxdt 8(Vk ) 2 V : (3.1)
= , Hk hr
k=1
0
3.2.2 Autre ecriture de formulation faible equivalente.
Nous allons reecrire cette formulation (3.1) a n d'obtenir une equation plus commode
a transposer.
79
Chapitre III.
Regardons le terme :
Z Z
,1
X
N
k
=1
p + 12
k
= ,
0
,1
X
N
N
k
p + 12
=1
,1
X
k
= ,
p + 12
=1
,1
X
k
+
h @[email protected] r~ (
T
N
k
=1
k
k
Z Z
@(
@t
@(
@t
@(
@t
T
0
Z Z
T
0
Z Z
@
p + 12
k
XZ Z
+1 ,
T
0
k
+1 ,
k
k
~ (V +1 , V )i dxdt =
); r
Green
k
+1 ,
+1 ,
k
k
):(V +1 , V ) dxdt +
k
k
k
k
k
@ (V , V ) ddt
): @n
+1
k
k
):(V +1 , V ) dxdt +
k
k
@ p 1
@t , 2 ,1 , (p , 12 + p + 12 ) + p + 12
=1 0
Z Z @
,1
X
( +1 , ):(V +1 , V ) dxdt
= , p + 12
@t
=1
0
X Z Z
, H dtd W ( ) @V
@n ddt:
=1 0
N
+
T
k
k
k
k
k
k
k
k
+1
@
: @V
@n ddt
k
T
N
k
k
k
k
k
k
T
N
k
k
k
k
@
Remplacons ceci dans la formulation faible (3.1), celle-ci devient donc :
X
N
k
H
=1
Z Z "@
T
k
@t ( ) + J (
0
X
ZZ
T
N
+A4 H
k
=1
k
k
ref
k
k
k
X
hr~ ; r~ V i dxdt = , H
k
ZZ
T
N
k
0
; ( )) + J ( ; (
k
=1
k
k
ref
) + f) + k;N
B
N
V dxdt
k
hr~ ,1f ; r~ V i dxdt 8(V ) 2 V :
k
d
0
C :
#
k
k
(3.2)
Or, il est facile de veri er que l'application :
(
V ,! L2(0; T ; H01( ))
(V ) 7! (V )
k
k
est surjective. En e et, soit P 2 L2(0; T ; H01( ))
chaque instant t dans [0; T ], le probleme :
N
k
(V (t)) = (P (t))
k
N
k
xe, on resout dans l'espace V , pour
(V ) 2 V ;
k
par le m^eme procede que dans (2.72) (voir demonstration du lemme 2.5.2 page 58).
80
Formulation de l'adjoint de l'equation QG.
En posant donc V = P dans (3.2), cette formulation faible prend une autre forme
equivalente suivante :
#
X ZZ "@
H
@t ( ) + J ( ; ( )) + J ( ; ( ) + f ) + C : P dxdt
=1 0
X ZZ ~
X Z Z ~ ,1 ~
~
+A4 H
hr ; rP i dxdt = , H hr f ; rP i dxdt
k
k
T
N
ref
k
k
ref
k
k
k
k
k;N
B
N
k
k
T
N
k
k
=1
T
N
k
k
0
k
=1
k
d
0
k
k
8 (P ) 2 L2(0; T ; H01( )) :
N
k
(3.3)
C'est sous cette forme (3.3) de l'equation que nous transposerons pour obtenir son
adjoint.
3.3 Adjoint faible de l'equation quasi-geostrophique.
Dans cette partie nous allons regarder chaque terme du membre de gauche dans (3.3)
pour e ectuer notre transposition (celui de droite ne depend pas de ). Nous allons,
encore une fois, utiliser abondamment la formule de Green.
Premier terme:
X ZZ @
H
( ) P dxdt
=1 0 @t
T
N
k
k
k
k
X ZZ @
H
( ) P dxdt =
=1 0 @t
T
N
Green
k
k
k
k
X ZZ
, H ( ) @P
@t dxdt
=1 0
2
3=
Z
X
+ 4 H ( ) P dx5
T
N
k
k
k
k
t
N
k
0
0
X ZZ @
f
0 @ f0
= , H
+ H g0 1 (
+2
=1 0
2
3
=
Z
X
+ 4 H ( ) P dx5
T
N
k
k
k
k
N
k
=1
k
k
k
t
T
t
=0
k
81
k
=1
k
k
T
k
=0
t
f0
+1 , ) , 0 ( ,
g , 12
k
k
k
11
@P dxdt
,1 )AA
@t
k
k
Chapitre III.
=
ZT Z
N
X
k=1
Hk
0
hr~
r i
@ ~ Pk
dxdt
k;
@t
,
ZT Z
N
X
k=1
|
Hk
(l'integrale 0sur la0bord est nul car
@ k @Pk
ddt
@n @t
[email protected]
{z
}
=0
Pk 2 H01 )
11
k,1 )AA
ZT Z f0 f0
N
X
, Hk @ H @ g0 1 ( k+1 , k ) , g0f0 1 ( k ,
k
k+ 2
k, 2
k=1
2N 0Z
3t=T
X
+ 4 Hk k ( ) Pk dx5 :
k=1
+
@Pk
dxdt
@t
t=0
Nous retenons l'egalite suivante :
ZT Z
N
X
k=1
Hk
0
@
k
@t
( ) Pk dxdt =
ZT Z
N
X
k=1
Hk
hr~
0
0
X ZT Z @
, Hk
N
k=2
0
k;
r i
@ ~ Pk
dxdt
@t
1
+
f02
@Pk A
: k,1 dxdt
Hk :g 0k, 1 @t
2
0
1
Z Z f2 1
N
X
1
k
+ Hk H0 @ g0 1 + g0 1 A @P
: k dxdt
@t
k
k
,
k
+
k=1
2
2
0
1
0
T
Z
Z
N
,1
2
X
kA
: k+1 dxdt
, Hk @ H :gf00 1 @P
k k+ 2 @t
k=1
2 N 0Z
3t=T
X
+ 4 Hk k ( ) Pk dx5 :
(3.4)
T
k=1
Deuxieme terme:
ZT Z
N
X
k=1
ZT Z
N
X
k=1
Hk
0
J
(
ref
k ; k
Hk
0
J
(
t=0
ref
k ; k
( )) Pk dxdt = ,
( )) Pk dxdt
ZT Z
N
X
Hk
k=1
,
82
0
X ZT Z
N
Hk
k=1
|
[email protected]
J
(
ref
k ; Pk
Pk :k
( )
{z
=0
) k ( ) dxdt +
@ ref
k
ddt
@
}
Formulation de l'adjoint de l'equation QG.
= ,
ZT Z
N
X
k=1
=
Hk
0
ZT Z
N
X
k=1
Hk
2
0
f
0 @ f0
ref
J ( k ; Pk ) 4 k +
(
H
g0 1
k+ 2
k
hr
r k i dxdt ,
~ J ( ref ; Pk ); ~
k
k+1
ZT Z
N
X
Hk
f0
, k ) , g0
13
( k , k,1 )A5 dxdt
1
k, 2
@ k
ref
J ( k ; Pk )
ddt +
@n
k=1
[email protected]
|
{z
0
1
=0
T
ZZ
N
2
X
A
, Hk @ H :gf00 1 J ( ref
k ; Pk ) : k,1 dxdt
k k,
k=2
2
0
0
1
T
Z
Z
N
X
1
f02
1
+ Hk H @ g0 1 + g0 1 A J ( ref
k ; Pk ): k dxdt
k
k
,
k
+
k=1
2
2
0
1
TZ 0
Z
N
,
1
2
X
f
ref
0
, Hk @ H :g0 1 J ( k ; Pk )A : k+1 dxdt:
k=1
0
(3.5)
k+ 2
k
0
}
( l'integrale sur le bord vaut zero, en e et le terme Jacobien en un point x xe sur
le bord, apres un changement de variables, devient :
J ( k ; Pk )(x) =
ref
@ ref
k @Pk
(x)
@n @
car ref
et Pk sont constantes sur le bord
k
s'annulent ).
Troisieme terme:
ZT Z
N
X
k=1
ZT Z
N
X
Hk
k=1
0
J ( k ; k (
ref
Hk
0
ref
, @ @k
@Pk
(x)
@n
, donc leurs derivees tangentielles
@
J ( k ; k ( ref ) + f ) Pk dxdt
) + f ) Pk dxdt = ,
ZT Z
N
X
Hk
k=1
0
ZT Z
N
X
+ Hk
| k=1 0 @
J (Pk ; k ( ref ) + f )
k :Pk
k=1
0
83
0
k
dxdt
@ k ( ref ) + f ddt :
@
{z
}
=0
Pour ce terme, on garde donc l'expression :
ZT Z
ZT Z
N
N
X
X
ref
Hk
J ( k ; k (
) + f ) Pk dxdt = , Hk J (Pk ; k (
k=1
=0
ref
) + f)
k
dxdt:
(3.6)
Chapitre III.
Quatrieme terme:
CB
CB
Z
Z
H
T
N
0
N
Z
Z
H
T
N
N
0
PN dxdt =
Green
PN dxdt
Z
Z
,C H hr~ ; r~ P i dxdt
0
Z Z @ P ddt :
+C H
| 0 =0{[email protected]
}
T
B
N
N
T
B
N
N
(3.7)
N
N
@
Cinquieme terme:
Z
Z
X
A4 H hr~ T
N
k=1
Z
Z
X
A4 H hr~ k=1
k
0
k
; r~ Pk i dxdt
X ZZ
=1 0
X ZZ
+ A4 H
| =1 0 =0{z
T
N
k
N
Green
~
= ,A4 Hk
k ; rPk i dxdt
T
k
0
k
Pk dxdt
T
N
k
k
@
k
@Pk ddt :
@n
}
Appliquons encore une fois la formule de Green, on a :
Z
Z
X
~
A4 H hr
T
N
k=1
k
0
X Z Z hr~
=1 0
X ZZ
,A4 H @
N
Green
~
= A4 Hk
k ; rPk i dxdt
T
k
k
T
N
k=1
k
[email protected]
; r~ Pk i dxdt
@n Pk ddt:
k
(3.8)
Regroupement des termes.
Pour ne pas alourdir les notations, on note par Q( ; P ) le membre de gauche de (3.3).
Regroupons tous les termes (3.4) (3.5) (3.6) (3.7) et (3.3) dans Q( ; P ), celui-ci devient
84
Formulation de l'adjoint de l'equation QG.
donc :
Q( ; P ) =
XZ Z
,
@ hp 1 P , p 1 + p 1 P + p 1 P i : dxdt
,2
+2
, 2 ,1
@t + 2 +1
T
N
,
T
N
k
p + 12 J (
=1 0
ZZ
, H
T
N
=1
k
X
+ H
k
=1
k
0
ZZ
p , 12 + p + 12 J (
k
ref
k
) + f)
k
=1
k
,1 ; P ,1 )
ref
k
k
i
: dxdt
k
~ P + A4r
~ P i dxdt
;P ) , C r
k
k
k;N
B
N
3=
k
t
N
T
k
k
k
0
; P ) + p , 12 J (
k
k
@ P ddt + 4XH Z ( ) P dx5 :
@n
=1
=0
T
,A4 H
ref
k
ref
2
Z Z
N
k
dxdt
k
k
0
k
k
+1 ; P +1 ) ,
k
k
k
~
hr~ ; @ [email protected] + r~ J (
k
X
k
k
J (P ; (
T
N
k
ref
k
X
k
k
k
=1 0
XZ Z h
k
k
k
k
k
@
t
De nissons ( ) par :
k
8k = 1; 2; : : : ; N:
= H :P
k
k
k
En utilisant aussi les deux relations a = p H,1 2 et b = p H+1 2 , exprimons le membre
de gauche de (3.3) en fonction de :
k
=
k
k
k
Q( ; P ) =
XZ Z
,
=1 0
XZ Z h
k
,
T
N
k
@ [a , (a + b ) + b ] : dxdt
,1 ,1
@t +1 +1
T
N
=
k
k
k
a +1J (
k
=1 0
XZ Z
k
k
k
k
k
+1 ; +1 ) , (a + b ) J (
ref
k
k
k
k
k
ref
k
; ) + b ,1 J (
k
k
i
,1 ; ,1 ) : dxdt
ref
k
k
k
k
,
T
N
J ( ; (
k
=1 0
XZ Z
ref
k
) + f)
k
dxdt
k
+
k
~
hr~ ; @ [email protected] + r~ J (
T
N
k
=1 0
,A4
XZ Z
N
k
ref
k
T
=1 0
k
2
k
k;N
B
N
3=
@ ddt + 4X Z ( ) dx5 :
@n
=1
=0
t
N
k
k
@
~ + A4r
~ i dxdt
; ) , C r
k
k
k
t
85
k
T
(3.9)
Chapitre III.
Introduisons les deux operateurs suivants :
@ [a , (a + b ) + b ]
S () = , @t
+1 +1
,1 ,1
h
, a +1J ( +1; +1) , (a + b ) J ( ; ) + b ,1J (
,J ( ; ( ) + f );
def
k
k
k
k
k
k
k
k
ref
k
k
et :
k
k
k
k
k
i
,1 ; ,1 )
ref
k
k
ref
k
+ J(
T () = @@t
def
ref
k
k
k
ref
k
; ) , C + A4 :
k
k
k;N
B
N
k
(3.10)
Donc (3.9) s'ecrit :
XZ Z
T
N
Q( ; P ) =
k
k
=1 0
XZ Z
N
:S () dxdt +
k
k
XZ Z
,A4
N
T
@
hr~ ; r~ T ()i dxdt
k
=1 0
2 Z
X
ddt + 4
@ @n
N
k
k
=1 0
k
T
( )
k
=1
k
k
k
3
dx5
2 Z
X
,4
N
=
t
k
T
=1
( )
k
k
3
dx5
=0
:
t
Soit ,1 l'inverse du l'operateur laplacien introduit comme dans (2.31). Supposons
que soit assez reguliere pour que S () 2 L2(0; T ; H ,1( )) . Remplacons S () par
,1S () et integrons par parties, nous avons :
d
N
k
d
k
k
XZ Z
T
N
Q( ; P ) =
k
k
=1 0
,A4
N
XZ Z
k
T
=1 0
XZ Z
T
N
+
k
=1 0
2 Z
X
+4
N
k
T
=1
()) dxdt +
XZ Z
k
2
@
T
N
hr~ ; r~ T ()i dxdt
k
=1 0
k
3
2
3
@ ddt + 4XZ ( ) dx5 , 4XZ ( ) dx5
@n
=1
=1
=
=0
N
N
k
k
=1 0
N
k
d
XZ Z
k
Q( ; P ) = ,
( ,1S
k
k
k
k
hr~ ; r~ ,1S ()i dxdt +
k
k
d
k
N
k
( )
k
k
3
dx5
t
2 Z
X
,4
N
=
T
k
=1
k
k
T
=1 0
k
t
k
@ ddt
@n
k
k
@
( )
k
d
@
ZZ
T
@ ,1S () ddt
@n
T
=1 0
X
hr~ ; r~ T ()i dxdt , A4
k
t
XZ Z
N
k
k
3
dx5
=0
:
t
Regardons l'integrale sur le bord @ provenant de l'integration par parties, on utilise
aussi le fait que est constante sur le bord pour la faire sortir de l'integrale :
k
Z
k
@
@ ,1S () d =
@n
d
k
j
Z
k
@ ,1S () d
@n
d
@
@
86
k
Formulation de l'adjoint de l'equation QG.
=
Green
Z
@ ,1
Sk () d
k
@n d
@
2
Z
6
4
j
[email protected]
=
Z
j
,d 1Sk () dx +
Z
3
~ 1I( )i dx7
hr~ ,d 1Sk (); r
5
| {z }
=0
Sk () dx:
[email protected]
(3.11)
Montrons que les integrales en espace des termes contenant les operateurs Jacobiens
dans la de nition (3.10) de Sk () sont nulles. En e et :
Z
Z
Z
ref
ref
ref @ k
J(
; ) dx = , J (1I( ); ) :
dx +
d = 0:
k
k
|
k
{z
=0
Pour la m^eme raison, on a :
Z
Z
ref
J ( k,1 ; k,1 ) dx = J (
Et on
Z a aussi :
J (k ; k (
Z
= ,
ref
))} :
{z
=0
k ( ref ) + f
@
ref
k+1 ;
{z }
|@
=0
k+1) dx = 0:
@ ,1
Sk () d
k
@n d
dx +
Z @ k
k ( ref ) + f
d
|@
{z }
@
Donc l'egalite (3.11) devient :
Z
k
@
) + f ) dx =
J (k ; 1I(
|
k
}
Z @
= , [email protected]
@t
= , [email protected]
@
@t
= , [email protected]
@
@t
Z
= 0:
=0
[ak+1k+1 , (ak + bk ) k + bk,1 k,1] dx
ak+1 k+1
Z h
Wt
i
k
, (ak + bk ) k + bk,1 k,1 dx
: dx;
( ou [W t]k represente le kieme ligne de la transposee de la matrice de couplage des couches ).
On integre cette expression en temps et ensuite faisons aussi une integration par parties :
N ZT Z
X
k
k=1 0 @
= ,
@ ,1
Sk () ddt
@n d
N ZT
X
k=1 0
=
@t
j
[email protected]
N ZT
X
@ k=1 0
@
@t
j
[email protected]
Z h
Wt
=
i
k
: dxdt
2
N
X
W t : dxdt , 4
k
k=1
Z h
i
87
j
[email protected]
Z h
Wt
i
k
3t=T
: dx5
:
t=0
Chapitre III.
Introduisons = [B ,1: ] la transformation en modes de (avec [B ] la matrice de
transformation inverse de modes en couches normalisee de telle sorte que : B 1 = 1 8k ),
nous avons :
k
k
k;
XZ Z
T
N
k
=1 0
k
@
@ ,1S () ddt =
@n
XZ
T
N
=
=1 0
XZ
=
k
T
=1 0
@ [B ] :
j
@t
k
k
N
k
d
@ @t j
k
@
t
i
B
@
t
N
k
@
k
k
t
t
N
t
T
t
k
Z h
2
3=
Z h i
X
W : dxdt , 4 [B ] :j
W : dx5
=1
=0
2
3=
Z
i
h
i
X
:W : dxdt , 4 j
B :W : dx5 :
=1
=0
Z h
t
t
k
k
T
t
@
k
k
t
Or, comme W = B:D:B ,1 (ou [D] = diag(d1; : : :; d ) la matrice diagonale formee par
des valeurs propres de W ; d 0), donc B :W = B :B , :D:B = D:B , d'ou :
N
t
k
XZ Z
N
k
@ ,1S () ddt =
@n
T
=1 0
k
X Z
Z h
@ =
d @t
j
=1 0
T
N
t
t
t
t
k
d
@
t
k
k
B
@
t
2
X
: dxdt , 4 d
=1
i
N
k
k
k
k
Z h
j
k
B
@
t
i
k
3=
: dx5
t
T
=0
:
t
Donc le resultat nal de transposition que l'on retient de Q( ; P ) est :
Q( ; P ) =
XZ Z
T
N
k
k
=1 0
k
X Z
@ + d @t
j
=1 0
k
k
B
@
t
k
,A4
XZ Z
N
T
=1 0
2
XZ
4
+
=1
k
@
N
k
k
k
d
Z h
T
N
hr~ ; r~ T () , ,1S () i dxdt
@ ddt
@n
2
X
: dxdt , 4 d
=1
i
N
j
k
k
Z h
k
k
@
B
t
i
k
3=
: dx5
t
T
=0
t
k
k
3
2
( ) dx5 , 4
XZ
N
k
=
t
T
k
=1
88
3
( ) dx5 :
k
k
=0
t
(3.12)
Formulation de l'adjoint de l'equation QG.
3.4 Interpretation de l'adjoint faible sous forme des
equations aux derivees partielles fortes.
3.4.1 Observations completes de la fonction de courant en surface .
Dans cette partie nous supposons que l'on ait des observations uniquement sur la
fonction de courant en surface (couche k=1) mais qui sont uniformement distribuees en
espace-temps. Plus precisement nous voulons minimiser dans l'espace la fonctionnelle :
J ( 0) = 12 k 1 , 1 k2 2(0 ; 2( ));
(3.13)
ou 1 est la fonction de courant en surface correspondant a la solution de l'equation
quasi-geostrophique non-lineaire prise avec 0 comme condition a l'instant initial. 1
est le vecteur (( d'observation )) suppose xe dans 2(0 ; 2( )).
On introduit la fonctionnelle (( sans contrainte )) suivante correspondant a J :
H
obs
L
;T L
obs
L
Jf ,! RZ
( ) ,̀! 1
20
T
Z 1,
k
;T
obs
1
2
L
(3.14)
dxdt:
Calculons la di erentielle de Jf en un point appliquee a . Pour cela, developpons
la di erence suivante entre deux points de la fonction Jf:
Z Z 2 2
+ 1,
Jf( , ) , Jf( ) = 12 0
,
,
1
1
1
1
Z
Z
Z Z ,
( 1)2
=
+ 12
1
1
1
T
obs
T
=
Jf( , ) , Jf( ) Z Z T
hrJf( );
i
~
W
(0 )
;T 0 ;W
(0 )
;T
T
,
obs
1
1
0
=
obs
1
0
Z Z La derivee est donc :
,
1
Z Z dxdt
2
1 dxdt + k 1 k 2 (0 ; 2( ))
1 dxdt + k
obs
1
0
dxdt
0
L
,
T
dxdt
T
obs
0
obs
1
;T L
k2 (0
W
;T
):
8 2 (0 )
1 dxdt
W
;T :
Transformons cette di erentielle de telle facon qu'elle soit homogene avec l'expression
transposee (3.12).
Z Z T
0
,
1
obs
1
1
dxdt
=
Z Z
T
,1
0
Z Z
= ,
T
0
89
d
hr,1
~
d
,
1
obs
1
,
1
1 dxdt
~
1 i dxdt
1 ;r
obs
Chapitre III.
Z TZ
@ ,1 obs
(
,
)
ddt
1
1
@n d
0 @
Z TZ
~
,
hr~ ,d 1 1 , obs
1 ; r 1 i dxdt
+
=
Z TZ ,
1
0
obs
1
1 dxdt
0
Z
+
1
T
[email protected]
0
Z TZ
= ,
hr~ ,d 1
0
Z TX
N
+
Z 0 j =1
,
1
obs
1
dxdt
obs
~
1
1 ; r 1 i dxdt
Z , obs dxdt;
1
1
,
B1j :[email protected]
(3.15)
ou [Bij ] est la matrice de transformation de modes en couches, et j est le jieme mode
correspondant a : c.-a-d. j = [B ,1]j : .
Or nous avons aussi :
Z
Z
j dx = ,
Z
hr~ j ; r~ ,d 1 (1I(
~ j
= , hr
~ ,1 (1I(
;r
d
))i dx +
Z
@
,d 11I( ) d
j @n
@
))i dx + [email protected] j j:
(3.16)
Utilisant (3.16) pour remplacer dans (3.15) nous obtenons :
Z TZ 0
,
1
Z TZ
,1 , obs ; r
~
~ 1 i dxdt +
dxdt
=
,
h
r
1
1
d
1
1
0
Z
Z TX
Z Z
N
1
obs
,
1
~
~
+
B1j
hrj ; rd (1I( ))i dx +
1 , 1 dy: j j
0 j =1
obs
j dx dt:
Or, l'une des conditions aux limites donne :
Z
j dx = 0 8j 2
et aussi, en revenant en couche,
N
X
j =1
Donc :
Z TZ 0
,
1
obs
1
1 dxdt
~ j
B1j :r
Z TZ
= ,
0
~ 1:
= r
hr~ ,d 1
Z TZ
1
+j j 0
B11 Z T Z
+j j
,
1
obs
,
obs
,
obs
0
90
1
1
1
1
1
~ 1 i dxdt +
;r
Z
dy:
dy:
Z
hr~
~ d
1; r
1 dx dt:
,11I(
)i dx dt +
Formulation de l'adjoint de l'equation QG.
Cette expression devient :
Z Z
T
0
hr~ ,1
"
d
,
B11 Z Z +
,
j j
T
1
0
,
obs
1
obs
1
1
dy:
Z
+ j1j
" Z
,
obs
1
, hr~ 1
1
~ ,1 1I(
;r
d
#
~ 1 i dxdt
) ;r
dy:1I(
)i dx +
Z
@ ,11I(
1 @n
d
@
Le terme sur le bord s'annule car 1 = 0 sur @ . Remplacons aussi 1 par
la di erentielle se transforme sous sa forme nale :
X ,1
B1
=1
N
k
k
,
k
,
1 dxdt =
(0 ) (0 ) =
1
1
0
#
"
Z Z
Z 1
,
1
~ 1 i dxdt
~
hr , 1 , 1 + j j
1 , 1 dy:1I( ) ; r
0
XZ Z
B11:B1,1 Z ~
~ ,11I( )i dx dt:
, 0 hr ; j j
,
(3.17)
1
1 dy:r
=1
hr~ Jf( );
=
Z Z #
) d dt:
i
T
W
;T
0;W
obs
;T
T
obs
obs
d
N
T
k
obs
k
d
k
De nition du Lagrangien.
On peut considerer le probleme de minimisation de (3.13) comme en fait un probleme
de minimisation de (3.14) mais avec la contrainte (( est une solution du modele )).
Or, souvent pour les problemes de l'optimisation sous contraintes, on s'interesse a une
fonctionnelle appelee (( Lagrangien )) a cause de sa relation directe avec le mutiplicateur
de Lagrange. De nissons donc pour notre probleme le Lagrangien suivant :
L:
W (0; T ) W (0; T )
( ; )
,! R
,̀! Jf( ) + h QG( ) ; iV V ;
0;
(3.18)
ou h QG( ) ; iV V represente la formulation faible de l'equation quasi-geostrophique de
appliquee a .
0;
On de nit aussi la notion de point-selle du Lagrangien comme suit :
On dira que ( ; ) est un point selle de L si :
L(
; )
L(
; )
L( ; )
8 ; 8:
Nous avons le theoreme suivant qui souligne l'importance du Lagrangien :
Lemme 3.4.1
0 2 H.
Soit
91
Chapitre III.
Supposons que qu'il existe un unique 2 W (0; T ) tel que
(t = 0) = 0.
Supposons que L soit derivable. Soient trois conditions :
(i) Il existe tel que le couple (
W (0; T ).
(ii)
0
;
( ) dans V 0 et que
QG
) soit un point-selle du Lagrangien sur (0 ) W
;T
est une solution du probleme de minimisation de (3.13) sur H .
(iii) Il existe tel que le couple ( ; ) soit un point stationnaire du Lagrangien sur
W (0; T ) W (0; T ) (c.-
a-d. la di erentielle de L en ce point s'annule).
Alors :
on a l'implication ( ) ) ( ).
Si l'operateur 7! ( ) est di erentiable au point et que cette di erentielle est
un isomorphisme de (0 ) dans V 0, alors on a de plus l'implication ( ) ) ( ).
i
ii
QG
W
;T
ii
iii
Nous admettons la demonstration de ce resultat ainsi que les remarques suivantes.
Pour plus de precision on peut consulter n'importe quel bon livre sur les problemes d'optimisation.
Remarque:
1. L'hypothese supplementaire exigee dans la deuxieme implication exprime tout simplement l'existence et l'unicite des soultions de l'equation quasi-geostrophique linearisee
que nous avons montre dans le chapitre II.
2. La condition (iii) est dite systeme d'optimalite qui exprime donc une condition necessaire du premier ordre au point optimum. La variable adjointe en ce point est le
multiplicateur de Lagrange. Pour expliciter cette condition on a souvent besoin de transposer la derivee (ou la matrice Jacobienne) du modele, c.-a-d. le modele linearise. Les
equations obtenues apres cette transposition sont appelees les equations adjointes.
3. Si l'on se place en un point quelconque dans l'espace de contr^ole c.-a-d. le domaine
de de nition de la fonctionnelle J , apres avoir resolu le modele direct et adjoint en ce
point, la projection de la variable adjointe obtenue sur l'espace de contr^ole donne le vecteur gradient de J en ce point.
4. Dans le cas ou la fonctionnelle J ( 0) est convexe, en particulier quand le modele
est lineaire, ces trois conditions sont equivalentes.
Interessons-nous maintenant a expliciter cette condition (iii) precisement dans notre
cas d'etude.
92
Formulation de l'adjoint de l'equation QG.
E criture de la condition @@ L ( ; ) = 0.
La condition @ L ( ; ) = 0 est equivalente a :
@
@ Jf( ) + @ hQG( ); i ( ; ) = 0:
(3.19)
@
@
L'application de la forme di erentielle @ hQG( ); i( ; ) a la variable revient
@
a resoudre le modele linearise autour de l'etat , ou est l'inconnue. En utilisant
donc la formule de transposition de la formulation faible de l'equation linearisee (3.12) et
l'expression de la derivee de Jf (3.17), ensuite en remplacant ces deux expressions dans
(3.19) - si =
et = - nous obtenons la relation :
ref
XZ Z
T
N
k
k
=1 0
hr~ ; r~ T () , ,1S () i dxdt
k
k
d
2
3=
Z
h
i
X
@ + d @t
B : dxdt , 4 d j
B : dx5
j
=1 0
=1
=0
2
3=
Z
Z
Z
X
@ ddt + 4X ( ) dx5
,A4
@n
=1 0
=1
=0
" #
Z Z
Z 1
,
1
~
~ 1i dxdt
+
hr , 1 , 1 + j j
1 , 1 dy:1I( ) ; r
0
X Z
Z h
T
N
k
k
t
i
@
k
k
@
k
k
T
N
T
t
k
k
t
N
t
t
N
T
k
k
k
k
k
k
@
T
t
obs
obs
d
XZ Z
,1 Z ~ ; B11:B1
h
r
j j
=1 0
= 0
8 2 W (0; T );
,
N
T
k
k
,
obs
1
1
~ ,11I( )i dx dt
dy:r
d
k
(3.20)
avec () = [B ,1]( ) la transformation en modes de , d est le kieme valeur propre de
la matrice couplage des couche [W ] (d 0), et avec les de nitions des operateurs S et
T suivantes :
k
k
k
k
@ [a , (a + b ) + b ]
S () = , @t
+1 +1
,1 ,1
h
, a +1J ( +1; +1 ) , (a + b ) J ( ; ) + b ,1J (
,J ( ; ( ) + f );
k
k
k
k
k
k
k
ref
k
et :
k
k
k
k
k
k
ref
k
+ J(
T () = @@t
k
ref
k
k
k
ref
k
; ) , C + A4 :
k
k;N
93
B
N
k
k
i
,1 ; ,1 )
ref
k
k
Chapitre III.
Interpretation de l'adjoint faible comme une equation aux derivees partielles.
Dans la relation (3.20) la variable est prise dans L2(0; T ; H01( ))N , elle est donc
nulle sur le bord @ [0; T ]. Montrons le fait suivant, qui dans certain sens est assez
remarquable : si l'on ajoute a les fonctions constantes par rapport aux variables d'espace
(mais qui peuvent varier eventuellement par rapport au temps), alors la relation (3.20)
reste encore (( pratiquement )) vraie.
En e et, le membre de gauche de (3.20) depend lineairement de . Il sut donc
que l'on veri e qu'il s'annule pour des fonctions de la forme = C (t) 1I( ), avec
dC (t)
C (t) 2 L2 (0; T )N et avec la derivee au sens des distributions
2 L2(0; T )N ( ou bien
dt
C (t) 2 H 1 (0; T )N ). Regardons d'abord la somme uniquement des termes avec integrales
continues en temps (c.-a-d. on ne considere pas pour le moment les termes en t = 0 ou
t = T ) dans (3.20). Il est facile de voir que quand est de cette forme, la somme se reduit
aux deux seuls termes :
,
N ZT Z
X
k=1 0
=
N
X
~ ,d 1Sk ()i dxdt + dk
k; r
hr~
N ZT Z
X
k=1 0
k=1
hr~
k;
ZT @ @t
0
[email protected]
Z h
Bt
i
k
dxdt
@
[ak+1k+1 , (ak + bk ) k + bk,1k,1 ]i dxdt
r~ ,d 1 @t
ZT @ N
X
+ dk @t [email protected]
k=1 0
Z h
Bt
i
dxdt;
k
(3.21)
~ , soit , s'annulent a
(en remarquant que les autres termes qui font intervenir, soit r
cause de la constances des en espace).
Appliquons la formule de Green en espace, et pro tons du fait que ne depend pas
de la variable d'espace pour le faire sortir de l'integrale sur . (3.21) devient :
N ZT Z
X
k=1 0
hr~
k;
r~ ,d 1 @[email protected] [ak+1k+1 , (ak + bk ) k + bk,1 k,1]i dxdt +
ZT @ N
X
+ dk @t [email protected]
k=1 0
=
Green
,
Bt
i
dxdt
k
N ZT
X
@
k=1 0
[a , (ak + bk ) k + bk,1 k,1]
@t k+1 k+1
N ZT Z
X
+
Z h
k=1 0 @
k
Z
k dxdt
+
@ ,1 @
[a , (ak + bk ) k + bk,1k,1 ] ddt +
@n d @t k+1 k+1
ZT @ N
X
+ dk @t [email protected]
k=1 0
j j
h
Bt
i
k
dt
94
Formulation de l'adjoint de l'equation QG.
N Z
X
@
T
,
=
k=1 0
[W ]k @t
t
Z
dxdt +
k
ZT N
X
@
N ZT Z
X
h
k=1 0 @
k
@ ,1 @ t
[W ]k ddt +
@n d @t
i
+ dk @t [email protected] j j B t k dt:
k=1 0
Utilisons l'egalite matricielle W = B:D:B ,1, donc, W t = B ,t:D:B t, cette expression
devient :
N Z
X
@
T
= ,
k=1 0
N
X
@t
[B ,t:D:B t]
ZT
@
[email protected]
+ dk @t
k=1 0
= ,
N ZT
X
@
k=1 0
[D:B ]k @t
t
ZT @ N
X
+ dk @t [email protected]
k=1 0
ZT @
N
X
= , dk
k=1
Z
k
j j
Z
k
h
Bt
[B ,1]
j j
h
dxdt +
i
k
i
k
Z
0
T
Z
N
X
@ + dk @t [email protected]
k=1 0
ZT @
N
X
j j
h
Bt
i
k
Z
N ZT Z
X
k=1 0 @
ZT @ N
X
+ dk @t [email protected]
k=1 0
ZT @
N
X
ZT Z
N
X
k=1
dk
h
Bt
i
k
Z
@ ,1 @
[B ,1]k @n
d @t [D:B t]k ddt +
[email protected]
k @ ,d 1 @ [B t]k ddt +
@n
@t
dt
ZT
N
X
j j
@ ,1 @ ,t
[
B :D:B t]k ddt +
d
@n
@t
dt
= , dk @t [B ]k k dxdt + dk [email protected]
k=1 0
k=1 0
t
k
dt
[B ]k k dxdt +
@t
t
k=1 0 @
dxdt +
k
Bt
N ZT Z
X
Z @
@t
[B t]k dxdt +
dt
ZT
N
X
@ t
= , dk @t [B ]k k dxdt + dk [email protected] j j @t
[B ]k dt +
k=1 0
k=1 0
t
ZT @ N
X
+ dk @t [email protected]
k=1 0
ZT @
N
X
t
ZT @
N
X
t
j j
h
Bt
i
k
dt
Z
ZT @ N
X
Z
N
X
= , dk @t [B ]k k dxdt + j j dk @t [email protected] [B t]k dt
k=1 0
k=1 0
h
it=T
= , dk @t [B ]k k dxdt + j j dk [email protected] [B t]k t=0 :
k=1 0
k=1
95
Chapitre III.
En remarquant
que d1 = 0 et que pour tout k 2 on a la condition de conservation
Z
de la masse : k dx = 0, il ne reste donc dans l'expression plus haut que le terme :
Somme des termes en temps dans (3.20) = j j
N
X
h
it=T
[email protected] [B t]k t=0 : (3.22)
dk
k=1
Voyons maintenant la somme des termes en t = 0 et t = T :
2
3t=T 2
Z h i
N
N Z
X
X
t
4
5
4
, dk [email protected] B k : dx +
k (
k=1
k
=1
t=0
"
#t=T
N
h
i
X
t
= , j j
j
dk k
@
k=1
2
N Z
X
4
+
k (
k=1
B
k
3t=T
) k dx5 :
t=0
3t=T
) k dx5
t=0
=
+
(3.23)
t=0
Donc, en ajoutant (3.22) et (3.23), nous obtenons la somme de tous les termes de
(3.20) - toujours dans le cas constante en espace. En conclusion, pour ce cas, dans cette
somme il ne reste donc que :
2
N Z
X
4
k (
k=1
3t=T
) k dx5 :
t=0
(3.24)
Il est facile a voir que ce terme ne s'annule en general pas pour des fonctions constantes. Mais si l'on reecrit l'egalite (3.20) d'une autre facon, en ecrivant uniquement
le terme (3.24) dans (3.20) non avec mais avec def
= , [email protected] :1I( ), on conclut donc que
cette reecriture de (3.20) est encore vraie non seulement pour les fonctions nulles au
bord @ [0; T ] mais pour des telles que : pour chaque instanst t 2 [0; T ], elles soient
constantes sur le bord du domaine @ (et cette constante peut varier au cours du temps).
De plus le terme en question peut s'ecrire d'une maniere plus symetrique en repassant en
k comme suit :
Pk =
H
k
2
N Z
X
4
k (
k=1
2
= ,4
=
3t=T
) k dx5
N
X
Hk
Z
t=0
hr~
k=1
2
Z
N
X
, 4 Hk hr~
k=1
k;
k;
r~ Pk i dx +
r~ Pk i dx +
N
,1
X
pk+ 1
2
k=1
N
,1
X
k=1
Z
pk+ 1
2
96
Z
(
k+1
, k)
(
k+1
, k ) (Pk+1 , Pk )
P k+1
,Pk
3t=T
dx5
t=0
3t=T
dx5
;
t=0
Formulation de l'adjoint de l'equation QG.
(car comme dans la demonstration du lemme 2.2.1 nous avons
Z
k
+1 ,
k
dx
= 0).
Gr^ace a cette constatation nous allons pouvoir interpreter notre formulation faible en
quatre etapes comme suit :
Etape
1:
Comme on sait que, si l'on rajoute a la variable des fonctions constantes en espace,
on ne change pas la valeur logique de l'egalite (3.20), on choisira donc dans cette etape
des fonctions constantes en espace a ajouter judicieusement de telle sorte que :
8
>
>
>
>
>
>
>
>
>
>
<
(t) C (t) sur @
te
k
k
si
>
>
>
>
>
>
>
>
>
>
:
8t 2 [0; T ] 8k = 1; : : : N
= [B :] alors
1 0 sur @ [0; T ] et
k
Z
def
t
(3.25)
k
k (t) dx
= 0 8t 2 [0; T ] 8k 2:
Etape
2:
Dans (3.20),
prenons des fonctions ( ) 2 [D(]0; T [ ) \ W (0; T )] . Les termes
Z
contenant [B ]: dx s'annulent gr^ace au choix de l'etape 1. Les termes au bord @ ,
~ , on
en t = 0 et t = T s'annulent aussi car est a support compact. Par densite des r
exige donc que veri e l'equation suivante sur ]0; T [ :
N
k
t
, 1,1
k;
d
"
,
1
obs
1
Z
+ j1j
B11:B1,k1
, j j
Z 97
Tk ()
,
1
,
1
obs
1
, ,1S ()#
obs
1
d
k
dy:1I(
1 1I(
dy ,
d
)
) = 0:
Chapitre III.
Appliquons l'operateur laplacien des deux c^otes, cette equation est equivalente a :
@ + J ( ; ) , C : + A :2 +
8
>
>
>
>
>
>
>
>
>
>
>
>
>
>
>
>
>
>
>
>
>
<
k
ref
4
@t
@ [a , (a + b ) + b ]+
+ @t
+1 +1
,1 ,1
h
i
+ a +1J ( +1; +1) , (a + b ) J ( ; ) + b ,1 J ( ,1; ,1 ) +
>
>
+J ( ; ( ) + f )
>
>
"
#
>
Z >
>
1
>
>
>
= 1 1 , 1 + j j
>
1 , 1 dy:1I( )
>
>
>
>
>
>
,1 Z >
>
>
,
>
+ B11j :Bj 1
:
1
1 dy 1I( ):
k
k
k
k
k;N
k
k
B
k
N
k
k
ref
k
k
k
ref
k
k
k
k
k
ref
k
k
k
k
k
ref
obs
obs
k;
(3.26)
k
obs
Etape
3:
D'apres le theoreme de traces, quand!une fonctions u varie dans H 3( ), son triplet des
2u
@u
@
derivees normales au bord u; @n ; @n2 varie de facon surjective sur l'espace H 25 (@ ) H 32 (@ ) H 12 (@ ). Or on sait que 8t ; (t) 2 H 3( ) et en plus elle veri e les deux
conditions suivantes :
8
>
=C
sur @ ;
<
2
2
@
1
@
@
>
: =
@n2 + R @n + @s2 = 0 sur @ ;
k
te
k
k
k
k
k
(ou s est une parametrisation par l'abscisse curviligne de la frontiere, n est comme d'habitude le vecteur normal exterieur au domaine et R le rayon de coubure algebrique de la
frontiere, signe positivement suivant la direction de ~n).
Fixons un t, supposons que soit assez regulier de telle sorte que la courbure de la
frontiere R(1x) appartienne a C 0(@ ). Soit g 2 H 52 (@ ) une fonction quelconque et xee,
d'apres le theoreme de traces, on pourra choisir un relevement (relevement continu
par rapport a la norme H 3( )) veri ant :
8
>
= C
>
>
>
k
k
>
>
>
<
>
>
>
>
>
>
>
:
te
k
@
@n = g
@2 = , 1 g
@n2
R
sur @ :
k
k
k
k
Par construction veri e les conditions aux limites imposees. On vient donc de
montrer que l'application qui, a ( ) dans W (0; T ), associe sa derivee normale @@n est
k
k
k
98
Formulation de l'adjoint de l'equation QG.
surjective dans L2(0; T ; H 52 (@ ))N . Par densite de cet espace, et par la presence du terme :
N ZT Z
X
@ k ddt
A4
k
k=1 0 @
@n
dans la relation (3.20), on exige donc la condition suivante sur :
k = 0 sur @ [0; T ] ; 8k:
(3.27)
tape 4 :
E
Comme dans l'etape 3, on utilise le fait que quand varie dans W (0; T ), l'etat initial
(t = 0) et l'etat nal (t = T ) varient tous les deux dans V2. Donc avec la presence du
terme
2NZ
3t=T
X
4 k ( ) k dx5
k=1
t=0
dans la relation (3.20), on exige les deux dernieres conditions suivantes sur :
(t = T ) = 0;
et
(t = 0) = 0:
(3.28)
(3.29)
En (( oubliant )) pour l'instant (3.29), le systeme forme par les equations (3.25), (3.26),
(3.27) et (3.28) donne donc une interpretation de l'equation adjointe faible sous la forme
d'equations aux derivees partielles fortes .
En resolvant cette equation, comme dans la remarque 3 du theoeme 3.4.1, la projection de la solution obtenue sur l'espace de contr^ole Uad - dans notre cadre de contr^ole
par condition initiale il s'agit de (t = 0) - donne le vecteur gradient de la fonction co^ut
J calcule au point ref (t = 0). La condition (3.29) exprime donc tout simplement la
condition d'optimalite du 1er ordre du probleme de minimisation : le gradient au point
calcule doit s'annuler.
De nition :
Rappelons la matrice de couplage des couches (Wkl) :
0
,b1 b1
0 ::: :::
:::
0
B
B
a
,
a
,
b
b
:
:
:
:
:
:
:
:
:
0
2
2
2 2
B
B
...
... ... ...
...
...
W = BB . . .
B
: : : : : : 0 an,1 ,an,1 , bn,1 bn,1
@ 0
0
::: ::: ::: 0
an
,an , bn
99
1
CC
CC
CC
CA
Chapitre III.
ou a = H fg00 1 et b = H fg00 1 .
,2
+2
2
2
k
k
k
k
k
k
Soit l'operateur
() = + [W ] = ( + a +1 +1 , (a + b ) + b ,1 ,1) :
On appelle une equation (( adjointe-quasigeostrophique )) l'equation suivante :
def
t
t
k
k
k
k
k
k
k
k
k
@ () + J ( ; ) + [W ] (J ( ; )) + J ( ; ( ) + f )
@t
(3.30)
2
, C : + A4: = F sur [0; T ] 8k = 1; : : : N ;
t
ref
k
k
k;N
k
B
t
N
ref
k
k
k
k
ref
k
avec la condition nale :
(t = T ) = sur ;
et deux conditions aux limites en espace suivantes :
(3.31)
T
8> (t) C (t) sur @ 8t 2 [0; T ] 8k = 1; : : :N ; tel que :
>>
< si = [B :] alors
>>
Z
>:
1 0 sur @ [0; T ] et (t) dx = 0 8t 2 [0; T ] 8k 2;
te
k
k
k
(3.32)
t
k
k
et :
( ) 0 sur @ [0; T ] 8k = 1; : : : N:
(3.33)
k
2
Nous avons aussi le resultat de l'existence et de l'unicite des solutions de cette equation adjointe donnee precedemment, dont la demonstration peut se faire par les m^emes
methodes que celles de l'equation Q.G. linearisee, a savoir :
(i) estimations a priori des solutions et,
(ii) approximation Faedo-Galerkin ou regularisation elliptique.
On peut aussi le demontrer par la technique de (( transposition )) en utilisant le resultat
de l'existence et de l'unicite des solutions de l'equation Q.G. linearisee du chapitre II precedent. On pourrait consulter le livre de J.L. Lions et E. Magenes [Lions, Magenes,
1968] sur cette technique.
Theoreme 3.4.2 Supposons que
soit dans V \ L1 (0; T ; H 3( )) et dans V2.
Alors pour tout second membre F 2 (V )0 il existe une solution 2 V unique de l'equation
adjointe quasi-geostrophique.
ref
N
100
T
Formulation de l'adjoint de l'equation QG.
Note : les espace X sont des espaces analogues a ceux utilises dans l'equation Q.G.
linearisee en (( transposant )) les conditions aux limites adequates (3.32).
3.4.2 Donnees satellitaires - observations incompletes de la fonction de courant en surface.
Soient (t1; t2; : : : ; tm) m instants, pour simpli er un peu sans perdre la generalite,
nous supposons que les ti soient dans l'intervalle ouvert ]0; T [ (ceci permet d'eviter, pour
des raisons pratiques dans l'explication, une (( contamination )) des observations sur la
condition nale t = T et la condition initiale t = 0 de l'etat adjoint). Soient m courbes
regulieres de : (,1; ,2; : : : ; ,m) (,i symbolise la trace du satellite sur le bassin a l'intant
obs
obs
ti). Et supposons que l'on ait des observations sur ces traces : ( obs
(t1); (t2); : : :; (tm)) 2
L2(,1) L2(,2) : : :; L2(,m ). Considerons le probleme de minimisation suivant :
m Z 2
X
J ( 0) = 21 , 1(ti) , obs
(3.34)
(ti) ds;
i=1
ou 1 est la fonction de courant en surface correspondant a la solution de l'equation
quasi-geostrophique non-lineaire prise avec 0 comme condition a l'instant initial.
On remarque que , solution du modele direct, appartient a C 0(0; T ; H 2( ))N . Donc
le fait de prendre sa norme L2 sur des chemins a des instants discrets est loisible.
Comme dans la section 3.4.1, on commence par regarder la di erentielle de la fonctionnelle (( sans contrainte )) Jf correspondant a J . Faisons le calcul avec le cas ou le systeme
d'observation est sur une seule trace , (a un instant t). La di erentielle de J s'ecrit :
i
hr~ Jf(
ref );
iW (0;T ) ;W (0;T ) =
0
Z ref (t) , obs 1
(t)
,
t) ds 8 2 W (0; T ): (3.35)
1(
~ Jf est une distribution soit du
Formalisons plus generalement le cas ou la derivee r
type (3.35), soit du type masse de Dirac si l'on a par exemple une observation ponctuelle
de l'une des fonctions de courant.
hr~ Jf( ref ); iW (0;T ) ;W (0;T ) = hT; iD
0
0
N
X
=
k=1
hTk ; k iD 8 2 W (0; T ):
0
Z
En identi ant u 2 L a la distribution 7! u: dx, comme dans la section 3.4.1
precedente, formellement pour tout k 2 1; : : : ; N , nous avons ceci :
2
hTk ; k iD = h,d 1Tk ; k iD
~ k ; ,r
~ ,d 1Tk iD + kj hTk ; 1I( )iD
= hr
@
N
X
~ k ; ,r
~ ,d 1Tk iD + Bk;j jj hTk ; 1I( )iD
= hr
@
j =0
0
0
0
0
101
0
0
Chapitre III.
~ k; r
~ ,d 1(,Tk + hTk ; 1I( )iD :1I( ))iD
= hr
j j
Z
+ Bj k;j1 1 dxhTk ; 1I( )iD
)iD :1I( ))i
hTk ; k iD = hr~ k ; r~ ,d 1(,Tk + hTk ; 1I(
D
j j
N
X
)iD r
~ ,d 11I( ))iD :
, hr~ j ; Bk;1B1,;j1 hTk ; 1I(
j j
0
0
0
0
0
0
0
0
j =1
(3.36)
Remarque:
1. Si T est une masse de Dirac y , dans (3.36) on peut prendre ,d 1y dans le sens du
noyau de Green au point y de l'equation de Poisson.
2. Dans le cas (3.35), l'expression ,d 1T a le sens classique des problemes de Dirichlet
variationnels dans H01. En e et, d'apres la continuite de l'application trace de H 1( ) dans
L2(,), la distribution T est dans H ,1( ).
3. Toujours dans le cas ou T est de nie par (3.35), la derivee (3.36) est :
hr~ Jf( ref ); iW (0;T ) ;W (0;T ) =
R ref
(t) , obs ds
,
1
~
~
= hr 1; rd (,T + , 1 j j (t) :1I( ))iD
R ref
N
X
(t) , obs ds
,
1
~
, hr j ; B1;1B1;j , 1 j j (t) r~ ,d 11I( ))iD :
0
0
0
j =1
(3.37)
Utilisant (3.37), la suite des calculs pour formaliser l'equation adjointe pour le probleme de minimisation dans cette partie est la m^eme que dans la partie 3.4.1 precedente.
3.4.3 Observations tomographiques.
Comme dans la section 3.4.2, soient (t1; t2; : : :; tm) m instants, dans l'intervalle ouvert
]0; T [. Soient m segments de droites de : (,1 ; ,2; : : :; ,m ) (,i symbolise le chemin parcouru par les ondes-acoustiques entre une paire d'instruments de mesure, e ectue dans le
obs
obs
bassin a l'intant ti). Et supposons que l'on ait m observations ( obs
(t1); (t2); : : :; (tm) ) 2
Rm. Considerons le probleme de minimisation suivant :
m 2
X
J ( 0) = 21 Ci ( (ti)) , obs
(3.38)
(ti)
i=1
ou est la solution de l'equation quasi-geostrophique non-lineaire prise avec 0 comme
condition a l'instant initial. Ci designe donc l'operateur d'observation tomographique. Cet
102
Formulation de l'adjoint de l'equation QG.
operateur Ci est de la forme :
Ci (
) def
=
NX
,1 Z
k=1 ,i
ik (s):hk+ 1 (s)(
2
) ds
ou ik sont des fonctions de densite xees. hk+ 12 ( ) est la hauteur de denivellation intercouches calculee par : hk+ 21 ( ) = g0f0 1 ( k+1 , k ).
k+ 2
On peut aussi reecrire Ci sous une forme plus pratique suivante :
Ci (
) =
avec : eik =
N Z
X
k=1 ,i
f0
eik (s): k ds
f0
i;k,1 , 0 i;k :
g 0k, 12
g k+ 12
La di erentielle de la fonctionnelle sans contrainte est :
hr~ Jf(
ref );
iW (0;T ) ;W (0;T ) =
0
=
=
hr~ Jf(
ref );
iW (0;T ) ;W (0;T ) =
0
m X
Ci ( ref (ti )) , obs
(ti) Ci ( (ti ))
i=1
m N Z
X
X
Ci ( ref (ti )) , obs
eik (s): k (ti)(s) ds
(ti)
i=1
k=1 ,i
Z X
m X
N Ci ( ref (ti)) , obs
(ti) eik (s) : k (ti )(s) ds
,i i=1 k=1
|
{z
}
ik
Z
ik ( ref ; obs )(s): k (ti)(s) ds:
,i
Il ne nous reste plus qu'a appliquer la formule (3.36) et a terminer la formalisation de
l'equation adjointe pour le probleme de minimisation dans cette partie comme dans 3.4.1.
3.4.4 Quelques remarques.
Dans ces trois exemples de minimisation par rapport a la condition initiale, on peut
resumer la condition d'optimalite comme suit :
Soit 0 une solution du probleme de minimisation par condition initiale J ( 0), alors
il existe (le multiplicateur de Lagrange) tel que l'on ait le systeme d'optimalite suivant :
8 ref
>
(t = 0) = 0
>
>
>
>
>
>
QG( ref ) = F
>
>
>
>
<
(t = T ) = 0
>
>
>
f
>
@J
>
ref )
>
>
QGT
()
=
(
>
>
>
>
: (t = 0) = [email protected]
103
sur ;
sur [0; T ];
sur ;
sur [0; T ];
sur :
(3.39)
Chapitre III.
ou
{ QG : represente l'equation quasi-geostrophique,
{ QGT : l'equation adjointe quasi-geostrophique,
f
{ @ J : la derivee de la fonctionnelle sans contrainte.
@
Dans les deux derniers exemples (observations altimetriques et tomographiques) les
donnees sont discretes en temps. Nous avons suppose que ces observations ne se presentente pas a l'instant t = 0 et t = T . Dans le cas contraire, dans le systeme d'optimalite (3.39), la condition (t = T ) = 0 devient (t = T ) = @ [email protected] (T ) et la condition
(t = 0) = 0 devient (t = 0) = ,@ [email protected] (0).
On remarque aussi une sorte de correspondance suivante : la fonction co^ut J est denie comme l'ecart quadratique des quantites en fonctions de la variable d'etat , si ces
quantites de nies ont un sens sur W (0; T ) ; alors les derivees @ [email protected] ont aussi un sens sur
(W (0; T )) et
. Donc l'equation QGT () = @ [email protected] admet une solution unique
si l'on a une fonction co^ut J (( bien )) de nie.
0
vice versa
3.5 Suites minimisantes pour le probleme de contr^ole.
Dans cette partie nous allons etudier l'existence du contr^ole optimal gr^ace a la technique des suites minimisantes dans le cadre du probleme de contr^ole regularise par un
terme de de Tikhonov. Pour des raisons de coherence dans la presentation, cette penalisation sera introduite seulement dans le chapitre IV (c.f. section 4.5), mais nous supposons
que le lecteur y soit deja familiarise. Nous allons presenter dans le cas des observations
completes de la fonction de courant sur la couche de surface, mais qui peuvent ^etre discretes par rapport au temps. Mais la demarche que nous allons exposer sur cette technique
peut s'adapter et s'etendre sans trop diculte a d'autres systemes d'observation similaires.
Soient (t1; t2; : : :; tm) m instants de [0; T ]. Considerons le probleme de minimisation
suivant :
Soit a minimiser sur l'espace Uad = H 2( )N \ H , avec H l'espace de ni dans la section
2.5.2 du chapitre II la fonctionnelle regularisee :
m Z X
1
"
0
obs 2
2
J"( ) = 2
(3.40)
1 (ti ) , (ti) dx + :kR( (t = 0))k ;
2
i=1
ou 1 est la fonction de courant en surface correspondant a la solution de l'equation
quasi-geostrophique non-lineaire prise avec 0 comme condition a l'instant initial ; " 2 R
un coecient de regularisation xe, et kR( (t = 0))k2 le terme de regularisation de
Tikhonov sur les vorticites dynamique et thermique, c.-a-d. :
R
R
kR( )k2 def
=
R
N
X
k=1
Z
Hk ( k )2 dx +
104
Formulation de l'adjoint de l'equation QG.
0
N Z
X
@
+
k
.
=1
2
0 (
0
g k+ 1
2
f
Prenons une suite d'elements f
";n
+1 ,
lim
!1 J" (
";n
) = inf
J( )
2U "
(3.42)
:
ad
)gn converge et est donc bornee (par rapport a ), on en
)kRgn est aussi bornee, c.-a-d. :
Z
N
X
2
( ";n
k
k )
";n
J
";n
R
(3.41)
dx:
gn 2 Uad minimisante, c.-a-d. :
n
Comme la suite f " (
deduit que la suite fk (
k
12
A
k ,1 , k )
2
0 (
)
+
k
0
g k, 1
2
f
n
k
=1
H
dx
est bornee. Utilisant la propriete de regularite de l'operateur inverse du laplacien donnant
l'equivalence : k kL2( ) k kH 2( ), on peut extraire une sous-suite de f ";n gn qui
converge faiblement dans 2( ). On notera cette nouvelle sous-suite toujours par la m^eme
notation qu'avant : f ";n gn. Comme 2( ) s'injecte dans 1( ) avec l'injection compacte,
la suite f ";n gn converge donc fortement dans l'espace Uad pour la topologie induite par
1 ( ).
Appelons par "; cette limite forte de f ";n gn dans l'adherence de Uad dans 1( ),
c.-a-d. . D'apres les travaux de C. Bernier [Bernier, 1992], comme le semi-groupe
( 0) 7! ( ) est uniformement continu par rapport a 2 [0 ] (dans le cas ou
H
1) sur , pour chaque instant , on a aussi la convergence : ";n ( ) ,n,,
! ";( ),
!1
en particulier quand = i (instants des observations). Pour chaque instant i on a donc :
Z ";
Z ";
";n
";n
obs 2
obs 2
(
)
,
(
)
+
(
)
,
(
)
,
=
i
i
i
i
1
1
1
1
(ti)
(ti)
Z ";
2
= ( 1 ( i) , ";n
+
1 ( i ))
Z ";n
obs 2
+
+
1 ( i ) , (ti)
Z ";
";n
obs
+2 ( 1 ( i) , ";n
1 ( i))
1 ( i) , (ti)
Z ";
2
obs 2
k ";1 ( i) , ";n
1 ( i ) , (ti)
1 ( i )kL2 ( ) +
H
H
H
H
H
H
:;
T <
:; t
t
H
;T
t
t
t
t
t
t
dx
t
t
t
t
t
:
dx
t
dx
t
t
:
t
dx
t
2
obs
+ ";n
1 ( i) , (ti) L2 ( ) +
+2 k ";1 ( i) , ";n
1 ( i)kL2 (
t
:
dx
dx
t
t
t
t
t
):
";n
1
( i) ,
obs
ti L2
( )
t
( ):
Or, quand tend vers 1 on a :
n
k
(t ) ,
";
1
i
";n
1
( i)kL2 (
t
)
k
(t ) ,
";
1
105
i
";n
1
( i)kH 1(
t
)
,! 0
:
(3.43)
Chapitre III.
Donc, pour la partie (( ecart aux observations )) on a :
m Z X
"; (t )
1 i
i=1
,
obs 2
(ti)
dx
=
m Z X
"; (t )
1 i
i=1
,
obs 2
(ti)
dx
m
X
k
"; (t ) , ";n (t )k2
i L2 ( )
1 i
1
i=1
m
X
";n (t ) , obs 2
liminf
i
1
(ti) L2 ( )
n=1;:::;1 i=1
m Z X
";n (t ) , obs 2 dx:
liminf
i
1
(ti)
n=1;:::;1 i=1
(3.44)
Pour la partie (( regularisation )), comme l'application 7! k ( )k2R est semi-continue
inferieurement dans 2( ) fort, et convexe, en particulier elle est donc faiblement semicontinue inferieurement dans 2( ) (c.f. [Brezis, 1992] - Corollaire III.8 page 38). Ensuite, comme la suite f ";ngn converge faiblement dans 2( ) vers ";, on en deduit
que :
k ( ";)k2R nliminf
k ( ";n )k2R
(3.45)
=1;:::;1
R
H
H
H
R
R
Donc (3.44) et (3.45) montrent que
J" (
";)
"; 2 Uad
nliminf
J(
=1;:::;1 "
";n )
:
et de plus :
= inf
J"( )
2Uad
(3.46)
:
Remarque:
Dans le cas des observations satellitaires distribuees sur des traces ,i aux intants i
comme dans la section 3.4.2, l'adaptation de cette demonstration se porte essentiellement
sur l'etablissement de l'inegalite (3.43). Dans ce cas, il sut d'utiliser le theoreme de trace
pour majorer :
t
k
"; (t ) , ";n (t )k
i L2 (,i )
1 i
1
k
"; (t ) , ";n (t )k
i H 1( )
1 i
1
106
,! 0
:
Chapitre IV :
Pratique de l'assimilation
variationnelle - Optimisation
numerique.
4.1 Caracteristiques du modele discret direct.
Le modele numerique que nous utilisons est une discretisation du modele continu a
frontiere fermee. Ce modele ne prend pas en compte pour le moment des conditions aux
limites utilisees generalement avec les frontieres ouvertes du type (( radiation d'ondes ))
ou les conditions aux limites du type (( absorbantes )) (on peut voir la these de E. Blayo
[Blayo, 1992] faisant un survol des methodes numeriques existentes pour traiter ce genre
de frontieres). Or la presence de ces frontieres est indispensable pour les modeles de
circulation d'ocean quasi-geostrophique operationnel sur des bassins realistes : en e et les
hypotheses du modele sont valables seulement dans des regions aux latitudes moyennes,
donc on doit couper le bassin d'ocean suivant la zone de validite des hypotheses, d'ou
l'apparition des frontieres ouvertes. Pour le moment notre etude s'est donc bornee a
un stade de tests purement academiques. Mais notre but est, avant tout, de montrer
la faisabilite ou non de la methode variationnelle et d'evaluer eventuellement le rapport
(( qualit
e / prix )) de la methode avant sa phrase operationnelle. Nous allons donner ici
quelques caracteristiques du modele numerique utilise pour la resolution de l'equation
directe :
4.1.1 Discretisation temporelle.
Nous utilisons une discretisation du type saute-mouton (leap-frog) (( modi ee )) :
( ) +1 , ( ) ,1
)
'
= , [A( )] ,1 :
dt
2t
Les indices en haut donnent le numero du pas de temps ou sont calcules les quantites
en question. [A( )] ,1 represente la somme de tous les termes non evolutifs presentes
dans l'equation. Les termes dissipatifs (frottement et friction) , et 2 sont calcules
d
n
(
n
n
n
;n
107
;n
Chapitre IV.
au pas de temps numero n , 1 et les autres termes (la convection par l'operateur Jacobien
et le forcage du vent) sont calcules au pas de temps numero n. Ce schema se di erencie
du schema saute-mouton classique a cause du decentrage temporel dans le calcul des
termes dissipatifs. Ceci assure une meilleure stabilite de la methode numerique mais a
l'inconvenient de detruire l'ordre deux en temps naturel de la methode saute-mouton
classique. Il est bien connu qu'un autre inconvenient de cette methode saute-mouton
est la presence d'une bifurcation progressive entre la solution calculee aux pas de temps
de numero pair et celle calculee aux pas de temps de numero impair. Pour eviter ce
phenomene, nous appliquons un pas de temps du type d'Euler forward periodiquement
au bout d'un nombre de pas de temps xe prealablement.
4.1.2 Discretisation spatiale.
En espace nous discretisons par un schema de di erences nies sur une grille reguliere
avec le m^eme pas dans les deux directions x et y. Pour l'operateur laplacien, c'est le
schema classique a cinq points :
' +1 + ,1 + +1 + ,1 , 4 :
i
;j
i
;j
i;j
i;j
i;j
h2
i;j
Pour l'operateur Jacobien nous utilisons le schema de discretisation d'Arakawa [Arakawa, 1966]. Ce schema est un schema en second ordre, et en plus il a le tres grand
avantage d'^etre conservatif en energie cinetique et en enstrophie :
1 J ++ (f; g) + J +(f; g) + J +(f; g) ;
J (f; g ) '
3
avec :
1 [(f , f )(g , g ) , (f , f )(g , g )] ;
J ++ (f; g ) =
,1
+1
,1
+1
,1 +1
,1
4h2 +1
1 [f (g
J + (f; g ) =
4h2 +1 +1 +1 , g ,1 +1 ) , f ,1(g +1 ,1 , g ,1 ,1)
,f +1 (g +1 +1 , g +1 ,1) + f ,1 (g ,1 +1 , g ,1 ,1 )] ;
J + (f; g ) = ,J + (g; f ):
i
;j
i
i;j
i
i
;j
;j
i;j
;j
i
i;j
i
i;j
;j
;j
i
i;j
;j
i
i
i;j
;j
;j
i
i
i
;j
;j
i
;j
;j
i
;j
4.1.3 Resolution a chaque pas de temps.
A chaque pas de temps, nous avons le systeme lineaire suivant a resoudre :
+1
n
()
8
>
>
>
>
>
<
>
>
>
>
>
:
2 V tel que :
(
+1 + [W ]
n
) +1 = ( )
n
+1
n
,1 , 2t [A(
n
= S(
,1 ;
n
+1 = C
avec
et
1 +1 = 0 sur @ ; 8k 2
n
)
k
n
108
Z
k
dx
n
;n
sur ;
sur @ ;
n
k
)] ,1
= 0:
(4.1)
Pratique de l'assimilation variationnelle.
Pour resoudre le systeme (4.1), on repasse en modes verticaux :
8 n+1
>
+ [D]n+1 = [B ,1]:S (n,1; n )
sur ;
>
< n+1
(4:1) () > 1 = 0
sur @ ;
Z
>
: 8k 2 on a : nk +1 = Ck sur @ tel que : k dx = 0:
(4.2)
La matrice [D] etant diagonale, les equations veri ees par les modes verticaux sont
decouplees dans l'ecriture (4.2). Nous obtenons N equations d'Helmoltz elliptiques a resoudre. Pour le mode barotrope, la condition aux limites est de type Dirichlet homogene
sur le bord @ . Les methodes de resolution numerique de ce type d'equation sont bien
connues. Nous allons revenir un peu plus tard sur la methode que nous avons choisie. Pour
les modes baroclines (quand k 2), a n de pouvoir traiter leurs conditions de conservation de masses, nous utilisons la technique de (( superposition )) [Holland, 1978] decrite
comme ci-dessous :
Soit a resoudre :
8
< , = f
sur ;
Z
(4.3)
: = C te sur @ tel que :
dx = 0:
On commence a resoudre la m^eme equation mais avec une condition aux limites de
Dirichlet homogene, c.-a-d. :
(
, = f sur ;
=0
sur @
(4.4)
La di erence de ces deux fonctions = , ver e :
8
< , = 0
Z
Z sur ;
: = C te sur @ tel que :
dx = , dx:
Introduisons U une fonction veri ant :
(
U , U = 1I(
U = 0
) sur ;
sur @
(4.5)
et ensuite la fonction de (( superposition )) de base V = U + 1I( ). Veri ons que la
fonction est un multiple de V : en e et appliquons l'operateur , Id a V on trouve :
8
V , V = (: , Id:) U + (: , Id:) 1I( )
>
>
<
= 1I( ) , 1I( )
>
= 0
>
:
et V = 1
109
sur ;
sur @ :
Chapitre IV.
est donc proportionnelle a V : = [email protected] :V . Par consequent, quand on integre sur le
domaine, on a aussi :
Z
Z
dx
Z
= [email protected] : V dx
, dx = [email protected]
:
Z
V dx:
Donc la constante de proportionalite est calculee par :
Z
[email protected]
dx
= Z
V dx
(4.6)
:
Nous nous resumons ici la demarche pour resoudre le systeme (4.3) :
(i) Resoudre (4.4) pour trouver ;
(ii) Resoudre (4.5) pour trouver U ;
(iii) Calculer V = U + 1I( ) ;
(iv) Calculer [email protected] par (4.6) ;
(_v) La solution est donnee par = + = + [email protected] V .
Remarques:
Z
1. Si > 0, alors la quantite V dx est di erente de 0. Voici la preuve :
Nous nommons par 'a l'homothetie de R2 de rapport a (a un nombre reel non nul
donne) suivant :
'a : R2 ,!
R2
(x; y) ,̀! (a:x; a:y):
Et faisons un changement de variable de U : on de nit l'application :
def
Ua : a = 'a ( ) ,! R
x y
X = (x; y ) ,̀! U (',a 1 (X )) = U ( ; ):
a a
p
Si l'on choisit a = , alors Ua veri e l'equation suivante :
(
,Ua + Ua = ,1I( a) sur a;
Ua = 0
sur @ a
D'apres le principe du maximum (voir. [Brezis, 1992]), nous avons une majoration
de Ua :
min x2inf
(x); inf(,1I( a)) @ a
Ua
Ua
(
max sup
110
[email protected] a
Ua
)
(x); sup(,1I( a))
Pratique de l'assimilation variationnelle.
Donc, nous en deduisons la m^eme majoration sur U :
, 1 U(x) 0
8x 2
(4.7)
:
D'autre part, comme U = 0 sur @ , il existe un ouvert O" de sur lequel U ,1+ "
(" nombre reel positif assez petit). Utilisant ceci et (4.7) nous avons :
0
Donc :
Z
U dx
=
Z
O"
Z
V dx
U dx +
=
Z
Z
nO"
U dx +
Z
U dx
,j nO"j , (1 , "):jO"j > ,j j:
1I( ) dx =
Z
U dx +
j j > 0:
C.Q.F.D.
2. Informatiquement, les calculs de V et de son integrale correspondant a chaque mode
barocline ne se font pas a chaque pas de temps mais a l'initialisation du programme. Elles
sont ensuite stockees pour ^etre utilisees a chaque fois que l'on en a besoin.
3. Pour resoudre l'equation de Helmoltz avec la condition de Dirichlet homogene, nous
utilisons un algorithme de resolution utilisant la technique de transformation de Fourier
dans une direction de l'espace pour ramener a un systeme lineaire tridiagonal dans l'autre
direction de l'espace (methode FACR voir [Hockney, 1970]). Cet algorithme est tres
performant du point de vue de la rapidite, on montre que sa complexite est de l'ordre de
(n log n) ou n le nombre de points sur la grille de discretisation.
4.1.4 Remarque sur la stabilite du schema numerique.
On peut etudier la stabilite de ce schema numerique pour l'equation quasi-geostrophique
linearisee autour de l'etat du repos ref = 0. Cette linearisation revient a (( ignorer )) les
termes avec l'operateur Jacobien dans l'equation non lineaire. Cette etude de stabilite se
realise en decomposant la solution dans la base de Fourier discrete en espace. Avec
cette decomposition, il est facile a veri er que la fonction de base la plus instable est
celle de plus haute frequence (correspondant bien-s^ur a une certaine discretisation xee
en espace). Donc c'est celle qui a une frequence qui est egale a l'inverse de la taille de
la maille en espace. En plus la constante de stabilite est proportionnelle a la fois a cette
frequence et a la longueur du pas de temps consideree. Pour cette equation particuliere,
on arrive a montrer que pour assurer la stabilite du schema numerique il faut que le rapt
port x
soit inferieur a une certaine valeur critique. Cette valeur critique depend a son
tour du mode barocline vertical correspondant au plus grande (en valeur absolue) valeur
propre de la matrice de couplage des couches [W ] du modele. Donc plus le modele est
(( barocline )), plus il faut diminuer la longueur du pas de temps, a une resolution spatiale
xee, pour avoir la stabilite du schema. Pour le modele non-lineaire, nous avons constate
informatiquement que la valeur critique calculee comme ci-dessus ne sut plus en general
111
Chapitre IV.
pour assurer la stabilite. Mais cette remarque sur la dependence entre la stabilite et les
longueurs de discretisation dans le cas lineaire reste, dans une certaine mesure, encore
valable.
4.2
4.2.1
Modele adjoint discret.
Introduction.
Pour resoudre numeriquement le probleme de contr^ole optimal, nous utilisons la technique de minimisation de la fonctionnelle d'ecart au sens des moindres carres par des
algorithmes utilisant le vecteur gradient de cette fonctionnelle. La plupart de ces algorithmes de minimisation (sans contrainte) reposent sur le principe de descente suivant :
en partant d'un point quelconque de l'espace, l'algorithme essaie de construire une suite
de points qui converge vers le point du contr^ole optimal a chercher, en faisant diminuer
le plus rapidement possible la fonctionnelle calculee en ces points. La direction reliant
deux points successifs est appele la direction de descente. Cette direction est calculee par
l'algorithme gr^ace aux directions du gradient et aux valeurs de la fonctionnelle evaluees en
di erents points. L'ecacite d'un algorithme de minimisation depend surtout de la qualite
du calcul de cette direction : cela permet de converger avec le moindre nombre d'iterations
possible. Il est bien connu que les algorithmes de descente, pour pouvoir converger, reclament que l'on leur fournisse la valeur exacte du vecteur gradient. Dans les problemes de
contr^ole optimal regis par des equations aux derivees partielles, l'expression du vecteur
gradient dans le cas continu s'exprime analytiquement de facon assez simple a partir de
la variable adjointe. Cette variable adjointe est elle-m^eme solution de l'equation adjointe
de l'equation aux derivees partielles directe linearisee autour du vecteur de contr^ole considere. Les non inities ont tendance a discretiser separement ces deux equations directe et
adjointe continues pour calculer le vecteur du gradient. Or en faisant ainsi, l'equation
adjointe discretisee a peu de chance d'^etre le vrai adjoint de l'equation directe discretisee.
En e et, l'experience montre qu'il est preferable de prendre directement l'adjoint du systeme discret. Dans le cas contraire, on risque d'observer une divergence de l'algorithme
de minimisation.
La programmation de l'equation adjointe demande le plus grand soin de la part du
developpeur a n d'assurer une vraie transposition du (( code direct )). Ce travail demande
generalement un investissement humain non negligeable, m^eme pour des codes de calculs
de moyenne taille et/ou d'un niveau moyen de complexite. Signalons au passage qu'il
existe plusieurs directions de recherche d'etude de logiciel permettant de traiter de facon
automatique la transposition des codes de programmes informatiques en language fortran,
notamment de la part de chercheurs de l'INRIA ([Gilbert, 1991] ou [Rostaing, 1994]).
Dans cette partie nous ne detaillerons pas toutes les etapes de notre travail de transposition discrete, mais neanmoins nous allons essayer de presenter quelques-unes de nos
experiences les plus representatives de ce travail.
112
Pratique de l'assimilation variationnelle.
4.2.2 Linearisation du modele direct.
L'etape de la linearisation du modele direct est tres simple a mettre en uvre. En
e et, le seul instant ou l'on e ectue un calcul non lineaire dans le modele direct, est dans
le calcul de l'operateur Jacobien :
J ( k ; k ( ) + f ):
(4.8)
Supposons que l'on linearise l'equation directe autour d'un etat ref . Si nous gardons
toujours la m^eme variable comme la variable de la solution de l'equation linearisee,
l'ecriture du code linearise s'e ectue en changeant seulement, dans le code non lineaire,
le calcul du terme Jacobien. Dans le code initial ce calcul du terme de Jacobien, etant
lineaire par rapport a chacun de ses arguments, se decomposera donc en deux sous-calculs
de Jacobien :
ref ) + f ):
(4.8) devient donc : J ( ref
k ; k ( )) + J ( k ; k (
Si de plus ref est la solution de l'equation non lineaire correspondant a une condition
initiale donnee ref (t = 0) = ref
esolvant l'equation linearisee autour de ref
0 , alors en r
avec la condition initiale (t = 0) = 0, la solution ainsi obtenue est la derivee de
ref par rapport a sa condition initiale ref calculee dans la direction 0.
0
4.2.3 Transposition du modele discret linearise.
Methodologie - transpositions elementaires.
Pour transposer en discret, nous utilisons une approche dite (( progression ascendante )), c.-a-d. nous commencons par transposer les routines (ou sous-programmes) les
plus elementaires au bas niveau et ensuite nous remontons dans la hiearchie des sous
programmes pour arriver, a la n, a avoir l'adjoint complet du programme de l'equation
linearisee.
Illustrons la transposition par un exemple tres simple. Supposons que l'on ait une
subroutine (( A )) qui calcule un vecteur de sortie Y en fonction d'un vecteur d'entree X .
La subroutine (( A )) est lineaire car on travaille avec le modele linearise. Analytiquement,
on peut representer (( A )) par l'application lineaire suivante :
A:
Rn
,!
Rm
(x1; : : :; xn) ,̀! (y1; : : :; ym)
avec :
n
yj = aij :xi
8j = 1; : : : ; m:
X
i=1
La transposition du programme (( A )) consiste a avoir une subroutine qui e ectue le
calcul de l'application transposee :
At :
Rm
,!
Rn
(y1; : : :; ym) ,̀! (x1; : : :; xn)
113
Chapitre IV.
avec :
xi =
Xm aij :yj
8i = 1; : : : ; n:
j =1
Notons que dans la plupart des sous-programmes, la matrice A = (aij ) correspondante
est tres creuse. Pour xer les idees, prenons par exemple (( A )) une subroutine qui calcule
l'operateur laplacien d'une fonction en dimension 2 suivant le schema de di erences nies,
alors la matrice A = (aij ) correspondante a seulement 5 elements non nuls par ligne.
Le code informatique du programme (( A )) evite souvent de facon naturelle d'e ectuer
des produits du vecteur d'entree avec les elements nuls de la matrice, par exemple en ne
faisant intervenir que des points voisins dans un calcul du laplacien discret. De ce fait,
pour transposer (( A )) on doit en premier lieu regarder dans la subroutine (( A )), pour
une composante xi (l'indice i est xe), quelles sont les composantes j du vecteur de sortie
Y in uencees par xi ? Une fois reperes ces indices j , la programmation de la subroutine
de transposition At consiste donc, pour chaque i donne, tout simplement a calculer xi
comme la somme sur les coecients j recenses dans (( A )) des produits de aij :yj
Test du programme de transposition.
Pour tester l'exactitude de la subroutine programmee, nous utilisons la relation de
dualite entre le programme direct et son adjoint :
hA:X; Y iRm = hX; At :Y iRn
8X 2 Rn ; 8Y 2 Rm :
Il n'est donc evidemment pas question de tester cette egalite en faisant varier X et
Y dans tous leurs espaces respectivement. Par contre, on peut donner pour valeurs de
X et de Y quelques realisations des vecteurs aleatoires. Le programme de test a l'allure
suivante :
SUBROUTINE A ( X, Y )
:::
SUBROUTINE A TRANSPOSEE ( Y, X )
:::
PROGRAM TESTE
X, ATY : VECTEUR DIMENSION N
Y, AX : VECTEUR DIMENSION M
X = RANDOM
Y = RANDOM
CALL A (X, AX )
CALL A TRANPOSEE (Y, ATY )
PS1 = hAX; Y iRm
PS2 = hX; ATY iRn
114
Pratique de l'assimilation variationnelle.
SI (PS1 = PS2) ALORS OK
SINON BUG FIN SI
FIN PROGRAM
Tranposition des algorithmes avec graphe a branches multiples.
Un programme obeissant a un modele simple admet une representation sous forme de
(( graphe de calcul )) (cette notion a ete introduite par [Kantorovich, 1957]. Chaque
noeud du graphe represente une variable (independante ou intermediaire) et une eche
allant du noeud X au noeud Y signi e que l'instruction (ou sous-programme) qui calcule
la valeur de X utilise la valeur de la variable Y calculee ou initialisee precedemment.
Dans le cas ou le programme est represente par un graphe a branche simple, c.-a-d. son
execution se ramene a l'execution sequentiellement des subroutines de bases :
A- A- X
X
X :::
0
1
1
2
2
A- X
n
n
X = A| A ,1 {z
: : :A2 A1(X0 )
}
A
n
n
n
alors la transposition du programme (( A )) se fait en appelant de facon retrograde les
transposes des subroutines elementaires A :
i
Y0 = A :Y = A1 A2 : : : A ,1 A (Y )
t
t
n
t
t
n
A
A
:::
Y
Y
Y
t
0
1
t
1
2
2
t
n
n
A Y
t
n
n
Dans le cas ou l'on a un graphe de calcul a branches multiples, on constate qu'il y a
deux cas typiques suivants (dans les exemples de graphes qui suivent, nous ne prenons
que des intersections avec seulement deux branches) :
Cas numero 1
X
X
@[email protected] ,,
?A
Y
Le resultat depend de plusieurs entrees :
1
2
115
Chapitre IV.
Cas numero 2
Pour une seule valeur en entree, on calcule plusieurs resultats en sortie (souvent ces
sorties sont des valeurs intermediaires d'autres calculs situes a un niveau superieur) :
X
[email protected]
A ,, @
Y
Y
1
2
1
2
On peut donner un exemple de situation comportant ces deux cas a la fois : c'est le
moment de demarage a l'instant initial un schema en temps multi-pas du type leap-frog :
on fait d'abord un pas d'Euler a l'instant t0 pour trouver la solution en t1, ensuite la
solution en t2 sera calculee en fonction a la fois de la solution en t0 et en t1 :
,
,, ?
@[email protected]
t0
Euler
Leap-frog
t1
Leap-frog
t2
Transposition du cas numero 1.
La transposition du cas numrero 1 se fait facilement en considerant un nouveau vecteur
X comme une concatenation des deux vecteurs d'entrees initiaux :
X = (X1; X2):
t
t
t
Le programme (( A )), correspondant a ce cas de gure, calcule sa sortie Y en fonction
de X et donc une somme de deux applications lineaires A1 et A2 appliquees separement
a X1 et X2 :
Y = A:X = A1:X1 + A2:X2;
avec les matrices :
= A1
A
A2
En transposant, nous avons l'egalite suivante entre les matrices :
A1
=
A2
A
t
t
t
116
Pratique de l'assimilation variationnelle.
En donnant un vecteur Y a l'entree, le programme transpose de A doit e ectuer le
calcul suivant :
0
A1:Y 1
A
A :Y = @
t
t
A2:Y
t
Il e ectue donc une transposition separement les deux parties correspondant a chaque
variable X (i = 1; 2).
La transposition du cas numero 1 se resume en (( pseudo-fortran )) comme suit :
i
SUBROUTINE A ( X1, X2, Y )
SUBROUTINE A TRANSPOSEE ( Y, X1, X2 )
CALL A1 (X1, Y1)
CALL A2 (X2, Y2)
Y = Y1 + Y2
CALL A1 TRANSPOSEE (Y, X1)
CALL A2 TRANSPOSEE (Y, X2)
FIN SUBROUTINE
FIN SUBROUTINE
Transposition du cas numero 2.
Dans ce cas, supposons que A1 (resp. A2) soit la matrice qui permet de calculer la
sortie Y1 (resp. Y2) en fonction de l'entree X . Comme precedemment, considerons un
nouveau vecteur de sortie Y la concatenation de Y1 et Y2 :
Y = (Y1 ; Y2 )
Y est calcule en fonction de l'entree X par :
Y = A:X
avec :
t
A
t
=
t
A1
A2
En transposant, nous avons l'egalite suivante entre les matrices :
A
t
= A1
A2
t
t
En donnant un vecteur Y a l'entree, le programme transpose de A doit e ectuer le
calcul suivant :
A :Y = A1:Y1 + A2:Y2:
t
t
117
t
Chapitre IV.
C'est donc la somme des resultats e ectues par des programmes transposes elementaires.
La transposition du cas numero 2 se resume en (( pseudo-fortran )) comme suit :
SUBROUTINE A ( X, Y1, Y2 )
SUBROUTINE A TRANSPOSEE ( Y1, Y2, X )
CALL A1 (X, Y1)
CALL A2 (X, Y2)
CALL A1 TRANSPOSEE (Y1, X1)
CALL A2 TRANSPOSEE (Y2, X2)
X = X1 + X2
FIN SUBROUTINE
FIN SUBROUTINE
On peut aussi etudier aussi le cas ou le graphe de calcul comporte des branchements
en arriere, des instructions de tests logiques, des instructions de bouclage ... etc. Nous ne
discutons pas plus sur ces points. Pour plus de details, on peut consulter des references
bibliographiques sur des problemes de di erentiation automatique (qui est fortement lies
aux problemes de transposition automatique) [Rostaing, 1994].
En conclusion de cette partie, la transposition d'un code avec un graphe de calcul a
branches multiples se ramene toujours a la transposition de ses sous-programmes elementaires. Expliciter le graphe de calcul du code direct facilite grandement le developpement
de son code adjoint. En e et, le graphe de calcul de code adjointe est obtenu en prenant
celui du code direct avec des inversions de sens sur toutes les eches de connexion entre
les nuds du graphe.
Prise en compte des donnees d'observation dans le modele adjoint discret.
Rappelons que notre but est de pouvoir calculer le vecteur gradient de la fonctionnelle
a minimiser en un point 0 quelconque dans l'espace de contr^ole, gr^ace a l'utilisation
du code adjoint. Algorithmiquement, les donnees d'observation sont prises en compte en
procedant de la facon suivante :
X
1. 0, le point contr^ole etant xe, on commence par resoudre le modele direct associe
a ce vecteur de contr^ole.
X
2. L'etat direct resolu dans l'etape-1 permet de calculer la derivee de la fonctionnelle
(( sans-contrainte )) (c.f. chapitre III pr
ecedent) par rapport a chaque variable d'etat i.
Dans le cas d'une fonctionnelle d'ecart au sens des moindres carres, et en supposant
que l'on ait une donnee d'observation iobs de la variable i, cette derivee vaut donc
( i , iobs ). Rappelons que chaque variable du programme du modele adjoint correspond a
une variable du programme du modele direct et
. On traduit cette bijection entre
l'ensemble des variables (( d'etat )) (ou du modele direct) f 1 2
n g et l'ensemble
X
X
X
X
X
vice versa
X ;X ;:::;X
118
Pratique de l'assimilation variationnelle.
des variables (( adjointes )) (modele transpose) fY1; Y2; : : :; Yn g en donnant le m^eme indice
aux deux variables X et Y en relation. La derivee de la fonction co^ut par rapport a la
variable Xi sert donc a initialiser la variable adjointe correspondante Yi juste avant sa
premiere utilisation (c.-a-d. l'appel aux subroutines de transposition utilisant Yi comme
parametre d'entree).
Illustrons cela par un exemple simple : prenons la cas ou le graphe de calcul est lineaire
comme dans le debut de la section precedente. Supposons que les variables Xi soient
classees suivant l'ordre de leurs calculs dans le modele direct. Le calcul de la variable
adjointe Yi se deroule comme suit (par recurrence, supposons aussi que Yi+1 soit deja
calculee) :
....
Yi = (Xi , Xiobs )
CALL Ai+1 TRANSPOSEE (Yi+1 , Yi)
....
dans la subroutine (( Ai+1 TRANSPOSEE )), au lieu d'a ecter a la sortie Yi le resultat de
l'operateur de transposition (applique a l'entree Yi+1 ), on l'incremente de cette valeur.
3. Apres avoir remonte tout le graphe de calcul du programme adjoint (c.-a-d. apres
avoir resolu l'equation adjointe), on projette la variable adjointe sur l'espace de contr^ole
pour obtenir le vecteur gradient de la fonctionnelle (( avec-contrainte )). Ceci revient donc
a prendre le gradient comme le vecteur forme par les valeurs des variables adjointes
correspondant aux variables de contr^ole. Par exemple si X0 le vecteur de contr^ole, alors
le vecteur Y0 obtenu est le gradient de la fonctionnelle discrete.
4.3 Description du modele test turbulent.
Nous avons comme objectif de valider la methode variationnelle en utilisant un modele
en bo^te (c.-a-d. ou le domaine a forme d'un rectangle) a resolution respectable de
203 points de grilles dans chaque direction horizontale en espace et a une discretisation
verticale en 3 couches. Ce modele produit des structures tourbillonnaires susamment
nes pour ^etre comparable aux simulations d'un bassin d'ocean realiste a grande echelle,
comme par exemple le bassin de l'Atlantique nord. Malheureusement l'assimilation est
beaucoup trop co^uteuse du point de vue du co^ut de calcul pour ^etre utilisable dans le but
d'analyser l'impact, et de ma^triser la technique. Devant des multitudes de tests qui nous
attendraient, cette diculte est donc un vrai obstacle. Le surco^ut d'un modele a haute
119
Chapitre IV.
resolution est d^u a trois raisons :
{ Le co^ut de calcul est essentiellement absorbe par la resolution par la methode FACR
de N (nombre de couches) equations de Helmoltz a chaque pas de temps du modele direct et adjoint. Or, comme la complexite de cette methode est de l'ordre de
m: log m, ou m le nombre de points de grilles du bassin, le co^ut de calcul a chaque
pas de temps est donc de l'ordre de N:n2:logn ou n le nombre de discretisation
dans l'une des directions spatiales (si l'on discretise avec le m^eme pas dans les deux
directions).
{ La remarque dans la section (4.1.4) sur la stabilite de la methode numerique nous
oblige de prendre un pas de temps d'autant plus petit que l'on augmente la resolution
en espace. Ceci implique un surco^ut de calcul supplementaire d^u a l'augmentation
du nombre de pas de temps pour la m^eme periode de simulation.
{ Une augmentation de la nesse de resolution traduit aussi un accroissement du
nombre de parametres dans l'espace du contr^ole discretise (dans notre etude il s'agit
de l'espace de la condition initiale). Et on peut remarquer que le nombre d'iterations necessaires dans les methodes de minimisation de fonctionnelle pour obtenir
des convergences (( comparables )) est grosso modo proportionel au nombre de parametres de minimisation.
A n donc de reduire raisonnablememt le co^ut de calcul, la pluspart de nos tests ont ete
realises avec un modele de resolution assez grossiere. Mais nous pensons qu'il est quand
m^eme bien adapte au but de notre etude, et assez representatif de la dynamique oceanique
reelle dans les mesures suivantes :
{ Nous avons ajuste les valeurs des parametres physiques qui agissent sur le modele
a n de produire de facon assez signi cative des structures tourbillonnaires. Ces
structures caracterisent des non linearites de la circulation aux latitudes moyennes.
{ Par ailleurs, une discretisation verticale en trois couches permet d'etudier la propagation des informations de la surface en profondeur du bassin.
Voici les details des parametres du modele test que nous avons choisi :
{ Le bassin est carre de longueur 4000 km de c^ote. Ce bassin est discretise horizontalement avec une resolution de 41 points de chaque c^ote, ce qui correspond a des
mailles carrees de longueur de 100 km.
{ Nous supposons l'absence de la topographie au fond. La profondeur du bassin est
de 5000 m. On se xe une discretisation verticale en trois couches de hauteur (d'en
haut jusqu'en bas) 300 m, 700 m et 4000 m. La densite de l'eau dans chaque couche
est respectivement 1000 kg=m3 , 1037 kg=m3 et 1054 kg=m3 .
120
Pratique de l'assimilation variationnelle.
{ Le coecient CB de frottement au fond du bassin correspond donc a un taux d'amortissement d'environ 230 jours, c.-a-d. que sans forcage du vent, l'enstrophie :
Z
E = 2 dx
{
{
{
{
sera reduite d'un facteur de e2 au bout de 230 jours (ou 7 21 mois).
La friction laterale, quant a elle dissipe plus ou moins l'enstrophie suivant la longueur d'onde de la vorticite de la circulation. Plus cette longueur d'onde est petite,
c.-a-d. plus les structures tourbillonnnaires sont petites, plus elle sera dissipee rapidement par la friction laterale. Le coecient A4 de friction laterale correspond
donc a un facteur d'amortissement de l'ordre de 11 jours pour des structures de
vorticite de longueur d'onde d'environ de 100km. Par contre les signaux de vorticite
de longueur d'onde de l'ordre de 1000km seront beaucoup moins dissipes, le temps
d'amortissement est alors de l'ordre de 3 ans.
La force de Coriolis est supposee constante partout dans le domaine. Donc l'e et
((
)) est ignor
e dans notre cas test.
La tension du vent, moteur de la circulation, est supposee constante dans le temps.
Celle-ci a ete generee arti ciellement par des fonctions sinusodales, dont l'amplitude
maximale est de l'ordre de 5 centiemes dyne=cm2.
Le pas de temps est de 7 21 h.
Fig.
4.1 - Exemple d'un champ de circulation en surface produit par le modele test.
121
Chapitre IV.
Remarque:
Ce modele test produit quand m^eme des structures d'ecoulement assez similaires a celle
d'un bassin a grande echelle mais lorsque l'on fait un (( zoom )) d'une certaine proportion
sur une zone du bassin.
Nous avons bien conscience de la limitation dans l'interpretation physique des experiences numeriques realisees avec ce modele test a cause des caracteres peu realistes de
celui-ci. Il faut souligner a ce propos la diculte de trouver un modele plus barocline et
plus instable avec aussi peu de degres de liberte du vecteur d'etat imposes par le contrainte
du co^ut de calcul.
4.4 Experiences jumelles - echantillonnage des donnees.
L'une des facons les plus ables pour valider une methode d'assimilation c'est de tester
la methode par des experiences jumelles (c'est aussi la facon la plus couramment utilisee). Les observations introduites ne proviennent pas d'un traitement des mesures reelles,
mais sont engendrees directement par une simulation numerique du modele gouvernant
la circulation en partant d'une situation quelconque de l'etat du vecteur de contr^ole a
estimer. Ces pseudo-observations seront ensuite utilisees par la methode d'assimilation
proposee. Le code serait donc valide si la comparaison entre le resultat produit par la
methode et l'etat de reference avec lequel on avait cree les pseudo-observations est jugee
(( acceptable )) suivant un crit
ere (souvent le critere porte sur le niveau d'erreur relatif
entre ces deux etats).
C'est donc avec des experiences jumelles que nous avons realise nos tests. Un etat initial
de reference sert donc a generer numeriquement les pseudo-observations correspondant
aux donnees altimetriques satellitaires. Ces donnees altimetriques de surface libre dans le
modele quasi-geostrophique sont proportionnelles a la fonction de courant en surface par
la relation suivante :
= 0 1
(4.9)
h
f
g
:
Les observations altimetriques sont donc simulees en faisant un echantillonnage sur
les traces de passage du satellite de la fonction de courant en surface. Dans notre cadre
d'etude, nous avons suppose que l'on n'ait aucune estimation de l'etat initial de reference.
Dans une situation reelle en oceanographie comme en meteorologie on dispose en general
d'une certaine approximation de cet etat initial, provenant par exemple d'une assimilation
anterieure.
Notons que l'une des conditions necessaires pour pouvoir retrouver l'etat initial de
reference est celle de l'observabilite des donnees (c.-a-d. l'inversibilite de l'application qui
associe, a chaque vecteur de contr^ole donne, les observations correspondantes). Pour le
moment nos experiences sont realisees avec une densite de donnees superieure, et de loin,
122
Pratique de l'assimilation variationnelle.
a celle fournie par les satellites pour garantir la chance d'avoir cette condition d'observabilite. La fonction de courant de surface 1 est supposee echantillonnee de maniere
complete en espace mais d'une maniere discrete en temps et periodiquement avec une
periode d'environ 1 12 jour (tous les 5 pas de temps).
La fonction co^ut a minimiser dans nos tests est de la forme :
J ( (t = 0)) =
XZ (
n
i=1
1 (ti ) ,
obs
i
)2dx;
(4.10)
avec ti+1 , ti = 1 12 jours .
Dans tous les tests numeriques de minimisation que nous allons decrire (voir section
4.5 sur la methode numerique employee), nous choisissons systematiquement des etats de
demarrage completement decorreles aux etats de reference. Ces etats de demarrage sont
fournis a partir d'un etat de circulation a un instant quelconque apres un run du modele
direct.
4.5 Regularisation de Tikhonov - Methode de minimisation numerique.
Le caractere universellement mal pose dans le sens d'Hadamard des problemes inverses
est bien connu. C'est-a-dire que si les donnees sont observees avec une petite d'erreur
(celle-ci est due par exemple soit a la precision limitee des instrumentations de mesures,
soit - dans une methode variationnelle a contrainte forte comme dans notre cas - a l'inexactitude du modele : elle est prise en compte par la methode comme une sorte d'erreur
d'observation) alors cette erreur s'est ampli ee et se traduit par un tres grand niveau
d'erreur dans l'estimation du vecteur de contr^ole optimal. Ce phenomene d'instabilite du
probleme inverse peut ^etre evite en penalisant la fonction co^ut avec un terme de regularisation de Tikhonov sur le vecteur de contr^ole. Au lieu donc de minimiser uniquement
l'ecart quadratique avec des observations, la fonctionnelle que l'on minimise est :
J"( (t = 0)) =
XZ (
n
i=1
1(ti ) ,
obs
i
)2dx + ":kR( (t = 0))k2R
ou R(:) est un operateur de regularisation de Tikhonov qui va de l'espace des contr^oles
admissibles Uad dans un espace vectoriel norme que l'on nomme R. Cet operateur R(:)
souvent est un operateur de derivation jusqu'a un certain ordre du vecteur de contr^ole.
L'ordre de derivation est choisi assez grand de maniere a assurer la stabilite du probleme
inverse. Si R(:) est choisi avec un ordre de derivation superieur, on conserve generalement
encore la stabilite, par contre l'estimation du vecteur de cont^ole obtenu apres l'inversion
sera beaucoup plus (trop) (( lisse )) pour pouvoir approcher ecacement des observations.
Nous avons teste de penaliser la fonctionnelle avec plusieurs choix d'operateurs de regularisation. Celui qui nous a semble donner le resultat le plus satisfaisant est la regularisation
123
Chapitre IV.
a la fois sur la vorticite dynamique et la vorticite thermique du vecteur de la condition
initiale de contr^ole :
Z
N
X
2
kR( )kR = Hk ( k)2 dx +
k=1
0 2
12
N Z
X
f02
f0
@ 0 ( k+1 , k ) + 0 ( k,1 , k )A dx
+
(4.11)
g 1
g 1
k=1
k+ 2
k, 2
Le choix du coecient de regularisation " doit, lui aussi, obeir a une loi de compromis
entre la stabilite et la qualite de minimisation des residus par rapport aux observations.
Nous allons discuter plus longuement dans le chapitre V sur le choix de ce coecient par
la methode de validation croisee generalisee.
La methode numerique de minimisation employee dans nos tests est un algorithme du
type quasi-newton B.F.G.S. a memoire limitee. Nous avons utilise plus precisement l'algorithme (( m1qn3 )) programme par J.C. Gilbert et C. Lemarechal de l'INRIA ([Gilbert,
Lemarechal, 1989]). Une etroite collaboration avec les auteurs de cet algorithme nous
permet d'exploiter au mieux ce code de minimisation.
Rappelons que l'algorithme de Newton pour la recherche une zero d'une fonction
multi-variable consite a lineariser la fonction au voisinage du point courant et de resoudre
successivement ces problemes linearises, ce qui nous donne l'algorithme :
Soit G : Rn ! Rn ; et soit a resoudre G(X ) = 0. En partant d'un X 0 2 Rn quelconque,
on calcule la suite Xn qui - sous certaines conditions - converge vers un zero de G :
Xk+1
= Xk , [J ac G(Xk )],1 :G(Xk ):
Dans un probleme de minimisation, la fonction G que l'on cherche le zero est la fonction
qui, a chaque point de l'espace associe le vecteur gradient de la fonctionnelle a minimiser
calcule en ce point :
G : Rn ,!
Rn
~ (X ):
X ,̀! rJ
Le Jacobien J ac G de G calcule au point Xk est, dans ce cas, le Hessien de la fonction
co^ut J calcule au m^eme point. L'algorithme de Newton pour un probleme de minimisation
s'ecrit donc :
,1 ~ (X ):
Xk+1 = Xk , [Hess J (Xk )] :rJ
k
La methode de quasi-Newton utilise la formule dite (( BFGS )) (resp. (( BFGS )) inverse)
due a Broyden, Fletcher, Goldfarb et Shanno qui fournit une facon d'evaluer recursivement
une approximation du Hessien (resp. de l'inverse du Hessien) au point Xk . Cette formule
utilise uniquement les vecteurs gradients Gk et les points Xk auquels Gk ont ete evalues. La
methode de quasi-Newton est en realite une methode du type gradient car elle utilise les
di erentielles seulement jusqu'a l'ordre un de la fonctionnelle J a minimiser. La methode
quasi-Newton s'ecrit donc comme suit :
124
Pratique de l'assimilation variationnelle.
X0 2 R ;
~ (X0 )
G0 2 R ; G0 = rJ
B0 2 M(R ); B0 ' HessJ (X0 );
H0 2 M(R ); H0 = B0,1;
n
n
n
n
d = ,H :G
X +1 = X + d
~ J (X +1 )
G +1 = r
s = X +1 , X
y = G +1 , G
[B +1 ] = [B ] + yhy ; syi , [(B h:ss ); B (:sB i:s )]
[H +1 ] = [H ] + [(s , H :y ) shy] +; s[si (s
k
k
k
( direction de descente )
k
k
k
k
( recherche lineaire )
k
k
( calcul du gradient )
k
k
k
( la di erence entre 2 points )
k
k
k
( la di erence de 2 gradients )
k
k
k
k
k
k
k
k
k
k
k
k
( BFGS )
k
k
k
k
k
k
k
k
k
k
k
, H :y )] , hs , H :y ; y i [s
hy ; s i2
k
k
k
k
k
k
k
k
k
s]
k
( BFGS inverse )
ou h:; :i est un produit scalaire choisi dans R ; [: :] est le produit tensoriel associe a ce
produit scalaire, c.-a-d. :
: R R ,! L(R );
avec : [U V ]:X = hV; X i U
8X 2 R :
n
n
n
n
n
Remarque : Dans le cas ou le produit scalaire choisi est le produit scalaire Euclidien,
alors la matrice dans la base canonique (e )1 du produit tensoriel [U V ] s'ecrit [U:V ].
i
i
t
n
Les formules de BFGS et BFGS inverse conservent la positivite des matrices [B +1]
et [H +1] calculees si et seulement si hy ; s i l'est. La recherche du pas de descente se
fait par une interpolation cubique de la fonctionnelle J dans la direction de descente d .
Pour ne pas violer la condition de positivite pendant cette etape de recherche lineaire,
nous exigeons que le pas satisfasse en plus les deux tests de Wolf's :
J (X + d ) J (X ) + 1 hG ; d i et
(4.12)
hr~ J (X + d ); d i 2hG ; d i:
avec 0 < 1 < 12 et 1 < 2 < 1.
Il se peut que l'on a besoin de faire plusieurs fois les approximations cubiques de la
fonctionnelles dans une m^eme direction de descente d avant de trouver un pas qui satisfait
les deux tests (4.12).
k
k
k
k
k
k
k
(
k
k
k
k
k
k
k
k
k
k
k
125
k
k
k
Chapitre IV.
Dans un probleme de grande taille, il n'est pas question de calculer et de memoriser
les coecients de la matrice . Cette matrice ne depend que de couples de vecteurs
( )1 . Avec le stockage de 2 vecteurs f
: 1 g on est donc capable de
calculer la direction de descente = ,[ ] a la kieme etape de la minimisation. Cette
remarque ne resout pas pour autant le probleme de memoire. En e et le stockage de
ces couples de vecteurs reclame autant de place que le stockage de la matrice entiere
lorsque le nombre d'iteration est de l'ordre du nombre de parametres. La methode
quasi-Newton a memoire limitee (QNML) consiste donc a calculer la matrice [ ] en
ne faisant intervenir qu'un nombre limite de couples de vecteurs ( ) les plus recents.
Les informations de la fonctionnelle J (valeurs et gradients) calculees aux plus anciens
points sont en quelques sorte oubliees par la methode QNML. Dans notre cas d'etude,
nous avons essaye l'algorithme QNML en faisant varier, avec plusieurs valeurs di erentes,
le nombre de couples de vecteurs a conserver. Notre conclusion est : avec seulement une
dizaine de couples de vecteurs conserves, la vitesse de convergence de la minimisation reste
pratiquement la m^eme que pour un stockage complet des vecteurs. La methode QNML
reste donc encore tres ecace (relativement par rapport a la methode QN a memoire
complete) pour une capacite de stockage raisonnable.
On remarque aussi que le temps de calcul que prendre l'algorithme de minimisation
proprement dit est negligeable par rapport au temps necessaire pour evaluer la fonction
co^ut et son gradient (c'est le temps de resolution de l'equation directe et adjointe).
Dans le cas ou les pseudo-donnees sont simulees de facon exacte (non bruitees), la
presence du terme de regularisation est en principe super ue. Mais nous avons neanmoins
constater qu'il est quand m^eme utile de penaliser un peu la fonctionnelle par cette regularisation pour eviter une explosion numerique pendant la minimisation. Notons que ce phenomene se produit uniquement lorsque la fonctionnelle n'est pas quadratique, c.-a-d. quand
le modele est non-lineaire. Car nous avons e ectivement teste de minimiser et de faire
converger avec succes la fonctionnelle sans penalisation avec le modele linearise autour
d'un etat de circulation xe, et avec des pseudo-observations exactes. Un autre constat
est que l'explosion numerique se produit d'autant plus facilement lorsque le vecteur de
contr^ole fourni initialement a l'optimiseur est loin du vecteur de l'etat de reference a
trouver.
Hk
yi ; si
i
Hk
k
k
dk
k
yi ; si
i
k
Hk :Gk
k
Hk
yi ; si
4.6
Test de la precision du vecteur gradient discret.
Pour valider l'exactitude du vecteur gradient de la fonctionnelle discretisee, il est
necessaire d'e ectuer quelques tests numeriques. L'experience montre que le test, decrit
dans cette section, fonde sur le developpement de Taylor a l'ordre un de la fonctionnelle
J , est un test tres able. Le developpement de Taylor de J en un point s'ecrit :
X
J ( + ) = J ( ) + hrJ ( ) i + (k k)
X
h
X
~
X ;h
Si l'on restreint la perturbation dans une direction
h
126
o
d
h
:
xee, la fonctionnelle perturbee
Pratique de l'assimilation variationnelle.
veri e la relation :
J (X + d) , J (X ) = 1 + o( )
~ J (X ); di
:hr
quand ! 0:
(4.13)
Le test numerique de l'exactitude du gradient consiste a calculer le rapport du membre
de gauche de (4.13) pour une direction d xee et pour les de plus en plus petit. On veri e
si ce rapport tend donc bien vers 1. Ce test permet de contr^oler, en plus de l'exactitude
du code adjoint, la bonne linearisation du code direct de depart (ce qui est surprenant
c'est que l'on n'a pas besoin proprement dit, de ce code linearise dans le calcul m^eme du
gradient !) et l'exactitude du calcul du vecteur de gradient a partir de la variable adjointe
(c.-a-d. l'etape de projection de celle ci sur l'espace des contr^oles). Il est prudent d'utiliser
le test (4.13) non pas pour J globalement, mais separement pour chaque (( composante ))
de J . Par exemple dans notre cadre test d'assimilation (4.10), on peut decomposer la
fonctionnelle globale comme la somme de n fonctionnelles d'ecart au sens des moindres
carres correspondant a n instants d'observation di erents :
Z
J (:) =
X J (:) + " kR(:)k2R
n
=1
i
i
(4.14)
2
avec : Ji(:) def
= ( 1(ti) , obs
egularisation de Tikhonov.
i ) dx et R(:) la r
Les (( composantes )) Ji ainsi que le terme de regularisation sont donc testes separement
par (4.13).
Voici l'un des resultats de test avec :
{ Le vecteur X est un etat d'ecoulement choisi arbitrairement.
{ Le test est realise avec seulement les observations prises a l'instant nal.
{ La direction d est choisie comme l'oppose m^eme du vecteur gradient calcule au point
X.
Rapport (4.13)
Rapport (4.13)
5
,
19
2
0.6889881655677463 2
0.9999997324943486
23 0.9222683618964211 2,21 0.9999987632831591
21 0.9805687756383392 2,23 0.999996437176307
2,1 0.9951423045557064 2,25 0.9999778283214908
2,3 0.9987855831347083 2,27 0.9999157988054357
2,5 0.9996963962137038 2,29 1.000015046031123
2,7 0.9999240990486555 2,31 0.9988240793228691
2,9 0.9999810246361243 2,33 0.9972361237118648
2,11 0.9999952551929745 2,35 0.9908843012678403
2,13 0.9999988087149347 2,37 0.9146624319395436
2,15 0.9999996961489295 2,39 0.60977495462636
2,17 0.9999998778760251 2,41 0.
127
Chapitre IV.
4.7 Estimation du temps de decorrelation du modele.
Dans un probleme d'identi cation de la condition initiale d'un modele evolutif de
uide turbulent, la quantite dite (( temps de decorrelation )) du modele est une valeur
extr^emement importante a conna^tre. Ce (( temps )) est fortement lie a une autre quantite
de temps s'appellant (( temps de predicibilite )) du modele. En e et, les divers imprecisions
inevitables dans un systeme d'observation ou tout simplement l'incapacite d'un modele
theorique (ou/et
d'un modele numerique) si perfectionne soit-il de decrire la
realite sut a nous convaincre que l'on ne conna^t jamais l'etat initial d'un ecoulement
- quelle que soit la methode d'inversion employee - avec une marge d'erreur en dessous
d'un certain seuil. Or le regime de circulation de uide turbulent est caracterise par
l'interaction de tout les niveaux de frequences, entre des petits et grands tourbillons (voir
[Foias, Manley et Temam, 1987] ). Une petite incertitude dans la connaissance de
l'etat initial est ampli ee tres vite avec le temps. Le temps de predicibilite est donc une
quantite de temps qui est de l'ordre de la longueur de la periode sur laquelle la prediction
que l'on fait avec une certaine marge d'erreur dans l'initialisation du modele reste encore
(( acceptable )). Le crit
ere (( d'^etre acceptable )) est souvent quanti e comme une certaine
correlation non nulle entre deux etats d'ecoulement au m^eme instant t > 0 de deux
trajectoires demarrees avec une petite erreur a l'instant initial (t = 0). Nous illustrons ce
phenomene avec notre modele test sur le graphique ci-dessous.
a fortiori
128
Pratique de l'assimilation variationnelle.
En ordonnee, les trois courbes donnent les ecarts quadratiques relatifs entre les trois
couches des deux trajectoires, en fonction du temps t de l'axe des abscisses. Ces deux
trajectoires ont une erreur en norme L2 sur les fonctions de courant k de l'ordre de 3%
a l'instant initial t = 0. On voit qu'au bout de 600 pas de temps, les deux trajectoires
bifurquent plus brusquement, et qu'au bout de 800 pas de temps, on se retrouve avec une
erreur de l'ordre de 100% entre ces deux trajectoires. Le temps de decorrelation de notre
modele test est evalue entre 600 et 800 pas de temps.
Remarque: Pour ^etre plus precis, le temps de decorrelation depend non seulement
du modele mais aussi de l'instabilite ou non de l'etat de l'ecoulement considere : naturellement, si l'on est dans une periode de regime instable, le temps de decorrelation se
raccourcit plus que la moyenne ; et si au contraire on se trouve dans une periode de regime
stable, ce temps s'allonge.
4.8 Estimation du temps de penetration verticale des
observations.
Les donnees altimetriques sont en relation directe avec la fonction de courant de surface
par (4.9). On peut donc poser naturellement la question suivante : dans quelle mesure la
circulation en surface in uence-t-elle les circulations en plus grande profondeur?
L'un des moyens numeriques les plus corrects pour repondre a cette question c'est
d'introduire les pseudo-observations simulees de surface dans un code d'assimilation et
d'etudier la qualite de l'identi cation du vecteur de contr^ole de l'instante initial sur les
couches profondes.
Une autre methode, bien qu'elle soit beaucoup moins bien justi ee que la methode
precedente pour des raisons que nous allons detailler un peu plus loin, est de realiser
l'experience suivante :
{ Se placer en un point (( quelconque )) dans l'espace de contr^ole. Le plus souvent
on peut prendre ce point comme un etat de circulation donne par le modele de
simulation et choisi arbitrairement apres un grand nombres d'integrations dans le
temps. Donc l'etat est suppose assez proche de son attracteur (mais quelconque)
qui est determine par l'equation evolutive.
{ Calculer le vecteur gradient de la fonctionnelle quadratique avec des donnees en
surface (sans terme de regularisation) au point choisi precedemment.
{ Projeter le vecteur gradient obtenu sur chaque couche.
On estime que la penetration verticale des donnees en surface est bonne si les normes
des projections du vecteur gradient sur les couches profondes sont des valeurs signi catives. Ceci veut donc dire que l'etat de circulation a l'instant initial en profondeur serait
129
Chapitre IV.
assez sensible aux donnees. Cette methode, comme nous avons dit plus haut, est mathematiquement moins bien justi ee que la premiere methode pour les raisons suivantes :
{ Comme les normes des projections du vecteur gradient sur les couches dependent du
produit scalaire choisi dans l'espace des contr^oles, le critere xe par cette methode
est donc lie au choix de ce produit scalaire. Pour illustrer ceci, imaginons que l'on
change un produit scalaire en faisant une ponderation par des poids di erents suivant
les couches, il est facile de veri er que les normes des projections obtenues apres
ce changement sont diminuees de maniere inversement proportionnelle a la racine
carree des poids introduits.
{ Le choix du point ou l'on calcule le gradient peut aussi in uencer le resultat.
A cause de ces inconvenients, l'utilisation de cette methode demande donc quelques
precautions. D'abord on doit faire une sorte d'(( addimensionnalisation )) des normes de
projection du vecteur gradient suivant les couches, en les divisant par la moyenne statistique des normes des projections sur les m^emes couches de plusieurs etats de circulation
fournis par le modele. Ensuite, il est plus prudent d'etudier l'in uence des donnees observees en calculant le gradient pas seulement en un seul point mais en plusieurs points
di erents.
Cette methode bien que rustique permet d'avoir une assez bonne estimation par
exemple de la longueur du temps necessaire pour avoir une penetration des informations au fond du bassin avec le moindre co^ut de calcul. Dans le graphique qui suit, les
trois courbes representent les normes des projections du vecteur gradient respectivement
sur les trois couches : (1) couche de surface, (2) couche intermediaire et (3) couche de
fond. Ces courbes sont normalisees de facon que l'on puisse les comparer. Dans cette experience, nous avons utilise le modele, toujours dans un bassin carre, mais a resolution
spatiale 203203 tres proche du modele numerique operationnel de l'IMG. Les observations sont echantillonnees chaque jour avec toute la fonction de courant en surface et ceci
pendant une periode d'un mois. En abscisse, est indiquee l'evolution temporelle en jours.
En ordonnees, est indique le degre de sensibilite des di erentes couches par rapport a des
observations presentees uniquement a l'instant considere en abscisse.
On remarque que la couche intermediaire est presque aussi sensible par rapport aux
observations du 5ieme jour que la couche de surface par rapport aux observations du jour
0 (ces observations du jour 0 sont la couche de surface elle-m^eme !). La couche de fond,
quant a elle, doit attendre 14 jours pour avoir le m^eme ordre de sensibilite. Une autre
remarque interessante est que : pour le m^eme instant, les observations in uent plus la
couche de surface que la couche intermediaire et beaucoup moins la couche de fond. Nous
pensons que ceci est explique par le fait que la couche de surface contient plus de modes
baroclines qui provoquent donc plus d'instabilite, que les deux autres couches.
130
Pratique de l'assimilation variationnelle.
Fig.
4.2 - Sensibilite du contr^ole par rapport aux observations.
4.9 Tests d'arr^et pour l'optimiseur.
Dans une methode variationnelle de grande taille, il est toujours delicat de choisir
un bon critere d'arr^et de l'algorithme de minimisation. Nos experiences montrent que
si le test est mal choisi, il arrive que celui-ci declenche l'arr^et de l'algorithme soit trop
t^ot (c.-a-d. avant la convergence vers le contr^ole optimal), soit trop tard, d'ou une perte
inutile du temps de calcul.
Pendant notre etude, nous avons essaye de regarder le comportement de plusieurs tests
d'arr^et :
(i) Erreur relative du vecteur gradient (residu) :
L'algorithme s'arr^ete lorsque la condition
~ (Xk )k
def krJ
rk =
1;
~ (X0 )k
krJ
est realisee. 1 est un seuil xe de l'ordre de 10,3 . Ce test est tres couramment utilise
dans les algorithmes de minimisation. Pour notre probleme, il donne des resultats
131
Chapitre IV.
assez satisfaisants. Le seul point noir de ce test est un arr^et possible un peu tardif de
l'algorithme dans le cas ou le vecteur d'initialisation X0 est proche de l'etat optimal,
~ (X0 )k est alors initialement petite.
car la quantite krJ
(ii) Di erence entre deux contr^oles successifs :
L'algorithme s'arr^ete lorsque la condition
kX , X0k 2;
k
est realisee. Ce test ne donne guere de resultat satisfaisant. En e et, une petite modication sur le vecteur de contr^ole sut parfois a faire reconverger deux trajectoires
(surtout vers la n de l'intervalle de temps). Pour cette raison ce test declenche
souvent l'arr^et premature de l'algorithme. Nous ecartons alors l'utilisation de ce
test.
(iii) Variation de la fonctionnelle :
L'algorithme s'arr^ete lorsque la condition
vk
= J (Xk )J,(XJ ()Xk,1 ) 3;
def
k
est realisee. 3 est un seuil xe de l'ordre de 10,4 . Ce test est tres proche du test (i).
L'inconvenient explique plus haut du test (i) est elimine. Par contre les quantites vk
calculees sont un peu plus irregulieres au l des iterations que les residus rk . Pour
cette raison, en exigeant un peu plus sur la condition d'arr^et :
max fvk ; vk,1; : : : ; vk,pg 3;
nous ameliorons grandement ce test (remarque : p = 5 nous semble ^etre un bon
choix).
(iv) Deux tests de securite :
En plus de ces trois tests, on peut employer le test de (( securite )) qui limite le nombre
maximum d'iterations. On peut egalement employer un test qui consiste a comparer
le terme d'ecart avec les observations et le terme de regularisation. L'algorithme
s'arr^ete lorsque la condition
n
X
=1
i
Z
( 1(ti) ,
obs
i
)2dx k
4 ": R(
est realisee. 3 est un seuil xe de l'ordre de 10,1 .
132
(t = 0))k2R ;
Pratique de l'assimilation variationnelle.
4.10 Choix de la norme Hilbertienne du contr^ole.
Pour le modele quasi-geostrophique, nous avons vu dans les chapitres II et III d'etude
theorique que l'application : 1
( = 0) ,̀! ( 2 [0 ])
t
t
(4.15)
;T
est continue de 01( )N dans C (0 ; 2( ))N , et aussi dans 2(0 ; 3( ))N . Dans nos
experiences numeriques, les pseudo-observations sont echantillonnees de facon discrete en
temps mais, a chaque instant, c'est un ecart 2( ) de la fonction de courant complete
en surface qui se presente dans la fonctionnelle J a minimiser. Donc en fait on a besoin
que de la continuite de l'application (4.15) dans C (0 ; 2( ))N . Il est donc legitime de
penser que l'on pourrait baisser un peu plus le degre de derivation dans l'expression de
la norme de l'espace de contr^ole des etats de demarrage initialement choisie. Par exemple
on pourrait donc prendre pour l'espace de contr^ole Uad l'adherence de dans 2( )N ,
plut^ot que Uad = .
H
;T
H
L
;T
H
L
;T
L
V
L
V
4.10.1 Quelques normes Hilbertiennes testees.
Nous avons teste numeriquement la minimisation de la fonctionnelle avec plusieurs
normes di erentes de cette condition initiale de contr^ole. Soit k la transformation en
modes de la condition initiale k nulle au bord. Les quatres normes que nous avons
testees sont :
(1) Fonctions de courant :
N Z 2
X
k k2N 1 =
k
dx:
k=1
(2) Vitesse d'ecoulement:
k
k2
N2 =
N Z
X
k=1
krk k2
~
dx:
(3) Mixte (( fonctions de courant - vitesse )) :
k k2N 3 =
N Z
X
k=1
krk k2 +
~
dx
k
Z
d
(4) Vorticite dynamique:
k k2N 4 =
1
N Z
X
k=1
()2k
dx:
est la fonction de courant nulle au bord : = , [email protected] 1I(!).
133
2k
dx
:
Chapitre IV.
D'apres la remarque au debut de la section, on pourrait penser que la bonne norme
a mettre sur l'espace de contr^ole devrait ^etre une norme intermediaire entre (1) et (2).
Ceci est con rme par les resultats numeriques ci-dessous. Dans ces experiences nous avons
minimise la fonctionnelle sur une periode de 200 pas de temps. Les donnees sont la fonction de courant complete en surface et a une frequence de 5 pas de temps entre deux
echantillonnages temporels. A n de mieux analyser l'impact du choix des normes, nous
avons pris le m^eme point de depart fourni a l'algorithme de minimisation, et le m^eme
coecient de regularisation de Tikhonov dans les quatres cas de gures. Seules donc les
normes de l'espace de contr^ole di erencient ces quatres processus de minimisation. Pour
chaque experience nous presentons en details, gr^ace aux graphiques qui vont suivre, les
resultats de l'identi cation.
Par exemple pour l'experience avec la norme des fonctions de courant (1), on trouve
dans la gure 4.3, les deux dessins en haut et celui en bas a gauche representant la
condition initiale respectivement sur les trois couches (il s'agit des lignes d'isovaleurs des
fonctions de courant) apres minimisation. Les deux courbes dans le dessin en bas a droite
de la m^eme gure 4.3 representent respectivement les deux termes : (A) l'ecart par rapport
a l'observation, et (B) la regularisation ; de la fonctionnelle J au l des iterations. Dans
la gure 4.4 on represente les ecarts quadratiques relatifs suivant les couches entre la
trajectoire identi ee et la trajectoire de reference.
De m^eme on trouve dans les gures de 4.5 a 4.10 les resultats de minimisation avec
les autres normes (2), (3) et (4) avec une representation analogue que la norme (1).
On remarque que la norme (3) est la seule qui permet d'approcher correctement l'etat
initial de reference (c'est le m^eme etat presente dans la gure 4.1) avec une assez bonne
vitesse de convergence de l'algorithme. Pour les normes (1) et (2), l'algorithme de minimisation converge vers des etats de circulation correspondant a des minima locaux de
la fonctionnelle J . Pour la norme (4), la vitesse de convergence est tres irreguliere et
l'algorithme s'arr^ete prematurement a cause de l'insusance de la vitesse de decroissance
de la fonctionnelle.
Nous donnons ici le tableau recapitulatif des ecarts quadratiques des experiences avec
di erentes normes au debut et a la n de l'intervalle d'assimilation :
Norme 1 (L2) Norme 2 (H01) Norme 3 (H 1) Norme 4 (H 2)
t=0
RMS (k=1)
0,44
0,58
0,07
0,79
RMS (k=2)
0,61
0,84
0,17
1,00
RMS (k=3)
0,87
1,12
0,16
1,16
t=T
RMS (k=1)
0,06
0,22
0,04
0,49
RMS (k=2)
0,09
0,20
0,08
0,44
RMS (k=3)
0,04
0,25
0,03
0,46
134
Pratique de l'assimilation variationnelle.
Fig.
4.3 - Experience avec la norme
135
XN Z
k=1
2k dx
:
Chapitre IV.
Fig.
N Z
X
4.4 - L'ecart quadratique avec la norme
k=1
136
2k
dx:
Pratique de l'assimilation variationnelle.
Fig.
4.5 - Experience avec la norme
137
XN Z
k=1
~ k2 dx:
kr
k
Chapitre IV.
Fig.
N Z
X
4.6 - L'ecart quadratique avec la norme
krk k2
k=1
138
~
dx:
Pratique de l'assimilation variationnelle.
Fig.
4.7 - Experience avec la norme
N Z
X
k=1
139
~ k2 dx + d
kr
k
k
Z
2k dx
:
Chapitre IV.
Fig.
4.8 - L'ecart quadratique avec la norme
140
N Z
X
k=1
krk
~
k2 dx + d
k
Z
2
k
dx
:
Pratique de l'assimilation variationnelle.
Fig.
4.9 - Experience avec la norme
141
XN Z ()2k dx
k=1
:
Chapitre IV.
Fig.
4.10 - L'ecart quadratique avec la norme
N Z
X
k=1
()2k dx:
4.10.2 Quelques remarques.
Remarque 1 : lien entre le choix de la norme et le preconditionnement.
Supposons que le probleme de minimisation de la fonctionnelle au sens des moindres
carres
J (x) = (x) , yobs 2
ait une solution unique x et qu'au voisinage de ce point la fonctionnelle admette un
developpement de Taylor a l'ordre 2 comme suit :
J (x + h) = J (x) + Q(h) + o(khk2S );
142
Pratique de l'assimilation variationnelle.
ou Q(:) designe une forme quadratique.
On de nit le spectre de Q par rapport a une norme S comme le sous ensemble suivant
de R:
n
o
Q(h)
S (Q) =
k = sup inf
:
k
=
1
;
2
;
:
:
:
(4.16)
khk2
V Uad h2V
dim V =k
S
On montre que la valeur propre k dans (4.16) peut ^etre de nie de facon equivalente
suivante :
(h)
k = inf
sup Q
khk2
S
V Uad h?V
dim V =k,1
Ces valeurs propres sont decroissantes en k :
1
2 : : : k : : : 0:
On de nit une quantite dite le conditionnement du probleme de contr^ole comme le
rapport :
S (Q)
CondS J def
= sup
inf (Q)
S
On montre que la vitesse de convergence d'un algorithme de minimisation depend de
facon geometrique de la di erence entre CondS J et 1, plus precisement a l'etape k de la
minimisation, on a :
!2k
Cond
SJ , 1
J (xk ) , J (x ) = O Cond J + 1
S
Donc plus le spectre de Q est concentre, plus la convergence est rapide.
La quantite CondS J donne entre autres une sorte de sensibilite du contr^ole optimal
par rapport a l'erreur des observations, on montre que :
kxkS Cond J kyobsk :
S
kxkS
kyobsk
Remarque 2 : lien entre le choix de la norme et la non-linearite.
Quand on utilise un algorithme pour minimiser une fonctionnelle non quadratique - par
exemple si la fonctionnelle est l'ecart au sens des moindres carres de l'etat d'un modele
non-lineaire - un mauvais choix de la norme peut detruire la convergence du contr^ole
vers l'optimum ; comme montre cet exemple simple suivant : Supposons que l'on veuille
minimiser la fonctionnelle suivante dans R2 :
h
i
J (x; y) = 0; 1: (5x , 1)2 + (5y , 1)2 , 1 , (5x + 3)32 + 0; 1(5y)2 :
143
Chapitre IV.
Cette fonctionnelle a deux minima locaux :
( 1 1) (0 06 0 19)
( 2 2) (,0 57 0 05)
x ;y
x ;y
;
;
;
J ( 1 1) ,0 20
J ( 2 2) ,1 38
;
;
;
x ;y
;
:
x ;y
;
:
Nous avons minimise la fonctionnelle en partant du m^eme point (,1 ,1) mais avec
deux normes di erentes :
;
(i) Si l'on utilise la norme Euclidienne classique k( )k2 = 2 + 2, l'algorithme
converge vers le minimum local ( 1 1) comme montre la gure 4.11 a gauche.
x; y
x
y
x ;y
(ii) Si l'on utilise la norme k( )k2 = 2+0 1 2, l'algorithme converge vers le minimum
global ( 2 2) comme montre la gure 4.11 a droite.
x; y
x
;
:y
x ;y
Dans ces deux dessins, les numeros se relient par des traits aux points courants de
chaque iteration de l'algorithme de minimisation.
Fig.
4.11 - Convergence vers deux etats di erents.
Ce phenomene est lie etroitement a la notion de courbure de non-linearite d'un modele
etudiee notamment par [Bates et Watts, 1980, 1981, 1988]. Rappelons leurs de nitions
de la courbure comme suit : soit : ! un modele non lineaire et soit un point
xe de l'espace V. Prenons une droite ( ) passant par dans une direction :
M
V
W
x
d t
x
( ) : R ,!
d t
t
,̀!
144
V
x
+
t:w
w
Pratique de l'assimilation variationnelle.
Appliquons le modele M a cette droite nous obtenons la courbe = M d. Le vecteur
d'acceleration de cette courbe  t=0 se decompose classiquement en trois composantes deux
a deux orthogonales dans le repere de Darboux :
 = N + P + G :
N est la composante normale a la variete M (V ) au point M (x), P et G sont tangente
a celle-ci. La composante P est parallele au vecteur de vitesse _ t=0, et G est orthogonal
a celui-ci. Si la direction w de la droite d est normalisee de telle sorte que la norme du
vecteur de vitesse k_ t=0k = 1, les trois quantites N , P et G mesurent respectivement
les non-linearites normale, parametrique et geodesique du modele (au point x et dans la
direction w).
Dans un probleme de minimisation d'ecart au sens des moindres carres avec un modele
non-lineaire, un mauvais choix de la norme de l'espace a pour e et d'accumuler les mesures
de courbures de non-linearite beaucoup plus dans certaines directions que dans d'autres,
tandis qu'un bon choix de la norme repartit de facon homogene ces courbures dans toutes
les directions.
4.10.3
Conclusion.
Un bon choix de la norme est donc crucial pour avoir une bonne convergence dans la
minimisation. L'ideal est d'avoir une norme la plus proche possible de la forme quadratique
Q de la fonctionnelle (c.-a-d. son Hessien). Cette forme quadratique depend entre autres
du point optimal de la fonctionnelle et nous n'avons pas generalement, dans le cadre
de l'assimilation de donnees en oceanographie, une estimation de l'etat optimal. Une
recherche plus poussee pour trouver une bonne norme peut donc apporter une economie
non negligeable dans le co^ut numerique de l'assimilation variationnelle. On peut envisager
par exemple d'etudier les proprietes spectrales du Hessien de la fonctionnelle et d'adapter
une norme avec les m^emes proprietes spectrales. Ceci fait partie de l'une des applications
possibles de l'etude au second ordre discute dans le chapitre V suivant.
4.11 Quelques resultats numeriques - strategies d'assimilation.
Il est bien connu que le nombre de minima locaux d'une fonctionnelle J d'ecart quadratique des donnees issues d'un modele non-lineaire augmente progressivement avec la
longueur de la periode d'assimilation. Ceci est mis en evidence par Michael-Ghil en etudiant le celebre modele chaotique a trois variables de Lorenz. Insistons sur le fait que ce
phenomene est lie evidemment au caractere non lineaire du modele, car la fonctionnelle
est convexe si le modele est lineaire (ou ane). Ce fait constate est donc tres g^enant pour
une methode d'assimilation variationnelle des donnees presentees sur un grand intervalle
de temps. En e et, placons nous dans le cas d'un modele exact decrivant parfaitement
la circulation et avec les observations non bruitees. Dans ce cas, l'etat de l'ecoulement a
145
Chapitre IV.
l'instant initial (suppose non connu) correspond toujours a l'optimum absolu de la fonctionnelle quelle que soit la longueur de l'intervalle d'assimilation. On de nit la notion
de bassin d'attraction de la fonctionnelle J comme l'ensemble des etats de l'espace de
contr^ole tel que si l'on minimise (numeriquement) la fonctionnelle en partant de ces etats,
alors l'algorithme doive converger vers l'optimum absolu cherche, que l'on note X , de
la fonctionnelle d'ecart. Ce que montre l'exemple de Ghil, c'est que la taille du bassin
d'attraction de la fonctionnelle autour de X diminue lorsque la longueur de l'intervalle
d'assimilation s'allonge. Par consequent, si on assimile des donnees par la methode variationnelle sur un trop grand intervalle de temps, dans le sens ou l'etat de demarrage
( rst-guess) fourni initialement se trouve en dehors du bassin d'attraction de la fonctionnelle, l'algorithme va faire converger l'etat contr^ole forcement vers un minimum local.
Dans la gure 4.12 nous montrons une coupe de la fonction co^ut sur un segment de
droite passant par l'etat identi e et l'etat optimal de reference. L'intervalle de temps
d'assimilation de l'experience est de longueur 800 pas de temps. On voit bien que l'etat
identi e est un minimum local de la fonctionnelle. La courbe (A) est le co^ut total, la
courbe (B) est le terme d'ecart avec les observations et la courbe (C) est le terme de
regularisation de Tikhonov.
Fig.
4.12 - Assimilation variationnelle sur un intervalle trop long.
146
Pratique de l'assimilation variationnelle.
Remarques:
{ Dans le cas du defaut de la convergence vers le minimum absolu, on peut dire
que l'approximation lineaire tangente du modele (que l'on utilise pour calculer les
vecteurs gradients de la fonctionnelle) n'est pas une bonne approximation, car elle
ne permet pas d'eliminer les riques de convergence vers un minimum local.
{ Nous allons revenir sur ce point dans le chapitre V suivant. Dans ce chapitre une
etude spectrale de la fonctionnelle permet de mettre plus en evidence l'impact de la
longueur de l'intervalle d'assimilation dans la determination de la condition initiale.
Bien entendu, l'etat identi e dans le cas de l'experience de la gure 4.12 n'est pas
du tout ce que nous souhaitons obtenir. Pour mieux analyser le phenomene, dans la
gure 4.13 nous donnons trois courbes des erreurs quadratiques relatives des fonctions
de courant correspondant a chaque couche de la trajectoire identi ee. On voit bien que
l'etat de l'instant initial est (( identi e )) avec une erreur moyenne de l'ordre de 120% !
Autrement dit, l'algorithme de minimisation est dans ce cas incapable d'approcher l'etat
initial de reference. Par contre l'etat nal (t = 8 mois ' 800 t) est identi e avec des
erreurs comprises entre 12 et 20% suivant les couches.
Fig.
4.13 - Minimisation sur un trop long intervalle.
147
Chapitre IV.
Cette diculte de convergence lorsque l'on minimise sur un trop long intervalle se
justi e comme suit :
Quand on regarde l'in uence des observations en surface sur le vecteur de contr^ole
d'etat initial du systeme dynamique, on constate que le contr^ole est d'autant plus sensible
que les observations sont eloignees dans le temps (voir gure 4.2). De ce fait, dans les
premieres iterations de la minimisation, l'algorithme va porter essentiellement son e ort
pour ajuster la n de la trajectoire calculee aux dernieres observations dans le temps.
Dans un regime d'ecoulement turbulent, lorsque la longueur de l'intervalle depasse
l'echelle de temps de predicibilite (ou de decorrelation) , une minime modi cation de l'etat
initial sut a recti er la n de la trajectoire pour la faire adherer aux observations. Comme
la dynamique de l'ecoulement est entre autres fortement non-lineaire, cette modi cation de
l'etat initial est, dans la plus part des cas, incompatible avec la direction de rapprochement
de l'etat de reference (voir gure 4.12). D'ou le defaut de la convergence vers le minimum
absolu.
Fig.
4.14 - Minimisation sur un trop court intervalle.
Pour illustrer encore cette diculte liee a la longueur excessive de l'intervalle d'assimilation, nous presentons a la gure 4.14 ci-dessus les courbes des erreurs de l'identi cation
dans le cas d'une experience de minimisation sur une courte longueur de l'intervalle de
148
Pratique de l'assimilation variationnelle.
50 ' 0 5 mois. On constate donc que la couche de surface (courbe numero 1) est identi ee avec un niveau d'erreur sur toute la trajectoire compris entre 5 et 9%. Par contre,
sur les deux couches profondes, le niveau de l'erreur est compris entre 25 et 47%. Les
e ets d'une dynamique turbulente et non-lineaire sont par consequent moins ressentis sur
un court intervalle d'assimilation que sur un long intervalle. Par contre la penetration verticale des informations de surface est prise en defaut dans ce cas : c.-a-d. cette longueur
n'est pas susamment grande pour que les observations en surface puissent penetrer et
in uencer de facon signi cative les deux couches profondes.
t
;
Pour pouvoir contourner ces dicultes nous proposons deux solutions possibles suivantes :
4.11.1 Strategie sequentielle.
On subdivise la periode d'assimilation [0; T ] en plusieurs petits intervalles : [0; T ] =
[0; T1] [ [T1; T2] [ : : : [T ,1; T ]
n
n
0
0
T
1
T
1
T
T
:::
2
,1
Tn
Tn
Dans cette strategie, l'etat de demarrage dans la minimisation sur un sous-intervalle
[
+1 ] est l'etat nal fourni par le resultat de l'identi cation sur l'intervalle [ ,1 ]
qui precede.
L'une des questions importantes concernant cette strategie est de savoir comment choisir une bonne longueur de sous-intervalle pour decouper les donnees a n de les assimiler
ecacement? Dans les six gures suivantes, nous presentons les resultats des experiences
de la strategie sequentielle en utilisant toujours le m^eme jeu d'observation disponible sur
une periode de 6 mois ' 600 (sauf exceptionnellement pour la 5ieme gure, pour raison de divisibilite, les donnees sont sur 800 ). Il s'agit des experiences realisees avec
di erentes longueurs de subdivision :
Ti ; Ti
Ti
; Ti
t
t
050 100 t
200 300 t
400 600 t
t
t
t
Les courbes representent toujours les ecarts quadratiques relatifs suivant les couches
entre la trajectoire identi ee et la trajectoire de reference.
149
Pratique de l'assimilation variationnelle.
Commentaires:
{ L'une de nos conclusions importantes est la suivante : les longueurs de chaque
sous-periode doivent ^etre choisies de maniere a satisfaire en m^eme temps les deux
contraintes suivantes :
(i) elles doivent ^etre plus courtes qu'une longueur limite pour eviter que l'etat
initial de demarrage ne se situe a l'exterieur du bassin d'attraction autour de
l'optimum absolu de la fonctionnelle J ;
(ii) elles doivent ^etre assez grandes pour permettre une bonne penetration des
donnees de surface en profondeur au sein m^eme de chaque sous-periode.
{ Dans le but pour faire une bonne prevision de la circulation oceanique, notre critere
de classement est base essentiellement sur la vitesse de diminution de l'erreur de la
trajectoire sur l'axe des temps. Dans notre cas test de turbulence, nous trouvons
qu'une longueur de sous-intervalle de l'ordre de 200 a 300 pas de temps est un bon
compromis. Dans ces deux cas, les etats naux sont tres bien identi es avec des
erreurs de l'ordre seulement de 2 a 3%. Pour l'application a d'autres modeles, nous
pensons, d'apres le commentaire precedent, pouvoir obtenir une premiere estimation de longueur de subdivision en gardant les m^emes proportions par rapport au
temps de decorrelation estime comme dans la section 4.7, et le temps de penetration
verticale estime comme dans la section 4.8.
{ Cette strategie est une sorte de compromis entre la technique variationnelle et la
technique de ltrage. Le mot (( sequentielle )) que nous avons choisi ici garde donc
le m^eme sens que celui utilise couramment dans la theorie du ltrage.
{ Quand on se trouve sur un sous-intervalle [
+1 ], les donnees presentees dans
le passe (c.-a-d. les observations prises aux instants
) sont en quelque sorte
concentrees dans le vecteur (( rst-guess )) ( = ) fourni par tout le processus
d'analyse qui precede.
Ti ; Ti
t < Ti
t
Ti
{ Nous avons remarque que pendant la minimisation - bien que le vecteur de contr^ole
soit l'etat initial - l'etat nal identi e est tres rapidement correle avec l'etat nal de
reference. Donc si l'on s'interesse seulement au probleme de la prevision de l'ecoulement, cette strategie sequentielle donne de tres bons resultats, m^eme avec un nombre
relativement limite d'iterations dans la minimisation sur chaque sous-intervalle. En
e et, dans les gures 4.15 nous presentons l'ecart quadratique relatif (2 gures en
haut) et la correlation avec l'ecoulement de reference (2 gures en bas) en fonction
des iterations de la minimisation numerique de :
(i) l'etat initial (2 gures a gauche) et,
(ii) l'etat nal (2 gures a droite).
151
Chapitre IV.
Bien que l'on e ectue le contr^ole du systeme dynamique sur l'etat initial, la diminution de l'erreur quadratique et surtout la correlation des etats naux montrent
une vitesse de convergence spectaculaire de l'etat nal (en la comparant avec celle
de l'etat initial).
Fig.
4.15 - Convergence de l'etat initial et de l'etat nal.
152
Pratique de l'assimilation variationnelle.
4.11.2 Strategie incrementale.
L'inconvenient de la strategie sequentielle est que la trajectoire de l'ecoulement identi ee presente des discontinuites a des instants de subdivision et que l'identi cation de
l'etat a l'instant = 0 n'exploite pas toutes les observations disponibles sur [0 ]. Par
consequent, ceci peut nuire a la qualite de l'identi cation de l'etat initial. Nous avons donc
teste une autre strategie - dite (( incrementale )) - comme l'indique son nom qui consiste
a :
(1) commencer par assimiler les donnees presentees sur une courte periode de temps
[0 1] ;
(2) ensuite utiliser le vecteur initial identi e dans l'etape (1) comme rst-guess pour
minimiser l'ecart aux observations sur une periode de temps [0 2] plus grande que
[0 1] ;
(3) reboucler comme dans l'etape (2) avec les intervalles [0 ] de plus en plus grands
( 1
) jusqu'a la couverture totale des donnees a assimiler sur
2
l'intervalle [0 ].
Ti
t
;T
;T
;T
;T
; Ti
T
< T
< : : : < Tn
;T
0
T
1
T
T
0
:::
2
Tn
Nous illustrons cette strategie par une experience d'assimilation des donnees presentees
sur un intervalle [0; 8mois]. Dans cette experience, nous commencons par une minimisation
sur le sous-intervalle [0; 1 2mois] et nous avons dedouble a chaque etape le sous-intervalle.
En tout, nous avons donc e ectue cinq minimisations sur les sous-intervalles suivants :
=
A:
B:
C:
D:
E:
h
i
0; 1 2mois
h
i
0; 1mois
h
i
0; 2mois
h
i
0; 4mois et
h
i
0; 8mois
=
;
;
;
:
153
Fig.
4.16 - L'ecart quadratique de la trajectoire identi ee.
Fig.
4.17 - L'ecart quadratique de la trajectoire identi ee.
Chapitre IV.
Les trois gures (4.16) representent les ecarts quadratiques des fonctions de courant
dans les trois couches. Dans chaque gure, les cinq courbes de A a E donnent respectivement ces ecarts apres l'identi cation sur les cinq sous-intervalles de la strategie incrementale. On remarque donc qu'au fur et a mesure que les longueurs de ces intervalles
augmentent, les erreurs entre la trajectoire des etats identi es et celle de reference diminuent.
Dans les gures (4.17) nous presentons la m^eme experience, mais les courbes d'ecart
quadratique relatif ne sont achees que sur le sous-intervalle [0 ] de minimisation correspondant.
; Ti
Commentaires:
{ Dans la gure 4.16a) on remarque tres bien l'ajustement de la fonction de courant
de surface calculee a celle de reference au fur et a mesure que les sous-intervalles
s'agrandissent.
{ Dans la gure 4.16c) on remarque le phenomene de penetration verticale des donnees
en surface et par consequent son apport dans la determination de la circulation au
fond : l'ecart quadratique relatif de cette couche de profondeur a l'instant initial
vaut 45% apres la premiere minimisation sur [0; 1 2mois] et il vaut seulement 8%
seulement apres la derniere minimisation sur [0; 8mois].
=
{ On remarque aussi qu'il y a peu de di erence perceptible dans la qualite d'identi cation de l'etat initial entre le resultat sur [0; 4mois] et celui sur [0; 8mois]. Ceci
con rme sans doute le fait suivant : il est super u de minimiser sur un intervalle
dont la longueur depasse l'echelle de temps de decorrelation et de predicibilite.
{ Comme remarque au debut du paragraphe, plus l'intervalle d'assimilation est petit,
plus le bassin d'attraction de la fonctionnelle vers l'etat optimal s'agrandit. Cette
strategie pro te donc de ce fait pour obliger les etats initiaux a rester toujours dans
les bassins d'attraction, quelle que soit la longueur de l'intervalle d'assimilation , et
a converger vers l'optimum global de la fonctionnelle.
{ On pourrait penser que le dedoublement de l'intervalle de temps a chaque etape
est considerable et n'assure pas forcement l'appartenance de l'etat contr^ole - au
moment de demarrage de la minimisation sur un nouveau sous-intervalle - au bassin
d'attraction autour du minimum absolu. Dans toutes les experiences realisees avec
notre modele test de turbulence, nous avons dedouble systematiquement a chaque
fois l'intervalle (c.-a-d. +1 = 2 ) et aucune experience numerique utilisant ce
procede ne montre un defaut de convergence.
Ti
Ti
{ Pour le m^eme nombre d'iterations sur chaque sous-intervalle cette strategie est environ deux fois plus co^uteuse que la strategie sequentielle. Par contre les inconvenients
de cette derniere sont evites par la strategie incrementale.
156
Pratique de l'assimilation variationnelle.
{ Une longueur de l'ordre de 200 pas de temps du premier intervalle (T1) - c.-a-d. de
m^eme valeur que la longueur de decoupage choisie dans la strategie sequentielle donne de bons resultats d'identi cation.
{ M^eme si l'on commence avec un premier intervalle de longueur plus petite, le surco^ut de calcul est negligeable car seules les minimisations sur les derniers grands
intervalles sont co^uteuses.
4.11.3 Comparaison des strategies.
Avant de faire la comparaison proprement dite entre les strategies d'assimilation que
nous venons de presenter, il convient d'abord de faire la synthese des principaux objectifs
d'une assimilation. A notre avis, ces objectifs peuvent ^etre classes essentiellement en trois
categories (citees suivant la croissance du degre de l'exigence de l'objectif et sa diculte)
suivantes :
1. Prevision : une bonne prevision doit s'appuyer sur une bonne identi cation de
l'etat de l'ecoulement a l'instant nal.
2. Identi cation : L'objectif d'identi cation est considere atteint si l'etat initial est
reconstitue correctement apres l'assimilation.
3. Filtrage : On exige cette fois ci l'identi cation de facon convenable de toute la
trajectoire de l'ecoulement.
Fig.
4.18 - Comparaison entre les strategies sequentielle et incrementale.
157
Chapitre IV.
Dans la gure 4.18 nous presentons les deux resultats naux de chaque strategie. Les
courbes donnent les ecarts quadratiques relatifs de chaque couche. Il est donc bien clair
que seule la strategie incrementale remplit parfaitement a la fois les trois objectifs.
Par contre, l'inconvenient de cette strategie est son co^ut de calcul : pour le m^eme
nombre d'iterations sur chaque sous-intervalle, cette strategie est environ deux fois plus
co^uteuse que la strategie sequentielle ou qu'une assimilation simple. En e et, si l'on suppose que :
{ pour la strategie incrementale, on fasse un dedoublement des sous-intervalles,
{ et que le nombre d'iterations necessaires pour minimiser sur chaque sous intervalle
ne varie pas de facon signi cative,
alors, comme le co^ut de calcul pour une inversion est proportionnel a la longueur de
l'intervalle de temps, le co^ut total de la strategie incrementale est donc :
CT + C2T + C4T + : : : = 2 CT ;
ou CT est le co^ut de calcul pour une inversion sur un intervalle de longueur T .
Si l'on ne s'interesse qu'a une bonne prevision de l'ecoulement, la strategie sequentielle est largement susante. Elle donne d'excellents resultats d'identi cation de l'etat
nal avec un moindre co^ut de calcul : en e et, on a constate que la grande vitesse de
convergence de l'etat nal permet d'utiliser cette strategie avec un nombre relativement
limite d'iterations de minimisation.
Notre conclusion se resume par le tableau suivant :
Assimilation simple Strategie sequentielle Strategie incrementale
Prevision
+
++
++
Identi cation
,,
,,
++
Filtrage
,,
+
++
4.11.4 Deux experiences de haute resolution avec l'e et .
A n de valider notre methode variationnelle, nous avons realise deux tests d'assimilation utilisant un modele toujours en trois couches avec une resolution ne de 203 203
en espace.
Voici les details des parametres de ce modele :
{ Le bassin est carre de longueur 4000 km de c^ote. Ce bassin est discretise horizontalement avec une resolution de 203 points de chaque c^ote, ce qui correspond a des
mailles carrees de longueur de 20 km.
158
Pratique de l'assimilation variationnelle.
{ Nous supposons l'absence de la topographie au fond. La profondeur du bassin est
de 5000 m. On se xe une discretisation verticale en trois couches de hauteur (d'en
haut jusqu'en bas) 300 m, 700 m et 4000 m. La densite de l'eau dans chaque couche
est respectivement 1000 kg=m3 , 1037 kg=m3 et 1054 kg=m3 .
{ Le coecient CB de frottement au fond du bassin correspond donc a un taux d'amortissement d'environ 116 jours, c.-a-d. que sans forcage du vent, l'enstrophie :
E =
Z
2 dx
sera reduite d'un facteur de e2 au bout de 116 jours (ou un peu moins de 4 mois).
{ La friction laterale, quant a elle dissipe plus ou moins l'enstrophie suivant la longueur
d'onde de la vorticite de la circulation. Dans ce cas test, nous avons choisi un tres
faible coecient A4 de friction laterale qui joue essentiellement le r^ole d'une viscosite
sous-maille : le facteur d'amortissement est de l'ordre de 5 ans pour des structures
de vorticite de longueur d'onde d'environ 20 km.
{ La force de Coriolis varie lineairement entre 4; 3:10,5 1=s et 13; 3:10,5 1=s. suivant
la latitude.
{ La tension du vent, moteur de la circulation, est supposee constante dans le temps.
Celle-ci a ete generee arti ciellement par des fonctions sinusodales dans la direction
est-ouest. L'amplitude maximale est de l'ordre de 1 milieme dyne=cm2.
{ Le pas de temps est de 1 12 h.
L'e et de la force de Coriolis qui cree un courant typique sur le bord ouest du
bassin est present. Cette resolution permet de produire des tourbillons assez ns plus
comparables a ceux des modeles operationnels de circulation a grande echelle.
Experience 1.
L'assimilation variationnelle de ce test est faite sur une periode de temps d'un mois.
Les pseudo-observations sont echantillonnees avec toute la fonction de courant de surface
a chaque jour.
Nous avons utilise la strategie incrementale avec les intervalles suivants :
[0; jour4] [0; jour8] [0; jour15] et [0; jour30]:
Les gures de la page 161 comparent les lignes isovaleurs a l'instant initial des fonctions
de courant de reference a celles identi ees, couche par couche.
Les gures de la page 162 donnent la di erence des lignes isovaleurs a l'instant initial
entre les fonctions de courant de demarrage ( rst-guess) et celles identi ees, couche par
couche.
159
Chapitre IV.
Les gures de la page 163 comparent les lignes isovaleurs a l'instant nal des fonctions
de courant de reference a celles identi ees, couche par couche.
On remarque que l'identi cation de la couche de surface est presque parfaite. Les identi cations des deux couches profondes sont moins bonnes que dans le cas du modele a
basse resolution, mais on remarque que l'apport des donnees en surface dans la qualite de
l'identi cation d'ecoulement dans ces deux couches est quand m^eme signi catif.
Les trois gures (4.19) representent les ecarts quadratiques des fonctions de courant
dans les trois couches. Dans chaque gure, les quatre courbes de A a D donnent ces ecarts
apres l'identi cation sur les quatre sous-intervalles respectifs de la strategie incrementale.
On remarque donc qu'au fur et a mesure que les longueurs de ces intervalles augmentent,
les erreurs entre la trajectoire des etats identi es et celle de reference diminuent. Le niveau
d'erreur du resultat nal de la trajectoire sur la couche profonde est compris entre 60%
et 40%. On constate qu'il est relativement plus important que le niveau habituel des tests
d'assimilation utilisant le modele a basse resolution 41 41. Une periode d'assimilation
d'un mois est probablement trop courte pour assurer une bonne penetration des informations de surface en profondeur. On remarque aussi, bien que les donnees en surface ne
permettent pas une identi cation parfaite de l'ecoulement dans la couche profonde, elles
ameliorent quand m^eme de facon notable la qualite de la prevision de celui-ci.
En n, les gures des pages 165 a 169 donnent une vision en 3 D des surfaces representatives des di erentes fonctions de courant de l'experience.
160
Chapitre IV.
Fig.
4.19 - L'ecart quadratique de la trajectoire identi ee.
164
Pratique de l'assimilation variationnelle.
Fig.
4.20 - Fonctions de courant de reference.
165
Chapitre IV.
Fig.
4.21 - Fonctions de courant identi ees.
166
Pratique de l'assimilation variationnelle.
Fig.
4.22 - Fonctions de courant de demarrage.
167
Chapitre IV.
Fig.
4.23 - Fonctions de courant de l'etat nal reference.
168
Pratique de l'assimilation variationnelle.
Fig.
4.24 - Fonctions de courant de l'etat nal identi e.
169
Chapitre IV.
Experience 2.
Dans cette experience nous avons continue a assimiler les donnees sur la periode
[jour 20 jour 50] extraites de la m^eme trajectoire de reference que celle utilisee dans l'experience 1. Le cadre de cette experience est le m^eme que celui de la premiere. C.-a-d. :
;
{ L'assimilation variationnelle de ce test est faite sur une periode de temps d'un mois.
{ Les pseudo-observations sont echantillonnees avec toute la fonction de courant de
surface a chaque jour.
{ De m^eme, nous avons utilise la strategie incrementale avec les intervalles suivants :
[jour20 jour24] [jour20 jour28] [jour20 jour35] et [jour20 jour50]
;
;
;
;
:
Par contre, nous avons reutilise le resultat de l'identi cation a l'instant du jour 20 de
l'experience 1 comme etat de demarrage ( rst-guess).
Les gures de la page 171 comparent les lignes isovaleurs a l'instant initial des fonctions
de courant de reference a celles identi ees, couche par couche.
Les gures de la page 172 comparent les lignes isovaleurs a l'instant nal des fonctions
de courant de reference a celles identi ees, couche par couche.
Dans la gure (4.29), les trois courbes representent les ecarts quadratiques des fonctions de courant dans les trois couches respectives du resultat nal d'identi cation de la
strategie incrementale. Le niveau d'erreur de ce resultat sur la couche profonde est cette
fois-ci compris entre 35% et 32%. On constate qu'il y a une nette amelioration de l'identication par rapport a celui de l'experience 1 (dont l'erreur est de l'ordre de 40% a 60%).
Cette amelioration peut laisser croire, en continuant a assimiler encore des donnees plus
eloignees par le m^eme processus, on obtient probablement un niveau d'erreur comparable
a celui des tests d'assimilation utilisant le modele a basse resolution (c.-a-d. de l'ordre de
quelques pourcents). Pour des raisons de co^ut de calcul important demande par le modele
203 203, nous n'avons pu le veri er.
En n, les gures des pages 173 a 176 donnent une vision en 3 D des surfaces representatives des di erentes fonctions de courant de l'experience 2.
170
Pratique de l'assimilation variationnelle.
Fig.
4.25 - Fonctions de courant de reference.
173
Chapitre IV.
Fig.
4.26 - Fonctions de courant identi ees.
174
Pratique de l'assimilation variationnelle.
Fig.
4.27 - Fonctions de courant de l'etat nal reference.
175
Chapitre IV.
Fig.
4.28 - Fonctions de courant de l'etat nal identi e.
176
Pratique de l'assimilation variationnelle.
Fig.
4.29 - L'ecart quadratique de l'erreur du resultat nal suivant les couches.
177
Chapitre IV.
4.12
Conclusion.
L'assimilation des observations non-uniformement reparties par la methode variationnelle et dans un modele de circulation fortement non-lineaire est faisable, a condition de
prendre les precautions d'analyser en profondeur le probleme d'inversion (etude de la nature des donnees, des proprietes du modele, ...). Cette analyse doit se faire specialement
pour chaque probleme particulier.
La methode variationnelle donne des resultats d'identi cation satisfaisants. Le rapport
(( pr
ecision / co^ut de calcul )) de cette methode est assez faible, mais reste accessible pour
une application dans un cadre realiste.
178
Chapitre
V:
Analyse au second ordre.
5.1
Introduction.
Apres avoir resolu un probleme d'identi cation, on a envie de poser les questions
suivantes :
{ En connaissant les proprietes de l'erreur d'observation (par exemple sa loi probabilite de distribution) : est-ce-que l'on peut determiner les proprietes de l'erreur de
l'identi cation?
{ Quel est la part de l'apport des donnees observees dans la qualite de la prevision
apres l'assimilation?
{ Quelle sont les donnees qui sont (( importantes )) a observer en priorite ?
{ Quelle est l'e et de la regularisation sur la solution identi ee?
{ etc ...
Toutes ces questions, dont on devine les enjeux importants, ont toutes un point commun : elles soulevent le probleme de la sensibilite du vecteur de contr^ole optimal par
rapport aux parametres d'entree du probleme (souvent - mais pas toujours comme dans
la derniere question citee - ce sont des parametres d'observation ou des observations ellesm^emes).
Qui dit sensibilite, dit calcul de la variation (ou de la derivee). On verra tout au
long de ce chapitre que la derivee du vecteur de contr^ole optimal par rapport a un ou
plusieurs parametres s'obtient souvent en appliquant l'inverse du Hessien de la fonction
co^ut a un autre vecteur. D'ou l'importance, dans une etude a posteriori d'un probleme
d'identi cation, de la possibilite d'inverser numeriquement le Hessien de la fonction co^ut.
Toutes les etudes du probleme de contr^ole utilisant le Hessien sont donc exposees dans
ce chapitre. Terminons cette introduction avec la remarque suivante : des proprietes de
non-linearite du modele sont prises en compte partiellement dans la matrice Hessien de la
fonctionnelle. En tout cas elle donne naturellement une meilleure approximation qu'une
simple approximation lineaire tangente dans l'etude du premier ordre. Pour le moment
179
Chapitre V.
l'utilisation de cette matrice n'est pas encore assez repandue a cause de la delicatesse de
sa mise en uvre et aussi de son co^ut de calcul - qui est environ deux fois plus co^uteux
que le calcul du gradient. Mais nous esperons, gr^ace peut-^etre aux futures recherches, que
cette technique donnera un meilleur potentiel a des methodes variationnelles face a des
problemes d'assimilation de donnees sur des modeles de circulation non-lineaires.
5.2
Le calcul du produit Hessien
vecteur.
Dans cette partie, nous allons formaliser le systeme d'equations a resoudre pour calculer le produit Hessien vecteur dans le cadre d'un probleme de contr^ole par condition
initiale des donnees issues d'un modele evolutif abstrait. Cette formalisation est due a
F.-X. Le Dimet [Wang et al, 1990].
5.2.1 Presentation du modele evolutif abstrait.
Soient H et V deux espaces de Hilbert tels que V H avec injection continue dense.
Pour xer les idees disons tout de suite que qu'il s'agit des espaces correspondant au
probleme stationnaire. Supposons que l'on ait une equation evolutive abstraite suivante :
8 dX
>
<
+ A(X ) = F ;
dt
>
: X (t = 0) = X 0 :
(5.1)
Pour ne pas alourdir les notations sans trop restreindre la generalite, on fait l'identi cation entre l'espace dual H et H par la representation de Riesz-Frechet. Supposons que
la condition initiale X 0 2 H , que le second membre F 2 L2(0; T ; V ). A(:) est un operateur non-lineaire de V dans V independent du temps. La solution X de l'equation (5.1)
est a chercher dans l'espace des fonctions L2(0; T ; V ) telles que la derivee en temps dX
dt
appartienne a L2(0; T ; V ). Comme les solutions appartenant a cet espace sont continues
dans H par rapport au temps (c.-a-d. l'espace C (0; T ; H )), en resume, on cherche donc
la solution X telle que :
0
0
0
0
+
8 * dX
>
<
+ A(X ); '
dt
>
: X (t = 0) = X 0 :
= hF; 'i
8' 2 D(0; T ; V );
V 0 ;V
V 0 ;V
5.2.2 Presentation de la fonctionnelle.
(5.2)
Soit un operateur d'observation lineaire continue C 2 L(L2(0; T ; V ); H). Le probleme
de contr^ole qui nous interesse est l'identi cation de la condition initiale qui minimise la
fonctionnelle :
J (X 0) = 21 kC (X ) , Z k2 ;
(5.3)
ou X la solution de du modele abstrait (5.1).
obs
H
180
Analyse au second ordre.
5.2.3 Base hilbertienne - ecriture de l'equation dans la base.
On suppose que V soit separable et que fw1; w2; : : : ; wi; : : :g soit une base hilbertienne
de V . On va ecrire le systeme d'equations (di erentielles) que doivent veri er les coordonnees dans cette base du vecteur de solution X de (5.1). Dans la suite, nous allons
travailler plut^ot avec ce nouveau systeme d'equations. Soit (X1(t); X2(t); : : : ; Xi(t); : : :)
les coordonnees de X (t) dans cette base, autrement-dit :
Xi (t) = hX (t); wi iH
8i; 8t 2 [0; T ]:
(5.4)
Comme la solution X (t) est continue de [0; T ] dans H , il en est de m^eme pour chaque
fonction Xi(t). On de nit de facon analogue les coordonnees dans la base du second
membre F et de la condition initiale X 0. Pour chaque i = 1; 2; : : :, introduisons aussi une
fonctionnelle non-lineaire :
Ai : V ,! R
(5.5)
' ,̀! hA('); wi iV ;V :
L'operateur A de depart s'ecrit donc comme la somme :
1
X
A(') = Ai('):wi 8' 2 V:
(5.6)
0
i=1
L'equation (5.1) exprimant dans cette base est equivalente au systeme d'une in nite
d'equations di erentielles suivant :
8 dX
>
1
< i (t) + Ai (X (t)) = Fi (t);
X
dt
avec
X
(
t
)
=
Xi (t):wi:
(5.7)
>
: Xi (t = 0) = X 0 :
i
=1
i
5.2.4 Hypothese de bi-derivabilite de l'operateur A.
D'abord commencons par rappeler quelques notions utiles de calcul di erentiel pour
des operateurs.
On de nit la derivee partielle premiere :
@ Aj
Aj (X + wi) , Aj (X ) :
(
X ) = lim
!
0
@wi
et la derivee partielle seconde :
!
@ 2 Aj
@ @ Aj
(X ) = @w @w
@w @w
i
k
i
k
On dira que Aj est deux fois Frechet di erentiable en X si il admet une representation
de Taylor suivante :
1 Aj
1 @ 2Aj
X
X
(X ):hk +
(X ):hi:hk + o(khkV ):
(5.8)
Aj (X + h) = Aj (X ) + @@w
@w @w
i=1
i
i;k=1
181
i
k
Chapitre V.
Et nalement on dira que que A est deux fois Frechet di erentiable en si pour tout
chaque fonctionnelle A est Frechet di erentiable et de plus les restes (k k ) dans (5.8)
sont uniformement bornes par rapport a .
Dans la suite, on suppose que l'operateur A soit deux fois (Frechet-) di erentiable
en tout point de V. En plus supposons que les derivees partielles a l'ordre deux des
fonctionnelles A soient continues dans , autrement dit pour tout
les applications :
X
j
o
j
h
V
j
X
V
j
X
7!
i; j; k
@
2
A ( )
j
@ wi @ wk
X
sont continues de dans R.
On peut montrer que cette derniere hypothese implique que l'on peut commuter l'ordre
de derivation partielle de chaque A . On verra que cette consequence implique naturellement la symetrie du Hessien de la fonctionnelle J .
V
j
5.2.5 L'operateur stationnaire linearise et son adjoint.
L'operateur linearise de A au voisinage d'un point
derivees partielles de A comme :
s'ecrit formellement gr^ace aux
X
j
A:
0
h
=
X
V
k
,!
X X A( ) !
,̀!
0
V
1
1
hk :wk
=1
j
1
=1
k
@
X
j
@ wk
=1
:hk
:wj
(5.9)
De m^eme l'adjoint de cet operateur linearise s'ecrit comme :
[A ] :
0 t
l
=
X
V
1
k
,!
X X A( ) !
,̀!
V
0
1
lk :wk
=1
j
=1
1
k
=1
@
k
X
@ wj
:lk
:wj
(5.10)
Si A 2 L( ) (c.-a-d. si A est Frechet-di erentiable) alors il en est de m^eme pour
[A ] ; en plus ces deux operateurs sont adjoints l'un de l'autre dans le sens classique du
terme :
hA i = h [A ] i
8 2
0
V; V
0
0 t
0
:h; l
V 0 ;V
h;
0 t
l
V ;V 0
h; l
V:
5.2.6 Rappel sur le systeme d'equations donnant le vecteur gradient de la fonctionnelle J .
Comme dans le chapitre III, on a vu qu'en un point f0 quelconque de l'espace de
contr^ole, le vecteur gradient de la fonctionnelle est obtenu en resolvant successivement
l'equation du modele evolutif direct et l'equation adjointe retrograde, puis en projetant
la variable adjointe sur l'espace des contr^oles. Ceci se schematise dans le cas de notre
X
182
Analyse au second ordre.
equation abstraite comme suit :
8f
f0;
>
X (t = 0) = X
>
>
>
f
dX
>
>
+ A(Xf) = F ;
>
dt
< e
P (t = T ) = 0;
>
>
>
dPe
>
,
+ [A0]t(Pe ) = C t (C (Xf) , Z obs);
>
>
dt
>
: rJ
f0) = Pe (t = 0):
~ (X
ou C t l'operateur adjoint de C :
hC (X ); Z iH = hX; C t(Z )iV;V
8X 2 V; 8Z 2 H:
0
(5.11)
(5.12)
5.2.7 Calcul de la derivee directionnelle du vecteur gradient :
produit Hessienvecteur.
Le produit du Hessien de la fonctionnelle J en un point Xf0 par un vecteur X 0 donne
est tout simplement la derivee dans cette direction X 0 de l'operateur qui associe, a chaque
point de l'espace de contr^ole, le vecteur gradient calcule en ce point de la fonctionnelle
J:
r~ J (Xf0 + :X 0) , r~ J (Xf0)
hHess J (Xf0); X 0iV = lim
(5.13)
!0
Pour calculer cette derivee directionnelle, il sut donc que l'on calcule les derivees
f Pe ) 2 L2(0; T ; V ) L2(0; T ; V ) donne par
directionnelles du couple de deux variables (X;
le systeme (5.11) dans la direction de perturbation X 0 du contr^ole.
f Pe ) veri e le systeme
Proposition 5.2.1 La d
erivee directionnelle (X; P ) du couple (X;
des deux equations suivantes :
8
>
X (t = 0) = X 0 ;
>
>
>
dX
>
+ A0 (X ) = 0;
>
jXe
>
< dt
P (t = T ) = 0;
>
>
>
dP
>
,
+ [A0jXe ]t(P ) + [A00jXe (X )]t(Pe ) = C t:C (X );
>
dt
>
>
: Hess J j (X 0) = P (t = 0):
Xe
00
t
e
ou [A j e (X )] (P ) represente le vecteur suivant :
X
1
1 0X
1X
1 @ 2 Aj
X
@
Xk Pej A wi :
j
e
@w
@w
X
k
i
i=1 k=1 j =1
avec Xk = hX; wk iH et Pej = hPe ; wk iH .
183
(5.14)
(5.15)
Chapitre V.
Demonstration
Le systeme (5.14) est obtenu en derivant le systeme (5.11). La seule derivation qui
n'est pas triviale est celle du terme [A j e ] ( e ). Ecrivons cette quantite dans la base des
f g:
0
1
f
X
X
A
(
)
eA
[A j e ] ( e ) = @
(5.16)
0
t
P
X
wi
1
0
t
1
P
X
i=1
@
j
X
Pj
@ wi
j =1
wi :
La derivee dans la direction ( ) de la somme (5.16) est donc :
0
1
0
1
f
X @X X A
X
X
A
(
)
A
=
je e A + @
= [A j e ( )] ( e ) + [A j e ] ( )
C.Q.F.D.
X; P
1
1
1
@
00
t
X
1
j
Xk Pj
@ wk @ wi
k =1 j =1
i=1
2
X
i=1
0
P
X
1
t
@
wi
X
j
Pj
@ wi
j =1
wi :
P
X
5.2.8 La symetrie du Hessien de la fonctionnelle J .
Proposition 5.2.2 Sous les hypotheses donnees dans la section 5.2.4, le Hessien de la
fonctionnelle J est symetrique, c.-a-d. :
h
Jj e ( ) i = h
J j e ( )i
8
2U
(5.17)
Demonstration
Soit ( ) un couple de variable dans (0 ; ) (0 ; ). Multiplions la deuxieme
H ess
X
0
;Y
0
0
X ; H ess
H
Y
X
0
0
0
X ;Y
H
ad :
X
2
L
Q; Y
;T
2
V
L
;T
V
equation de (5.14) par et la quatrieme equation de (5.14) par , Faisons la somme et
transposons l'expression :
+
*
+ Aje ( )
0 =
+
2
2
*
+
+ , + [A j e ] ( ) + [A j e ( )] ( e ) ,
( )
2
2
*
+
=
, + [A j e ] ( )
+ h ( ) ( )i , h (0) (0)i +
2
2
*
+
D
E
+
+ Aje ( )
,
( ) 2
+
2
2
2
D
E
+ [A j e ( )] ( e )
, h ( ) ( )i + h (0) (0)i (5.18)
2
2
D
E
Or, le terme [A j e ( )] ( e )
s'ecrit dans la base des f g :
2
2
1
Z 0X X X A
D
E
@
[A j e ( )] ( e )
=
j e e A (5.19)
2
2
Q
dX
0
dt
Y
X ;Q
X
dP
L
0
dt
0
dt
00
t
0
dt
t
X
X
t
L
X
t
X
H
;Q
H
t
X; C :C Y
L
P ;Y
(0;T ;V 0 );L (0;T ;V )
(0;T ;V );L (0;T ;V 0 )
L
0
(0;T ;V );L (0;T ;V )
P ;Y
L (0;T ;V 0 );L
Y
(0;T ;V 0 );L (0;T ;V )
L
(0;T ;V )
T ;P T
L
(0;T ;V );L (0;T ;V 0 )
Y
H
;P
0
184
1
1
H
wi
(0;T ;V 0 );L (0;T ;V )
T
P ;Y
C :C X ; Y
Y
X
00
t
P
X T ;Q T
L
X
00
t
Q
X
X
X
X
X
dY
P;
00
P
X
dQ
X;
t
(0;T ;V 0 );L (0;T ;V )
1
i=1 k =1 j =1
@
2
j
@ wk @ wi
Xk Pj Yi
X
dt
Analyse au second ordre.
Dans le membre de droite de (5.19) si l'on change l'indice en et en , ensuite gr^ace
a des hypotheses dans 5.2.4, on peut permuter l'ordre de derivation des A , et nalement
on permute les deux signes somme sur et , (5.19) devient :
1
Z 0X X X A
D
E
@
[A j e ( )] ( e )
=
je e A
2
2
D
E
D
E
e
[A j e ( )] ( e )
=
[
A
(
)]
(
)
(5.20)
je
2
2
2
2
i
k
k
i
j
i
00
t
X
t
X
1
T
P ;Y
X
00
k
P ;Y
X
L
(0;T ;V 0 );L (0;T ;V )
L
(0;T ;V 0 );L (0;T ;V )
0
1
1
@
00
t
Y
j
@ wk @ wi
i=1 k =1 j =1
X;
2
P
L
X
Yk Pj Xi
dt
X
(0;T ;V );L (0;T ;V 0 )
Donc (5.18) devient :
*
+
+
0 =
, + [A j e ] ( ) + [A j e ( )] ( e ) , ( )
2
2
+
*
+ Aje ( )
+
+
2
2
+ h ( ) ( )i , h (0) (0)i , h ( ) ( )i + h (0) (0)i
(5.21)
X;
P;
dQ
0
dt
t
00
Q
X
dY
0
dt
t
P
C :C Y
X
L
(0;T ;V );L (0;T ;V 0 )
Y
X
X T ;Q T
t
Y
(0;T ;V );L (0;T ;V 0 )
L
X
H
;Q
Y
H
T ;P T
Y
H
;P
H
Prenons un vecteur quelconque dans U . Dans (5.21) on impose de plus que le
couple ( ) veri e le systeme adjoint au second ordre :
8 ( = 0) = ;
>
>
>
>
>
+ A j e ( ) = 0;
<
(5.22)
>
(
=
)
=
0;
>
>
>
>
: , + [A j ] ( ) + [A j ( )] ( e ) =
( )
e
e
Y
0
ad
Y; Q
Y
t
Y
dY
0
dt
0
Y
X
Q t
T
dQ
0
dt
t
00
Q
X
Y
t
t
P
C :C Y
:
X
Ce systeme adjoint est exactement de m^eme type que le systeme (5.14), donc :
H ess
J j e ( ) = ( = 0)
Y
0
Q t
(5.23)
:
X
et (5.21) devient :
0 = ,h (0) (0)i + h (0) (0)i
X
ou bien :
h
H ess
Jj e ( )
X
X
0
;Y
;Q
0
Y
H
i =h
;P
0
X ; H ess
H
185
(5.24)
H
J j e ( )i
Y
X
0
H
(5.25)
Chapitre V.
5.2.9 Application au modele quasi-geostrophique.
Appliquons cette technique a notre probleme d'assimilation avec le modele quasigeostrophique. Pour appliquer le Hessien en un point e 0 a un vecteur 0, on doit resoudre
quatre equations evolutives suivantes :
1. Equation
quasi-geostrophique (non-lineaire) :
Le8 vecteur d'inconnues est e .
>> e (t = 0) = e 0
sur
>>
>> @ ( e ) + J ( e ; ( e ) + f )
>> @t
>>
+ C : e , A4:2 e = F
>> e
< (t) = C (t)
>> e = hB: e i
>> e
>> 1 = 0
>> Z e
>> (t) dx = 0
>:
( e ) = 0
k
k
sur [0; T ]; k = 1; N
k
k;N
B
N
k
k
te
k
k
k
k
k
k
sur @ ; 8t 2 [0; T ]
sur [0; T ]
sur @ [0; T ]
8t 2 [0; T ]
sur @ [0; T ]; k = 1; N
(5.26)
2. Equation
adjointe quasi-geostrophique :
e
est .
8 Le vecteur d'inconnues
>> e
@ Jf
sur
>> (t = T ) = @ (T ) ( e )
>> @
e , J ( e ; e ) , [W ] J ( e ; )
e
>> , ()
>> @t
, J (e ; ( e ) + f )
>>
sur [0; T ]; k = 1; N
f
>>
+ C :e , A4:2e = @@ J ( e )
>>
<
>> e (t) = C (t)
sur @ ; 8t 2 [0; T ]
>>
h ei
sur [0; T ]
>> e = B :
>> e = 0
sur @ [0; T ]
>> Z 1
>> e (t) dx = 0
8t 2 [0; T ]
>>
>: e
( ) = 0
sur @ [0; T ]; k = 1; N
k
t
k
k
k
k;N
t
k
k
k
B
N
k
k
te
k
k
t
k
k
k
k
(5.27)
186
Analyse au second ordre.
3. Equation
quasi-geostrophique linearisee :
Le vecteur d'inconnues est .
8> (t = 0) = 0
>
sur
>> @
>> ( ) + J ( ; ( e ) + f ) + J ( e ; ( ))
sur [0; T ]; k = 1; N
>> @t
+ C : , A4:2 = 0
>>
>>
< (t) = C (t)
sur @ ; 8t 2 [0; T ]
>> = [B: ]
sur [0; T ]
>>
sur @ [0; T ]
>> Z 1 = 0
>>
8t 2 [0; T ]
>> (t) dx = 0
>:
( ) = 0
sur @ [0; T ]; k = 1; N
k
k
k
k;N
k
B
N
k
k
te
k
k
k
k
k
k
4. Equation
adjointe quasi-geostrophique au second ordre :
(5.28)
Le vecteur d'inconnues est 8>
>> (t = T ) = @ 22Jf ( )
sur
@ (T )
>>
>> , @ () , J ( ; e ) , J ( e ; )
>> @t
>>
e , [W ] J ( e ; )
, [W ] J ( ; )
>>
sur [0; T ]; k = 1; N
>>
, J ( ; ( e ) + f ) , J (e ; ( ))
><
2f
+ C : , A4:2 = @@ J2 ( )
>>
sur @ ; 8t 2 [0; T ]
>> (t) = C (t)
>> = [B :]
sur [0; T ]
>>
>> 1 = 0
sur @ [0; T ]
>> Z
>> (t) dx = 0
8t 2 [0; T ]
>>:
( ) = 0
sur @ [0; T ]; k = 1; N
k
t
k
k
t
k
t
k
k
k;N
k
k
B
k
k
k
N
k
k
te
k
k
k
t
k
k
k
k
(5.29)
Le resultat du produit Hessienvecteur est recupere dans (t = 0). Les deux premieres
equations (1) et (2) sont les deux equations classiques que l'on resout pour calculer le gradient de la fonctionnelle J . Numeriquement pendant la resolution de ces deux equations,
e Ces deux variables
on doit stocker, en plus de la variable directe e , la variable adjointe .
sont utilisees dans l'expression des dernieres equations (3) et (4). Donc en gros le calcul du
produit Hessienvecteur exige deux fois plus en terme de co^ut de calcul et aussi deux fois
plus pour la place de memoire qu'une evaluation du vecteur gradient de la fonctionnelle.
Les seconds membres des equations (2) et (4) sont des derivations de la fonctionnelle
187
Chapitre V.
sans-contrainte Jf (voir chapitre III). Par exemple dans le cas de l'observation complete
de la fonction de courant en surface on a :
@ Jf e
( ) =
@ k
8
Z >
e 1 , obs dy :1I(
e 1 , obs , 1
>
>
>
1
1
<
j j
,1 Z >
B
:B
>
11
1
k
obs
>
e
>
1 , 1 dy :1I( )
:
) si k = 1
j j
et :
8
>
>
>
>
<
1
1,
j j
Z
@ 2Jf
( ) = > B :B ,1 Z
@ 2k
>
>
> 11 1k
:
j j
si k 2
1 dy :1I( ) si k = 1
1 dy
:1I( )
si k 2
Remarque: Pour la mise en uvre numerique de (3) et (4), on doit prendre garde de
faire plut^ot une di erentiation des codes discrets correspondants a (1) et (2). Par contre
la transposition est inutile car l'operateur Hessien est autoadjoint.
5.3
Test du Hessien.
Pour le test de l'exactitude du produit Hessienvecteur calcule, nous utilisons deux
de ces proprietes :
1. Sa symetrie:
hHess J jXe (X ); Y iV = hX; Hess J jXe (Y )iV
8X; Y 2 Uad:
(5.30)
En prenant pour le couple (X; Y ) quelques realisations des vecteurs aleatoires, cette
relation doit ^etre juste a la precision machine pres. Si ce test est reussi, il assure d'autre
part l'exactitude du code adjoint programme.
2. Par di erence nie :
Soit Xf et X deux vecteurs xes dans Uad, on de nit les vecteurs :
V~ext def
= Hess J jXe (X );
f + X ) , rJ
f)
~ (X
~ (X
def rJ
V~dif ( ) =
On utilise la relation :
V~ext = lim
V~ ( ):
!0 dif
188
2 R:
Analyse au second ordre.
Pour veri er cette convergence, nous avons separe la convergence de la norme et la
correlation entre ces deux vecteurs, c.-a-d. :
kV~dif ( )kUad ,!
kV~extkUad ;
!0
et
0
1
~ext ; V~dif ( )iUad
h
V
A ,! 1:
arccos @ ~
~
kVdif ( )kUad :kVextkUad !0
5.4 Diagonalisation du Hessien par la methode de
Lanczos.
La methode de Lanczos est une methode de recherche du spectre d'une matrice symetrique qui n'est pas forcement de nie positive. C'est une methode de type iteratif. Son
principe repose sur les proprietes de convergence de l'espace de Krylov engendre a partir
d'un vecteur initial donne comme pour la methode de gradient-conjugue. Rappelons la
de nition suivante de l'espace de Krylov associe a une matrice H 2 M(n; n). Soit x0 2 Rn
donne, x0 non nul, on de nit l'espace de Krylov d'ordre k comme le sous-espace vectoriel :
D
E
Kk def
= L x0; H:x0; : : : ; H k,1 :x0 :
Rappelons aussi que le spectre d'une matrice H symetrique est forme par des des valeurs
propres, classe en ordre decroissant : 1 2 : : : n qui sont des quantites sup-inf :
i = sup inf
V R
dim V =i
n
x2V
hx; H:xi
hx; xi
i = 1; 2; : : : ; n:
(5.31)
La methode de Lanczos, a sa kieme iteration donne le spectre de la projection Rayleight
de H sur Kk , c.-a-d. :
hx; ProjKk (H:x)i i = 1; 2; : : : ; k:
(5.32)
ik = sup inf
h
x;
Proj
(
x
)
i
n x2V
K
k
V R
dim V =i
Soit fq1; q2; : : : ; qk g une base orthonormee et qui engendre l'espace de Krylov d'ordre
k Kk et soit Qk une matrice d'ordre n k avec k n dont la jieme colonne est le vecteur
qj , l'operateur de projection s'ecrit Qk :Qtk . Par consequence l'expression (5.32) devient :
ik = sup inf
V Rn x2V
dim V =i
hQtk :x; Qtk:H:xi
hQtk :x; Qtk:xi
i
= sup inf hy;hy;H:y
yi
V Kk y2V
dim V =i
189
i = 1; 2; : : : ; k:
(5.33)
Chapitre V.
L'algorithme de Lanczos repose sur l'existence une base fq1; q2; : : : ; qk g veri ant en
plus une relation tres ingenieuse de recurrence :
H:qj = j ,1 qj ,1 + j qj + j qj +1
j 1; et j ; j 2 R:
(5.34)
L'algorithme pour calculer une telle base est :
~q0 = ~0
0=0
~x1
k~x1k
POUR j = 1; : : : ; k FAIRE
~zj = H:~qj , j ,1 ~qj ,1
zj ; ~qj i
j = h~
~vj = ~zj , j ~qj
vj k
j = k~
~x
~qj +1 = j
k~xj k
~q1 =
FIN POUR
et l'interpretation de (5.34) en ecriture matricielle est :
Qtk :H:Qk =
Qtk
0
B
B
= B
B
@
1
1
H
Qk
0 1
CC def
2
... ... ... C
CA = Tk
1
2
(5.35)
(5.36)
0
k,1
k
Cette matrice Tk carree d'ordre k et tridiagonale est celle de la projection Rayleight de
H sur l'espace Kk s'ecrivant dans la base fq1; q2 ; : : : ; qk g. Les k elements propres (j ; ~yj )
avec 1 j k de la matrice Tk , c.-a-d. :
Tk :yj = j :yj
yj 2 Rk ; j 2 R:
sont facilement calculables par la methode de bisection. Les couples (j ; Qk :~yj ) sont appeles les elements de Riesz de H . Ils donnent une approximation du spectre de H . En e et
on a deux theoremes suivants :
Theoreme 5.4.1
Il existe
k
kj , jk
valeurs propres de
k
jhyj ; ek ij
190
H k1 ; k2 ; : : : ; kk
telles que :
8j = 1; 2; : : : ; k:
(5.37)
Analyse au second ordre.
Theoreme 5.4.2
vante :
Les vecteurs de Rayleight-Riesz xkj
H:xkj , j xkj
=
k
jhyj ; ek ij
= Qk :~yj
def
veri ent la relation sui-
8j = 1; 2; : : : ; k:
(5.38)
Remarque:
{ Comme jyj j = 1 et jek j = 1, alors jhyj ; ek ij 1.
Pour les demonstrations de ces deux theoremes, on peut consulter [Kahan et Parlett, 1976]. On remarque que l'approximation des elements de Rayleight-Riesz et d'autant meilleure que le (( residu )) k est petit. Le test d'arr^et de l'algorithme porte donc sur
la valeur de cette quantite k .
Cet algorithme est parfaitement adapte a la decomposition spectrale du hessien de la
fonction co^ut a minimiser J car, sans avoir besoin d'expliciter la matrice du hessien H ,
il sut que l'on fournisse a l'algorithme le produit H:q avec q un vecteur donne. Cependant le grand inconvenient de la methode de Lanczos est sa grande instabilite. Elle est
donc tres a ectee par les phenomenes d^us aux erreurs d'arrondis. Ceci se traduit par une
perte d'orthogonalite naturelle des vecteur fqj g calcules. B.N. Parlett et D.S. Scott
[Parlett, 1979] ont montre que ce risque devient essentiel quand justement les quantites
e une modi cation de la methode en ajoutant un
k jhyj ; ek ij sont petites. Ils ont propos
processus dit de (( reorthogonalisation-selective )) qui consiste a de temps a autre reorthogonaliser les vecteurs fqj g, suivant un critere portant sur les quantites k jhyj ; ek ij.
Notons qu'il existe dans la litterature sur le sujet toute une panoplie de di erentes strategies de reorthogonalisation. Dans notre cas nous avons choisi cette strategie d^ue a B.N.
Parlett et D.S. Scott [Parlett, 1979].
5.5 Experience 1 : E tude du spectre par rapport a
une norme.
Dans le chapitre IV precedent, nous avons souligne l'importance du choix de la norme
de l'espace de contr^ole. Pour mieux analyser l'in uence de celui-ci, nous avons e ectue, gr^ace a l'algorithme de Lanczos, une decomposition spectrale, suivant les di erentes
normes choisies, du Hessien de la fonctionnelle J . Nous avons pris la fonctionnelle sans
le terme de la regularisation de Tchikonov a n de faire ressortir uniquement les e ets
des choix des normes dans le probleme sans penalite. Le point choisi dans l'espace de
contr^ole pour e ectuer cette decomposition est le point contr^ole initial de reference. Bien
entendu, ceci est possible seulement dans le cadre des experiences jumelles. Dans le cas
contraire, on peut choisir la decomposion du hessien au point optimal determine apres la
minimisation de J .
Le principe de l'algorithme de Lanczos - explique dans la section precedente - ne
s'applique que pour le produit scalaire euclidien de l'espace de contr^ole discretise. Pour
pouvoir appliquer cet algorithme a une autre norme que la norme euclidienne, nous avons
procede par changement de base comme suit :
191
Chapitre V.
5.5.1 Decomposition spectrale par rapport a une norme.
Soit Rn l'espace de contr^ole discretise, et h~x; ~yiS le produit scalaire correspondant a
la norme qui nous interesse. E crit dans la base canonique de Rn, ce produit scalaire est
associe a une matrice Q symetrique de nie positive :
h~x; ~yiS
=
~
xt:Q:~
y:
Prenons fw~ 1; w~ 2; : : : ; w~ ng une base propre de Q. Cette base est orthonormee par
rapport au produit scalaire euclidien correspondant a des valeurs propres croissantes
0 < 1 2 : : : n
avec Q:w~ i = iw~ i; et hw~ i ; w~ j iE = i;j :
La base B = i est donc une base orthonormee par rapport a la norme S , c.-a-d. le
produit scalaire S entre deux vecteurs ~x et ~y est obtenu en ecrivant respectivement leurs
coordonnees representees par ~x et ~y dans cette base B, puis en e ectuant le produit
scalaire euclidien de ~x et ~y . Les coordonnees representees par ~x dans la base B d'un
vecteur ~x s'obtiennent par le produit de la matrice changement de base suivante avec ~x :
0p
1 0
1
1
0
w
~ 1t
B
CC BB
CC
...
...
x = B
~
:@
@
A
A :~x:
p
0
n
w
~ nt
Et le changement de base dans l'autre sens est :
0
1 0 1
1
0
B
CC
B ~ 1 : : : w~ n CCC : BBB 1 . . .
~
x = B w
CA :~x :
@
A @
1
0
|
{z
}
n w~ o
p
i
i
0
0
0
0
0
0
p
0
n
=
p
P
Supposons maintenant que H soit la matrice du Hessien de la fonctionnelle J relative
a la base canonique de Rn . Soit X~ l'etat optimal, au voisinage duquel la fonctionnelle
admet la representation :
2
t
~ +~
~ ) + 1 ~
J (X
x) = J (X
2 x :H:~x + o(k~xkE ):
E crivant cette fonctionnelle en fonction des coordonnees ~x dans la base B du vecteur
~
x, on a :
t t
2
~ +~
~ )+ 1 ~
J (X
x ) = J (X
x :P
{z } :~x + o(k~xkS ):
2 | :H:P
0
0
0
0
0
=
0
H0
192
Analyse au second ordre.
La matrice P t se decompose comme le produit des deux matrices :
0 1
1 0
1
t
0
w
~
1
1
B
CC B
CC
...
...
[email protected]
Pt = B
B
C
:
A
@
A
1
t
0
w
~
n
n
p
p
Pour chercher numeriquement le spectre du hessien suivant la norme S , il sut que
l'on applique l'algorithme de Lanczos classique sur la matrice H = P t:H:P .
0
En resume, voici comment on procede :
1. Calcul et stockage des vecteurs propres fw~ igi et les valeurs propres fi gi correspondantes de la matrice Q (c'est la matrice du produit scalaire S dans la base
canonique). Cette etape se fait gr^ace a l'algorithme de Lanczos. Dans le cas des
domaines a geometrie particuliere et si le produit scalaire S est un produit d'un
espace de Sobolev classique H s ( ), les vecteurs fw~ igi - a une constante pres - qui
sont des vecteurs propres du laplacien, peuvent ^etre explicites analytiquement.
2. Appliquer l'algorithme de Lanczos a la matrice H = P t:H:P . Pour un vecteur
~x = (x1 ; x2 ; : : : ; xn )t donne, le produit H :~x se calcule en trois etapes :
0
0
0
0
0
0
0
(i) Revenir dans la base canonique en faisant :
=
~x
n x
X
i
p w~ i :
0
i
i=1
(ii) E ectuer le produit ~y = H:~x en resolvant le systeme adjoint au second ordre.
(iii) Finalement, le resultat cherche ~y = H:~x s'obtient en repassant ~y dans la base
B : ~y = (y1 ; y2 ; : : : ; yn )t avec :
0
0
0
0
0
0
yi
0
= p1 h~y; w~ iiE
i
8i = 1; : : : ; n:
5.5.2 Quelques resultats et commentaires.
Nous avons e ectue les decompositions du Hessien suivant trois normes choisies. Pour
ces trois experiences, il s'agit bien entendu du m^eme cadre de la fonctionnelle J : c.-a-d.
celle correspondant au m^eme modele et aux m^emes observations. Dans chaque cas nous
avons fait 100 iterations de Lanczos (ce nombre est aussi de l'ordre du nombre d'iterations
utilise d'habitude pour minimiser la fonctionnelle).
193
Chapitre V.
N Z
X
Experience avec la norme
k=1
2k dx
:
194
Analyse au second ordre.
Experience avec la norme
N Z
X
k=1
krk k2 dx + dk
~
195
Z
2k dx
:
Chapitre V.
N Z
X
Experience avec la norme
()2k dx
k=1
:
Commentaires.
La premiere remarque concerne les conditionnements du Hessien suivant ces trois
normes. Pour les deux premieres, les ordres des conditionnements sont comparables entreeux et ils valent ' 105. Pour la troisieme, son conditionnement est beaucoup plus grand
est il est de l'ordre de 108 ! Ceci con rme donc notre remarque concernant l'in uence de
la nature des observations altimetriques dans le choix de la norme dans le chapitre IV
precedent : c.-a-d. on a plus inter^et a baisser un peu le degre de derivation dans la norme
de l'espace de contr^ole de la condition initiale plut^ot que de l'augmenter.
La deuxieme remarque concerne ce qui di erencie les deux premieres normes. Par
exemple quand on compare dans les gures les allures de la condition initiale, sur la couche
intermediaire et la couche profonde, correspondant aux troisiemes vecteurs propres dans
ces deux premiers cas, le vecteur propre du Hessien par rapport a la norme 1 semble
avoir une meilleure correlation en espace que le vecteur propre du Hessien par rapport a
la norme 2. Or les grands modes propres sont ceux qui sont les mieux determines par
H
L
196
Analyse au second ordre.
le processus de l'identi cation (c.f. section suivante), ceci explique sans doute qu'il est
preferable d'utiliser la norme H 1 au lieu de la norme L2 pour l'espace de contr^ole.
La troisieme remarque concerne une utilisation possible de cette technique numerique
pour determiner les modes stables et instables d'un regime de circulation. En e et on
considere, a un instant t0 xe, l'application S : (t = 0) 7! (t = t0) qui opere sur le
m^eme espace de Hilbert V . Gr^ace a cette technique, nous sommes capables de calculer
numeriquement les valeurs sigulieres de cette application S et ses modes propres correspondants. La fonctionnelle consideree dans ce cas est J ( (t = 0)) = k (t = t0)k2. Les
modes propres avec une valeur propre > 1 nous donnent les modes instables du systeme
dynamique, par contre ceux avec une valeur propre < 1 nous donnent les modes stables.
5.6 Sensibilite du vecteur contr^ole optimal par rapport aux bruits d'observation.
Soit Z obs un vecteur d'observation xe. Dans cette partie nous supposons avoir les
deux hypotheses suivantes :
1. Il existe un voisinage V autour de Z obs tel que : 8Z 2 V le probleme de minimisation :
JZ (XZ) = Xmin
JZ (X );
(5.39)
2U
ad
avec JZ la fonctionnelle d'ecart a Z , regularisee ou non :
(5.40)
JZ (X ) = 12 k(X ) , Z k2 + 2" kR(X )k2;
admette une unique solution XZ.
Dans (5.40), (:) represente la composee de l'operateur d'observation et le modele
dynamique, et R(:) est l'operateur de regularisation de Tchikonov.
2. Le Hessien de la fonctionnelle JZobs calcule au point optimal XZobs est continu et
coercif, c.-a-d. si :
H def
= Hess JZobsjX (5.41)
Z obs
alors il existe C et > 0 tel que
kH:X k hH:X; X i C kX k
kX k2
8X:
Nous allons demontrer le :
Theoreme 5.6.1
Sous les deux hypotheses (1) et (2), l'application
M:
V ,! Uad
Z ,̀! XZ
197
(5.42)
Chapitre V.
ou XZ solution du probleme de minimisation (5.39) est G^ateaux di erentiable au point
Z obs et sa d
erivee est donnee par :
"
@M
@Z
jZ
#
obs
(Z ) =
t
8 Z
H ,1 : [ 0] :Z
(5.43)
ou Z est un accroissement de l'observation Z , [0]t represente l'operateur adjoint du linearise du modele . Cette linearisation est celle prise au point XZ = M (Z obs ).
obs
Demonstration
V.
D'abord notons :
{ V = Uad l'espace des vecteurs de contr^ole X ,
{ W l'espace des observations Z .
Supposons que V et W soient deux Hilbert. Pour simpli er, identi ons le dual V 0 a
On considere l'application G qui associe a un couple (X; Z ) le vecteur gradient de la
fonctionnelle avec l'observation Z , calcule au point X :
G : V W ,! V 0 = V
(5.44)
~ Z
(X; Z ) ,̀! rJ
jX
on peut expliciter G en utilisant (5.40) comme ceci :
h
it
(5.45)
jX ((X ) , Z ) + " Rt:R X:
Si X = M (Z ), autrement dit si X est l'etat optimal correspondant a l'observation
Z , la condition d'optimalit
e signi e que le gradient de JZ calcule au point X s'annule,
c.-a-d. :
G(M (Z ); Z ) 0
8 Z au voisinage V de Z obs:
(5.46)
Appelons Ge cette application :
e : W ,! V
G
(5.47)
Z ,̀! G(M (Z ); Z )
et
e (Z ) 0
G
8 Z au voisinage V de Z obs :
(5.48)
G(X; Z )
=
0
@G
Calculons maintenant les deux derivees de G : @X
2 L(V; V ) et @G
2 L(W; V ). Soient
@Z
X (resp. Z ) un accroissement quelconque du param
etre X (resp. Z ). D'apres (5.44) on
a:
~ Zj
@G
rJ
X :X = Hess JZ :X ;
(
X ) =
(5.49)
jX
@X
@X
198
Analyse au second ordre.
et d'apres (5.45) on a :
@G
(Z )
@Z
h
= , 0jX
it
(5.50)
:Z:
@G
La derivee @X
calculee au point Z obs est donc H . Utilisant le theoreme des fonctions
implicites gr^ace a l'hyposthese (2) sur la coercivite de H , nous en deduisons que M est
di erentiable en Z obs . L'expression de sa derivee s'obtient en derivant (5.48) et en utilisant
(5.49) et (5.50) :
0 =
0 =
D'ou le resultat : "
Remarques:
1.
u = H ,1 [ 0]t :Z
@M
@Z jZ obs
#
e
@G
(Z )
@Z
@G @M
@G
(
Z ) +
(Z )
@X @Z
@Z
h
it
@M
(
Z ) , 0jX :Z:
H:
@Z
(Z ) =
h
it
H ,1 : 0jX :Z
8 Z:
2 V est la solution du probleme elliptique faible suivant :
D
E
hHu; viV = [0]t :Z; v V
8 v 2 V:
2 . Dans le cas ou le modele est lineaire, le Hessien H s'ecrit donc
H = t ::
Supposons que le vecteur d'observation Z obs soit connu avec un certain bruit :
Z obs = Z vrai + ;
ou est suppose ^etre un bruit Gaussiende matrice de variance-covariance =
E ( : t). L'erreur de l'identi cation = XZobs , XZvrai est aussi Gaussienne de
matrice de variance-covariance :
= H ,1 :t: ::H ,1
Si les observations sont decorrelees entre-elles et si chacune d'entre elles est de m^eme
variance 2, c.-a-d. que si la matrice de variance-covariance = 2:Id alors :
= H ,1
Dans la kieme direction propre w~ k du Hessien H correspondant
a la valeur propre
k > 0, la variance de l'erreur de l'identi cation est . Cette variance est d'autant
k
plus petite que quand k est grand. L'identi cation dans les directions propres correspondant aux grandes valeurs propres sont donc tres peu a ectees par les erreurs
d'observation.
199
Chapitre V.
5.7 Application dans le determination du coecient
de regularisation de Tikhonov - Methode de la
validation croisee generalisee.
Dans la section 4.5 nous avons remarque le caractere
mal pose du probeme
de minimisation. Une penalisation de la fonctionnelle par un terme de regularisation de
Tikhonov est donc utilisee a n de rendre stable le probleme d'identi cation. Le parametre
" > 0 qui donne plus ou moins de poids au terme de regularisation dans l'expression de
la fonctionnelle doit obeir a une loi de compromis :
{ Si " est trop grand on ne tient pas compte susamment des observations car la
minimisation va porter tout son e ort pour diminuer seulement le terme de regularisation.
{ Si par contre " est trop petit, le probleme est trop sensible aux bruits d'observation.
Dans ces deux cas, les qualites de l'identi cation sont mauvaises.
a priori
La technique de la validation croisee ordinaire (VCO) est proposee initialement dans
le cadre des probemes d'approximation un ensemble de points bruites par des fonctions
splines donne un critere - dont le nom est le m^eme que celui de la methode - permettant
de choisir ". Nous exposons ici son principe.
5.7.1 Critere de la validation croisee ordinaire (VCO).
Placons nous dans le cas d'un modele discret :
: Rm ,! Rn
X ,̀! Z = (X )
Soit " > 0 un parametre xe.
Considerons le probleme de minimisation de l'ecart au sens des moindres carres discret
et regularise :
J"(X" ) = minm J"(X );
(5.51)
X 2R
avec
n X
J"(X ) = 12 i(X ) , Ziobs 2 + 2" kR(X )k2:
(5.52)
i=1
L'une des hypotheses importante du critere VCO est que le vecteur d'observation Z obs
est bruite par des bruits blancs Gaussiens dont les composantes sont decorrelees et de
m^eme variance 2.
L'astuce du critere est : pour chaque k 2 1; : : : ; n, on considere le probleme de minimisation comme (5.51) et (5.52) mais en ignorant le kieme observation Zkobs :
J"k (X"k ) = minm J"k (X );
(5.53)
X 2R
200
Analyse au second ordre.
avec
J"k (X ) = 12 ( : )2 + 2" kR(X )k2
i6=k
X
(5.54)
Le critere VCO s'exprime donc : un bon parametre " est un parametre tel que, bien que
dans les problemes (5.53) on oublie le kieme observation, la prediction k (X"k ) ne s'eloigne
pas trop de Zkobs . Un parametre " est dit optimal s'il minimise la fonction vco (") dite de
validation croisee ordinaire de nie par :
vco (")
=
def
n X
k (X"k )
k =1
, Zkobs
2
:
Remarques:
{ Le critere ne reclame pas une connaissance a priori de la variance 2 du bruit des
observations comme par exemple dans la methode de residu.
{ Il est pratiquement impossible pour des raisons de co^ut de calcul d'evaluer la fonction vco (") et donc de la minimiser. En e et, pour l'evaluer, il faut faire n fois
l'identi cation en minimisant des fonctions J"k (:), k = 1; : : : ; n !
A cause de cette raison, on introduit donc :
5.7.2 Critere de la validation croisee generalisee (VCG).
On introduit B" l'application "-lissage qui opere sur l'espace des observations :
B" : Rn ,! Rn
(5.55)
Z obs ,̀! Z"obs = (X" )
ou X" est la solution du probleme de minimisation d'origine (5.51).
On montre que la fonction suivante :
n X
vcg (")
=
def
k =1
k (X" )
, Zkobs
2
2
1
0
1 , trace(B )
n
(5.56)
"
est une bonne approximation de la fonction vco (") (c.f. [Girard, 1989]). Cette fonction
est appelee fonction de validation croisee generalisee. Le critere VCG consiste donc a
chercher " qui minimise vcg (").
Remarques:
Voici quelques remarques concernant les tendances de croissance des termes dans (5.56)
en fonction de " :
{ On montre que n1 trace(B 0" ) 2 [0; 1].
201
Chapitre V.
{ Quand " est grand, c'est l'e et de lissage qui emporte, la quantite n1 trace(B 0") est
donc petite (' 0).
{ Quand " est petit, B 0"(Z obs) (( colle )) plus facilement a Z obs donc la quantite
1
0
n trace(B " ) est grande (' 1).
{ Pour les m^emes raisons, le numerateur de vcg (") a la m^eme tendance de croissance
que celle du terme n1 trace(B 0" ).
5.7.3 Evaluation
de vcg (").
Le numerateur de vcg (") n'est autre que le terme d'ecart par rapport aux observations
de la fonctionnelle J" apres minimisation. La grande diculte pour evaluer vcg (") se
concentre dans le calcul de la quantite n1 trace(B 0" ). Bien entendu, il est hors question
que l'on calcule separement chaque element diagonal [B 0"]k;k , k = 1; : : : ; n. Par contre le
grand avantage de ce critere par rapport au critere VCO - dans le cas ou n (le nombre
d'observation) est grand - est une utilisation possible de la methode Monte-Carlo - decrit
par Didier Girard [Girard, 1987] - permet d'estimer avec le moindre co^ut cette trace.
En e et, si Z 2 Rn un vecteur aleatoire d'une loi gaussienne centree et de variance 2:Id
(avec > 0 quelconque), D. Girard a montre alors que :
T (Z )
0 i
1 trace(B 0 );
'
= hZ;hZ;B Z":Z
"
i
n
def
(5.57)
dans le sens ou :
{ sa moyenne vaut : E (T (Z )) = n1 trace(B 0" ) et
{ son ecart type vaut : (T (Z )) =
q 2 q1
n+2
n
trace(B 02" ) , ( n1 trace(B 0" ))2 .
Pour evaluer le denominateur de la fonction vcg (") nous utilisons l'approximation (5.57).
Le calcul de B 0":Z peut se faire de facon exacte comme suit :
Comme B"(Z obs ) = (X" ), en derivant cette composition au point Z obs on a
B 0" :Z
=
@
@X
@X"
jX : @Z jZ
"
obs
:Z
@
Or @X
jX" est la linearisation du modele autour de X" .
"
et @X
e du contr^ole optimal quand on perturbe l'observation
@Z jZ obs :Z est la sensibilit
Z obs dans la direction Z .
Gr^ace donc au theoreme 5.6.1 nous obtenons :
B 0" :Z
= [0]:H ,1:[0]t:Z
202
(5.58)
Analyse au second ordre.
ou H est le Hessien de la fonctionnelle J" calcule au point X" .
En resume, voici la procedure qui permet d'evaluer la fonction vcg (") :
1. Minimiser J" pour trouver X" ;
2. La partie ecart aux observations (c.-a-d. on exclut la partie regularisation) a la n
de la minimisation donne le numerateur de vcg (") ;
3. Generer un vecteur aleatoire Z de Rn de loi N (0; 2:Id). est choisit en fonction
de l'ordre de grandeur des observations.
4. Calculer b = [0]t:Z 2 Rm en resolvant l'equation adjointe ;
5. Inverser H ,1 :b = u gr^ace a l'algorithme gradient conjugue. Les produits H:x effectues pendant l'algorithme gradient conjugue sont fournis par la resolution du
systeme adjoint au second ordre.
6. Calculer B 0":Z = [0]:u en resolvant l'equation linearisee ;
7. La trace de B 0" est approximee par le rapport
hZ;B " :Z i ;
hZ;Z i
0
8. Repeter les etapes 3 a 7 un certain nombre de fois. En general 1 a 3 fois suivant la
dimension du vecteur d'observation ;
9. Calculer le denominateur de vcg ("), puis vcg (").
5.7.4 Experience numerique.
Nous avons utilise la technique de la validation croisee generalisee pour determiner
de facon automatique le coecient de regularisation ". L'experience est realisee sur une
periode d'assimilation assez courte : elle est de l'ordre de 12 mois ( ' 50 t) avec les m^emes
con gurations du modele et du systeme d'observation que les tests a basse resolution
decrits dans le chapitre IV. Car notre but ici est de tester la faisabilite et surtout la
robustesse d'une telle methode, m^eme dans le cadre d'un probleme de minimisation non
lineaire de grande taille. Nous avons bien s^ur deja eu une idee de l'ordre de grandeur du
coecient optimal a choisir gr^ace aux multiples experiences de minimisation qui ont ete
faites.
L'experience est realisee avec des pseudo-observations bruitees de 10%. Pour minimiser
la fonction a une variable f ( ) = vcg (" = 10 ), nous employons la methode dite (( sectiondoree )). Son principe est :
{ au depart on fournit prealablement un intervalle bornee I0 R contenant le minimum min ;
203
Chapitre V.
{ A chaque evaluation de la fonction f (:), l'algorithme localise de proche en proche
le minimump en reduisant l'intervalle : a l'etape k, on a un intervalle Ik Ik,1 telle
que jIkj = 52,1 jIk,1j et min 2 Ik n Ik,1.
Le critere d'arr^et de l'algorithme section doree porte sur la longueur de l'intervalle Ik .
Si celle-ci est plus petite que 0; 3, l'algorithme s'arr^ete. Ceci correspond a un rapport de
l'ordre de 2 entre le parametre " determine et le parametre " optimal.
Voici le tableau des di erentes quantites calculees par l'algorithme section doree dans
notre experience :
vcg (10 )
Numerateur traceB 0 Denominateur.
-5.2016 1048245803. 983932919. 0.93864713
0.03116196
-6.1934 736089026. 617720632. 0.83919282
0.08392531
-6.5723 702646388. 561156619. 0.79863303
0.10633729
-6.7170 696159904. 547120890. 0.78591267
0.11348284
-6.8065 695879176. 546644110. 0.78554457
0.11369047
-6.8617 703781759. 537645484. 0.76393779
0.12596464
-6.9512 709978305. 533110414. 0.75088268
0.13346512
-7.1853 730844611. 530755433. 0.72622199
0.14781340
-7.7983 782357428. 526923037. 0.67350678
0.17932540
-9.4032 792768494. 523796090. 0.66071759
0.18715463
La ligne en italique du tableau correspond a di erentes quantites au minimum de la
fonction validation croisee generalisee trouve par l'algorithme. La valeur du parametre "
optimal trouvee correspond bien a une gamme de valeur a laquelle nous nous attendons.
En conclusion, on peut dire que la determination automatique du parametre de regularisation " par la methode validation croisee generalisee dans un probleme d'assimilation
avec des donnees qui sont bruitees est possible. Par contre, la grande ressource de calcul
reclamee par cette technique emp^eche pour le moment de l'utiliser dans un cadre plus
operationnel. En e et, pour une determination de ce coecient avec une precision modeste a un facteur 2 pres, il est necessaire d'evaluer 10 fois environ de la fonction vcg,
c.-a-d. environ 20 fois plus co^uteux qu'une assimilation simple ! (le co^ut de l'etape 5 ' le
co^ut de l'etape 1 = le co^ut de l'assimilation, et le co^ut des autres etapes est negligeable).
5.8 Quelques caracteristiques du spectre - Autres experiences.
5.8.1 Lien entre le Hessien et la sensibilite par rapport aux donnees.
Pour repondre a la question : qu'est ce qu'il faudrait observer en priorite pour avoir
une bonne identi cation de l'ecoulement? , nous donnons ici une remarque fondamentale
204
Analyse au second ordre.
concernant le lien entre la decomposition en valeur singulere d'un operateur (modele)
lineaire et cette etude de sensibilite :
Supposons que l'on symbolise le modele lineaire discret par l'operateur suivant :
C : Rn ,! Rm;
et que l'on veut assimiler un veteur d'observation Z obs en minimisant la fonctionnelle :
J (X ) = 12 kC (X ) , Z obs k2:
Pour xer les idees, nous supposons que le nombre d'observation soit plus grand que
le nombre de parametres a determiner, c.-a-d. n < m. La decomposition en valeurs
singulieres de la matrice C assure l'existence de :
{ une matrice V (n n) orthonormale (c.-a-d. V ,1 = V t);
{ une matrice U (m m) orthonormale (c.-a-d. U ,1 = U t);
{ une matrice D(m n) diagonale (c.-a-d. Di;j = 0 8i 6= j );
telles que :
C:V = U:D
C
V
U
=
D :
On remarque, entre autres, que :
{ le hessien est : H def
= HessJ = C t:C ;
{ la matrice de variance-covariance est : def
= C:C t;
{ V t:H:V = Dt:D (n n);
{ U t:G:U = D:Dt (m m).
Donc on retient les quatre remarques suivantes :
n
o
2
{ le spectre du Hessien est l'ensemble : D12;1; : : : ; Dn;n
,
{ le spectre de la matrice de variance-covariance est le spectre du Hessien auquel on
rajoute 0,
{ Les colonnes de V sont des vecteurs propres du Hessien,
205
Chapitre V.
{ Les colonnes de sont des vecteurs propres de la matrice de variance-covariance.
Ces colonnes - a une constante
pres - sont obtenues en appliquant le modele
a un vecteur propre du Hessien, c.-a-d. :
=
U
Di;i
C
Di;i :U:;i
C:V:;i
Comme l'identi cation est d'autant meilleure dans la direction des vecteurs propres correspondants au grandes valeurs propres du Hessien, il sut donc que l'on applique le
modele a ces vecteurs propres pour etudier ce qu'il faudrait observer en priorite pour
avoir une bonne identi cation.
C
5.8.2 L'in uence sur les couches profondes.
Dans le graphique ci-dessous nous presentons dans les trois courbes A, B et C les
normes des projections des vecteurs propres du Hessien sur les trois couches. Cette exerience est realisee dans le cas du modele test a basse resolution 41 41 avec des donnees
en surface sur une periode de 300 ' 3 mois.
t
Nous avons trouve une centaine de vecteur de Riesz par la methode de Lanczos. En
abscisse, les valeurs propres sont classees par ordre croissant de leurs valeurs. On remarque
206
Analyse au second ordre.
dans ce graphique que pour les grand vecteurs propres, les normes des projections sur les
couches profondes sont comparables a celle en surface. Les informations en surface ont
donc bien penetrees en profondeur sur une periode de 3 mois.
Sensibilite de l'energie cinetique de la couche profonde identi ee par rapport
aux observations en surface.
Pour etudier l'in uence des donnees en surface sur l'identi cation de la circulation en
profondeur, nous considerons l'application qui associe - a chaque jeu de donnees d'observation - l'energie cinetique totale de la couche profonde identi ee avec ce jeu d'observation.
On s'interesse au calcul du vecteur de gradient de la fonctionnelle suivante :
T ~ 2
r N dx dt;
K( obs) def
= H2N
0
ou N represente la fonction de courant de la derniere couche extraite de la trajectoire
identi ee en utilisant des observations obs .
La fonctionnelle K s'ecrit comme la composee de deux fonctions suivantes :
K( obs) = K M ( obs);
Z
Z
e
M
,!
obs ,̀!
W
K R
,!
T
HN
M ( obs ) = j
,̀!
t=0
2 0
Uad = V
e
Z
Z
r~ N
2
dx dt;
ou M est l'operateur d'inversion des observations de surface, c.-a-d. donnant la solution
du probleme de contr^ole optimal correspondant a la minimisation de la fonction au sens
des moindres-carres :
J jt=0 = 12 1 , obs 2W + "2 R jt=0 2 :
Le vecteur du gradient de K est donne par :
~ ( obs ) = Jact K( obs )
rK
t
= Jac K( ) Jac M ( obs )
~ K( ):
= JactM ( obs ) : r
e
e
D'apres le theoreme 5.6.1, nous avons :
Pour tout Z 2 W; Jac Mj :Z = H ,1: [0]t :Z; dans V (= V 0);
ou H est le Hessien de la fonctionnelle J pris au point optimal .
obs
207
Chapitre V.
Autrement dit, nous avons l'egalite suivante :
D
E
D
E
,1 0 t
V = D H : [ ] :Z ; 'E V
= [0]t :Z ; H ,1:' V (l'autoadjoint de H donc de H ,1)
D
E
D
E
Jac Mj :Z ; ' V = 0:H ,1:' ; Z W 8 ' 2 V:
On en deduit que, pour un ' 2 V , l'on a :
Jac Mj
:Z ; '
obs
obs
JactMj
:'
obs
=
0 :H ,1:'
dans W (= W 0):
Le vecteur du gradient de K se calcule comme suit :
e ( ):
~ ( obs ) = 0 :H ,1 :r
~K
rK
e ( ). Or, comme la fonction Ke associe a chaque etat initial du
~K
Reste a expliciter r
systeme dynamique l'energie cinetique de la couche profonde, son vecteur du gradient se
calcule donc facilement gr^ace aux equations adjointes classiques. Dans le cas du modele
quasi-geostrophique, il s'agit la resolution du systeme retrograde :
8
>
sur ;
> (t = T ) = 0
>
<
e @K
QGT () =
(
)
=
,
HN >
N sur [0; T ];
>
@
>
: r~ Ke ( ) = (t = 0)
(5.59)
ou N est l'indice de la couche profonde, et QGT est l'equation adjointe quasi-geostrophique.
En resume, pour calculer la sensibilite de l'energie cinetique de la couche profonde,
nous e ectuons les quatres sous-calculs suivants :
(i) Commencer par assimiler obs donnees, en minimisant la fonctionnelle J . Ceci nous
fournit un etat initial optimal (t = 0) et la trajectoire associee.
e ( ) en resolvant l'equation adjointe (5.59).
~K
(ii) Calculer ' = r
(iii) Utiliser l'algorithme de gradient-conjugue pour inverser le Hessien : H ,1 :'. Les equations adjointes au second ordre fournissent les directions de gradient a l'algorithme.
(iv) Appliquer le modele []0 au resultat de l'etape (iii). Cette etape est realisee en
resolvant les equations Q.G. linearisees.
Voici un resultat de calcul de cette sensibilite. Dans cette experience numerique, nous
utilisons le modele test turbulent a basse resolution 4141 avec un intervalle d'assimilation
~ ( obs ) (qui
d'un mois (' 100 t). Dans la gure 5.30 suivante, le vecteur de sensibilite rK
est dans le m^eme espace que celui des observations) est ache suivant les normes de ses
composantes en temps t. La courbe represente donc la sensibilite de l'energie cinetique
208
Analyse au second ordre.
de la couche profonde identi ee par rapport aux observations a un instant t (l'axe des
abscisses) donne.
Fig.
5.30 - Sensibilite de l'energie cinetique de la couche profonde identi ee.
On retrouve naturellement la grande sensibilite de la couche de fond par rapport aux
dernieres observations et une moins grande sensibilite par rapport aux premieres observations.
5.8.3 Conditionnement du probleme de contr^ole.
Nous avons realise aussi une petite etude du conditionnement du Hessien :
Pour le modele a une couche (modele barotrope) nous avons :
longueur T :
min
max
Condi.
10t
20t
30t
40t
,
4
,
5
,
5
2; 41:10 3; 78:10 1; 32:10 1; 02:10,5
2; 57:10,3 9; 44:10,3 2; 72:10,2 6; 30:10,2
18
249
2064
6146
209
Chapitre V.
Pour le modele a trois couches nous avons :
longueur T : 10t
20t
30t
40t
,
5
,
5
,
5
min
5; 98:10 3; 27:10 4; 55:10 5; 69:10,5
max
8; 17:10,2 0; 174
0; 69
2; 24
Condi.
1367
5338
15 103
39 427
On remarque que le conditionnement du probleme de contr^ole sur le modele barocline
est sensiblement plus grand que celui du modele barotrope. Ceci est d^u a l'instabilite bien
connue des modes baroclines.
5.9
Conclusion.
L'analyse au second ordre est un outil extr^emement puissant pour des etudes a posdans des problemes d'assimilation de donnees.
Dans un modele de circulation fortement non-lineaire, l'analyse au second ordre est
probablement un des outils qui prennent en compte le mieux les caracteristiques nonlineaires du modele.
teriori
210
Conclusion.
Les resultats encourageants dans cette etude montrent que l'application de la technique du contr^ole optimal pour assimiler des donnees non-uniformement reparties dans
un modele de circulation turbulente est possible, malgre les deux grandes dicultes principales du probleme : (1) la non-linearite du modele et (2) la grande taille de l'espace de
minimisation.
Numeriquement, la methode variationnelle donne des resultats d'identi cation qui sont
(( optimaux )), sous r
eserve que l'on ne s'ecarte pas trop de la contrainte exigee par cette
methode : le modele utilise est suppose ^etre exact (notons que cette hypothese forte n'est
pas exigee par (( l'autre )) technique d'assimilation, c.-a-d. celle du ltrage).
L'experience montre que ces resultats optimaux s'obtiennent uniquement apres une
analyse approfondie prealable du probleme. L'etude mathematique des equations du modele utilisees est utile pour aider a bien realiser cette analyse.
L'etude a posteriori d'une assimilation par la methode variationnelle, contrairement a
certaines idees preconcues, nous a semble avoir un formidable potentiel, gr^ace a la technique d'analyse au second ordre. En e et, il sut de constater la diversite des exemples
d'application traites dans le chapitre V pour s'en persuader.
Par contre, le grand inconvenient de la methode variationnelle reste son co^ut de calcul
important. A notre avis, l'application de cette methode dans une con guration realiste
de l'ocean doit passer obligatoirement par des etudes concernant la reduction du co^ut de
calcul.
L'une de nos conclusions immediate sur ce point est celle-ci :
- Si on n'a pas la moindre estimation de l'etat de demarrage du systeme dynamique,
il est judicieux d'utiliser la methode de nudging - beaucoup moins co^uteuse - pour approcher dans un premier temps la trajectoire recherchee, ensuite dans un deuxieme temps
d'utiliser la methode variationnelle pour assimiler a n d'assurer une bonne qualite de
l'identi cation de l'ecoulement.
Parmi les di erentes directions de recherche possibles concernant la reduction du co^ut
de calcul de la methode, les quatre suivantes meritent une attention particuliere :
{ Amelioration et adaptation au cadre particulier de chaque probleme des algorithmes
211
Conclusion.
numeriques d'optimisation de grande taille.
{ Parallelisation des codes d'assimilation variationnelle, plus particulierement gr^ace a
des techniques de decomposition de domaine.
{ L'analyse multi-resolution des problemes de contr^ole (methodes multi-grilles).
{ Reduction de la taille de l'espace de contr^ole, peut-^etre avec le recours a des espaces
fonctionnels engendres par des ondelettes.
En n, au point de vue theorique, la question importante suivante reste un probleme
ouvert : l'observabilite ou non des donnees de surface (donnees altimetriques), autrement
dit : (( peut-on conna^tre le fond de l'ocean en le regardant du ciel ? ))
212
Annexe.
ANNEXE
Regularite pour l'operateur inverse du laplacien Dirichlet :
Soit un ouvert de classe C 2 avec @ borne. Soit f 2 L2 ( ) et soit u 2 H01 ( )
veri ant :
Z
Z
Z
r~ u:r~ ' dx + u:' dx = f:' 8' 2 H01( ):
Alors u 2 H 2 ( ) et kukH 2 ( ) C:kf kL2 ( ) ; ou C est une constante qui depend seulement
de . De plus, si est de classe C m+2 et si f 2 H m ( ), alors :
u 2 H m+2 ( ) avec kukH m+2( ) C:kf kH m( );
N
en particulier si m > , alors u 2 C 2( ).
2
En n si est de classe C 1 et si f 2 C 1 ( ), alors u 2 C 1 ( ).
Calcul de la trace du Laplacien sur le bord :
Soit un domaine borne regulier de R2 de frontiere C 2 dont la courbure est bornee.
Soit f 2 H 3 ( ) alors :
ou :
2
@ 2f (x) 8x 2 @ p:p:
[email protected] f (x) = @@nf2 (x) + R(1x) @f
(
x
)
+
@n
@ 2
une parametrisation de @ par longueur d'arc dans le sens trigonometrique ( c.-a-d.
se situe a gauche de la frontiere en parcourrant dans le sens croissant de ) ;
n est la normale exterieure ;
et R(x) le rayon de courbure algebrique de @ au point x 2 @ de telle sorte que
R(x) 0 quand est localement convexe en x.
Preuve :
D'abord faisons une parametrisation locale d'un point xe sur la frontiere.
Soit x0 2 @ e. On de nit une parametrisation :
:] , l; l[] , d; d[ ,! R
(s; t) ,̀! ,(s) + ~n(,(s)):t;
213
Annexe.
ou ,(s) represente le point sur @ qui se situe a une distance s (distance associee a la
longueur d'arc dans le sens trigonometrique) du point x0. ~n(,(s)) est la normale exterieure
de au point ,(s).
Calculons J ac (s; t) :
8
>
>
>
<
>
>
>
:
@
(s; t)
@s
@
(s; t)
@t
= ~ (s) + t R~ ((ss)) ; et
=
~n(,(s));
ou 1=R(s) la courbure au point ,(s). J ac (s; t) est donc continue sur ] , l; l[] , d; d[
dans L(R2; R2).
Calculons J ac (0; 0) :
8
>
>
>
<
>
>
>
:
Donc :
Det(J ac
@
(0; 0)
@s
@
(0; 0)
@t
= ~ (x0); et
=
~n(x0 ):
(0; 0)) = ,nny
x
nx
ny
= ,1 6= 0:
Le Jacobien de au point (0; 0) est donc inversible. D'apres le theoreme des fonctions
inverses, il existe un voisinage Ox0 R2 de x0 et une fonction ' : Ox0 !] , l; l[] , d; d[
tels que : ('(x)) = x pour tout x 2 Ox0 .
214
Annexe.
n
o
La famille des ouverts Ox0 2 R2 : x0 2 @ bornes, recouvre @ , telle que pour
chaque x0 il existe une application C 2 :
x ,̀! 'x0 (x) = y
Ox0 ,! f y = (y1; y2) j jy1j < 1 et jy2j < 1 g :
'x0 est inversible et ',x01 est aussi C 2 . Quitte donc choisir un ouvert encore plus petit, on
peut supposer que Ox0 veri e les 5 conditions suivantes :
(i) 'x0 ( \ Ox0 ) f y = (y1; y2) j y2 < 0 g.
(ii) 'x0 (@ \ Ox0 ) f y = (y1; y2) j y2 = 0 g.
(iii) 'x0 (0; 0) = (0; 0).
(iv) 'x0 (x0 + ~n(x0)) = (0; ).
(_v) 'x0 (x) = (l(x); 0) 8x 2 ( \ Ox0 ), et l(x) la distance par longueur d'arc entre x et
x0 comme dans l'hypothese de l'enonce.
Au point x0, en inversant le Jacobien de nous trouvons que le Jacobien de 'x0 est :
,ny
nx
Ensuite, au point (0; 0), on a :
nx
ny
!
8
>
>
>
>
>
>
>
>
>
>
<
@2
= 0;
@y12
~
@2
=
;
>
@y
R
>
[email protected]
>
>
>
>
>
@2
>
>
>
= , R~n :
: @y 2
2
En derivant deux fois la composee ', nous obtenons au point x0 :
8
@ 2 '1
2n n ;
>
>
>
=
>
2
>
>
@x1
R x y
>
>
>
>
>
@ 2'1
2n n ;
>
>
>
=
,
>
2
>
>
@x2
R x y
>
>
>
>
>
@ 2'2
n2x
>
>
>
=
;
>
< @x2
R
1
>
>
n2y
@ 2'2
>
>
= R;
>
>
>
@x22
>
>
>
>
>
>
@ 2'1
1 n2 , n2 ;
>
>
>
=
>
x
>
@[email protected]
R y
>
>
>
>
>
>
@ 2'2
1n n :
>
>
:
=
@[email protected]
R x y
215
(G.1)
Annexe.
On va utiliser ses quantites pour calculer le laplacien de f sur le bord. Introduisons la
fonction de changement de variables locales de f en x0 : g = f . Donc f = g ' et :
@ 2f
@x21
=
@ 2g
@y12
@ 2g
@'1
@x1
@y22
@'2
@x1
@ 2g
@y12
@'1
@x2
et :
@ 2f
@x22
=
@ 2g
@y22
@'2
@x2
!2
!2
2
g
+ @[email protected] @y
1
@'1 @'2
2 @x1 @x1
@ 2g
@'2 @'1
2 @x1 @x1
+ @y @y
1
!2
!2
2
g
+ @[email protected] @y
1
@'1 @'2
2 @x2 @x2
@ 2g
@'2 @'1
2 @x2 @x2
+ @y @y
1
2
@g @ '1
+ @y
+
@ 2x
1
@g
+ @y
1
@ 2'
2
2
2 @ x1
;
(G.2)
2
@g @ '1
+ @y
+
@ 2x
1
@g
+ @y
2
@ 2'
2
2
2 @ x2
(G.3)
:
Remplacons (G.1) dans (G.2) et (G.3), nous obtenons :
f =
=
f =
@ 2f
@ 2f
+
@x21 @x22
@ 2g 2
@ 2g
@g 2
@ 2g 2
@ 2g
@g n2x
n
,
n
n
+
n
n
+
n
,
n
n
+
x y
x y
x y
@y12 y @[email protected]
@y1 R
@y22 x @[email protected]
@y2 R
2
2
2
2
@ g 2
@ g
@g 2
@ g 2
@ g
@g n2y
n +
nx ny ,
nx ny + 2 ny +
nx ny +
@y12 x @[email protected]
@y1 R
@y2
@[email protected]
@y2 R
2
2
@ g @ g
1 @g :
+
+
2
2
@y1 @y2 R @y2
+
C.Q.F.D.
216
Commentaires bibliographiques.
Commentaires bibliographiques :
Introduction :
Technique d'assimilation des donnees du ltrage de Kalman : Ghil, ManalotteRizzoli [23].
Technique d'assimilation variationnelle : Le Dimet, Talagrand [36].
Technique d'assimilation variationnelle : Courtier, Talagrand [17].
Assimilation dans un modele Q.G. avec l'utilisation de l'adjoint : Moore [44] ; Morrow, De Mey [45] ; Schro ter, Seiler, Wenzel [54].
Assimilation des donnees altimetriques : Blayo, Verron, Molines [9].
Chapitre I :
Generalite sur la mecanique des uides dans un milieu tournant (geophysique) :
Pedloski [50].
Formalisation du modele Q.G. en couches : Chow, Holland [14].
Quelques proprietes et particularites du modele Q.G. : Holland [31].
Chapitre II :
Introduction a l'analyse fonctionnelle : Brezis [11].
Espace de Sobolev : Adams [1].
Operateurs di erentiels elliptiques, methode de regularisation elliptique : Lions,
Magenes [41].
Espaces d'interpolation, Sobolev fractionnaire : Peetre [51].
Operateurs maximaux monotones et equations dissipatives : Brezis [10].
Methodes Faedo-Galerkin : Lions [39].
L'existence et l'unicite de la solution de l'equation Q.G. non-lineaire : Bernier [6].
217
Commentaires bibliographiques.
Proprietes du semi-groupe engendre par l'equation Q.G. : Bernier [7].
Chapitre III :
Introduction a l'analyse fonctionnelle : Brezis [11].
Conditions d'optimalite, multiplicateur de Lagrange, multiplicateur de Kuhn et Tucker : Ciarlet [15] .
Theorie du contr^ole optimal : Lions [38].
L'existence du contr^ole optimal pour quelques problemes non-homogenes : Lions
[37].
Contr^ole optimal des systemes a parametres distribuees : Lions [40].
L'existence et l'unicite du probleme adjoint par la technique de transposition : Lions
[41].
Chapitre IV :
Le modele numerique Q.G. de l'I.M.G. : Blayo [8].
Technique de supperposition : Chow, Holland [14].
Schema de discretisation en temps : Richtmyer [52].
Schema de discretisation l'operateur Jacobien : Arakawa [2].
Methode d'inversion de l'equation de Helmoltz FACR : Hockney [30].
L'instabilite des modes baroclines : Orlandski [46].
Representation des algorithmes par les graphes de calcul : Kantorovich [34].
Di erentiation automatique : Gilbert, Le Vey, Masse [25] ; Rostaing-Schmidt,
Hassold [53].
Transposition automatique : Griewank Corliss [29] ; Rostaing-Schmidt, Hassold [53].
Methodes numeriques d'optimisation : Fletcher [19].
Methode d'optimisation quasi-Newton : Gilbert, Lemarechal [24].
L'instabilite de l'ecoulement uide : Pedlosky [49].
L'instabilite des modes baroclines : Orlandski [46].
L'interaction entre des echelles d'ecoulement : Foias, Manley, Temam [20].
L'attracteur des systemes dynamiques non-lineaires dissipatifs : Constantin, Foias,
Nicolaenko, Temam [16] ; Eden, Foias, Nicolaenko, Temam [18] ; Temam
[57].
218
Commentaires bibliographiques.
Decorrelation entre deux trajectoires : Luong, Blum, Verron [42].
Methode d'optimisation avec preconditionnement : Fletcher [19].
Valeurs propres generalisees, valeurs propres relatives a une norme : Moler, Stewart [43].
Choix de la norme sur l'espace de contr^ole : Luong, Blum, Verron [42].
Notion de courbures de non linearite, reparametrisation d'un probleme de regression
non-lineaire : Bates, Watts [3] ; [4] ; [5].
Theorie geometrique des problemes de moindre-carre : Chavent [12].
Une condition susante pour l'unicite du contr^ole : Chavent [13].
Methode de ltrage de Kalman, assimilation sequentielle : Ghil, ManalotteRizzoli [23].
Bassin d'attraction des problemes moindre-carre non-lineaire : Chavent [13] ; [12].
L'instabilite d'un systeme dynamique par rapport a la condition initiale : Orlandski, Cox [46] ; Pedlosky [49] ; Foias, Manley, Temam [20].
Quelques resultats numeriques des strategies d'assimilation : Luong, Blum, Verron [42].
Assimilation des donnees GEOSAT : Verron, Molines, Blayo [59].
Assimilation des donnees TOPEX-POSEIDON : Blayo, Verron, Molines [9].
Contr^ole des conditions de frontiere ouverte dans un modele Q.G. : Moore [44].
Assimilation variationnelle des donnees altimetrique dans un modele Q.G. : Morrow, De Mey [45].
Methode assimilation variationnelle dans un modele a equation primitive : Greiner
[28].
Chapitre V :
L'e et de la non linearite dans des problemes de regression : Bates, Watts [3] ;
[4] ; [5] ; Chavent [13] ; [12].
Technique d'analyse au second ordre, calcul du produit Hessienvecteur : Wang,
Navon, Le Dimet, Zou [62].
Probleme spectral des operateurs symetriques : Parlett [47].
Di erentes strategies de reorthogonalisation dans la methode de Lanczos : Parlett,
Scott [48] ; Simon [56] ; Scott [55].
Methode de Lanczos pour des operateurs non-symetriques : Widlund [63].
Valeurs singulieres generalisees : Van Loan [58].
219
Commentaires bibliographiques.
L'algorithme numerique Q.Z. pour calculer les valeurs singulieres generalisees : Moler, Stewart [43].
L'instabilite de l'ecoulement uide : Pedlosky [49].
Proprietes du semi-groupe engendre par l'equation Q.G. : Bernier [7].
La theorie de la methode de la validiation croisee : Wahba G. [60] ; [61] ; Jeffrey
[32].
Methode Monte-Carlo pour estimer la trace : Girard [26].
Application de la methode Monte-Carlo pour la VCG : Girard [27].
220
Bibliographie
[1] Adams R.A. Sobolev spaces. Academic Press, 1975.
[2] Arakawa A. Computational design for long term integration of the equation of
uid motions. J. Comp. Phys., 1:119{143, 1966.
[3] Bates D.M., Watts D.G. Relative curvature measures of non-linearity. JRSS,
42:1{25, 1980.
[4] Bates D.M., Watts D.G. A relative o set orthogonality criterion for nonlinear
least squares. Technometrics, 23(2):179{183, 1981.
[5] Bates D.M., Watts D.G. Nonlinear regression analysis & its applications. John
Wiley, New York, 1988.
[6] Bernier C. Etude
et parallelisation d'un code d'elements nis pour la modelisation quasi-geostrophique des circulations oceaniques. PhD thesis, Institut National
Polytechnique de Grenoble, 1990. These doctorat.
[7] Bernier C. Existence of attractor for the quasi-geostrophic approximation of the
Navier-Stokes equations and estimate of its dimension. 1733, 1992. Rapport de
Recherche INRIA.
[8] Blayo E. Developpement d'un modele quasi-geostrophique de circulation oceanique
- Application a l'ocean Atlantique Nord. PhD thesis, Universite Joseph Fourier, 1992.
These doctorat.
[9] Blayo E., Verron J., Molines J.M. Assimilation of Topex/Poseidon altimeter
data into a circulation model of the north atlantic. Geophys. Res., 1994.
[10] Brezis H. Operateur maximaux monotones et semi groupe de contractions dans les
espaces de Hilbert. North-Holland, 1973.
[11] Brezis H. Analyse fonctionnelle theorie et applications. Masson, 1992.
[12] Chavent G. A geometrical theory for nonlinear least squares problems. Springer,
IFIP(TC7), 1990. Proceedings : Conference on Control Theory of DPS ans Applications, Shanghai.
221
Bibliographie.
[13] Chavent G. A new sucient condition for the well-posedness of non-linear least
square problems arising in identi cation and control. Springer, 144:452{463, 1990.
In A. Bensoussan, J.L. Lions, Lecture Notes in Control and Information Sciences.
[14] Chow, Holland. Description of the quasi-geostrophic multi-layer box ocean model.
NCAR internal report, 1986.
[15] Ciarlet P.G. Introduction a l'analyse numerique matricielle et a l'optimisation.
Masson, 1985.
[16] Constantin P., Foias C., Nicolaenko B., Temam R. Nouveaux resultats sur
les varietes inertielles pour des equations di erentielles dissipatives. C.R. Acad. Sci.
Paris, Serie I(302):375{378, 1986.
[17] Courtier P., Talagrand O. Variational assimilation of meteorological observations with the direct and adjoint shallow-water equations. Tellus, 42A:531{549,
1990.
[18] Eden A., Foias C., Nicolaenko B., Temam R. Ensembles inertiels pour des
equations d'evolution dissipatives. C.R. Acad. Sci. Paris, Serie I(310):559{562, 1990.
[19] Fletcher R. Pratical methods of optimization, volume 1. Wiley Interscience Publication, 1986.
[20] Foias C., Manley O., Temam R. Sur l'interaction des petits et grands tourbillons
dans les ecoulements turbulents. C.R. Acad. Sci. Paris, Serie I(305):497{500, 1987.
[21] Franzone P.C., Guerri L., Taccardi B., Viganotti C. The direct and inverse
potential problems in electrocardiology. numerical aspects of some regularization methods and application to data collected in isolated dog heart experiments, 1979.
[22] Ghidaglia J.M. Some backward uniqueness results. Nonlinear Analysis Theory :
Methods & Applications, 10(8):777{790, 1986.
[23] Ghil M., Manalotte-Rizzoli P. Data assimilation in meteorology and oceanography. Adv. Geophys., 33:141{266, 1991.
[24] Gilbert J.C., Lemarechal C. Some numerical experiments with variable storage
quasi-newton algorithms. Mathematicals programming, 45:407{435, 1989.
[25] Gilbert J.C., Le Vey G., Masse J. La di erentiation automatique de fonctions
representees par des programmes. 1557, 1991. Rapport de Recherche INRIA.
[26] Girard D. Un algorithme rapide pour le calcul de la trace de l'inverse d'une grande
matrice. RR 665 M, 1987. Rapport de recherche l'IMAG.
[27] Girard D. Asymptotic optimality of the fast randomized versions of gcv and c in
ridge regression and regularization. 1989. Rapport de recherche l'IMAG.
l
222
Bibliographie.
[28] Greiner E. Mise en uvre de methodes de contr^ole optimal pour l'assimilation
de donnees in situ et satellitaires dans les modeles oceaniques. PhD thesis, Paris 6,
1993. These doctorat.
[29] Griewank A. Corliss G.F. workshop on automatic di erentiation of algorithms.
In Automatic di erentiation of algorithms : theory implementation and application,
SIAM proceedings series. Society for industrial and applied mathematics, 1991.
[30] Hockney R.W. The potential calculation and somme application. Math. Comp.
Phys., 9:135{211, 1970.
[31] Holland W.R. The role of mesoscale eddies in the general circulation of the
ocean - numerical experiments using a wind-driven quasigeostrophic model. J. Phys.
Oceanogr., 8:363{392, 1978.
[32] Jeffrey H.D. Automated kernel smoothing of dependent data by using time series
cross validation. J. R. Statist. Soc. B, 56(3):529{542, 1994.
[33] Kahan W., Parlett B.N. How for should you go with the lanczos process? In
sparse Matrix Computations, Academic Press New York, pages 131{144, 1976.
[34] Kantorovich L.V. On a mathematical symbolism convenient for performing machine calculations. Dokl. Akad. Nauk SSSR, 113:738{741, 1957.
[35] Le Dimet F.X., Ouberdous M. Retrieval of balanced elds: an optimal control
method. Tellus, 45A, 1993.
[36] Le Dimet F.X., Talagrand O. Variational algorithmes for analysis and assimilation of meteorogical observation: theorical aspects. Tellus, 38A:97{110, 1986.
[37] Lions J.L. Optimisation pour certaines classes d'equations d'evolution non lineaire.
pages 275{193.
[38] Lions J.L. Contr^ole optimal de systemes gouvernes par des equations aux derivees
partielles. Dunod, 1968.
[39] Lions J.L. Quelques methodes de resolution des problemes aux limites non lineaires.
Dunod, 1969.
[40] Lions J.L. Some aspects of the optimal control of distributed parameter systems.
Society for Industrial and Applied Mathematics, 1972.
[41] Lions J.L., Magenes E. Problemes aux limites non homogenes, volume 1. Dunod,
1968.
[42] Luong B., Blum J., Verron J. Variational assimilation of altimeter data in a nonlinear ocean model. 1995. Proceedings of International Symposium on Assimilation
of Observations in Meteorology and Oceanography, Japon.
223
Bibliographie.
[43] Moler C.B., Stewart G.W. An algorithm for generalized matrix eigenvalue
problems. SIAM, 10:251{266, 1973.
[44] Moore A.M. Data assimilation in a quasi-geostrophic open ocean model of the gulf
stream region using the adjoint method. J. of Physical Oceanography, 21:398{427,
1991.
[45] Morrow R.A., De Mey P. An adjoint assimilation of altimetric, surface drifter
and hydrographic data in a QG model of the azores current. Geophys. Res., 1995.
[46] Orlandski I., Cox M. Baroclinic instability in ocean currents. Geophys. Fluid.
Dyn., 4:297{332, 1973.
[47] Parlett B.N. The symetric eigenvalue problem. Prentice-Hall, Englewood Cli s,
New Jersey., 1980a.
[48] Parlett B.N., Scott D.S. The lanczos algorithm with selective orthogonalization. Mathematics of Computation, 33(145):217{238, 1979.
[49] Pedlosky J. The stability of currents in the atmosphere and the ocean : Part 1. J.
Atmos. Sci., 21:201{219, 1964.
[50] Pedlosky J. Geophysical uid dynamics. Springer-Verlag, New York, 1979.
[51] Peetre J. Espaces d'interpolation et theoreme de sobolev. Ann. Inst. Fourier,
16:279{317, 1966.
[52] Richtmyer R.D. Di erence methods for initial-value problems. Interscience, 1967.
[53] Rostaing-Schmidt N., Hassold E. Basic functional representation of programs
for automatic di erentiation in the Odyssee system. In Le Dimet F.-X., editor,
Proceedings of the workshop on High Performance Computing in the Geosciences,
NATO ASIE series, Les Houches (France), 1994. Kluwer Academic Publishers.
[54] Schroter J., Seiler U., Wenzel M. Variational assimilation of Geosat data
into an eddy-resolving model of the Gulf Stream extension area. J. Phys. Oceanogr.,
23:925{953, 1993.
[55] Scott D.S. How to make the lanczos algorithm converge slowly. Mathematics of
computation, 33(145):239{247, 1979.
[56] Simon H.D. The lanczos algorithm with partial reorthogonalization. Mathematics
of computation, 42(165):115{142, 1984.
[57] Temam R. In nite dimensional dynamical systems in mechanics and physics.
Springer-Verlag, 1988.
224
Bibliographie.
[58] Van Loan C.F. Generalizing the singular value decomposition. SIAM J. Numer.
Anal., 13(1):76{83, 1976.
[59] Verron J., Molines J.M., Blayo E. Assimilation of geosat data into a quasigeostrophic model of the north atlantic between 200 n and 500 n: preliminary results.
Oceanologica Acta, 15((5)):575{583, 1992.
[60] Wahba G. Cross validation and constrainned regularization methods for mildly ill
posed problems. M.Z. Nashed. Academic Press, NewYork, 1980. Proceedings of the
Internationnal Conference on Ill Posed Problems.
[61] Wahba G. Constrained regularization for ill posed linear operator equations, with
applications in meteorology and medicine. Statistical Decision Theory and Related
Topics III, 1982. Academic Press.
[62] Wang Z., Navon I.M., Le Dimet F.X., Zou X. The second order adjoint
analysis: Theory and application. Meteorology and Atmospheric Physics, 50:3{20,
1992.
[63] Widlund O. A lanczos method for a class of nonsymetric systems of linear equations. SIAM J. Numer. Anal., 15(4):801{812, 1978.
225
Resume.
Cette etude concerne la mise en uvre de methodes numeriques d'optimisation de type contr^ole
optimal appliquees a un probleme d'assimilation
de donnees en oceanographie.
Il s'agit d'etudier la faisabilite de la methode dans
un probleme de grande taille et dans un modele
turbulent, caracteristique des circulations oceaniques aux latitudes moyennes. Le modele de circulation utilise est un modele quasi-geostrophique
strati e en plusieurs couches. Les donnees a assimiler sont les mesures altimetriques satellitaires
(hauteur de la surface libre de l'ocean). Elles se
trouvent uniquement sur la couche de surface.
Le vecteur de contr^ole est choisi comme etant la
condition initiale du systeme dynamique sur toutes
les couches.
Sur le plan theorique, sont etudies :
- l'existence et l'unicite de la solution de l'equation
linearisee ;
- l'existence et l'unicite de l'etat adjoint ;
- la convergence de la methode de contr^ole par des
suites minimisantes.
Nous etudions ensuite la qualite de l'identi cation
des circulations en profondeur en connaissant les
informations de surface. Nous abordons aussi les
di erentes strategies d'assimilation en temps (sequentielle, incrementale, ...). Une etude au second
ordre de la fonctionnelle permet d'estimer l'erreur
de l'identi cation et de quanti er la propagation
des informations de surface en profondeur. Un test
de la validation croisee generalisee sur notre probleme pour determiner le coecient de regularisation est fait gr^ace a cette etude au second ordre.
Mots cles.
Altimetrie satellitaire. Assimilation de donnees variationnelle. Circulation oceanique. Code adjoint.
Contr^ole optimal. Optimisation.