close

Вход

Забыли?

вход по аккаунту

1227236

код для вставки
Inférence statistique par lissage linéaire local pour une
fonction de régression présentant des discontinuités
Zouhir Hamrouni
To cite this version:
Zouhir Hamrouni. Inférence statistique par lissage linéaire local pour une fonction de régression
présentant des discontinuités. Modélisation et simulation. Université Joseph-Fourier - Grenoble I,
1999. Français. �tel-00004840�
HAL Id: tel-00004840
https://tel.archives-ouvertes.fr/tel-00004840
Submitted on 18 Feb 2004
HAL is a multi-disciplinary open access
archive for the deposit and dissemination of scientific research documents, whether they are published or not. The documents may come from
teaching and research institutions in France or
abroad, or from public or private research centers.
L’archive ouverte pluridisciplinaire HAL, est
destinée au dépôt et à la diffusion de documents
scientifiques de niveau recherche, publiés ou non,
émanant des établissements d’enseignement et de
recherche français ou étrangers, des laboratoires
publics ou privés.
THESE
presentee par
Zouhir HAMROUNI
pour obtenir le titre de
Docteur de l'Universite de Joseph Fourier - Grenoble I
(Arr^etes ministeriels du 5 juillet 1984 et du 30 Mars 1992)
Specialite : Mathematiques Appliquees
INFE RENCE STATISTIQUE PAR LISSAGE
LINE AIRE LOCAL POUR UNE FONCTION
DE RE GRESSION PRE SENTANT DES
DISCONTINUITE S
These soutenue le 20 janvier 1999 devant la Commission d'Examen
A. Le BRETON
I. GIJBELS
M. LEJEUNE
A. ANTONIADIS
J. DIEBOLT
M. LAVIELLE
G. GRE GOIRE
President du jury
Rapporteur
Rapporteur
Examinateur
Examinateur
Examinateur
Directeur de these
These preparee au sein du Laboratoire de Modelisation et Calcul
Table des matieres
Introduction
A
B
C
D
L'analyse de ruptures, presentation . . . . . . . . . . . . . . . . . . .
A.1 Motivations . . . . . . . . . . . . . . . . . . . . . . . . . . . .
A.2 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
A.3 Etudes ON-LINE et OFF-LINE . . . . . . . . . . . . . . . . .
L'analyse de ruptures, position du probleme . . . . . . . . . . . . .
B.1 Modele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
B.2 Notations . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
B.3 Les problemes traites : detection, estimation et segmentation
Une revue selective de travaux concernant l'analyse de rupture . . .
Un parcours de notre approche par \regression lineaire locale" . . .
1 Estimation des ruptures
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3
. 3
. 3
. 4
. 6
. 7
. 7
. 8
. 8
. 9
. 12
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Modele et Notations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.3 Estimation de l'amplitude lorsque la localisation est connue . . . . . . . . . . . .
1.3.1 Construction de l'estimateur . . . . . . . . . . . . . . . . . . . . . . . . .
1.3.2 Erreur quadratique moyenne . . . . . . . . . . . . . . . . . . . . . . . . .
1.3.3 Normalite Asymptotique . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.4 La situation ou la localisation de la discontinuite est inconnue . . . . . . . . . . .
1.4.1 Approximation par la somme des elements d'une ligne d'un tableau triangulaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.4.2 La situation ou le noyau s'annule en zero . . . . . . . . . . . . . . . . . .
1.4.3 La situation ou le noyau est strictement positif en zero . . . . . . . . . . .
1.5 Simulations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.6 Annexe A . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
17
17
18
20
20
21
26
30
31
42
48
57
84
TABLE DES MATIE RES
ii
2 Tests de rupture
2.1 Introduction . . . . . . . . . . . .
2.2 Test Strictement Local . . . . . .
2.2.1 Hypotheses . . . . . . . .
2.2.2 Resultats asymptotiques .
2.3 Test Local . . . . . . . . . . . . .
2.3.1 Resultats asymptotiques .
2.4 Test Global . . . . . . . . . . . .
2.5 Simulations . . . . . . . . . . . .
.
.
.
.
.
.
.
.
3 Estimateur du nombre de ruptures
3.1
3.2
3.3
3.4
3.5
3.6
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Introduction . . . . . . . . . . . . . . . . . . . . . . .
Construction de l'estimateur du nombre de ruptures
Hypotheses . . . . . . . . . . . . . . . . . . . . . . .
Consistance des estimateurs . . . . . . . . . . . . . .
Vitesses de convergence . . . . . . . . . . . . . . . .
Simulations . . . . . . . . . . . . . . . . . . . . . . .
4 Segmentation
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2 E et de la segmentation en deux intervalles . . . . . . . . . . . . . .
4.2.1 Notations et hypotheses . . . . . . . . . . . . . . . . . . . . .
4.2.2 Resultats asymptotiques . . . . . . . . . . . . . . . . . . . . .
4.3 Segmentation basee sur l'estimateur de la localisation de la rupture .
4.4 Plusieurs points de rupture . . . . . . . . . . . . . . . . . . . . . . .
4.4.1 Notations et hypotheses . . . . . . . . . . . . . . . . . . . . .
4.4.2 Resultats asymptotiques . . . . . . . . . . . . . . . . . . . . .
4.5 Choix des estimateurs du nombre et des localisations des ruptures .
4.6 Simulations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.7 Donnees reelles : Exemple du Nil. . . . . . . . . . . . . . . . . . . . .
Bibliographie
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
87
87
88
89
89
92
93
108
133
141
141
141
144
144
153
171
179
179
181
181
183
204
206
206
206
209
210
224
229
a mon papa et a ma maman.
Remerciements
Mes premiers remerciements vont a Monsieur Alain LE BRETON, professeur a l'Universite
Joseph Fourier de Grenoble, qui me fait l'honneur de presider le jury.
Je suis tres reconnaissant envers Madame Irene GIJBELS, Professeur a l'Universite LouvainLe-Neuve, et Monsieur Michel LEJEUNE Professeur associe au CNAM, qui ont voulu montrer
de l'inter^et a ce travail en acceptant de rapporter sur cette these.
Je remercie egalement Monsieur Anestis ANTONIADIS, Professeur a l'Universite Joseph
Fourier de Grenoble, Monsieur Jean DIEBOLT, Directeur de recherche au CNRS, et Monsieur
Marc LAVIELLE, Professeur a l'Universite Paris-Sud d'Orsay, d'avoir accepte de faire partie du
jury.
En n, je tiens a remercier particulierement Monsieur Gerard GREGOIRE, Professeur a
l'Universite Pierre-Mendes France de Grenoble, qui est a l'origine de cette these et gr^ace a
qui j'ai pu mener ce travail a son terme. Il m'est dicile de resumer en quelques mots tout
ce qu'il m'a apporte par son implication tout au long de cette these, par son soutien et ses
encouragements, ainsi que par la sympathie qu'il m'a temoigner tout au long de ce travail.
Introduction
A L'analyse de ruptures, presentation
A.1 Motivations
Lorsqu'on observe un phenomene sur une longue periode, on peut se demander s'il est stable
sur toute la periode etudiee. Il peut arriver que certaines circonstances provoquent une alteration du modele a partir d'une certaine date . Il peut s'agir pour une fonction de regression d'un
saut de cette fonction ou d'une rupture de pente. Lorsqu'on s'interesse a un processus aleatoire,
cela peut ^etre un changement de valeurs des parametres decrivant la loi de la variable d'etat, ou
un changement dans les parametres de nissant la covariance, etc. La facon dont l'alteration se
traduit depend de l'objet etudie et de la modelisation adoptee.
L'un des premiers problemes de rupture etudie concernait le contr^ole d'une cha^ne de production, ou il est en e et essentiel de detecter une baisse du regime de production pour pouvoir, par
exemple, remplacer une machine defectueuse. Les premieres methodes utilisees etaient principalement graphiques : on estimait, regulierement, la moyenne de production et on en faisait la
representation graphique. Si celle-ci passait au dessous d'une certaine valeur limite, on concluait
alors a une baisse du regime de production et donc a une rupture. Un autre secteur ou tres
t^ot des chercheurs se sont interesses a des problemes de rupture est celui de la qualite. Page
[Pag57], par exemple, s'interessait aux ruptures dans la qualite de production d'une machine.
Le dereglement d'une machine entra^ne une augmentation de la proportion d'objets defectueux
dans la production. La rupture ici est synonyme de baisse notable de la qualite du produit
industriel concerne.
De maniere generale nous appelons rupture tout changement dans les parametres du systeme
qui survient instantanement ou tres vite a l'echelle de la periode d'echantillonnage. Remarquons
qu'il ne s'agit pas necessairement de changements de forte amplitude. Un changement m^eme
de faible amplitude peut ^etre revelateur d'un dysfonctionnement du systeme etudie, et il peut
^etre fondamental a plus d'un titre (economique, securitaire, etc) de diagnostiquer ce dysfonc-
6
INTRODUCTION
tionnement. Le terme de rupture est souvent entendu au sens de \date" a laquelle les proprietes
du systeme ont subitement change, etant entendu que ces proprietes restent stables pendant un
certain temps avant et apres la rupture. C'est cette idee qui est a la base de la formalisation
mathematique de la notion de rupture. L'expression \detection de ruptures" renvoie aux outils
d'aide a la decision concernant le fait qu'un changement est intervenu ou pas dans les caracteristiques de l'objet considere.
Nous evoquons ci-dessous quelques exemples de situations ou des problemes de ruptures sont
etudies.
A.2 Exemples
Dans le domaine de la statistique mathematique, les modeles de ruptures connaissent depuis
quelques annees un developpement important. Le champ d'application est large : donnees medicales, traitement du signal, seismographie, nance, ecologie, etc. Les consequences d'une rupture
peuvent ^etre primordiales : contamination par un virus (ruptures du taux de certains marqueurs dans le sang), tremblement de terre (changement de regularite des courbes fournies par
les traceurs d'activite du sol), desequilibre dans le systeme ecologique (forte variation subite de
la densite de certaines especes), changement de tendance sur un marche nancier, crash boursier, (saut dans le prix de certaines actions type) : : : Nous evoquons ci-dessous de maniere plus
detaillee quelques exemples de situations ou des problemes de ruptures sont etudies.
Contr^ole de qualite
Une des applications les plus connues de la detection de rupture est le probleme de contr^ole
de qualite, ou la surveillance en continu de la production. Considerons un procede de production qui peut ^etre sous contr^ole (fonctionnement correspondant aux normes) ou hors contr^ole
(fonctionnement hors normes). Les situations ou ce procede est hors contr^ole sont considerees
comme des situations de dysfonctionnement. Pour de nombreuses raisons, il est souhaitable de
detecter le dysfonctionnement et d'estimer sa date d'incidence. Cela peut ^etre une question de
securite du procede industriel, de contraintes imposees par le marche sur le produit , ou de classi cation de l'article produit, : : : Il est donc souvent important de detecter le plus rapidement
possible un dysfonctionnement. Par ailleurs les fausses alarmes, situations ou la procedure de
suivi annonce a tort un dysfonctionnement, ont aussi un co^ut important puisqu'elles conduisent
a un arr^et de la production et peuvent generer chez le personnel une demobilisation consequence
de la perte de con ance dans la procedure de contr^ole. Il faut donc trouver un compromis entre
une detection rapide et un minimum de fausses alarmes en utilisant un critere tenant compte
A. L'analyse de ruptures, presentation
7
des pertes impliquees par ces deux evenements.
Traitement du signal
Le probleme de detection de changement dans les caracteristiques d'un signal est courant en
traitement de la parole, en medecine, en geophysique ou encore en sismologie. Un exemple classique est celui rencontre sur les plates-formes petrolieres: connaissant les vibrations intrinseques
d'une plate-forme emises en reponse a la houle, gr^ace a de simples sismographes, la question
apres passage de la vague du siecle est de decider si oui ou non la structure necessite des reparations. C'est a dire si oui ou non il est necessaire de ramener la plate-forme a terre pour remise
en etat standard. L'idee est de repondre a ce genre de question a l'aide de tests, dits de rupture.
Sante
Dans le domaine de la sante, on rencontre aussi de nombreux problemes de rupture, principalement dans des situations de surveillance au cours du temps. Dans le diagnostic precoce du
Sida chez un sujet a partir de l'observation de l'evolution dans le temps de donnees biologiques
chez ce sujet, on sait que le cycle naturel de l'evolution de ce syndrome se presente ainsi :
contamination du sujet : infection par le virus HIV,
periode de HIV-positivite ou de sero-positivite : l'organisme developpe des anticorps antiHIV dont on peut deceler la presence dans le sang,
periode de Sida avere : le sujet presente l'un des sympt^omes entrant dans la de nition du
syndrome du Sida, ce qui conduit a une degradation de son etat de sante, et, a moyen
terme au deces.
Le processus decrit comporte donc deux ruptures. La premiere, la rencontre avec le virus,
depend du comportement du sujet. La seconde, le passage de la seropositivite a la maladie
averee, presente un inter^et medical evident, et sa detection rapide, voire sa prediction sont d'un
inter^et primordial pour le comportement therapeutique.
E cologie : probleme du Nil
La gure 0.1 represente le debit annuel du Nil entre 1871 et 1970. Ces donnees sont fournies
par Cobb [Cob78] qui les a analysees en utilisant une approche parametrique. La question
etant: oui ou non y a t-il eu , dans la periode n du siecle dernier{debut de ce siecle, une chute
brutale du niveau du Nil; et si oui, quand s'est-elle produite? Cobb diagnostique une rupture en
8
INTRODUCTION
1898 et suggere qu'elle est due a un changement dans le climat a cette epoque, se traduisant par
une baisse de la pluviosite. La question presentait un certain inter^et pour ceux qui voulaient voir
un lien entre la baisse du debit du Nil et la realisation du barrage d'Assouan par les Anglais dans
la periode n du siecle dernier{debut de ce siecle. En realite le barrage d'Assouan a commence
a ^etre operationnel en 1902.
1400
1300
1200
1100
debit annuel
1000
900
800
700
600
500
400
1870
1880
1890
1900
1910
1920
annee
1930
1940
1950
1960
1970
Figure 0.1 : Le probleme du Nil.
A.3 Etudes ON-LINE et OFF-LINE
Pour des raisons historiques et techniques, on peut decomposer la problematique des modeles
de ruptures en deux grandes categories :
Etude ON-LINE : Les donnees sont supposees arriver au fur et a mesure et elles sont
analysees en direct (analyse sequentielle). On cherche a detecter une rupture sur le modele le plus rapidement possible, avec un pourcentage xe de fausses alarmes avant l'instant
de rupture . On cherche surtout a minimiser l'intervalle entre et l'instant de declenchement de l'alarme a. Les procedures ON-LINE s'ecrivent sous forme de temps d'arr^et
markoviens :
a = inf fk 1; gk (Y1 ; : : : ; Yk ) S0g
Etude OFF-LINE : Au contraire, dans les algorithmes de detection OFF-LINE, les donnees
sont collectees et ensuite analysees en di ere. Le but peut ^etre de tester l'existence de
B. L'analyse de ruptures, position du probleme
9
ruptures dans le modele ou d'estimer leur nombre, leurs localisations et leurs amplitudes.
Dans toute la suite de ce document nous ne nous interessons qu'a cette derniere problematique. Nous la formalisons plus precisement ci-dessous.
B L'analyse de ruptures, position du probleme
Les formalisations du probleme de rupture etudie peuvent di erer par :
Le type de modele adopte : modeles de regression, modeles associes a la densite de probabilite ou la densite spectrale ou a la fonction de hasard, : : :
Le type d'observations : discretes ou continues.
Les hypotheses sur les ruptures :
type des discontinuites (sauts, points de rebroussement, : : : ),
points de rupture simples ou multiples,
le nombre, les amplitudes des ruptures sont supposes connus ou non.
Cadre de travail : parametrique, semi-parametrique ou non-parametrique.
Le travail que nous presentons dans ce document se situe dans le cadre non-parametrique. Nous
precisons ce cadre dans le paragraphe suivant.
B.1 Modele
Soit (X1; Y1 ); : : : ; (Xn; Yn ) un echantillon de variables aleatoires bivariees. Nous designons
par fX;Y (; ) la densite conjointe du couple (X; Y ) dans l'espace (IR2; B(IR2)). Nous supposons
que ces observations sont regies par le modele de regression classique :
Yi = m(Xi) + (Xi)"i;
i = 1; : : : ; n;
ou m() est la fonction de regression et 2() la fonction de variance. Les "i sont des variables
aleatoires independantes centrees reduites. Les fonctions m() et () sont inconnues et astreintes
uniquement a satisfaire de simples conditions de regularite. Ce cadre tres general, motive le recours a une methode non-parametrique.
Les notations de nies ci-dessous seront valables tout au long du document.
10
INTRODUCTION
B.2 Notations
fX;Y (; ): la densite conjointe du couple (X; Y );
fX () : la densite marginale de X ;
m() = IE [Y jX = ] : la fonction de regression de Y en X ;
() = V ar(Y j X = ) : la fonction de variance conditionnelle de Y sachant X ;
2
m, ( ) = tlim
m (t); = 0; 1; 2;
%
( )
( )
m ( ) = tlim
m (t); = 0; 1; 2;
&
( )
+
( )
( )
( ) = m(+ ) ( ) , m(, ) ( ); = 0; 1; 2;
p : le nombre de points de discontinuite de la fonction de regression m() ;
; : : : ; p : les p points de discontinuite de la fonction de regression;
1
Pour tout 1 i p, (i) =
point i .
(0)
(i) : l'amplitude du saut de la fonction de regression au
B.3 Les problemes traites: detection, estimation et segmentation
L'analyse de ruptures regroupe trois problemes di erents et selon les cas on s'interesse a tout
ou partie de ces problemes.
C. Une revue selective de travaux concernant l'analyse de rupture
11
OBSERVATIONS
Existence de ruptures ?
DETECTION
CHOIX
Nombre, Localisations et Amplitudes des ruptures
DE
ESTIMATION
CERTAINS
PARAMETRES
Signal
SEGMENTATION
Figure 0.2 : L'analyse de ruptures : Algorithme
1. Detection : on cherche a detecter une rupture sur le modele i.e. prendre un decision sur
le fait qu'il y a ou non une rupture dans le modele.
2. Estimation : La presence de rupture(s) est un fait connu. On cherche, au vu des observations, a estimer les parametres des ruptures dans le modele :
p : le nombre de ruptures,
; : : : ; p : les instants de rupture,
( ); : : : ; (p) : les amplitudes des ruptures.
1
1
3. Segmentation : on cherche a identi er la fonction de regression entre les points de ruptures, c'est a dire pour tout point x 2 [i; i+1], on veut estimer m(x).
C Une revue selective de travaux concernant l'analyse de rupture dans un cadre non-parametrique
Comme nous l'avons dit plus haut, nous avons selectionne pour notre travail une approche
o -line non parametrique pour traiter en tout premier lieu des problemes de discontinuites
d'ordre zero dans le cadre du modele de ni par
Yi = m(Xi ) + (Xi)"i :
12
INTRODUCTION
De maniere precise, le choix que nous avons fait est celui d'une approche basee sur le lissage
a droite et a gauche par regression lineaire locale. La motivation pour un tel choix est double. Tout d'abord, partant de l'idee que les discontinuites d'ordre zero peuvent ^etre considerees
comme des points frontieres il s'agissait de tirer parti de la propriete d'absence d'e et de bord
de la methode de regression polynomiale locale : pres des bords, la fonction de regression peut
^etre estimee avec la m^eme vitesse de convergence que dans la partie centrale. L'autre motivation
releve plus de l'experience de la pratique : il semble que la methode de regression polynomiale
locale se comporte de facon tres satisfaisante pour des tailles d'echantillon relativement modestes.
Les methodes developpees dans le cadre non parametrique pour traiter les problemes d'inference
statistique sur les ruptures de la fonction m() peuvent ^etre majoritairement rattachees a deux
familles d'approches.
Tout d'abord les methodes qui modelisent la fonction m() sur [0; 1] sous la forme
m(x) = m0 (x) +
k
X
j =1
(j )
j pj (x);
(0.1)
ou p(jj)(x) = xj I[j ; 1](x) de nit une discontinuite d'ordre j au point j et m0() est une fonction
lisse. Cette approche est souvent quali ee de semi-parametrique. Dans le cadre du modele
(0.1), l'inference concernant la fonction lisse m0(), les parametres de localisation 1; : : :; k et
les parametres d'amplitude 1; : : :; k est conduite en utilisant des methodes de lissage diverses.
L'idee la plus naturelle consiste a estimer les parametres par un critere de moindres carres avec
une penalisation portant sur la lissitude de la fonction m0 (). D. Girard [Gir90], Laurent et
Utreras [LU86], Shiau [Shi85], Cline & al [ECS95] ont eu recours a cette approche. Une approche basee sur la methode du noyau a ete developpee dans le cadre de l'estimation d'une
fonction de regression par Eubank et Speckman [ES94], Speckman [Spe95] et dans celui de
l'estimation d'une fonction d'intensite de processus ponctuel par A. Antoniadis et G. Gregoire
[AG93]. Lorsque les localisations sont connues, la methode consiste a lisser d'abord les observations et les fonctions de discontinuite, puis a projeter les residus de lissage des observations
sur ceux de chaque fonction de discontinuite pour obtenir les estimateur ^j des amplitudes. On
deduit alors facilement l'estimateur m^ 0 () de la partie lisse. Cette methode, elegante au plan
mathematique conduit a un taux de convergence en n,4=5 pour les estimateurs ^j .
Nous rangeons dans le deuxieme groupe de methodes, les procedures basees sur l'estimation
du saut eventuel au point t, (t) = m+ (t) , m, (t), obtenue en utilisant un estimateur a droite
C. Une revue selective de travaux concernant l'analyse de rupture
13
pour m+ (t) et un autre a gauche pour m, (t). Parmi les premiers auteurs a proposer une methode basee sur ce principe, il faut citer McDonald et Owen [MO86], qui de nissaient en fait
trois estimateurs en utilisant separement les observations a droite pour l'un, celles a gauche
pour l'autre et en n des observations de part et d'autre pour le troisieme. Par la suite, Muller
[Mul87 ], Yin [Yin88], Wu et Chu [WC93a], Qiu [Qiu94] ont explore les problemes de rupture a l'aide de methodes basees sur ce principe. Dans son travail Yin faisait une hypothese
gaussienne sur le bruit et utilisait des estimateurs a droite et a gauche qui etaient de simples
moyennes arithmetiques. Muller [Mul87] et Wu et Chu [WC93a] ont recours a un lissage par
la methode du noyau. Le premier se place dans le cadre d'un plan d'experience deterministe et
ses estimateurs a droite et a gauche sont construits en utilisant l'estimateur de Gasser et Muller.
Dans la situation d'une fonction de regression admettant une discontinuite d'ordre zero localisee
en , il obtient comme consequence d'un resultat de normalite asymptotique, la convergence a
la vitesse an =n de son estimateur ^, ou an est une suite de reels positifs tendant vers l'in ni avec
une vitesse qui peut ^etre choisie arbitrairement lente. Il s'ensuit que, en norme Lp , l'estimateur
de la fonction de regression presente la m^eme vitesse de convergence que si la localisation de
la rupture etait connue. Le travail de Wu et Chu se situe dans le cadre d'un plan d'experience
deterministe et regulier. Les auteurs utilisent des tailles de fen^etre di erentes pour estimer la
localisation et l'amplitude. Sous un nombre important de conditions, ils obtiennent la convergence p.s. des estimateurs de localisation et d'amplitude ainsi que la normalite asymptotique des
couples (^j ; ^j ). Loader [Loa96], pour construire des estimateurs a droite et a gauche, a utilise
la methode des polyn^omes locaux dans le cadre d'un plan d'experience deterministe et regulier,
avec un bruit gaussien de variance unite. Le recours a un noyau ne s'annulant pas en zero lui
permet d'obtenir une vitesse de convergence de ^, estimateur de la localisation, exactement egale
a n,1 .
D'un certain point de vue, les travaux de Gijbels, Hall et Kneip [HGK96, HGK95], et de
Muller et Song [MS97] peuvent ^etre consideres comme relevant de l'approche \di erences des
lissages a droite et a gauche". Les premiers auteurs utilisent d'abord une etape preliminaire qui
consiste a estimer le point de plus forte pente de la fonction de regression, methode que l'on
retrouve aussi chez Muller et Wang [WM90] pour l'estimation des ruptures d'une fonction de
hasard. Ils recherchent ensuite la discontinuite dans le voisinage de ce point. Cette derniere
recherche s'e ectue par comparaison des residus obtenus pour chaque point xi d'une grille de
points dans le voisinage, lorsqu'on estime la fonction de regression a droite (respectivement
a gauche) par la moyenne des observations a droite (respectivement a gauche). Les auteurs
proposent aussi la construction d'une bande de con ance basee sur le boostrap des residus.
0
14
INTRODUCTION
Muller et Song ont aussi recours a une localisation preliminaire et proposent comme estimateur
^ le point ou le processus de saut estime, de ni comme di erence normalisee de moyennes locales
a droite et a gauche, realise son maximum.
Parallelement aux deux types d'approches dont nous venons de parler, sont apparues aussi
des procedures qui ne font appel ni a la representation semi-parametrique, ni a l'idee d'une
estimation du saut eventuel par di erence de lissages a droite et a gauche. Qiu et Yandell
[QY98]ajustent localement au voisinage de chaque point ti du plan d'experience deterministe,
) p+1
un polyn^ome Y^ (i)(t) = ^0(i) + ^1(i) t + : : : + ^p(i+1
t , et batissent une procedure de detection
n,l
en exploitant le fait que si m() admet une discontinuite en ti alors f ^1(j )gj =l+1 montre une
forte variation en ^1(i). Citons aussi les approches par methodes d'ondelettes developpees en
particulier par Wang [Wan95], Antoniadis et Gijbels [AG96], Raimondo [Rai96] : : : L'idee
de base de Wang est que pour certaines resolutions, les coecients d'ondelettes d'un signal
di erentiable et ceux du processus de bruit W , W designant le processus de Wiener, sont du
m^eme ordre de grandeur. A cette resolution, au voisinage d'une discontinuite, les coecients
d'ondelette du signal vont subir une forte perturbation qui se retrouvera dans les coecients
d'ondelette du processus observe. La methode adoptee par Antoniadis et Gijbels consiste a
localiser les discontinuites en calculant la transformee en ondelette continue sur une grille de
points convenablement choisie et en selectionnant les points ou ces transformees depassent un
seuil adapte. La procedure conduit a une partition en p + 1 intervalles sur lesquels le signal
est estime ensuite separement en utilisant l'analyse multiresolution sur intervalle. Cette revue
des travaux developpes dans un cadre non-parametrique n'est certainement pas exhaustive,
mais les contributions evoquees nous semblent assez bien representer les approches proposees
principalement durant les deux dernieres decennies.
D Un parcours de notre approche par \regression lineaire locale"
Etant donne les observations (X1; Y1); : : :; (Xn; Yn ) provenant du modele de regression
Yi = m(Xi) + (Xi)"i
ou les "i sont i.i.d. de moyenne nulle et de variance unite, nous de nissons des estimateurs a
droite et a gauche de la fonction m() de la maniere suivante. K+ etant un noyau a support
[,1; 0], K, (x) = K+ (,x), nous posons m^ + (t) = b(t) ou b(t) est obtenu en resolvant le probleme
D. Un parcours de notre approche par \regression lineaire locale"
suivant
min
a;b
n
X
15
[Yi , (a(t , Xi ) , b)]2K+ t ,h Xi :
n
i=1
De m^eme en remplacant ci-dessus K+ par K, , nous de nissons un estimateur m^ , (t) de la limite
a gauche m, (t). L'utilisation des poids K+ t,hnXi fait que seules les observations a droite de t
sont utilisees pour estimer m+ (t), de m^eme seules les observations a gauche sont utilisees pour
estimer m, (t). L'estimateur du saut eventuel est donc
^(t) = m^ + (t) , m^ , (t):
Le processus t 7! ^ (t), avec changement d'echelle et normalisation eventuels, joue un r^ole fondamental tout au long de notre travail.
Nous commencons au chapitre I par etudier le probleme d'estimation dans la situation d'une
seule rupture localisee en , de signe connu que nous prenons positif. Lorsque est connue, il
est facile d'obtenir l'expression de l'erreur quadratique asymptotique, et de montrer que ^ ( )
est asymptotiquement normal. Dans la situation ou n'est pas connue, nous de nissons un
estimateur ^ et estimons l'amplitude par ^(^ ) = m^ + (^ ) , m^ , (^ ). L'estimateur ^ est obtenu
comme point ou le processus de deviation locale Zn (z ) = (n; hn ) (^ ( + (n; hn )z ) , ^( )) ;
realise son maximum. Pour des choix convenables de et , nous montrons que le processus
Zn (z) converge vers un processus Z (z) qui peut ^etre soit un processus gaussien, soit un processus
de Poisson compose. Ces deux classes de processus limites sont en fait associees a des hypotheses
di erentes sur le noyau : K+ (0) = 0 dans le premier cas, K+ (0) > 0 dans le second. Nous
montrons que ces lois limites de Zn (z ) conduisent dans le premier cas a la normalite asymptotique
de ^, et dans le second cas a une convergence vers une loi dependant de la distribution du bruit
". La convergence de ^ vers est alors dans le premier cas en OP (an =n), ou (an) est une
suite tendant vers l'in ni avec une vitesse qui peut ^etre arbitrairement lente. Dans le second
cas, elle est en OP (n,1 ). Ces resultats con rment ceux qu'avait obtenu Loader [Loa96] dans un
cadre tres simpli e. Nous montrons que l'estimateur de l'amplitude, ^ (^ ), est asymptotiquement
normal aussi bien dans un cas que dans l'autre.
Le chapitre II est consacre a l'etude des tests d'existence d'une rupture. Trois tests sont
presentes. Le premier que nous quali ons de test strictement local, s'interesse a l'existence d'un
saut en un point quelconque xe. Il est base sur la statistique ^( ) : ses proprietes decoulent
naturellement des resultats obtenus au chapitre precedent. Nous construisons ensuite un test
d'existence d'un saut au point , que nous appelons test local, en etudiant le comportement du
processus ^(t), dans un voisinage du point . Le principe de ce test repose sur le fait que, en
16
INTRODUCTION
p
l'absence de rupture, le processus Zn (z ) = nhn ^ ( + hn z ) converge vers un processus Z (z )
gaussien dont la fonction de covariance satisfait les conditions sous lesquelles les resultats de
convergence des valeurs extr^
q emes de Leadbetter et al. peuvent ^etre appliques. Il s'ensuit que
la statistique sup Zn (z )= C^ (0), ou C^ (0) est un estimateur de la variance de Z (z ), que nous
utilisons comme statistique de test de l'hypothese d'absence de rupture, est asymptotiquement
de loi de Gumbel. Le troisieme test que nous appelons test global, est un test de l'existence
p
d'une rupture sur ]0; 1[. Ce test tire pro t du fait que le processus n (t) = nhn V (t)^(t)
ou V (t) depend de la densite fX (t) des Xi, et de la variance du bruit, est asymptotiquement
gaussien sous l'hypothese nulle. Comme la fonction de covariance du processus limite satisfait
aussi les conditions requises pour appliquer les resultats de Leadbetter et al., une procedure de
test decoule de maniere analogue a la situation du test local. Nous montrons que ces trois tests
sont asymptotiquement de puissance unite.
Au chapitre III, nous nous placons dans la situation d'un nombre p inconnu de discontinuites.
Pour estimer p et les localisations 1 ; : : :; p , nous decoupons l'intervalle [0; 1] en intervalles
de longueur 2hn , ou hn est la taille de la fen^etre utilisee par le noyau. Denombrant le nombre
d'intervalles ou ^ depasse un certain seuil S0 en agregeant les intervalles contigus, nous obtenons
un estimateur naturel p^ du nombre de discontinuites. Nous montrons que cet estimateur est
convergent et que les localisations de depassement du seuil convergent vers les points de rupture
1 ; : : :; p. Pour ^etre en mesure d'appliquer une telle procedure, il faut pouvoir choisir S0 <
min( (1); : : :; (p)), ce qui necessite une information a priori sur les amplitudes. Pour pallier
cette diculte, une solution consiste a utiliser une suite de seuils (Sn ) convergents vers 0. Sous
des conditions liant la vitesse de decroissance de (hn ) a celle de (Sn ) nous obtenons la convergence
p.s. de p^ vers p et des ^i vers les i .
Le probleme de l'etude de la reconstitution de la fonction de regression dans une situation de
rupture fait l'objet du chapitre IV. Une fois les discontinuites localisees aux points ^1 ; : : :; ^p^, la
fonction de regression est reconstituee sur chaque intervalle [^i ; ^i+1 [ par regression lineaire locale
en situation de fonction de regression lisse, en ayant recours a un noyau a support [,1; 1]. En
premier lieu nous analysons les consequences sur m
^ () d'une segmentation arbitraire en fonction
des localisations reelles des discontinuites. Nous montrons ensuite qu'en utilisant la procedure
d'estimation du nombre de ruptures et des localisations developpee au chapitre precedent, la
segmentation ne conduit a aucune perte de vitesse en ce qui concerne l'erreur quadratique
moyenne integree sur [0; 1] de l'estimateur m^ (). Il s'agit la d'une consequence d'une part de
l'absence d'e et de bord de la regression lineaire locale, et d'autre part de la forte vitesse de
convergence des estimateurs des localisations.
D. Un parcours de notre approche par \regression lineaire locale"
17
Chacun des chapitres I a IV contient les resultats de simulations e ectues la plupart du
temps sur des exemples etudies par d'autres auteurs avec des methodes concurrentes (Loader
[Loa96], Gijbels, Hall et Kneip [HGK96, HGK95]). Ces simulations demontrent l'ecacite
de la methode de regression lineaire locale, et mettent en evidence la sensibilite aux divers
parametres : choix du noyau, taille de l'echantillon, rapport signal sur bruit, et taille de la
fen^etre. Le fait que les performances sont meilleures pour un noyau satisfaisant K+ (0) > 0
que pour un noyau tel que K+ (0) = 0, est con rme par les experimentations. Par ailleurs le
simulations montrent l'importance du choix de la taille de la fen^etre, mais fournissent aussi
des guides sous la forme d'indications de plages de valeurs raisonnables en fonction de la taille
de l'echantilllon. Nous n'avons pas traite dans ce document la question de l'elaboration d'une
procedure de choix de la taille de fen^etre. Une procedure ideale mais peu realiste consisterait
a chercher une fen^etre ~hn realisant le minimum du ISE ou du MISE sur [0; 1]. Une estimation
d'un tel h~ n pourrait ^etre obtenue par validation croisee. Une autre proposition pourrait ^etre
de n'utiliser comme critere de choix de hn que la qualite de reconstruction de la fonction au
voisinage des discontinuites. Nous etudions actuellement les diverses procedures envisageables
pour resoudre cette question.
Chapitre 1
Estimation des ruptures
1.1 Introduction
Considerons le modele de regression ou les observations (Xi ; Yi ) satisfont :
Yi = m(Xi ) + (Xi)"i;
ou m() est la fonction de regression et () est l'ecart-type conditionnel. Les "i sont des variables
aleatoires i.i.d centrees et reduites. Nous supposons dans ce chapitre que m() est \lisse", sauf
en un point ou elle admet une discontinuite d'amplitude ( ) = m+ ( ) , m, ( ). Dans la
premiere partie, nous nous placons dans la situation ou la localisation de la discontinuite
est connue, nous construisons un estimateur ^ ( ) de ( ), di erence des estimateurs m^ + ( ) et
m^ , ( ) des lissages a droite et a gauche de m() au point obtenus par RLL (Regression Lineaire
Locale), Nous montrons que cet estimateur est consistant et asymptotiquement normal. Dans
la deuxieme partie la localisation n'est plus supposee connue, nous estimons en recourant a
un processus de deviation locale. L'estimateur ^ ainsi construit conduit a un estimateur ^ (^ )
de l'amplitude. Pour etudier les proprietes de ^, nous envisageons la situation ou le noyau
unilateral utilise K+ () est nul a l'origine, et celle ou K+ (0) > 0. Loader [Loa96] a montre
dans la situation ou le plan d'experience est deterministe et regulier, et en supposant le bruit
gaussien, qu'on ameliore la vitesse de convergence de ^ lorsque K+ (0) > 0. Nous observons que
le comportement du processus de deviation locale utilise pour estimer est di erent dans les
deux cas K+ (0) = 0 et K+ (0) > 0, et que la vitesse de convergence de ^ est meilleure dans ce
dernier cas.
20
CHAPITRE 1. ESTIMATION DES RUPTURES
1.2 Modele et Notations
Soit (X1; Y1); : : : ; (Xn; Yn ) un echantillon de variables aleatoires bivariees. Nous designons
par fX;Y (; ) la densite conjointe du couple (X; Y ) dans l'espace (IR2 ; B(IR2 )). Nous supposons
que ces observations sont regies par le modele de regression classique suivant :
Yi = m(Xi ) + (Xi)"i ;
i = 1; : : : ; n;
(1.1)
ou m() est la fonction de regression et () est l'ecart-type conditionnel. Les "i sont des variables
aleatoires i.i.d centrees et reduites. Les fonctions m() et () sont supposees inconnues, et nous
ne leur imposons a priori aucune contrainte supplementaire. Les contraintes que nous serons
amenes a imposer par la suite sont simplement des hypotheses de regularite mathematiques. Ceci
justi e, pour les problemes d'estimation consideres, l'emploi d'une approche non-parametrique.
Notations et Hypotheses
A1. fX () :
la densite marginale de X est supposee continue et strictement positive sur
l'intervalle [0; 1].
A2.
2(x) = V ar(Y j X = x) est supposee aussi continue sur l'intervalle [0; 1].
La fonction de regression, m(), est supposee de classe C 2 separement sur chacun des
intervalles [0; ] et [; 1].
A3.
Remarque 1.1. Les hypotheses A1 et A2 peuvent, en fait, ^etre a aiblies. Pour simpli er les
notations dans les demonstrations, nos resultats sont enonces sous les hypotheses A1 et A2. Les
modi cations a apporter a certains resultats, pour prendre en compte le fait que les fonctions
fX () et/ou () peuvent ^etre discontinues au point , se trouvent a la n du paragraphe (1.3).
On pose
i)
m(, ) ( ) = tlim
m() (t); = 0; 1; 2:
%
ii)
m+( )( ) = tlim
m()(t); = 0; 1; 2:
&
iii)
( )
( ) = m(+ ) ( ) , m(, ) ( ); = 0; 1; 2:
( ) = m+ ( ) , m, ( ) est l'amplitude du saut de la fonction de regression m() au point .
Sans perte de generalite, dans ce chapitre, nous supposons que ( ) > 0. Le cas ( ) < 0 peut
1.2. Modele et Notations
21
^etre aborde de maniere similaire. En e et lorsque ( ) < 0, il sut de remplacer dans ce qui
suit les maximisations par des minimisations, et il est facile d'obtenir les resultats analogues a
ceux de ce chapitre dans le cas ou ( ) est negatif.
Choix des noyaux de lissage
De nition 1.1. On appelle noyau de lissage a droite K ()(respectivement a gauche K,())
toute fonction K () ( resp. K, ()) bornee a support [,1; 0] (resp. [0; 1]). Pour la suite nous
allons adopter une notation commune pour designer l'un des deux noyaux, K (), et nous notons
+
+
pour tout l = 0; 1; 2; : : :
i)
ii)
iii)
iv)
R
Kl = ,11 xl K(x)dx ;
R
Ll = ,11 xl K2 (x)dx ;
B = B (K ) = (KK K) ,,K(KK ) ;
2
0
V2 = V 2 (K) =
2
1
2
1
3
2
1
(K K ,(K )
0
2
1
2 2
)
R (K , K x) K (x)dx :
,
2
1
2
1
2
1
Nous supposons egalement que :
K,(x) = K+(,x);
8x 2 [0; 1]:
(1.2)
Tout au long de notre travail, les noyaux K+ () et K, () sont supposes positifs, ceci a n de
conserver l'interpretation de l'estimateur en termes de moindres carres ponderes (voir 1.4).
Sans perte de generalite, on imposera une sorte de normalisation pour K () :
j K K , (K ) j= 1:
2
0
1
2
(1.3)
En e et si K () est un noyau quelconque, pjK KK(,)(K ) j veri e la contrainte de normalisation
(1.3). En pratique puisque K () est positif on a(K1 )2 K2 K0 .
2
0
1
2
Remarque 1.2. Tout au long de ce travail les noyaux sont supposes a support compact mais
les m^emes resultats pourraient ^etre obtenus, au prix de dicultes techniques supplementaires,
pour des noyaux de Parzen-Rosenblat ( lim xl K (x) = 0, l 0).
jxj!+1
22
CHAPITRE 1. ESTIMATION DES RUPTURES
1.3 Estimation de l'amplitude lorsque la localisation est connue
Nous aborderons dans ce paragraphe l'estimation de l'amplitude lorsqu'on conna^t la localisation du point de discontinuite. Les motivations pour etudier le cas ou les localisations des
singularites sont connues se situent aussi bien au plan de la modelisation qu'a celui de la theorie :
i)
Dans un certain nombre de situations reelles, nous disposons d'informations a priori sur
les localisations des ruptures suite a des etudes anterieures, les opinions de certains experts
ou parce que les donnees elles-m^emes montrent clairement les localisations des ruptures, ou
encore parce que la rupture a ete provoquee par une intervention exterieure (en medecine,
cette intervention peut ^etre une operation chirurgicale; en economie, il peut s'agir de
decisions gouvernementales; etc : : : );
Pour pouvoir etudier les performances asymptotiques des procedures statistiques que
nous proposons dans la situation ou nous ne disposons pas d'information ni sur le nombre
des ruptures ni sur leurs localisations, nous avons besoin de contr^oler leurs performances
dans le cas ou les localisations des singularites sont connues.
ii)
Nous allons tout d'abord etudier les proprietes asymptotiques de m
^ + ( ) et m
^ , ( ), puisque
nous pouvons deduire facilement des resultats analogues pour ^ ( ).
1.3.1 Construction de l'estimateur
Rappelons (cf. Fan [Fan92]), que K () etant un noyau, l'estimateur de regression lineaire
locale m^ (x) de la fonction m(x) est de ni comme la valeur de b = b(x) obtenue lorsqu'on resout
le probleme de minimisation :
min
n
X
a;b) i=1
(
[Yi , (a(x , Xi ) + b)]2 K ( x , Xi ):
hn
(1.4)
K+() etant un noyau a support [,1; 0], et K, () de ni par K,(x) = K+ (,x), nous de nissons
en remplacant dans (1.4) K () par K+ () et K, () les estimateurs m
^ + () et m
^ , (), qui peuvent
^etre quali es respectivement d'estimateur a droite et d'estimateur a gauche de la fonction de
regression m().
La gure ci-dessous illustre le lissage par RLL a droite et a gauche aux points x = 0:25 et
x = 0:75 lorsque la fen^etre de lissage hn est egale a 0:10.
1.3. Estimation de l'amplitude lorsque la localisation est connue
23
hn
1.4
1.2
1
0.8
0.6
x = 0.25-
0.4
x = 0.75x = 0.75+
hn
0.2
hn
x = 0.25+
0
−0.2
−0.4
−0.6
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
hn
Figure 1.1 : Les lissages lineaires locaux a gauche et a droite.
De nition 1.2. L'estimateur lineaire local de m( ) est de ni comme suit
Pn w( )Y
m^ ( ) = Pi n i i ;
i wi ( )
(1.5)
,
wi ( ) = K ( ,h Xi ) S2 ( ) , ( , Xi)S1( ) ;
(1.6)
=1
=1
avec pour tout i = 1; : : : ; n,
n
et ou
n
X
Sl ( ) = ( , Xi)lK ( ,h Xi );
n
i=1
l = 0; 1; 2:
(1.7)
Ainsi l'estimateur de ( ) = m+ ( ) , m, ( ) sera ^( ) = m^ + ( ) , m
^ , ( ):
1.3.2 Erreur quadratique moyenne
Pour etudier les proprietes asymptotiques de ^( ), on va commencer par etudier celles de
m^ + ( ) et m^ , ( ). Les proprietes asymptotiques de m^ , ( ) sont analogues a celles de m^ + ( ), c'est
24
CHAPITRE 1. ESTIMATION DES RUPTURES
pourquoi dans les demonstrations on va s'interesser seulement aux proprietes asymptotiques de
m^ + ( ). Celles de m^ ,( ), seront deduites en changeant les indices " + " en " , ".
Theoreme 1.1. Supposons que les hypotheses A1-A3 sont satisfaites et que hn ! 0 et nhn !
+1. L'erreur quadratique moyenne conditionnelle admet le developpement asymptotique suivant :
h
IE (m^ ( ) , m ( )) j X1; : : : ; Xn
2
i
=
"
#
m(2)
( ) h2 B
2
n
2
+
2
(
)
1
2
4
+ nh f ( ) V+ + oP hn + nh :
n X
n
Preuve du theoreme 1.1
L'erreur quadratique moyenne conditionnelle de m^ + ( ) est donnee par :
h
i
Pn w ( ) (m(Xi) , m ( )) Pn ,w ( ) (Xi)
= i i Pn
+ i ,Pn i
;
w
(
)
i
i
i wi ( )
IE (m^ + ( ) , m+ ( ))2 j X1; : : : ; Xn
=1
+
2
+
=1
=1
+
=1
= (Bn+ )2 + Vn+ :
2
+
+
2
2
(1.8)
Bn+ represente le biais de m^ +( ) et Vn+ sa variance.
Bn =
+
=
Pn w ( ) (m(X ) , m ( ))
i
i
iP
;
n w ( )
i
i
Pn w ( ) (m(X ) , m ( ) , (X , )m 0( ))
iP
i
i
i
;
n w ( )
=1
+
+
=1
=1
+
+
+
+
+
i=1 i
La derniere egalite est due au fait que
n
X
i=1
wi+( )(Xi , ) = 0:
En remplacant les wi+ ( ) par leurs valeurs, Bn+ s'ecrit sous la forme suivante :
+
+
+
+
Bn+ = S2 (+ )R0 (+ ) , S1 (+)R1 (2 ) ;
S2 ( )S0 ( ) , (S1 ( ))
ou pour tout l = 0; 1; : : :
Sl+ ( ) =
n
X
i=1
( , Xi )lK+ ( , Xi );
hn
(1.9)
1.3. Estimation de l'amplitude lorsque la localisation est connue
25
et
R+l ( ) =
n
X
i=1
,
( , Xi)l K+ ( ,h Xi ) m(Xi ) , m+ ( ) , (Xi , )m+ 0 ( ) :
n
Cette deuxieme forme nous sera utile par la suite.
Vn =
+
Pn (w ( )) (X )
i,
Pn i w ( ) i ;
+
=1
2 2
2
+
i=1 i
+
+
+
+
2 +
S1+( ))2T2+ ( ) ;
= (S2 ( )) T0 (,) ,+2S2 (+ )S1 ( )T1+ ( )+(
S2 ( )S0 ( ) , (S1 ( ))2 2
avec
Tl ( ) =
+
n
X
i=1
(1.10)
( , Xi )l K+2 ( , Xi ) 2(Xi):
hn
Il decoule alors de (1.9) et du lemme 1.1 (a et b) ci-dessous que :
(2)
m
Bn = +2 ( ) h2n B+ + oP (h2n);
+
et de (1.10) et du lemme 1.1 (a et c) que
1 2
(
)
2
Vn = nh f ( ) V+ + oP nh :
n X
n
+
ut
Lemme 1.1. Soit x 2 (0; 1) et K () une fonction a support compact inclus dans [,1; 1]. Sous
les hypotheses que fX () et () sont continues en x et que m() admet une derivee seconde
2
continue en ce m^eme point x, alors nous avons pour tout l = 0; 1; : : :
a)
Sl (x) = nh(nl+1) fX (x) (Kl + oP (1)) ;
b)
Rl(x) = 21 m(2)(x)nh(nl+3)fX (x) (Kl+2 + oP (1)) ; x 6= c)
Tl(x) = nh(nl+1) fX (x)2(x) (Ll + oP (1)) ;
d) l (x) = OP
e)
n1=2hln+1=2 ;
Pn w (x) = n h f (x) ,K K , (K ) (1 + o (1)) :
i
P
n X
i
=1
2
4
2
2
0
1
2
26
CHAPITRE 1. ESTIMATION DES RUPTURES
Si les fonctions sont supposees continues sur [0; 1], alors les fonctions op (1) peuvent ^etre choisies
de maniere independante de x.
Remarque 1.3. Lorsque nous utilisons K () ou K,() et x = , la partie b) doit ^etre rem+
placee par la formule suivante :
+
l+3
R+l ( ) = 12 nhln+3 m(2)
+ ( )fX ( )Kl+2 + oP (nhn );
nous obtenons une formule analogue en changeant le \+" par un \-".
Preuve du lemme 1.1
1)
2)
Les demonstrations de certains de ces resultats peuvent ^etre trouves dans l'article de Fan et
Gijbels [FG92]. Nous donnons neanmoins les demonstrations de a) et b). Celles de c) et
d) sont analogues a celle de a).
P
La partie e) est une consequence immediate de la partie a), puisque ni=1 wi(x) = S2 (x)S0(x),
S12 (x):
On pose
Zi;1 = (x , Xi )l K ( x ,h Xi );
n
et
,
Zi;2 = ( , Xi)lK ( x ,h Xi ) m(Xi ) , m(x) , (Xi , x)m0(x) :
n
D'apres l'inegalite de Bienayme-Tchebyche nous avons
n
X
i=1
Zi;j = IE
!
n
X
i=1
Zi;j
0v
!1
u
n
X
u
+ OP @tV ar
Zi;j A ;
i
q
=1
= nIEZ1;j + OP
nIEZ12;j ;
avec
IEZ1;1 =
=
Z
hnl
ul K (u)fX (x , hn u)du ;
h(nl+1)fX (x) (Kl + o(1)) :
( +1)
1.3. Estimation de l'amplitude lorsque la localisation est connue
27
Cette derniere egalite resulte de la continuite de la fonction fX () au point x. Si fX () est continue sur le compact [0; 1], cette majoration devient uniforme par rapport a x.
IEZ ; = hn
2
11
l
(2 +1)
Z
u2lK 2 (u)fX (x , hn u)du ;
l+1) ;
= O h(2
n
d'ou
q
Sl(x) = nIEZ1;1 + OP nIEZ12;1 ;
= nh(nl+1) fX (x) (Kl + oP (1)) :
Pour IEZ1;2 et IEZ12;2, en developpant m(x , hn u) a l'ordre 2, nous obtenons :
IEZ1;2 =
hnl
( +1)
Z
Z
,
1
ul K+(u) m(x , hn u) , m(x) + hn um0(x) fX (x , hn u)du ;
(u) 2 u m (x)hn + o(hn ) fX (x , hn u)du ;
= 21 m(2)(x)h(nl+3)fX (x) (Kl+2 + o(1)) ;
=
hnl
( +1)
IEZ ; = hn
l
= hn
l
2
12
(2 +1)
(2 +1)
ul K
+
Z
Z
,
1
2
(2)
2
2
ul K+2 (u) m(x , hn u) , m(x) + hn um0(x) 2 fX (x , hn u)du ;
ul K 2 (u)
+
= O h2nl+5 :
2
2 u m (x)hn + o(hn ) fX (x , hn u)du ;
2
(2)
Nous en deduisons :
Rl(x) = nIEZ1;2 + OP
2
2
q
nIEZ12;2 ;
= 21 m(2)(x)nh(nl+3)fX (x) (Kl+2 + oP (1)) :
Ceci acheve la demonstration du lemme 1.1.
ut
Corollaire 1.1. Sous les m^emes hypotheses que celles du theoreme 1.1, nous avons
h
IE (^( ) , ( )) j X1; : : : ; Xn
2
i
=
"
#
( ) h 2 B + 2 2( ) V 2 + o h4 + 1 :
2 n +
nhn fX ( ) + P n nhn
(2)
2
28
CHAPITRE 1. ESTIMATION DES RUPTURES
Preuve du corollaire 1.1
Remarquons tout d'abord que m^ + ( ) et m^ , ( ) sont independants conditionnellement a X1 ; : : : ; Xn .
Puisque ^( ) , ( ) = (m^ + ( ) , m+ ( )) , (m^ , ( ) , m, ( )) on a alors :
1)
Bn = (IE [^( )jX1; : : : ; Xn ] , ( ))2 = (Bn+ , Bn, )2 ,
2)
Vn = V ar [^( )jX1; : : : ; Xn] = Vn+ + Vn, .
Utilisons les arguments de la n de la demonstrations du theoreme 1.1 nous en deduisons le
corollaire 1.1.
ut
1.3.3 Normalite Asymptotique
Theoreme 1.2.
a)
Supposons que les hypotheses du theoreme 1.1 sont satisfaites et qu'il existe > 0 tel que
IE(j " j2+ ) < 1, alors :
p
b)
nhn
m^ ,( ) , IE[m^ ,( ) j X1; : : : ; Xn]
m^ +( ) , IE[m^ +( ) j X1; : : : ; Xn]
Si de plus nous avons nh5n ! 0, alors
p
nhn
m^ , ( ) , m,( )
m^ + ( ) , m+( )
!
!
( ) fX ( ) V I :
L N 0;
,!
2
2
+
2
( ) fX ( ) V I :
L N 0;
,!
2
2
+
2
ou I2 est la matrice identite d'ordre 2.
Preuve du theoreme 1.2
Il sut de montrer (theoreme de Cramer-Wold) que pour tout a et b, am
^ + ( ) + bm
^ ,( ) est
asymptotiquement normal.
Tout d'abord notons que gr^ace au lemme 1.1, nous pouvons ecrire
a (m
^ , ( ) , IE[m
^ , ( ) j X1; :::; Xn]) + b (m^ + ( ) , IE[m
^ + ( ) j X1; :::; Xn])
P
n (aw, ( ) + bw+ ( )) (X )"
i i (1 + o (1)):
= i=1 i 2 4 2 i
P
n h f ( )
n X
(1.11)
1.3. Estimation de l'amplitude lorsque la localisation est connue
29
En utilisant a) et d) du lemme 1.1 nous obtenons
n
X
i=1
wi+ ( )(Xi)"i = S2+ ( )0+( ) , S1+( )1+( );
= nh3n fX ( )K2+0+ ( ) , nh2n fX ( )K1+1+ ( ) + oP n3=2h7n=2 ;
= nh2n fX ( )
ou
n
X
i=1
3=2 7=2
i + oP n hn ;
+
, X ,
i
i = hn K , ( , Xi)K K
hn (Xi)"i:
P
En traitant de la m^eme maniere ni wi, ( ) (Xi)"i , nous en deduisons
n ,
n ,
X
X
awi, ( ) + bwi ( )) (Xi)"i = nhn fX ( )
a ,i + b i + oP n = hn= ;
i
i
n
= =
X
+
+
2
+
1
+
=1
+
2
+
=1
3 2
7 2
=1
= nh2n fX ( )
ou i est de ni par i = a
, + b +.
i
i
i=1
i + oP
n3 2h7n 2 ;
Remarquons que IE( ,i +i ) = 0, ce qui implique que +i et ,i sont des variables aleatoires
centrees non correlees. Sachant que Xi et "i sont independants, avec des arguments similaires a
ceux employes dans la demonstration du lemme 1.1, nous obtenons
V ar( i ) = IE
+
,
, X i
hn K , ( , Xi)K K
hn (Xi ) ;
Z
+ 2
1
+
2
= h3n 2 ( )fX ( )
0
,1
2
+
2
(K2+ , uK1+ )2K+2 (u) du (1 + o(1)) ;
= h3n 2 ( )fX ( )V+2 + o(h3n );
et idem pour ,i quitte a changer K+ () en K, ().
D'ou
V ar( i) = h3n 2( )fX ( )(a2V,2 + b2V+2) + o(h3n ):
(1.12)
Nous allons maintenant prouver que le tableau triangulaire ( i) satisfait les conditions de
Lindeberg dont nous avons besoin pour appliquer le theoreme central limite de Liapounov.
n
X
i=1
IE(j ij2+ ) = nIE(jZ1j2+ )IE(j"1j2+ );
(1.13)
30
CHAPITRE 1. ESTIMATION DES RUPTURES
ou Z1 = aZ1, + bZ1+ , avec
,
,
Z1+ = hn K2+ , ( , X1 )K1+ K+ ( ,h X1 ) (X1);
et
n
Z1, = hn K2, , ( , X1 )K1, K, ( ,h X1 ) (X1):
n
Un calcul analogue conduit a
IE(j i j
2+
)
C a
h3+ 2+ ( )f ( )
X
n
2+
2+
+ b2+ h3+
n ( )fX ( )
+ o hn ;
Z
0
Z,
jK , , uK ,j K, (u) du
1
0
2
,1
1
2+
2+
jK , uK j K (u) du
+
2
+ 2+
1
2+
+
3+
= O h3+
:
n
, .
P
Donc ni=1 IE(j ij2+ ) = O nh3+
n
Revenons maintenant au calcul de la variance : (1.12) implique
n
X
V ar(
i=1
i ) = nhn 3
2
,
( )fX ( ) a2V,2 + b2V+2 + o(nh3n ):
(1.14)
,
P
P
D'ou il vient que ni=1 IE(j ij2+ )= (V ar ni=1 i )(2+)=2 = O (nhn ),=2 .
Pour terminer la demonstration, nous ecrivons le terme dominant de l'equation (1.11) comme
suit :
Pn (aw,( ) + bw ( ))(X )"
i i
i
i
i
=1
+
n2 h4n fX2 ( )
P
(1 + oP (1)) ( ni=1 i )
= p
,
:
P
nhn (V ar( ni=1 i ))1=2 fX ( )=(a2V, + b2V+ )2( ) 1=2
Nous obtenons ainsi la partie a) du theoreme comme consequence du theoreme central limite
de Liapounov.
, D'apres le theoreme 1.1 nous avons (IE[m
^ + ( ) j X1; : : : ; Xn] , m+ ( )) = OP h2n , nous en
deduisons immediatement la partie b) du theoreme.
ut
1.3. Estimation de l'amplitude lorsque la localisation est connue
31
Corollaire 1.2.
a)
Supposons que les hypotheses du theoreme 1.1 sont satisfaites et qu'il existe > 0 tel que
IE(j " j2+ ) < 1, alors nous avons
p
b)
L N 0; 22 ( ) V 2
nhn (^( ) , IE [^( ) j X1; : : : ; Xn]) ,!
fX ( ) +
:
Si de plus nous avons nh5n ! 0, alors
p
nhn (^( ) ,
L N 0; 22 ( ) V 2
( )) ,!
fX ( ) +
:
Preuve du corollaire 1.2
Puisque ^ ( ) = m^ ( ) , m^ , ( ), la partie a) est donc une consequence immediate de la partie
+
du theoreme 1.2. Sachant aussi que le biais de ^( ) a le m^eme comportement que celui de
m^ + ( ) ou celui de m^ , ( ) , nous en deduisons donc la partie b).
ut
a)
Dans la pratique, les quantites fX ( ) et ( ) sont en general inconnues. Les resultats du
corollaire 1.2 ne sont donc pas directement exploitables. En revanche, on peut remplacer fX ( )
et 2( ) par des estimateurs consistants, d'ou le corollaire suivant. Notons que , par exemple, on
peut utiliser la methode du noyau pour obtenir un estimateur consistant du premier parametre,
et l'estimateur propose par Muller et Stadmuller [MS87], pour le deuxieme parametre.
Corollaire 1.3. Soient f^X ( ) et ^ ( ) deux estimateurs consistants de fX ( ) et ( ). L'estimateur
2
2
f^X ( ) est suppose positif. Sous les m^emes hypotheses que celles du corollaire 1.2, nous avons
p
q
nhn
f^X ( ) (^ ( ) , ( )) L , 2 ,! N 0; V+ :
(2^ 2( ))1=2
(1.15)
Comme consequence immediate de ce corollaire, un intervalle de con ance, approche, au seuil
de ( ) est donne par la formule suivante :
2^ 2( ) V 2
^( ) pq
nhn f^X ( ) +
!=
ou q est le (1 , =2){quantile de la loi normale standard.
1 2
;
32
CHAPITRE 1. ESTIMATION DES RUPTURES
Comme nous l'avons mentionne dans la remarque 1.1, il est possible de prendre en compte le
fait que les fonctions fX () et/ou () sont discontinues au point . En general, ceci n'est pas une
hypothese realiste pour la fonction fX (). En revanche, dans la pratique, il arrive frequemment
que le point soit aussi un point de rupture pour la fonction (). Les modi cations a apporter
pour traiter le cas ou les fonctions fX () et () sont discontinues au point , peuvent ^etre
deduites facilement en lisant les demonstrations. Supposons que est un point de rupture des
fonctions fX () et (), alors l'erreur quadratique moyenne conditionnelle de l'amplitude de la
rupture ^( ) est donnee par (comparer avec corollaire 1.1) :
h
"
IE (^( ) , ( ))2 j X1; : : : ; Xn
=
#
i
( ) h 2 B + 1 +2 ( ) + ,2 ( ) V 2 + o (h4 + 1 ):
2 n +
nhn f+ ( ) f,( ) + P n nhn
(2)
2
Dans le theoreme 1.2 la matrice de covariance asymptotique reste diagonale, mais avec
V ,2 ( )=f,( ) et V+2 +2 ( )=f+( ) comme termes
( ) dela,(diagonale.
2 Par consequent la variance
)
asymptotique dans le corollaire 1.2 devient f ( ) + f, ( ) V+ .
2
+
2
+
2
+
1.4 La situation ou la localisation de la discontinuite est inconnue
Pour tout t 2 [0; 1], posons
^(t) = m
^ + (t) , m
^ , (t):
Intuitivement, la localisation du maximum de ces di erences peut ^etre un bon estimateur du
point de la discontinuite de la fonction de regression m(). Ainsi nous proposons comme estimateur de :
^ = inf ft 2 ; ^ (t) = sup ^(x)g;
x2
(1.16)
ou un compact inclus dans ]0; 1[.
Comme estimateur de l'amplitude de la discontinuite, il est naturel de poser :
^ (^ ) = m
^ + (^ ) , m
^ , (^ ):
(1.17)
1.4. La situation ou la localisation de la discontinuite est inconnue
33
La restriction a a pour but d'eliminer les extremites de l'intervalle car elles sont considerees
comme des points de rupture. Dans toute la suite, nous supposons que 2]0; 1[.
La gure 1.2 illustre l'action de la RLL separement sur la partie signal et sur la partie bruit.
On note sur l'exemple une amelioration du rapport signal sur bruit suite au lissage e ectue.
Dans ce travail nous designons par rapport signal sur bruit le rapport entre l'amplitude de la
rupture et l'ecart-type du bruit :
RSB = j (( ))j :
En pratique ni le signal ni le bruit ne sont accessibles et on a inter^et a ce que l'amelioration d^ue
au lissage soit la plus forte possible. La partie droite de la gure 1.2 donne les representations
du processus du saut calcule sur le signal echantillonne aux points Xi (en haut a droite, ^m ())
et sur le bruit aux points Xi (en bas a droite, ^" ()). Le processus de saut ^() = ^m () + ^" ()
est reconstitue dans la partie centrale droite.
Pour etudier la distribution asymptotique de ^ et ^ (^ ), nous introduisons le processus de
deviation locale suivant :
Zn (z) =
=
h
n
(n; hn ) ^ + (n; h ) z , ^( ) ;
n
(n; hn ) (^ ( + hn y ) , ^ ( )) ;
8z 2 [,M; M ];
ou nous posons y = z= (n; hn), M etant une constante positive quelconque.
L'idee du recours a ce processus de deviation locale semble ^etre due a Eddy [Edd82] qui
l'a utilisee pour estimer le mode d'une densite. Avec des choix convenables pour (n; hn ) et
(n; hn ), nous montrons que Zn (z ) converge vers un processus Z (z ). Il s'ensuit que zmax (n) =
arg sup Zn (z ) converge vers zmax = arg sup Z (z ). De ces convergences decoulent des informaz
z
hn zmax (n) que nous explicitons plus loin.
tions sur la vitesse de convergence de ^ = + (n;h
n)
1.4.1 Approximation par la somme des elements d'une ligne d'un tableau
triangulaire
Nous avons
Zn(z) = Zn (z) , Zn,(z);
+
CHAPITRE 1. ESTIMATION DES RUPTURES
γ^m ( . )
Signal
1
5
0.8
4
R.L.L.
3
0.6
0.4
2
0.2
1
0
0
−1
−0.2
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
−0.4
0.1
1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1.5
8
6
1
4
R.L.L
+
0.5
+
2
0
0
−0.5
−2
−4
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
Observations
R.L.L.
2
1
0.2
0.3
0.4
0.5
^
γ(.)
4
3
−1
0.1
0.6
0.7
0.8
0.9
0.8
0.6
0.4
0.2
0
0
−1
−0.2
−2
−0.4
−3
−0.6
−4
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
−0.8
0.1
0.2
0.3
0.4
34
Bruit
Figure 1.2 : Localisation d'une rupture dans un modele de regression additif par R.L.L : Demonstration
0.5
0.6
^
γε ( . )
0.7
0.8
0.9
1.4. La situation ou la localisation de la discontinuite est inconnue
ou on peut ecrire
Zn (z) =
+
=
35
Pn w ( + hn y)yi Pn w ( )y (n; hn ) Pi n i
, Pi n wi ( ) i ;
w
(
+
h
y
)
Pn i(w (i + h yn) , w ( ))(i y ,i m ( ))
i
i P n
i
(n; hn ) i
n w ( + h y )
Pn wi ( )(iy , m n( )) Pn w ( + h y) , w ( ) n
i Pi
i
, (n; hn ) i Pi n wi ( )
;
n w ( + h y )
=1
+
+
=1
=1
+
=1
=1
+
+
=1
=1
+
+
+
+
+
+
=1
+
+
i=1 i
= An , Bn Cn
+
n
i=1 i
(1.18)
Or nous avons
wi+ ( + hn y) , wi+( )
= S2+ ( + hn y ) , S2+ ( ) K+ ( ,h Xi ) , S1+ ( + hn y ) , S1+ ( ) ( , Xi )K+ ( ,h Xi )
n
+ h y , nX
,
X
i)
n
i) , K (
+ S2+ ( + hn y ) K+ (
+
h
h
n
n
+
h
y
,
X
,
X
n
i
i
+
, S1 ( + hny) ( + hn y , Xi)K+(
) , ( , Xi )K+ ( h ) :
h
n
n
Il vient donc, pour les numerateurs de An et Cn , les ecritures suivantes qui nous seront utiles
par la suite :
n
X
i=1
wi+( + hn y ) , wi+( )
= S2+ ( + hn y ) , S2+ ( ) S0+ ( ) , S1+ ( + hn y ) , S1+ ( ) S1+ ( )
(1.19)
+ S0+ ( + hn y ) , S0+ ( ) S2+ ( + hn y ) , S1+ ( + hn y ) , S1+ ( ) S1+ ( + hn y );
et
n
X
(wi+ ( + hn y ) , wi+ ( ))(yi , m+ ( ))
i=1
= S2+ ( + hn y ) , S2+ ( ) D0+ ( ) , S1+ ( + hn y ) , S1+ ( ) D1+ ( )
(1.20)
+ D0+ ( + hn y ) , D0+ ( ) S2+ ( + hn y ) , D1+ ( + hn y ) , D1+ ( ) S1+ ( + hn y );
ou
Dl (x) =
+
n
X
i=1
(x , Xi )l K+ ( x ,h Xi )(yi , m+ ( )):
n
Les resultats qui vont suivre sont enonces sous certaines des hypotheses suivantes :
36
CHAPITRE 1. ESTIMATION DES RUPTURES
lim h = 0 et nlim
nh
n!1 n
!1 n
hn = 0 et lim
H2. lim (n;h
n)
n!1
n!1
H1.
= 1.
(n; hn ) = 1.
H3-0.
K+(0) = K+(,1) = 0 et K+(1)(0) < 0.
H4-0.
K+(0) > 0 et K+ (,1) = 0.
Lemme 1.2.
a)
Sous les hypotheses H1 et H2,
Sl+ ( + hn y ) = nhln+1 fX ( )(Kl+ + op(1)):
b)
Sous les hypotheses H1,
H2
et H3-0,
p l !
nhl n
n
Sl ( + hn y ) , Sl ( ) = O (n; h ) + OP (nh
n;
hn ) :
n
+
2 +1
+1
+
2
c)
Sous les hypotheses H1,
H2
et H4-0,
0s
1
nhl l
n A:
Sl ( + hn y ) , Sl ( ) = O (n;nh ) + OP @ nh
(
n;
hn )
n
+
d)
Sous l'hypothese H1,
2 +1
+1
+
Dl ( ) = O
+
nhln+2
+ OP
q
nhnl
2 +1
:
Preuve du lemme 1.2
Voir la demonstration du lemme 1.1.
b) Nous avons
a)
IE Sl ( + hn y ) , Sl ( )
+
+
=
nhln+1
Zh
i
(x + y )l K (x + y ) , xlK (x) fX ( , hn x)dx ;
Z,
+
+
1
= nhln+1
(x + y )l K+ (x + y )fX ( , hn x)dx
,1,y
Z ,y h
i
+ nhln+1
(x + y )l K+ (x + y ) , xl K+ (x) fX ( , hn x)dx
, nhln
+1
Or sous H1,
H2
et H3-0, nous avons
Z,
1
0
,y
xl K+ (x)fX ( , hn x)dx :
1.4. La situation ou la localisation de la discontinuite est inconnue
Z,
1
,Z1,y
y
=
=
(x + y )l K+ (x + y )fX ( , hn x)dx
(x , 1 , y )l K+ (x , 1 , y )fX ( , hn (x , 1 , y ))dx ;
Z yh
0
0
37
i
(,1)l K+ (,1) + O(y ) [fX ( ) + o(1)] dx ;
, = O y2 ;
,
= O 1= 2(n; hn ) :
Un calcul similaire conduit a
Z
0
,y
,
xlK+ (x)fX ( , hn x)dx = O 1= 2 (n; hn) :
Un developpement de Taylor a l'ordre 2 au voisinage de x implique que
Z ,y h
,Z1
=
i
(x + y )l K+ (x + y ) , xl K+ (x) fX ( , hn x)dx
,y y
,,1
xl K
0
+
(x) + O(y ) [fX ( ) + o(1)] dx ;
2
= O y2 ;
,
= O 1= 2(n; hn ) :
Il en resulte que sous H1, H2 et H3-0
IE Sl ( + hn y ) , Sl ( )
+
+
=
nhl O (n;n h ) :
n
+1
2
D'autre part en utilisant les m^emes arguments que ceux utilises ci-dessus, nous obtenons
V ar Sl ( + hn y ) , Sl ( )
+
D'ou sous H1, H2 et H3-0,
Sl+ ( + hn y ) , Sl+( ) =
c)
+
=
nh l O (n;n h ) :
n
2 +1
2
p l !
nhl n
O (n;n h ) + OP (nh
n; hn) :
n
+1
2
Sous H1, H2 et H4-0, nous avons:
R
, hn x)dx = O ,1= (n; hn),
R
2) ,y xl K (x)fX ( , hn x)dx = O (1= (n; hn)),
1) ,,11,y (x + y )l K+ (x + y )fX (
0
+
2
2 +1
38
CHAPITRE 1. ESTIMATION DES RUPTURES
R h(x + y)lK (x + y) , xlK (x)i f ( , h x)dx = O (1= (n; h )).
X
n
n
3) ,,1y
+
+
Nous en deduisons que sous H1, H2 et H4-0
IE Sl+ ( + hn y ) , Sl+ ( ) = O
nhl n
(n; hn) :
+1
De la m^eme maniere, nous obtenons que sous H1, H2 et H4-0
V ar Sl ( + hn y ) , Sl ( )
+
+
= O
nh l 2 +1
n
(n; hn ) :
Donc sous H1, H2 et H4-0,
0s
1
nhl l
n A:
Sl ( + hn y) , Sl ( ) = O (n;nh ) + OP @ nh
(
n;
hn )
n
+
d)
Puisque nous avons,
IE Dl ( )
+
=
nhln+1
Z
2 +1
+2
+
xl K+ (x) (m( , hnx) , m+ ( )) fX ( , hn x)dx ;
= O nhln+2 ;
et
Z
h
i
l
V ar Dl ( ) nhn
x lK (x) (m( , hnx) , m ( )) + ( , xhn ) fX ( , hn x)dx ;
l +
2 +1
2
2
+
2
+
2
= O nh2n +1 ;
alors
Dl ( ) = O
+
nhln+2
+ OP
q
nhnl
2 +1
:
ut
Le lemme suivant precise le comportement des termes intervenant dans An , Bn , Cn de nis
en (1.18). Le noyau M+ () qui intervient dans la de nition du processus Mn (z ) est de ni par :
M+ (x) = (K2+ , xK1+ )K+(x):
M+ () s'appelle le noyau equivalent. Il a ete introduit par Lejeune [Lej85]. On de nit de la
m^eme facon le noyau equivalent pour K, () :
M, (x) = (K2, , xK1, )K,(x) = M+ (,x);
et on pose
M (x) = M+ (x) , M,(x):
1.4. La situation ou la localisation de la discontinuite est inconnue
7
4
6
3
5
39
2
4
1
3
0
2
−1
1
0
−1
−0.8
−0.6
−0.4
−0.2
−2
−1
0
7
6
6
5
5
4
4
3
3
2
2
1
1
0
0
−1
−0.8
−0.6
−0.4
−0.2
−1
−1
0
−0.8
−0.6
−0.4
−0.2
0
−0.8
−0.6
−0.4
−0.2
0
Figure 1.3 : Exemples de noyaux equivalents utilises dans nos simulations. On montre K ()
(a gauche) et M () (a droite). Il s'agit dans le premier exemple (en haut a gauche) du noyau
p
de Epanechnikov translate (K (x) = ,12 5x(1 + x)1I , ; (x)) et dans le deuxieme exemple du
p
noyau d'Epanechnikov (K (x) = 12 5=19(1 , x )1I , ; (x)).
+
+
+
+
[ 1 0]
2
[ 1 0]
Table 1.1 : Exemples de noyaux equivalents utilises dans nos simulations. Les noyaux K ()
+
sont normalises de maniere a veri er la contrainte (1.3).
K+()
M+ ()
B+
p
,12 5x(x +1)1I[,1;0](x) ,12x(3+5x)(1+ x)1I[,1;0](x) , 51
p
12 5=19(1 , x2)1I[,1;0](x) 194 (24+45x)(1 , x2)1I[,1;0](x) , 11
95
Lemme 1.3.
a)
Sous les hypotheses H1 et H2,
Pn w+( + h y) = n2h4 f 2 ( )(1 + o (1)).
n
p
n X
i=1 i
V+2
192
35
56832
12635
40
b)
CHAPITRE 1. ESTIMATION DES RUPTURES
Sous les hypotheses H1,
et H3-0 :
H2
et H4-0 :
hn y),wi+ ( ) = O 1 + p 1
P
+
2 (n;h )
nhn (n;hn ) ,
n
=1 wi ( +hn y )
Pn (w+( +h y),w+ ( ))(y ,m ( )) 1+oP (1) +
2) (n; hn ) i=1 i Pn n w+ (i+h y) i +
= fX ( ) Mn (z )
i
h (n;hn) i=1 (in;hn) n i h
1
.
+ OP 2 (n;hn ) + pnhn (n;hn ) hn + pnh
n
1)
c)
H2
Pni
Pwnii
+
=1
( +
Sous les hypotheses H1,
Pni
+
+
Pwni=1i (w +i+h(n+y)h,nwy)i ( ) = OP (n;h1 n) + pnhn 1(n;hn) ,
1)
Pn (w+( +h y),w+ ( ))(y ,m ( )) 1+oP (1) +
2) (n; hn ) i=1 i Pn n w+ (i+h y) i +
= fX ( ) Mn (z )
n i=1 i
h
i
(n;hn )
(n;hn )
1
+ pnhn (n;hn ) hn + pnhn .
+ OP
(n;hn )
=1
d)
Sous
P l'hypothese H1,
n w+ ( )(yi,m+ ( ))
i=1 i
n w+ ( )
i=1 i
P
1
.
= OP h2n + pnh
n
Mn (z) est de ni par : Mn (z) = nhn;hnn Pni M ( +
+
(
)
=1
+
hn y,Xi ) , M ( ,Xi )
+
hn
hn
+
(Yi , m+ ( )).
Preuve du lemme 1.3
P
Puisque ni=1 wi+ ( + hn y ) = S2+ ( + hn y )S0+ ( + hn y ) , (S1+ ( + hn y ))2 , la partie a) du
lemme 1.3 decoule directement de la partie a) du lemme 1.2.
b) La partie b) du lemme 1.3 est une consequence immediate de (1.19), (1.20) et des parties a),
b) et d) du lemme 1.2.
En e et sous les hypotheses H1, H2 et H3-0, nous avons
a)
n
X
i=1
wi+ ( + hn y) , wi+( )
= S2+ ( + hn y ) , S2+ ( ) S0+ ( ) , S1+ ( + hn y ) , S1+ ( ) S1+ ( )
+ S0+ ( + hn y ) , S0+ ( ) S2+ ( + hn y ) , S1+ ( + hn y ) , S1+ ( ) S1+ ( + hn y );
= OP
et
"
p
#
!
nh3n + nh5n nh ;
2 (n; h )
(n; hn ) n
n
n
X
i=1
wi+ ( + hn y ) = n2 h4n fX2 ( ) (1 + op(1)) :
Il en resulte que sous H1, H2 et H3-0,
1.4. La situation ou la localisation de la discontinuite est inconnue
Pn w ( + h y) , w ( )
1
1
n
i Pi
i
p
= OP
n w ( + h y )
(n; hn) + nhn (n; hn) :
n
i
i
+
=1
D'autre part
41
+
=1
+
2
n
X
(wi+ ( + hn y ) , wi+ ( ))(yi , m+ ( ))
i=1
= S2+ ( + hn y ) , S2+ ( ) D0+ ( ) , S1+ ( + hn y ) , S1+ ( ) D1+ ( )
+ D0+ ( + hn y ) , D0+ ( ) S2+ ( + hn y ) , D1+ ( + hn y ) , D1+ ( ) S1+ ( + hn y );
p
!
3
nh5n hO ,nh2 + O pnh i
n +
= OP 2 (nh
P
n
n
n; hn) (n; hn )
+ D0+ ( + hn y ) , D0+ ( ) nh3n fX ( )(K2+ + op (1))
, D1+ ( + hn y) , D1+( ) nh2n fX ( )(K1+ + op(1));
n2 h5 3
+
= nhn fX ( ) (1 + op (1)) Mn (z ) + OP 2 (n; hn )
n
!
nh3 9
=
2
3=2
2 4
n
h
n
h
n
n
+ OP (n; hn ) :
+ OP (n; h ) + OP p
2 (n; h )
nh
n
n
n
n
D'ou sous les hypotheses H1, H2 et H3-0,
Pn (w ( + h y) , w ( ))(y , m ( ))
i
i P n
i
(n; hn ) i
n w ( + h y )
n
i i
1 + oP (1)
(n; hn )
(n; hn )
=1
+
+
=1
+
+
= f ( ) Mn (z ) + OP
X
+
2
p
(n; hn) + nhn (n; hn )
Un calcul similaire conduit a la partie c).
d) La partie d) provient du theoreme 1.1.
Ceci termine la demonstration du lemme.
hn + p 1
nhn
:
c)
ut
A n d'etablir le resultat enonce dans le lemme 1.4, nous aurons recours a l'un ou l'autre des
groupes d'hypotheses suivants :
1)
H3-0.
H3-1.
H3-2.
2)
K+(0) = K+ (,1) = 0 et K+(1)(0) < 0.
lim (n;hn )hn = L1 < 1.
n!1 (n;hn )
(n;hn )
0 < nlim
!1 (n;hn ) = L2 < 1.
2
H3-3.
(n;hn )
= L3 < 1.
lim
n!1 nhn (n;hn )
H4-0.
K+ (0) > 0 et K+ (,1) = 0.
2
2
42
CHAPITRE 1. ESTIMATION DES RUPTURES
H4-1.
H4-2.
(n;hn )
0 < nlim
!1 (n;hn ) = L4 < 1.
lim (n;hn )
n!1 nhn
= L5 < 1.
Dorenavant nous utiliserons H3 pour designer les hypotheses H3-0,
pour les hypotheses H4-0, H4-1 et H4-2.
H3-1, H3-2
et H3-3 et H4
Si H4 est satisfaite, nous posons egalement
2
(n; hn ) = L L = L < 1:
lim
4
5
6
n!1 nhn (n; hn )
Lemme 1.4. Sous les hypotheses fH1,
H2
et H3g ou fH1,
H2
et H4g,
,M (z) , M, (z) + o (1) ;
Zn(z) = (1 +f o(P(1))
P
n
n
X )
oP (1))
= (1 +
f ( ) Mn (z ) + oP (1) ;
+
X
ou on a pose Mn (z ) = M+n (z ) , M,n (z ).
Dans la suite nous montrons la convergence de Mn (z ) vers un processus qui sera soit un
processus gaussien degenere, soit un processus de Poisson compose bilateral. Pour cela nous montrons tout d'abord la convergence cylindrique en dimension 2 : aMn (z1 ) + bMn (z2) converge
vers une loi normale ou une loi de Poisson composee, et les parametres de ces lois permettront
d'identi er les parametres des processus limites. Finalement la demonstration de la convergence
est terminee en montrant que la suite des processus (Mn (z )) est tendue.
Pour demontrer la convergence en loi de aMn (z1) + bMn(z2 ), nous observons qu'il s'agit de
la somme des termes d'une ligne d'un tableau triangulaire. En e et
Mn(z) = Mn (z) , M,n (z);
+
ou
Mn (z) =
=
n
(n; hn ) X
+ hn y , Xi ) , M ( , Xi ) (Y , m ( )) ;
M
(
h
i
nh
h
n
X
i=1
n
i=1
Mi (z ):
n
n
1.4. La situation ou la localisation de la discontinuite est inconnue
Il en resulte que
Mn(z) =
=
n ,
X
i=1
n
X
i=1
43
Mi+ (z) , Mi, (z ) ;
Mi (z);
et
aMn (z1 ) + bMn(z2 ) =
n
X
i=1
(aMi (z1 ) + bMi (z2)) ;
ou nous avons note Mi (z ) = Mi+ (z ) , Mi, (z ). Les variables Mi (z ), Mi+ (z ) et Mi, (z ) dependent
en realite de n, mais pour alleger les ecritures nous omettons l'indice n. Posons egalement
Tin = aMi (z1) + bMi(z2 ):
P
Nous montrons la convergence de ni=1 Tin , en recourant au resultat classique de convergence
de Gnedenko [GK68] vers des lois inde niment divisibles que nous rappelons ci-dessous :
Theoreme 1.3 (Gnedenko [GK68, page 100])
P R u x dF~ (x) ou F~ () est la fonction de repartition de T~n = T n , IE(T n).
Soit ,n (u) = ni ,1
ni
ni
i
i
i
=1
2
Supposons que le tableau (Tin ) satisfait la propriete :
8 > 0; sup IP jT~inj > ! 0 (n ! 1):
1
in
Alors ,n (u) tend vers une fonction ,(u) croissante, a variation bornee, si et seulement si
P
P
V ar ( ni=1 Tin) converge et ni=1 Tin converge en loi. La loi limite est alors inde niment divisible, de fonction caracteristique associee () veri ant :
Z
log (t) = it + (exp(itu) , 1 , itu) 12 ,(du) ;
ou est la moyenne, (et
u
P
= IE ( ni Tin )).
=1
La convergence de ,n () sera etudiee separement dans les deux cas K+ (0) = 0 et K+ (0) > 0.
Pour etudier cette convergence, nous introduisons les notations :
1) g (x; z ) = M (x + y ) , M (x) = M (x +
2) g1 (x; z ) = g (x; z ) (m(
3)
, xhn ) , m ( )),
g1(x; z) = g1+(x; z ) , g1,(x; z ),
z
n;hn ) ) , M (x),
(
44
CHAPITRE 1. ESTIMATION DES RUPTURES
4) g2 (x; z ) = g (x; z ) (m( , xhn ) , m ( ) + ( , xhn )"),
5)
g2 (x; z) = g2+(x; z) , g2, (x; z ),
6)
An =
Pn IE [T n ],
i
i
h
P
7) , (u) = n IE (T n , IE (T n )) 1I
n
i
=1
i=1
i
2
i
fTin,IE(Tin)ug ,
ou 1IA () est la fonction indicatrice de l'ensemble A.
Suite aux de nitions ci-dessus, nous avons
An =
et
2
,n (u) =
Z
(n; hn ) (ag1(x; z1) + bg1(x; z2))fX ( , xhn )dx ;
(n; hn ) Z IE
nh
"
n
hn A
ag2(x; z1) + bg2(x; z2) , (n:h
n
n)
1If
n:hn )
1
nhn (ag2 (x;z1 )+bg2 (x;z2 )), n An ug
(
2
fX ( , xhn )dx :
Nous commencons par etudier dans le paragraphe suivant la situation ou le noyau s'annule
en zero (K+(0) = 0).
1.4.2 La situation ou le noyau s'annule en zero
Sous les hypotheses H1,
a)
Si x < ,y < 0 ou x < 0 < ,y ,
1)
b)
g1(x; z )fX ( , xhn ) = ,
2)
g2(x; z ) ,
1)
g1(x; z )fX ( , xhn ) =
hn z xM (1)(x)m(1)( )fX ( ) + o( hn ),
+
n;hn ) +
(n;hn )
(
hn
n;hn ) An
z ( )"M (1)(x) + oP ( 1 ).
= (n;h
+
(n;hn )
n)
Si ,y < 0 < x ou 0 < ,y < x,
(
hn z xM (1)(x)m(1)( )fX ( ) + o( hn ),
,
n;hn ) ,
(n;hn )
(
z ( )"M (1)(x) + oP ( 1 ).
= , (n;h
,
(n;hn )
n)
Si ,y < x < 0 ou 0 < x < ,y ,
2)
c)
et H3, par un developpement de Taylor, nous obtenons :
H2
g2(x; z ) ,
hn
n;hn ) An
(
1.4. La situation ou la localisation de la discontinuite est inconnue
1)
g1(x; z)fX ( , xhn) = , ( )fX ( )(x + y)M,(1)(0) + o(
2)
g2 (x; z ) ,
(
45
n;hn ) ),
1
hn
1
n;hn ) An = OP ( (n;hn) ).
(
d'ou
(n; hn )hn (az1 + bz2 ) (1)( )f ( )
X
(n; hn )
(n; hn)hn (n; hn) 2
2
(
n;
h
)(
az
(1)
n
1 + bz2 )
+
2 2 (n; hn ) M+ (0) ( )fX ( ) + o
(n; hn ) + o 2 (n; hn ) :
Nous en deduisons
An =
Lemme 1.5. Sous les hypotheses H1, H2 et H3, alors, quand n ! 1, nous avons :
a) An ! L (az + bz )
( )fX ( ) + L az bz M (0) ( )fX ( ),
b) ,n (u) ! ,(u),
1
ou
1
2
2(
(1)
2
1+
2
2
2)
(1)
+
8
<
0
,(u) = :
R
2L (az + bz ) fX ( ) ( ) (M (x)) dx
3
1
2
2
(1)
+
2
2
si u < 0;
si u 0:
Nous avons egalement
sup IP [jaMi(z1 ) + bMi (z2) , IE [aMi (z1) + bMi(z2 )] j ]
in
1
= IP [hjaM1 (z1) + bM1 (z2) , IE [aM1 (z1 ) + bM1(z2 )] j i ] ;
IE (aM1(z1 ) + bM1 (z2) , IE [aM1 (z1 ) + bM1(z2 )])2
,nn(1) ! 0 (n ! 1):
;
2
2
D'ou
Lemme 1.6. Sous les hypotheses H1, H2, H3 et pour tout > 0, nous avons
sup IP [jaMi (z ) + bMi (z ) , IE [aMi (z ) + bMi (z )] j ] ! 0;
quand n ! 1
1
in
1
2
1
2
D'apres Gnedenko [GK68], les lemmes 1.5 et 1.6 montrent que aMn (z1 ) + bMn (z2) admet
une limite en loi. La loi limite est la loi normale de moyenne et de variance donnee par le lemme
1.5. D'ou nous avons demontre la convergence cylindrique, sous les hypotheses H1, H2 et H3,
du processus Mn vers un processus gaussien M de ni par :
46
CHAPITRE 1. ESTIMATION DES RUPTURES
i)
ii)
IE [M(z )] = L1 z
( )fX ( ) + L 2z M+(1)(0) ( )fX ( );
(1)
2
2
R
Cov (M(z1); M(z2)) = 2L3z1 z2fX ( ) 2( ) ,01 (M+0 (x))2dx :
Puisque
Zn(z) = 1 +f o(P(1)
) Mn (z );
X
alors
Zn (z) ) Z (z);
ou Z est un processus gaussien, avec
i)
ii)
IE [Z (z )] = L1 z
(1)
( ) + L 2z M+(1)(0) ( );
2
2
R
Cov (Z (z1); Z (z2)) = 2L3z1z2 fX(()) ,01 (M+ 0 (x))2dx ;
2
Lemme 1.7. Sous les hypotheses H1,
H2
et H3, le processus Mn est tendu.
Preuve du lemme 1.7
Sous les hypotheses H1, H2 et H3, le processus Zn (z ) vit dans l'espace C [,M; M]. Pour montrer
que la suite de processus (Mn (z )) est tendue, il sut (cf Billingsley [Bil68]), de v
'eri er que pour tout z1 z2 :
h
i
IE (Mn (z2 ) , Mn (z1 ))2 (z2 , z1 )2 :
D'apres l'inegalite de Cauchy-Schwartz, nous obtenons
h
i
IE (Mn (z2) , Mn (z1))2
h,
i h,
i
IE M+n (z2) , M+n (z1) 2 + IE M,n (z2) , M,n (z1) 2
+ 2IE jM+n (z2) , M+n (z1)jjM,n (z2 ) , M,n (z1 )j ;
h,
i h,
i
IE M+n (z2) , M+n (z1) 2 + IE M,n (z2) , M,n (z1) 2
h h,
i IE h,M,(z ) , M,(z ) ii = :
+ 2 IE M+n (z2 ) , M+n (z1)
Or
IE
h,
i
M(z ) , M(z )
n
2
n
1
2
=
2
n
2
2 n
!3
X
IE 4
Mi (z ) , Mi (z ) 5 ;
h,i i
n
1
2
1 2
2
2
1
=1
= nIE M1 (z2) , M1 (z1)
2
,
+ n(n , 1) IE M1 (z2 ) , M1 (z1) 2:
1.4. La situation ou la localisation de la discontinuite est inconnue
Puisque
h,
47
i
IE M1 (z2) , M1 (z1 ) 2
Zh
i
2
(
n;
h
)
n
(m( + hn (y1 , x)) , m ( ))2 + 2 ( + hn (y1 , x))
= n2 h
n
(g(x; z , z )) fX ( + hn (y , x))dx
Z
(n; hn )
2
2
c n h
n
1
(g (x; z2 , z1 ))2dx
2
et
2
1
IE ,M (z ) , M (z )
R (m( + h (y , x)) , m ( )) g (x; z , z )f ( + h (y , x))dx
n
X
n
=
;
n = (n; hn )
(n; hn) Z
2
1
1
1
2
1
2
2
2
2
1
2
(g (x; z2 , z1 ))2 dx
c n
2
alors
1
Z
h, i
(
n;
h
)
n
IE Mn (z ) , Mn (z )
c nh [1 + nhn ] (g(x; z , z )) dx ;
n
2
1
2
2
1
2
1
2
c nh (n;(n;hnh) ) [1 + nhn ] (z , z ) ;
n
n
2
2
2
2
1
2
ou nous avons applique le resultat b) de la proposition 1.1. D'ou sous les hypotheses H1,
H3 et pour tout z1 z2 ,
h
IE (Mn (z2 ) , Mn (z1 ))2
i
(z , z ) :
2
1
2
Nous en deduisons, d'apres l'inegalite (1.21) que la suite de processus (Mn ) est tendue.
H2 et
(1.21)
ut
En n, ayant montre la convergence cylindrique et la tension du processus Mn , nous en
deduisons la convergence du processus Mn vers un processus limite M.
Theoreme 1.4.
Sous les hypotheses H1,
H2
et H3 nous avons,
Zn ) Z ;
sur C [,M; M ]
(1.22)
ou
Z (z) = L (2 ) M (0)z + (L
2
(1)
+
2
1
(1)
( ) + U )z;
(1.23)
48
CHAPITRE 1. ESTIMATION DES RUPTURES
avec
2L ( ) Z
U N 0; f ( )
[M (x)] dx :
X
3
2
0
(1)
+
,1
Corollaire 1.4. Sous les hypotheses H1,
H2
2
et H3,
(n; hn ) (^ , ) ,!
D N ,B; V 2 :
hn
ou
V2 =
Z
0
2L3 2( )
[M+(1)(x)]2dx ;
2
(1)
(L2 ( )M+ (0)) fX ( ) ,1
et
(1)
) :
B = , L1 ((1)
L2 ( )M+ (0)
Preuve du corollaire 1.4
Il decoule de Whitt [Whi70] que nous pouvons etendre la convergence du processus Zn vers
le processus Z dans l'espace C ([,M; M ]) a la convergence dans l'espace C (IR). Ainsi nous en
deduisons que
D sup Z (z );
sup Zn (z ) ,!
z
et
z
D arg sup Z (z );
arg sup Zn (z ) ,!
z
lorsque
z
n ! 1:
Notons zmax = arg sup Z (z ); alors
z
(1)
zmax = L1 ( )(1)+ U ;
L2 ( )M+ (0)
ou
2L ( ) Z
U N 0; f ( )
[M (x)] dx :
X
3
2
0
,1
(1)
+
2
1.4. La situation ou la localisation de la discontinuite est inconnue
49
Posons zmax (n) le point ou le processus Zn atteint son maximum. Par construction, nous avons
^ = + (n;hnh ) zmax (n);
n
(1.24)
Nous en deduisons que
(n; hn ) (^ , ) ,!
D z
max :
hn
Ceci termine la demonstration du corollaire 1.4 .
Corollaire 1.5. Supposons que les hypotheses H1,
p
> 0. Si nh = (n; h ) ! 0 alors
n
H2
et
H3,
ut
nh5n ! 0 et IE j"j2+ < 1 ou
n
p
D N 0; 2 2( ) V 2 :
nhn (^ (^ ) , ( )) ,!
fX ( ) +
Preuve du corollaire 1.5
Nous avons
p
nhn (^(^ ) , ( )) =
=
=
D
,!
p
p
pnhnhn (^(^ ) , ^( )) + pnhn (^( ) , ( )) ;
n Z (z (n)) + nh (^( ) , ( )) ;
n
(n; hn ) n max
p
oP (1)
n (^( ) , ( )) ;
+22(nh
)
2
N 0; f ( ) V+ :
X
ut
En remplacant fX ( ) et 2( ) par des estimateurs consistants, nous obtenons un corollaire
analogue au corollaire 1.3.
Corollaire 1.6. Soient f^X ( ) et ^ ( ) deux estimateurs consistants de fX ( ) et ( ). L'estimateur
2
2
f^X ( ) est suppose positif. Sous les m^emes hypotheses que celles du corollaire 1.6, nous avons
p
q
nhn
f^X ( ) (^ (^ ) , ( )) L , 2 ,! N 0; V+ :
(2^ 2( ))1=2
(1.25)
Vitesse de convergence de ^ et ^(^ )
E tant donne deux suites reelles positives (an ) et (bn ) nous notons an bn lorsque an =bn ! L,
ou 0 < L < 1
50
1)
CHAPITRE 1. ESTIMATION DES RUPTURES
Si hn n,1=3 prenons (n; hn ) n1=3 et (n; hn ) n2=3 . Ceci implique :
i)
ii)
D N ,B; V 2 , ou les constantes L et L qui interviennent dans les
n2=3 (^ , ) ,!
1
3
2
de nitions de B et V sont telles que L1 L3 > 0.
D N 0; 2 ( ) V 2 .
n1=3 (^(^ ) , ( )) ,!
fX ( ) +
2
Dans ce premier cas on est loin des vitesses de convergence optimales pour ^ et ^ (^ ).
2)
p
Si hn = o(n,1=3) prenons (n; hn ) nhn et (n; hn ) nhn . Ceci implique :
qn
, 2
D
hn (^ , ) ,! N 0; V .
p
D N 0; 22 ( ) V 2.
ii) nhn (^ (^
) , ( )) ,!
fX ( ) +
i)
Ici on a L1 = 0 et L3 > 0. Dans ce deuxieme cas on peut s'approcher des vitesses de
convergence optimales pour ^ et ^ (^ ) mais avec des choix de fen^etre de lissage qui ne sont pas
compatibles. Une facon pour pallier ce defaut consiste tout d'abord a localiser la rupture en
utilisant des fen^etre de lissage de petites tailles (par exemple h1n logn n ) et ensuite a estimer
^ (^hn ) en utilisant des fen^etres de lissage plus grandes (par exemple h2n (n log1n) = ).
1
3)
1 5
Si nh3n ! 1 prenons (n; hn ) h1n et (n; hn ) h1n . Il en resulte que L1 > 0 et L3 = 0 et
par consequent Z (z ) = L2 (2 ) M+(1) (0)z 2 + L1 (1)( )z . Ceci implique :
2
i) (^h,2 )
n
! ,L L M .
1
(1)
( )
(1)
+ (0)
2 ( )
, p
D N 0; 2 ( ) V 2 .
Si hn = o n,1=5 , alors nhn (^ (^ ) , ( )) ,!
fX ( ) +
Dans ce dernier cas la vitesse de convergence de ^ est h2n . Dans le meilleur des cas cette
vitesse ne depasse pas n,2=3 ( comparer avec la vitesse optimale qui est n,1 ).
ii)
2
1.4.3 La situation ou le noyau est strictement positif en zero
Sous les hypotheses H1,
a)
et H4
Si x < ,y < 0 ou x < 0 < ,y ou ,y < 0 < x ou 0 < ,y < x,
1)
2)
b)
H2
hn ),
g1(x; z )fX ( , xhn ) = O( (n;h
n)
hn An = OP ( 1 ).
g2(x; z ) , (n;h
(n;hn )
n)
Si ,y < x < 0 ou 0 < x < ,y ,
1)
g1(x; z )fX ( , xhn ) = , ( )fX ( )M+(0) + o(1),
1.4. La situation ou la localisation de la discontinuite est inconnue
2)
g2(x; z) ,
Donc
hn
n;hn ) An = (,
(
51
( ) , 2sign(z ) ( )") M+ (0) + oP (1).
(n; hn )
hn )
An = , ((n;
n; hn ) ( )fX ( )M+(0)(ajz1j + bjz2j) + o( (n; hn ) ):
Nous en deduisons
Lemme 1.8. Sous les hypotheses H1, H2 et H4 alors, quand n ! 1, nous avons
a) An ! A = ,L ( )fX ( )M (0)(ajz j + bjz j),
b) ,n (u) ! ,(u),
4
+
1
2
ou
1)
Si 0 z1 z2 alors, h
i
,(u) = 4L6 M+2 (0)fX ( ) z1 (a + b)2 a++b (u) + (z2 , z1)b2b+ (u) .
2)
Si z2 z1 0 alors, h
i
,(u) = 4L6 M+2 (0)fX ( ) ,z1 (a + b)2 a,+b (u) + (z1 , z2 )b2b, (u) .
3)
Si z1 0 z2 alors,
,(u) = 4L6 M+2 (0)fX ( ) ,z1 a2 a, (u) + z2 b2b+ (u) .
avec
h
i
a (u) = IE (, ( ) 2 ( )")2 1If2L5aM+ (0)(, ( )+( )")ug
:
Nous avons egalement
sup IP [jaMi(z1 ) + bMi (z2) , IE [aMi (z1) + bMi(z2 )] j ]
in
1
= IP [hjaM1 (z1) + bM1 (z2) , IE [aM1 (z1 ) + bM1(z2 )] j i ] ;
IE (aM1(z1 ) + bM1 (z2) , IE [aM1 (z1 ) + bM1(z2 )])2
,nn(1) ! 0 (n ! 1):
2
;
2
D'ou
Lemme 1.9. Sous les hypotheses H1,
1
quand n ! 1
H2
et H4 et pour tout > 0, nous avons
sup IP [jaMi (z1) + bMi (z2 ) , IE [aMi (z1 ) + bMi (z2)] j ] ! 0;
in
52
CHAPITRE 1. ESTIMATION DES RUPTURES
Posons
1)
1 = 2L5 M+(0),
2)
si L5 > 0, 2 = LL fX ( ),
3)
3 = L4 M+ (0)fX ( ) = 2 ,
6
2
5
1 2
4) = , ( ) 2 ( )".
Nous avons alors,
a)
Si 0 z1 z2 , alors
d,(u) = z dF
2
1
(a+b) (u) + (z2 , z1 )dF b (u) :
2
u
+
1
b)
Si z2 z1 0, alors
d,(u) = ,z dF
2
1
(a+b) , (u) + (z1 , z2 )dF b , (u) :
2
u
1
c)
+
1
Si z1 0 z2 , alors
1
d,(u) = ,z dF , (u) + z dF (u) :
2
1
2
a
b
u2
1
1
+
ou FX () est la fonction de repartition de X .
D'apres Gnedenko [GK68], les lemmes 1.8 et 1.9 montrent que aMn (z1 ) + bMn(z2 ) admet
une limite en loi. Le logarithme de la fonction caracteristique de la loi limite est donne par la
formule de Kolmogorov (cf theoreme 1.3) avec la constante egale a A et la fonction ,(u) est
de nie comme dans le lemme 1.8.
Notons () la fonction caracteristique de la loi limite et X () celle de X . D'apres le lemme
1.8, nous avons
a)
Si 0 z1 z2 , alors
(t) = exp [i3 ( )(ajz1j + bjz2j)t]
,
exp 2z1 (a+b) (t) , 1
,
exp 2(z2 , z1) b (t) , 1 :
1
+
1
+
1.4. La situation ou la localisation de la discontinuite est inconnue
b)
53
Si z2 z1 0, alors
(t) = exp [i3 ( )(ajz1j + bjz2j)t]
,
exp ,2z1 (a+b), (t) , 1
,
exp 2(z1 , z2) b, (t) , 1 :
1
1
c)
Si z1 0 z2 , alors
(t) = exp [i3 ( )(ajz1j + bjz2j)t]
,
exp ,2z1 a, (t) , 1
,
exp 2z2 b (t) , 1 :
1
1
+
D'ou nous avons demontre la convergence cylindrique, sous les hypotheses H1, H2 et
processus Mn vers le processus de Poisson compose bilateral M de ni comme suit :
H4,
du
M(z) = ( )jzj + N (z);
3
ou
1
8
><
0
P
N
z
N (z) = > i , ( ) , 2( )"i
: PNi ,,z , ( ) + 2( )",i
+
+
=1
=1
si z = 0;
si z > 0;
si z < 0;
(1.26)
avec Nz+ et Nz, sont des processus de Poisson homogenes et independants, de parametre 2 . Les
"+i 's et ",i sont des variables aleatoires, independantes, identiquement distribuees et de m^eme
loi que ". Elles sont aussi independantes de Nz+ et Nz, .
On veri e aisement
i)
ii)
IE [M(z )] = ,3 ( )jz j;
Cov (M(z1); M(z2)) = 21 2
Puisque
alors
ou
, ( ) + ( ),min(jz j; jz j)1I
fz z > g :
2
2
1
Zn (z) = 1 +f o(P(1)
) Mn (z );
X
Zn(z) ) Z (z);
2
1 2
0
54
CHAPITRE 1. ESTIMATION DES RUPTURES
a)
Z (z) = f ( ) ( )jzj + f ( ) N (z):
3
Lemme 1.10. Sous les hypotheses H1,
Preuve du lemme 1.10
X
H2
1
X
et H4, la suite de processus (Mn) est tendue.
Sous les hypotheses H1, H2 et H4, le processus Zn (z ) vit dans l'espace D[,M; M]. Pour montrer
que la suite de processus (Mn (z )) est tendue, il sut (cf Billingsley [Bil68]), de veri er que
pour tout z1 z z2 :
IE [jMn (z2 ) , Mn (z )jjMn (z1) , Mn (z )j] (z2 , z1 )2 :
En utilisant l'inegalite triangulaire, le terme a gauche de l'inegalite ci-dessus peut ^etre majore
comme suit :
IE [jMn (z2) , Mn (z )jjMn(z1 ) , Mn (z )j]
IE jM+n (z2) , M+n (z)jjM+n (z1) , M+n (z)j + IE jM+n (z2) , M+n (z)jjM,n (z1) , M,n (z)j
+ IE jM,n (z2) , M,n (z )jjM+n (z1) , M+n (z )j + IE jM,n (z2 ) , M,n (z )jjM,n (z1) , M,n (z )j :
Or
IE jMn (z2) , Mn (z )jjMn (z1 ) , Mn (z )j
#
n ,
X
,
Mi (z ) , Mi(z) ;
Mi(z ) , Mi(z)
= IE
i
i
Xi h "X
n
=1
i;j n
1
1
2
=1
IE Mi (z2) , Mi (z ) Mj (z1) , Mj (z ) ;
= nIE M1 (z2) , M1 (z ) M1 (z1 ) , M1 (z )
+ n(n , 1)IE M1 (z2) , M1 (z ) IE M1 (z1 ) , M1 (z ) :
Puisque
IE M1 (z2) , M1 (z ) M1 (z1) , M1 (z )
2
hn) Z IE[jY , m ( )jjY , m ( )jjX = + h (y , x)]
n(n;
n
2h
n
jg(x; z2 , z)jjg (x; z1 , z)jfX ( + hn (y , x))dx
Z
2
c (n; hn) jg (x; z , z)jjg (x; z , z)jdx ;
2
n2 hn
2
hn) jz , zjjz , zj ;
c2 n2h (n;2(n;
1
hn) 2
n
1
1
1.4. La situation ou la localisation de la discontinuite est inconnue
55
ou nous avons applique le resultat c) de la proposition 1.1.
Nous avons egalement
IE M1 (z1 ) , M1 (z )
Z
(n;nhn) IE[jY , m( )jjX = + hn(y , x)]
jg (x; z1 , z)jfX ( + hn(y , x))dx;
Z
(
n;
h
)
c2 n n jg(x; z1 , z)jdx ;
c3 n ((n;n:hhn)) jz1 , zj:
n
D'ou sous les hypotheses H1, H2 et H4 et pour tout z1 z z2 ,
IE [jMn (z2 ) , Mn (z )jjMn (z1) , Mn (z )j] (z2 , z1 )2 :
Nous en deduisons, d'apres (1.27) que le processus Mn est tendu.
(1.27)
ut
En n, en montrant la convergence cylindrique et la tension du processus Mn , nous etablissons la convergence du processus Mn vers un processus limite M. Nous en deduisons le
theoreme suivant
Theoreme 1.5. Sous les hypotheses H1,
Zn ) Z ;
H2
et H4 nous avons,
sur D[,M; M ]
(1.28)
ou
Z (z) = f ( ) ( )jzj + f ( ) N (z);
1
3
X
X
(1.29)
avec N (z ) est un processus de Poisson compose bilateral, (voir (1.26)).
Lorsque L5 = 0 le processus N (z ) n'est plus de ni (2 = +1). Neanmoins le processus limite
Z (z) existe et il est degenere (Z (z) = , fX( ) ( )jzj).
3
Corollaire 1.7. Sous les hypotheses H1,
H2
et H4,
(n; hn ) (^ , ) ,!
D M;
ou
hn
M = arg sup f ( ) ( )jzj + f ( ) N (z):
z
3
X
1
X
(1.30)
56
CHAPITRE 1. ESTIMATION DES RUPTURES
Preuve du corollaire 1.7
D'apres Whitt [Whi80], nous pouvons etendre la convergence du processus Zn vers le processus
Z dans l'espace D([,M; M ]) a la convergence dans l'espace D(IR). Il en resulte que
D sup Z (z );
sup Zn (z ) ,!
z
et
z
D arg sup Z (z );
arg sup Zn (z ) ,!
z
lorsque
z
n ! 1:
Lemme 1.11. Sous les hypotheses H1,
"
et H4, alors
#
IP sup Z (z ) < 1 = 1:
z2IR
Preuve du lemme 1.11
Il est clair que
H2
sup Z (z ) = max sup Z (z ); sup Z (z ) :
z0
z2IR
Pour tout z 0, nous avons
z 0
Z (z) = f ( ) ( )z + f ( ) N (z);
X
X
3
1
Nz ,
X
3
1
=
( )z +
,
( ) , 2 ( )"+i :
fX ( )
fX ( ) i=1
+
1. Si L5 = 0, alors Z (z ) = , fX( ) ( )jz j, et par consequent
3
"
#
IP sup Z (z ) < 1 = 1:
z2IR
2. Si L5 > 0, alors
Nz ,
X
sup Z (z ) = sup f (3 ) ( )z + f (1 )
, ( ) , 2( )"+i ;
z0
z 0 X
X
i=1
+
Nz X
2
(
)
2
+
1 + ( ) "i :
= sup 2 z ,
z 0
i=1
+
Notons
1.4. La situation ou la localisation de la discontinuite est inconnue
57
1)
T1+; T2+ ; : : : : les dates d'occurrence du processus de Poisson Nz+ .
2)
Ei+ = Ti++1 , Ti+ .
T3
T1
T2
T4
T5
Figure 1.4 : Une trajectoire du processus Z (z) sous les hypotheses H1,
H2
et H4.
Le maximum du processus Z (z ) ne peut avoir lieu qu'en une extremite droite de segment. D'ou
sup Z (z ) = max
lim Z (z );
j 1 z%Tj
z 0
+
j ,1 X
2
(
)
2 +
+
T ,
1 + ( ) "i ;
= max
j 1 2 j
i=1
"
j ,1 !#
X
= max 2 T + ; max 2 T + + + ;
2
1
j 2
2
1
ou +i = 2 Ei+ , 1 + 2(()) "+i .
i=1
i
2
On de nit la marche aleatoire
8
>
< T
Wi = >
: Wi,
2
+
2
+
1
si i = 1;
+ +i si i > 1:
Puisque Ei ; EXP (2) (loi exponentielle de parametre 2) et IE"i = 0, il est facile de veri er
que
IE+i = ,1=2:
+
1
58
CHAPITRE 1. ESTIMATION DES RUPTURES
P
Or toute marche aleatoire ni=1 +i veri ant IE+i < 0 admet un maximum presque s^urement
(voir par exemple Feller [Fel66, chapitre XII]). Il vient, donc, que sous les hypotheses H1, H2
et H4 , le processus Z admet un maximum avec une probabilite egale a 1.
ut
Posons zmax (n) le point ou le processus Zn atteint son maximum. Par construction, nous avons
^ = + (n;hnh ) zmax (n):
n
Nous en deduisons que
(n; hn ) (^ , ) ,!
D z
hn
(1.31)
max ;
ou zmax = arg sup fX( ) ( )jz j + fX( ) N (z ).
z
3
1
ut
Ceci termine la demonstration du corollaire 1.7 .
Les corollaires 1.8 et 1.9 ci-dessous sont obtenus de la m^eme facon que leurs analogues dans
la situation K+ (0) = 0 (cf les corollaires 1.5 et 1.6).
Corollaire 1.8. Supposons que les hypotheses H1, H2 et H4 sont satisfaites, nh5n ! 0, et
IE(j"j2+ ) ou > 0, alors
p
nhn (^(^ ) ,
D N 0; 2 2( ) V 2
( )) ,!
fX ( ) +
:
En remplacant f ( ) et 2( ) par des estimateurs consistants, nous obtenons un corollaire analogue au corollaire 1.3.
Corollaire 1.9. Soient f^X ( ) et ^ 2( ) deux estimateurs consistants de f ( ) et 2( ). L'estimateur
f^X ( ) est suppose positif. Sous les m^emes hypotheses que celles du corollaire 1.3, nous avons
q
p
f^X ( ) (^(^ ) , ( )) L , 2 nhn
,! N 0; V+ :
(1.32)
(2^ 2( ))1=2
Vitesses de convergence de ^ et ^(^ )
1)
2)
La vitesse de convergence de ^ est independante du choix de la fen^etre de lissage hn . Elle
est egale a n,1 . Il s'agit la de la vitesse optimale pour ce type de probleme. En e et si on
choisit (n; hn ) nhn et (n; hn ) nhn . Ceci implique :
p
n (^ , ) = OP (1):
D N 0; 2 ( ) V 2 .
Si de plus hn = o(n,1=5), alors nhn (^ (^ ) , ( )) ,!
fX ( ) +
2
1.5. Simulations
59
1.5 Simulations
Nous avons etudie dans les paragraphes precedentes quelques proprietes asymptotiques des
parametres de rupture et ( ). Nous presentons maintenant des simulations que nous avons
e ectuees pour explorer le comportement de nos estimateurs dans un cadre non asymptotique.
Il s'agit seulement d'une partie d'un ensemble plus etendu de simulations que nous ne pouvons
reproduire ici de maniere exhaustive. Dans ces simulations nous etudions les comportements
des estimateurs des ruptures en fonction des quatre parametres suivants :
1)
Le noyau de lissage.
2)
La taille de l'echantillon.
3)
Le rapport signal sur bruit (RSB).
4)
La fen^etre de lissage.
Soit x le parametre a estimer (amplitude ou localisation de la discontinuite) et X^ son estimateur.
On note p le nombre d'echantillons simules et x^(i) l'estimation de x a partir du ieme echantillon.
Dans ce paragraphe, nous adoptons les notations suivantes :
biais = p Ppi (^x i , x).
1
( )
=1
variance = p Ppi (^x i , xp) , ou xp = p Ppi x^ i .
1
=1
2
( )
1
=1
MSE = p Ppi (^x i , x) = biais + variance.
1
=1
( )
2
( )
2
Les noyaux utilises dans les simulations sont de nis par :
1)
K 0(x) = x2(1 + x)21I[,1;0](x).
2)
K 1(x) = (1 , x2)1I[,1;0](x).
3)
K 2(x) = ,x(1 + x)1I[,1;0](x).
Les simulations presentees ici sont toutes faites a partir de l'un des modeles ci-dessous et sont
repetees 200 fois pour chaque exemple :
M1
m(x) = 1I : ; (x),
xi = ni ,
" : variable gaussienne centree reduite.
[0 4 1]
60
CHAPITRE 1. ESTIMATION DES RUPTURES
M2
m(x) = 4 sin(5x) + 3x + 1I : ; (x),
Xi ; U [0; 1],
" : variable gaussienne centree reduite.
[0 7 1]
Noyau de Lissage
Nous avons simule les modeles M1 et M2 pour deux combinaisons de la taille de l'echantillon
et de la variance du bruit, et etudie le comportement des estimateurs en fonction du choix
du noyau. Nous constatons que l'utilisation d'un noyau qui ne s'annule pas en zero conduit
en general a une reduction du biais, de la variance et donc de la MSE de chacun des deux
estimateurs. Il semble donc que de tels noyaux conduisent a une amelioration de la vitesse de
convergence, mais aussi a de meilleures performances dans un cadre non asymptotique. Pour
illustrer graphiquement ces di erentes reductions de biais , variance et MSE, nous representons
dans les gures 1.5, 1.6, 1.7 et 1.8, le comportement du biais au carre , de la variance et de la
MSE en fonction des trois noyaux K 0,K 1 et K 2.
1.5. Simulations
61
−3
n = 200 et signal/bruit = 2
0.35
4
n = 200 et signal/bruit = 2
x 10
k0
k1
k2
k0
k1
k2
3.5
0.3
3
0.25
biais au carre
biais au carre
2.5
0.2
0.15
2
1.5
0.1
1
0.05
0
0.06
0.5
0.08
0.1
0.12
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0
0.06
0.26
0.08
0.1
0.12
n = 200 et signal/bruit = 2
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0.26
n = 200 et signal/bruit = 2
0.11
0.035
k0
k1
k2
k0
k1
k2
0.1
0.03
0.09
0.025
0.08
variance
variance
0.02
0.07
0.015
0.06
0.01
0.05
0.005
0.04
0.03
0.06
0.08
0.1
0.12
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0
0.06
0.26
0.08
0.1
0.12
n = 200 et signal/bruit = 2
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0.26
n = 200 et signal/bruit = 2
0.4
0.035
k0
k1
k2
k0
k1
k2
0.35
0.03
0.3
0.025
0.25
MSE
MSE
0.02
0.2
0.015
0.15
0.01
0.1
0.005
0.05
0
0.06
0.08
0.1
0.12
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0.26
0
0.06
0.08
0.1
0.12
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0.26
Figure 1.5 : Estimations du biais au carre, de la variance et de la MSE a partir de 200
echantillons de taille 200 simules selon le modele M1 et pour un niveau de bruit = 0:5. On
montre a gauche ces di erentes estimations pour l'estimateur de l'amplitude de la rupture ^ (^ )
et a droite pour l'estimateur de la localisation ^.
62
CHAPITRE 1. ESTIMATION DES RUPTURES
−3
n = 1000 et signal/bruit = 1
0.16
1.2
n = 1000 et signal/bruit = 1
x 10
k0
k1
k2
0.14
k0
k1
k2
1
0.12
0.8
biais au carre
biais au carre
0.1
0.08
0.6
0.06
0.4
0.04
0.2
0.02
0
0.06
0.08
0.1
0.12
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0
0.06
0.26
0.08
0.1
0.12
n = 1000 et signal/bruit = 1
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0.26
n = 1000 et signal/bruit = 1
0.09
0.03
k0
k1
k2
0.08
k0
k1
k2
0.025
0.07
0.02
variance
variance
0.06
0.015
0.05
0.01
0.04
0.005
0.03
0.02
0.06
0.08
0.1
0.12
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0
0.06
0.26
0.08
0.1
0.12
n = 1000 et signal/bruit = 1
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0.26
n = 1000 et signal/bruit = 1
0.25
0.035
k0
k1
k2
k0
k1
k2
0.03
0.2
0.025
0.15
MSE
MSE
0.02
0.015
0.1
0.01
0.05
0.005
0
0.06
0.08
0.1
0.12
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0.26
0
0.06
0.08
0.1
0.12
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0.26
Figure 1.6 : Estimations du biais au carre, de la variance et de la MSE a partir de 200
echantillons de taille 1000 simules selon le modele M1 et pour un niveau de bruit = 1. On
montre a gauche ces di erentes estimations pour l'estimateur de l'amplitude de la rupture ^(^ )
et a droite pour l'estimateur de la localisation ^.
1.5. Simulations
63
n = 200 et signal/bruit = 2
n = 200 et signal/bruit = 2
0.9
0.03
k0
k1
k2
0.8
k0
k1
k2
0.025
0.7
0.02
biais au carre
biais au carre
0.6
0.5
0.4
0.3
0.015
0.01
0.2
0.005
0.1
0
0.06
0.08
0.1
0.12
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0
0.06
0.26
0.08
0.1
0.12
n = 200 et signal/bruit = 2
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0.26
n = 200 et signal/bruit = 2
0.5
0.055
k0
k1
k2
0.45
k0
k1
k2
0.05
0.4
0.045
0.35
0.3
variance
variance
0.04
0.25
0.035
0.2
0.15
0.03
0.1
0.025
0.05
0
0.06
0.08
0.1
0.12
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0.02
0.06
0.26
0.08
0.1
0.12
n = 200 et signal/bruit = 2
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0.26
n = 200 et signal/bruit = 2
1.4
0.09
k0
k1
k2
1.2
k0
k1
k2
0.08
0.8
0.06
MSE
0.07
MSE
1
0.6
0.05
0.4
0.04
0.2
0.03
0
0.06
0.08
0.1
0.12
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0.26
0.02
0.06
0.08
0.1
0.12
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0.26
Figure 1.7 : Estimations du biais au carre, de la variance et de la MSE a partir de 200
echantillons de taille 200 simules selon le modele M2 et pour un niveau de bruit = 0:5. On
montre a gauche ces di erentes estimations pour l'estimateur de l'amplitude de la rupture ^ (^ )
et a droite pour l'estimateur de la localisation ^.
64
CHAPITRE 1. ESTIMATION DES RUPTURES
n = 1000 et signal/bruit = 1
n = 1000 et signal/bruit = 1
0.25
0.025
k0
k1
k2
0.2
0.02
0.15
0.015
biais au carre
biais au carre
k0
k1
k2
0.1
0.01
0.05
0.005
0
0.06
0.08
0.1
0.12
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0
0.06
0.26
0.08
0.1
0.12
n = 1000 et signal/bruit = 1
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0.26
n = 1000 et signal/bruit = 1
0.1
0.035
k0
k1
k2
0.09
k0
k1
k2
0.03
0.08
0.025
0.06
variance
variance
0.07
0.05
0.04
0.02
0.015
0.03
0.01
0.02
0.01
0.06
0.08
0.1
0.12
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0.005
0.06
0.26
0.08
0.1
0.12
n = 1000 et signal/bruit = 1
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0.26
n = 1000 et signal/bruit = 1
0.35
0.045
k0
k1
k2
0.3
k0
k1
k2
0.04
0.2
0.03
MSE
0.035
MSE
0.25
0.15
0.025
0.1
0.02
0.05
0.015
0
0.06
0.08
0.1
0.12
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0.26
0.01
0.06
0.08
0.1
0.12
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0.26
Figure 1.8 : Estimations du biais au carre, de la variance et de la MSE a partir de 200
echantillons de taille 1000 simules selon le modele M2 et pour un niveau de bruit = 1. On
montre a gauche ces di erentes estimations pour l'estimateur de l'amplitude de la rupture ^(^ )
et a droite pour l'estimateur de la localisation ^.
1.5. Simulations
65
Taille de l'echantillon
Les gures 1.9, 1.10, 1.11 et 1.12 illustrent les gains en biais, variance et MSE des deux
estimateurs (^ et ^(^ )) obtenus lorsqu'on augmente le nombre d'observations. Il est clair que
l'augmentation du nombre d'observations s'accompagne d'une meilleure precision dans les estimations de la localisation et de l'amplitude de la rupture. Dans les situations ou le rapport
signal sur bruit n'est pas favorable (egale a 1 par exemple), on peut s'attendre a ce que le nombre d'observations ait de l'importance dans la localisation de la rupture et dans l'estimation de
l'amplitude du saut. C'est e ectivement le cas. Nous observons qu'en augmentant la taille de
l'echantillon, les performances s'ameliorent, mais il faut noter que le gain est inferieur a celui
obtenu en situation de rapport signal sur bruit plus favorable. Un rapport signal sur bruit
mediocre necessite une taille d'echantillon importante.
66
CHAPITRE 1. ESTIMATION DES RUPTURES
−3
signal/bruit = 2
0.07
4
n = 200
n = 500
n = 1000
0.06
signal/bruit = 2
x 10
n = 200
n = 500
n = 1000
3.5
3
0.05
biais au carre
biais au carre
2.5
0.04
0.03
2
1.5
0.02
1
0.01
0
0.06
0.5
0.08
0.1
0.12
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0
0.06
0.26
0.08
0.1
0.12
signal/bruit = 2
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0.26
signal/bruit = 2
0.05
0.035
n = 200
n = 500
n = 1000
0.045
n = 200
n = 500
n = 1000
0.03
0.04
0.025
0.02
0.03
variance
variance
0.035
0.025
0.015
0.02
0.01
0.015
0.005
0.01
0.005
0.06
0.08
0.1
0.12
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0
0.06
0.26
0.08
0.1
0.12
signal/bruit = 2
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0.26
signal/bruit = 2
0.12
0.035
n = 200
n = 500
n = 1000
n = 200
n = 500
n = 1000
0.03
0.1
0.025
0.08
MSE
MSE
0.02
0.06
0.015
0.04
0.01
0.02
0
0.06
0.005
0.08
0.1
0.12
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0.26
0
0.06
0.08
0.1
0.12
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0.26
Figure 1.9 : Estimations du biais au carre, de la variance et de la MSE a partir de 200
echantillons de taille n (n = 200; 500; 1000) simules selon le modele M1 et pour un niveau de
bruit = 0:5. On montre a gauche ces di erentes estimations pour l'estimateur de l'amplitude
de la rupture ^ (^ ) et a droite pour l'estimateur de la localisation ^. Le noyau utilise est K 1.
1.5. Simulations
67
signal/bruit = 1
signal/bruit = 1
1.8
0.012
n = 200
n = 500
n = 1000
1.6
n = 200
n = 500
n = 1000
0.01
1.4
0.008
biais au carre
biais au carre
1.2
1
0.8
0.6
0.006
0.004
0.4
0.002
0.2
0
0.06
0.08
0.1
0.12
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0
0.06
0.26
0.08
0.1
0.12
signal/bruit = 1
0.22
0.24
0.26
0.05
n = 200
n = 500
n = 1000
0.11
0.1
0.04
0.09
0.035
0.08
0.03
0.07
0.025
0.06
0.02
0.05
0.015
0.04
0.01
0.03
0.005
0.08
0.1
0.12
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
n = 200
n = 500
n = 1000
0.045
variance
variance
0.2
signal/bruit = 1
0.12
0.02
0.06
0.14
0.16
0.18
fenetre de lissage
0
0.06
0.26
0.08
0.1
0.12
signal/bruit = 1
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0.26
signal/bruit = 1
1.8
0.06
n = 200
n = 500
n = 1000
1.6
n = 200
n = 500
n = 1000
0.05
1.4
1.2
0.04
MSE
MSE
1
0.03
0.8
0.6
0.02
0.4
0.01
0.2
0
0.06
0.08
0.1
0.12
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0.26
0
0.06
0.08
0.1
0.12
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0.26
Figure 1.10 : Estimations du biais au carre, de la variance et de la MSE a partir de 200
echantillons de taille n (n = 200; 500; 1000) simules selon le modele M1 et pour un niveau de
bruit = 1. On montre a gauche ces di erentes estimations pour l'estimateur de l'amplitude de
la rupture ^(^ ) et a droite pour l'estimateur de la localisation ^. Le noyau utilise est K 1.
68
CHAPITRE 1. ESTIMATION DES RUPTURES
signal/bruit = 2
signal/bruit = 2
0.35
0.03
n = 200
n = 500
n = 1000
0.3
n = 200
n = 500
n = 1000
0.025
0.25
biais au carre
biais au carre
0.02
0.2
0.15
0.015
0.01
0.1
0.005
0.05
0
0.06
0.08
0.1
0.12
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0
0.06
0.26
0.08
0.1
0.12
signal/bruit = 2
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0.26
signal/bruit = 2
0.4
0.06
n = 200
n = 500
n = 1000
0.35
n = 200
n = 500
n = 1000
0.05
0.3
0.04
variance
variance
0.25
0.2
0.03
0.15
0.02
0.1
0.01
0.05
0
0.06
0.08
0.1
0.12
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0
0.06
0.26
0.08
0.1
0.12
signal/bruit = 2
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0.26
signal/bruit = 2
0.7
0.09
n = 200
n = 500
n = 1000
0.6
n = 200
n = 500
n = 1000
0.08
0.07
0.5
0.06
0.4
MSE
MSE
0.05
0.04
0.3
0.03
0.2
0.02
0.1
0.01
0
0.06
0.08
0.1
0.12
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0.26
0
0.06
0.08
0.1
0.12
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0.26
Figure 1.11 : Estimations du biais au carre, de la variance et de la MSE a partir de 200
echantillons de taille n (n = 200; 500; 1000) simules selon le modele M2 et pour un niveau de
bruit = 0:5. On montre a gauche ces di erentes estimations pour l'estimateur de l'amplitude
de la rupture ^ (^ ) et a droite pour l'estimateur de la localisation ^. Le noyau utilise est K 1.
1.5. Simulations
69
signal/bruit = 1
signal/bruit = 1
4
0.06
n = 200
n = 500
n = 1000
3.5
n = 200
n = 500
n = 1000
0.05
3
0.04
biais au carre
biais au carre
2.5
2
0.03
1.5
0.02
1
0.01
0.5
0
0.06
0.08
0.1
0.12
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0
0.06
0.26
0.08
0.1
0.12
signal/bruit = 1
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0.26
signal/bruit = 1
1.4
0.07
n = 200
n = 500
n = 1000
1.2
n = 200
n = 500
n = 1000
0.06
1
0.05
variance
variance
0.8
0.04
0.6
0.03
0.4
0.02
0.2
0
0.06
0.08
0.1
0.12
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0.01
0.06
0.26
0.08
0.1
0.12
signal/bruit = 1
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.12
n = 200
n = 500
n = 1000
n = 200
n = 500
n = 1000
5
0.1
4
0.08
MSE
MSE
0.26
signal/bruit = 1
6
3
0.06
2
0.04
1
0.02
0
0.06
0.24
0.08
0.1
0.12
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0.26
0
0.06
0.08
0.1
0.12
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0.26
Figure 1.12 : Estimations du biais au carre, de la variance et de la MSE a partir de 200
echantillons de taille n (n = 200; 500; 1000) simules selon le modele M2 et pour un niveau de
bruit = 1. On montre a gauche ces di erentes estimations pour l'estimateur de l'amplitude de
la rupture ^(^ ) et a droite pour l'estimateur de la localisation ^. Le noyau utilise est K 1.
70
CHAPITRE 1. ESTIMATION DES RUPTURES
Rapport signal sur bruit (RSB)
Les gures 1.13, 1.14, 1.15 et 1.16 illustrent les gains en biais, variance et MSE des deux
estimateurs (^ et ^(^ )) obtenus lorsqu'on augmente le rapport signal sur bruit. Le RSB n'a
pas d'in uence sur l'ordre de grandeur des vitesses de convergence de ces estimateurs mais les
constantes multiplicatives de ces vitesses dependent de ce rapport. Les simulations montrent
clairement qu'en situation non asymptotique, les performances des d'estimations sont fortement
dependantes du rapport signal sur bruit.
1.5. Simulations
71
n = 200
n = 200
1.8
0.012
RSB = 2
RSB = 1.5
RSB= 1
1.6
RSB = 2
RSB = 1.5
RSB = 1
0.01
1.4
0.008
biais au carre
biais au carre
1.2
1
0.8
0.6
0.006
0.004
0.4
0.002
0.2
0
0.06
0.08
0.1
0.12
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0
0.06
0.26
0.08
0.1
0.12
n = 200
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0.26
n = 200
0.12
0.05
RSB = 2
RSB= 1.5
RSB = 1
0.11
RSB = 2
RSB = 1.5
RSB = 1
0.045
0.04
0.1
0.035
0.09
variance
variance
0.03
0.08
0.07
0.025
0.02
0.06
0.015
0.05
0.01
0.04
0.03
0.06
0.005
0.08
0.1
0.12
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0
0.06
0.26
0.08
0.1
0.12
n = 200
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0.26
n = 200
1.8
0.06
RSB = 2
RSB = 1.5
RSB = 1
1.6
RSB= 2
RSB = 1.5
RSB = 1
0.05
1.4
1.2
0.04
MSE
MSE
1
0.03
0.8
0.6
0.02
0.4
0.01
0.2
0
0.06
0.08
0.1
0.12
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0.26
0
0.06
0.08
0.1
0.12
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0.26
Figure 1.13 : Estimations du biais au carre, de la variance et de la MSE a partir de 200
echantillons de taille 200 simules selon le modele M1. On montre a gauche ces di erentes estimations pour l'estimateur de l'amplitude de la rupture ^ (^ ) et a droite pour l'estimateur de la
localisation ^.
72
CHAPITRE 1. ESTIMATION DES RUPTURES
−3
n = 1000
0.03
1
RSB = 2
RSB = 1.5
RSB= 1
n = 1000
x 10
RSB = 2
RSB = 1.5
RSB = 1
0.9
0.025
0.8
0.7
biais au carre
biais au carre
0.02
0.015
0.6
0.5
0.4
0.01
0.3
0.2
0.005
0.1
0
0.06
0.08
0.1
0.12
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0
0.06
0.26
0.08
0.1
0.12
n = 1000
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0.26
n = 1000
0.05
0.03
RSB = 2
RSB= 1.5
RSB = 1
0.045
RSB = 2
RSB = 1.5
RSB = 1
0.025
0.04
0.02
0.03
variance
variance
0.035
0.025
0.02
0.015
0.01
0.015
0.005
0.01
0.005
0.06
0.08
0.1
0.12
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0
0.06
0.26
0.08
0.1
0.12
n = 1000
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0.26
n = 1000
0.08
0.03
RSB = 2
RSB = 1.5
RSB = 1
0.07
RSB= 2
RSB = 1.5
RSB = 1
0.025
0.06
0.02
MSE
MSE
0.05
0.04
0.015
0.03
0.01
0.02
0.005
0.01
0
0.06
0.08
0.1
0.12
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0.26
0
0.06
0.08
0.1
0.12
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0.26
Figure 1.14 : Estimations du biais au carre, de la variance et de la MSE a partir de 200
echantillons de taille 1000 simules selon le modele M1. On montre a gauche ces di erentes
estimations pour l'estimateur de l'amplitude de la rupture ^(^ ) et a droite pour l'estimateur de
la localisation ^.
1.5. Simulations
73
n = 200
n = 200
4
0.06
RSB = 2
RSB = 1.5
RSB= 1
3.5
RSB = 2
RSB = 1.5
RSB = 1
0.05
3
0.04
biais au carre
biais au carre
2.5
2
0.03
1.5
0.02
1
0.01
0.5
0
0.06
0.08
0.1
0.12
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0
0.06
0.26
0.08
0.1
0.12
n = 200
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0.26
n = 200
1.4
0.07
RSB = 2
RSB= 1.5
RSB = 1
1.2
RSB = 2
RSB = 1.5
RSB = 1
0.065
0.06
1
0.055
0.05
variance
variance
0.8
0.045
0.6
0.04
0.035
0.4
0.03
0.2
0.025
0
0.06
0.08
0.1
0.12
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0.02
0.06
0.26
0.08
0.1
0.12
n = 200
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0.26
n = 200
6
0.12
RSB = 2
RSB = 1.5
RSB = 1
RSB= 2
RSB = 1.5
RSB = 1
0.11
5
0.1
0.09
4
MSE
MSE
0.08
3
0.07
0.06
2
0.05
0.04
1
0.03
0
0.06
0.08
0.1
0.12
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0.26
0.02
0.06
0.08
0.1
0.12
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0.26
Figure 1.15 : Estimations du biais au carre, de la variance et de la MSE a partir de 200
echantillons de taille 200 simules selon le modele M2. On montre a gauche ces di erentes estimations pour l'estimateur de l'amplitude de la rupture ^ (^ ) et a droite pour l'estimateur de la
localisation ^.
74
CHAPITRE 1. ESTIMATION DES RUPTURES
n = 1000
n = 1000
0.08
0.014
RSB = 2
RSB = 1.5
RSB= 1
0.07
RSB = 2
RSB = 1.5
RSB = 1
0.012
0.06
0.01
biais au carre
biais au carre
0.05
0.04
0.008
0.006
0.03
0.004
0.02
0.002
0.01
0
0.06
0.08
0.1
0.12
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0
0.06
0.26
0.08
0.1
0.12
n = 1000
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0.26
n = 1000
0.055
0.035
RSB = 2
RSB= 1.5
RSB = 1
0.05
RSB = 2
RSB = 1.5
RSB = 1
0.03
0.045
0.025
0.04
0.035
variance
variance
0.02
0.03
0.015
0.025
0.02
0.01
0.015
0.005
0.01
0.005
0.06
0.08
0.1
0.12
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0
0.06
0.26
0.08
0.1
0.12
n = 1000
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0.26
n = 1000
0.12
0.045
RSB = 2
RSB = 1.5
RSB = 1
RSB= 2
RSB = 1.5
RSB = 1
0.04
0.1
0.035
0.08
0.03
MSE
MSE
0.025
0.06
0.02
0.04
0.015
0.01
0.02
0.005
0
0.06
0.08
0.1
0.12
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0.26
0
0.06
0.08
0.1
0.12
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0.26
Figure 1.16 : Estimations du biais au carre, de la variance et de la MSE a partir de 200
echantillons de taille 1000 simules selon le modele M2. On montre a gauche ces di erentes
estimations pour l'estimateur de l'amplitude de la rupture ^(^ ) et a droite pour l'estimateur de
la localisation ^.
1.5. Simulations
75
Fen^etre de lissage
Comme dans le cadre d'estimation d'une fonction de regression lisse, le choix de la fen^etre
de lissage hn est crucial dans les procedures d'estimations des parametres de localisation et
d'amplitude. Nous avons simule les modeles M1 et M2 pour deux combinaisons de la taille
d'echantillon et de la variance du bruit et etudie la sensibilite des estimateurs ^ et ^(^ ) au choix
de la taille de fen^etre. Nous constatons les faits suivants :
1)
Les simulations montrent que ^ est moins sensible au choix de la fen^etre de lissage que ^(^ ).
Ceci semble coherent avec les resultats asymptotiques puisque lorsque le noyau de lissage est
strictement positif a l'origine, la vitesse de convergence de ^ est independante de hn .
2)
L'utilisation de fen^etres de lissage de petites tailles est accompagnee d'une augmentation
de la variance du processus ^(t), ce qui conduit a une surestimation de l'amplitude de la
rupture. Les distributions empiriques de ^(^ ) pour des choix de fen^etres de lissage de petites
tailles sont decalees vers la droite par rapport a 1 (la vraie amplitude de la rupture).
3)
Le choix de fen^etres de lissage de grandes tailles conduit a une sous-estimation de l'amplitude
de la rupture. Les distributions empiriques de ^ (^ ) , pour de telles fen^etres, sont decalees
vers la gauche par rapport a 1.
Les constatations 2) et 3) sont coherentes avec l'idee qu'un sous-lissage produit un estimateur
tres perturbe et peut creer des discontinuites arti cielles de forte amplitude alors qu'un surlissage elimine les irregularites et attenue les discontinuites.
76
CHAPITRE 1. ESTIMATION DES RUPTURES
n = 200 ; signal/bruit = 2
n = 200 ; signal/bruit = 2
0.11
0.035
0.1
0.03
0.09
0.025
0.08
MSE
MSE
0.02
0.07
0.015
0.06
0.01
0.05
0.005
0.04
0.03
0.06
0.08
0.1
0.12
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0
0.06
0.26
0.08
0.1
0.12
0.03
0.08
0.025
0.07
0.02
0.06
0.01
0.04
0.005
0.08
0.1
0.12
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0
0.06
0.26
0.08
0.1
0.12
0.07
0.025
0.06
0.02
0.05
0.01
0.03
0.005
0.1
0.12
0.14
0.16
0.18
fenetre de lissage
0.26
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0.26
0.2
0.22
0.24
0.26
0.015
0.04
0.08
0.24
n = 1000 ; signal/bruit = 1
0.03
MSE
MSE
n = 1000 ; signal/bruit = 1
0.08
0.02
0.06
0.22
0.015
0.05
0.03
0.06
0.2
n = 500 ; signal/bruit = 1.5
0.09
MSE
MSE
n = 500 ; signal/bruit = 1.5
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0.26
0
0.06
0.08
0.1
0.12
0.14
0.16
0.18
fenetre de lissage
Figure 1.17 : Estimations de la MSE a partir de 200 echantillons de taille n simules selon le
modele M1. On montre a gauche ces di erentes estimations pour l'estimateur de l'amplitude de
la rupture ^(^ ) et a droite pour l'estimateur de la localisation ^.
1.5. Simulations
77
n = 200 ; signal/bruit = 2
n = 200 ; signal/bruit = 2
0.6
0.08
0.5
0.07
0.4
0.06
MSE
0.09
MSE
0.7
0.3
0.05
0.2
0.04
0.1
0.03
0
0.06
0.08
0.1
0.12
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0.02
0.06
0.26
0.08
0.1
0.12
n = 500 ; signal/bruit = 1.5
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0.26
0.2
0.22
0.24
0.26
0.2
0.22
0.24
0.26
n = 500 ; signal/bruit = 1.5
0.14
0.055
0.05
0.12
0.045
0.1
MSE
MSE
0.04
0.08
0.035
0.03
0.06
0.025
0.04
0.02
0.02
0.06
0.08
0.1
0.12
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0.015
0.06
0.26
0.08
0.1
0.12
n = 1000 ; signal/bruit = 1
0.14
0.16
0.18
fenetre de lissage
n = 1000 ; signal/bruit = 1
0.12
0.045
0.11
0.04
0.1
0.035
0.09
0.03
MSE
MSE
0.08
0.07
0.025
0.06
0.02
0.05
0.015
0.04
0.03
0.06
0.08
0.1
0.12
0.14
0.16
0.18
fenetre de lissage
0.2
0.22
0.24
0.26
0.01
0.06
0.08
0.1
0.12
0.14
0.16
0.18
fenetre de lissage
Figure 1.18 : Estimations de la MSE a partir de 200 echantillons de taille n simules selon le
modele M2. On montre a gauche ces di erentes estimations pour l'estimateur de l'amplitude de
la rupture ^(^ ) et a droite pour l'estimateur de la localisation ^.
78
CHAPITRE 1. ESTIMATION DES RUPTURES
80
150
hn = 0.07
hn = 0.09
60
100
40
50
20
0
0
0.2
0.4
0.6
0.8
1
150
0
0
0.2
0.4
0.6
0.8
1
200
h = 0.15
h = 0.17
n
n
150
100
100
50
0
50
0
0.2
0.4
0.6
0.8
1
200
0
0
0.2
0.4
0.6
1
200
hn = 0.23
hn = 0.25
150
150
100
100
50
50
0
0.8
0
0.2
0.4
0.6
0.8
1
0
0
0.2
0.4
0.6
0.8
1
Figure 1.19 : La distribution empirique de ^ calculee a partir de 200 echantillons de taille 200
simules selon le modele M1 et pour un niveau de bruit = 0:5.
1.5. Simulations
79
60
60
hn = 0.07
hn = 0.09
40
40
20
20
0
0.5
1
1.5
2
2.5
60
0
0.5
1
1.5
2
2.5
40
h = 0.15
h = 0.17
n
n
30
40
20
20
0
0.5
10
1
1.5
2
60
0
0.5
1
1.5
60
hn = 0.23
hn = 0.25
40
40
20
20
0
0.5
2
1
1.5
2
0
0.5
1
1.5
2
Figure 1.20 : La distribution empirique de ^(^ ) calculee a partir de 200 echantillons de taille
200 simules selon le modele M1 et pour un niveau de bruit = 0:5.
80
CHAPITRE 1. ESTIMATION DES RUPTURES
150
150
hn = 0.07
hn = 0.09
100
100
50
50
0
0
0.2
0.4
0.6
0.8
1
200
0
0
0.2
0.4
0.6
h = 0.17
n
n
150
150
100
100
50
50
0
0.2
0.4
0.6
0.8
1
200
0
0
0.2
0.4
0.6
0.8
1
200
hn = 0.23
hn = 0.25
150
150
100
100
50
50
0
1
200
h = 0.15
0
0.8
0
0.2
0.4
0.6
0.8
1
0
0
0.2
0.4
0.6
0.8
1
Figure 1.21 : La distribution empirique de ^ calculee a partir de 200 echantillons de taille
1000 simules selon le modele M1 et pour un niveau de bruit = 1.
1.5. Simulations
81
60
60
hn = 0.07
hn = 0.09
40
40
20
20
0
0.5
1
1.5
2
60
0
0.5
1
1.5
60
h = 0.15
h = 0.17
n
n
40
40
20
20
0
0.5
1
1.5
2
40
0
0.6
0.8
1
1.2
1.4
1.6
40
hn = 0.23
hn = 0.25
30
30
20
20
10
10
0
0.6
2
0.8
1
1.2
1.4
1.6
0
0.6
0.8
1
1.2
1.4
Figure 1.22 : La distribution empirique de ^(^ ) calculee a partir de 200 echantillons de taille
1000 simules selon le modele M1 et pour un niveau de bruit = 1.
82
CHAPITRE 1. ESTIMATION DES RUPTURES
60
150
hn = 0.07
hn = 0.13
40
100
20
50
0
0.2
0.4
0.6
0.8
1
150
0
0.2
0.4
0.6
h = 0.17
n
n
100
100
50
50
0.4
0.6
0.8
1
150
0
0.2
0.4
0.6
0.8
1
60
hn = 0.19
hn = 0.25
100
40
50
20
0
0.2
1
150
h = 0.15
0
0.2
0.8
0.4
0.6
0.8
1
0
0.2
0.4
0.6
0.8
1
Figure 1.23 : La distribution empirique de ^ calculee a partir de 200 echantillons de taille 200
simules selon le modele M2 et pour un niveau de bruit = 0:5.
1.5. Simulations
83
100
60
hn = 0.07
hn = 0.13
40
50
20
0
0
2
4
6
40
0
0.5
1
1.5
2
60
h = 0.15
h = 0.17
n
n
30
40
20
20
10
0
0.5
1
1.5
2
60
0
0.5
1
1.5
60
hn = 0.19
hn = 0.25
40
40
20
20
0
0.5
2
1
1.5
0
0.4
0.6
0.8
1
1.2
1.4
Figure 1.24 : La distribution empirique de ^(^ ) calculee a partir de 200 echantillons de taille
200 simules selon le modele M2 et pour un niveau de bruit = 0:5.
84
CHAPITRE 1. ESTIMATION DES RUPTURES
100
150
hn = 0.07
hn = 0.13
100
50
50
0
0.2
0.4
0.6
0.8
1
200
0
0.2
0.4
0.6
h = 0.17
n
n
150
150
100
100
50
50
0.4
0.6
0.8
1
200
0
0.2
0.4
0.6
0.8
1
80
hn = 0.19
hn = 0.25
150
60
100
40
50
20
0
0.2
1
200
h = 0.15
0
0.2
0.8
0.4
0.6
0.8
1
0
0.2
0.4
0.6
0.8
1
Figure 1.25 : La distribution empirique de ^ calculee a partir de 200 echantillons de taille
1000 simules selon le modele M2 et pour un niveau de bruit = 1.
1.5. Simulations
85
60
60
hn = 0.07
hn = 0.13
40
40
20
20
0
0.5
1
1.5
2
60
0
0.5
1
1.5
60
h = 0.15
h = 0.17
n
n
40
40
20
20
0
0.5
1
1.5
2
60
0
0.5
1
1.5
2
60
hn = 0.19
hn = 0.25
40
40
20
20
0
0.5
2
1
1.5
2
0
0.4
0.6
0.8
1
1.2
1.4
Figure 1.26 : La distribution empirique de ^(^ ) calculee a partir de 200 echantillons de taille
1000 simules selon le modele M2 et pour un niveau de bruit = 1.
86
CHAPITRE 1. ESTIMATION DES RUPTURES
1.6 Annexe A
Proposition 1.1.
R jM (x + u) , M (x)jdx cjuj.
a) 8 u
b)
Supposons H3-0 satisfaite, alors
8u
c)
Z
(M (x + u) , M (x))2dx cu2:
Supposons H4-0 satisfaite, alors
Z
8 u < 0 < v jM(x + v) , M(x)jjM(x + u) , M(x)jdx cjuvj:
Preuve de la proposition 1.1.
-1-v
-1
-1-u
-v
0
-u
1-v
1
1-u
M- ( x + u )
M+( x + u )
M- ( x )
M+( x )
M- ( x + v )
M+( x + v )
Figure 1.27 : Les supports des fonctions M (x + u), M (x), M (x + v), M,(x + u), M,(x)
+
et M, (x + v ), ou u < 0 < v .
+
R
+
R
En remarquant que jM+ (x + u) , M+ (x)jdx = jM+ (x , u) , M+ (x)jdx, on peut donc
supposer pour la demonstration que u < 0. La demonstration pour le noyau M, () est analogue
en tout point a celle pour le noyau M+ () puisque :
a)
Z
Z
jM, (x + u) , M, (x)jdx = jM (x , u) , M (x)jdx :
+
Z
jM (x + u) , M (x)jdx +
+
Z , ,u
1
+
,1Z
+
,u
0
c juj:
1
jM (x)jdx +
+
Z
0
,1,u
jM (x + u)jdx ;
+
jM (x + u) , M (x)jdx
+
+
1.6. Annexe A
b)
87
Nous avons
Z
Z , ,u
1
(M+ (x + u) , M+ (x)) dx 2
,1
+
(M+ (x)) dx +
Z ,u
0
2
Z
0
,1,u
(M+ (x + u) , M+ (x))2 dx
(M+ (x + u))dx ;
c juj:
2
c)
Il y a quatre possibilites pour le produit jM (x + v ) , M (x)jjM (x + u) , M (x)j :
8
>
jM (x + v) , M (x)jjM (x + u) , M (x)j;
>
>
< jM (x + v) , M (x)jjM,(x + u) , M,(x)j;
jM(x + v) , M (x)jjM(x + u) , M(x)j = >
jM,(x + v) , M, (x)jjM (x + u) , M (x)j;
>
>
: jM,(x + v) , M, (x)jjM,(x + u) , M,(x)j:
+
+
+
+
+
+
+
+
c-1)
Z
jM (x + v) , M (x)jjM (x + u) , M (x)jdx
+
+
Z , ,u
1
+
,1,u
+
c
,v
Z
0
+
+
+
+
+
+
jM (x)jjM (x + u) , M (x)jdx ;
Z,1,v
,1,u
+ c4
+
jM (x + v) , M (x)jjM (x + u) , M (x)jdx
Z ,,v1,u
3
+
jM (x + v) , M (x)jjM (x)jdx
+
,1Z
+
Z
0
,v
+
+
+
jM (x + v) , M (x)jdx
+
+
jM (x + v) , M (x)jjM (x + u) , M (x)jdx
+
+
+
+
jM (x + u) , M (x)jdx ;
+
+
c juvj:
5
c-2)
Il est facile de voir que
Z
jM (x + v) , M (x)jjM,(x + u) , M,(x)jdx = 0:
+
+
88
CHAPITRE 1. ESTIMATION DES RUPTURES
c-3)
Z
jM,(x + v) , M, (x)jjM (x + u) , M (x)jdx
+
Z
0
jM, (x + v)jjM (x + u) , M (x)jdx
,v
Z ,u
+
Z
c
+
6
+
jM, (x + v) , M,(x)jjM (x + u)jdx ;
+
0
0
jM (x + u) , M (x)jdx
+
,Zv
+ c7
+
,u
0
c juvj:
+
jM, (x + v) , M, (x)jdx ;
8
c-4)
Z
jM, (x + v) , M,(x)jjM, (x + u) , M, (x)jdx
Z ,u
+
+
c
jM, (x + v) , M,(x)jjM, (x)jdx
Z
0
Z
+
,u
1
,v
,u
Z
9
,v
1
1
Z
0
jM, (x + u) , M, (x)jjM, (x)jdx ;
jM, (x + v) , M,(x)jdx
,v
1
,u
+ c10
jM, (x + v) , M,(x)jjM, (x + u) , M, (x)jdx
Z
jM, (x + v) , M,(x)jjM, (x + u) , M, (x)jdx
1
,v
1
c juvj:
jM, (x + u) , M, (x)jdx ;
11
Ceci termine la demonstration de la proposition 1.1.
ut
Chapitre 2
Tests de rupture
2.1 Introduction
Nous nous interessons dans ce chapitre aux tests de rupture dans la fonction m() du modele
de regression qui fait l'objet de ce travail. Rappelons que dans ce modele les observations (Xi ; Yi )
i = 1; : : :; n sont i.i.d. et satisfont
Yi = m(Xi ) + (Xi)"i:
Trois types de tests sont presentes dans ce chapitre.
Le premier, qui peut ^etre quali e de strictement local, a pour but de decider s'il existe ou
pas un saut de la fonction de regression en un point xe. Il est base sur un estimateur de
l'amplitude du saut eventuel au point . Sous l'hypothese nulle d'absence de discontinuite,
cet estimateur est asymptotiquement gaussien, ce qui conduit a un test naturel de rupture au
point . Il s'agit ici d'exploiter certains resultats obtenus au chapitre precedent, mais aussi de les
etendre puisque nous considerons la situation d'une suite de modeles ou l'amplitude de la rupture
decro^t vers 0 avec la taille de l'echantillon. Nous montrons que notre test est asymptotiquement
de puissance unite.
Un deuxieme test local est base sur l'etude de l'estimateur de saut dans le voisinage du
p
point . En l'absence de saut le processus Zn (z ) = nhn ^( + hn z ) converge vers un processus gaussien. Le supremum de Zn (z ) convenablement normalise converge alors vers une loi
de Gumbel et nous basons notre test sur ce resultat. Comme le test strictement local il est
asymptotiquement de puissance unite.
Le dernier test que nous proposons a pour but de decider s'il existe un point de rupture sur
]0; 1[. Nous utilisons pour le construire le processus de ni en tout t, a une normalisation pres, par
90
CHAPITRE 2. TESTS DE RUPTURE
p
p
la valeur de l'estimateur du saut en t, n (t) = nhn V (t)^(t) ou V (t) = (fX (t)= 2(t))1=2= 2V+ .
Le processus n (t) peut ^etre approche par une suite de processus (n (t))n convergeant vers un
processus gaussien. On en deduit des resultats de convergence vers des lois de Gumbel pour le
supremum de n (t) ou de jn (t)j convenablement normalises. C'est sur ce resultat qu'est base
notre test d'existence d'une rupture. Il est a remarquer ici que, comme on pouvait s'y attendre,
les deux situations K+ (0) = 0 et K+ (0) > 0 conduisent a un traitement di erent.
2.2 Test Strictement Local
Soit 2]0; 1[. E tant donne les observations (X1; Y1 ); : : : ; (Xn; Yn ), nous souhaitons tester
l'hypothese nulle
H0 :
m+ ( ) = m, ( ),
l'hypothese alternative etant
H1 :
m+ ( ) 6= m, ( ) (il y a un point de rupture en dans la fonction de regression m()).
Nous introduisons la quantite ^ ( ) de nie par :
^ ( ) = m
^ + ( ) , m
^ , ( ):
(2.1)
Cette statistique est basee sur l'estimateur de la regression lineaire locale, ^( ), du saut eventuel
de la fonction de regression au point . Clairement, sous l'hypothese nulle H0, la valeur de cette
statistique, a une normalisation pres, doit ^etre faible. Dans le cas contraire, sous H1, elle doit
^etre d'autant plus grande que l'amplitude de la discontinuite, ( ), est grande. Pour pouvoir
construire un test sur la base de cette statistique, nous etablissons la loi asymptotique sous H0
p
de sa version normalisee nhn ^ ( ). Nous rappelons tout d'abord quelques notations :
i)
ii)
iii)
iv)
R
Kl+ = ,01 xl K+(x) dx ;
l = 0; 1; 2;
R
V+2 = ,01 (K2+ , xK1+ )2K+ 2(x)dx ;
K,(x) = K+ (,x),
M+ (x) = (K2+ , xK1+ )K+(x) et M (x) = M+ (x) , M+ (,x);
ou K+ () est une fonction a support [,1; 0]. Nous supposons de plus que K+ () est normalise
de telle sorte que jK2+ K0+ , (K1+ )2 j = 1.
2.2. Test Strictement Local
91
2.2.1 Hypotheses
La fonction m() ainsi que ses derivees premiere et seconde sont supposees cadlag en (continue a droite et limitee a gauche).
B1.
B2.
2(x) = V ar(Y j X = x) est supposee continue en .
B3.
La densite marginale de X , fX (), est supposee continue et strictement positive en .
(hn )n1 est une suite reelle positive veri ant : n!lim
hn = 0, n!lim
nhn = +1 et
+1
+1
5
lim nh = 0.
n!+1 n
B4.
B5.
On suppose qu'il existe un > 0 tel que IE(j"j2+ ) < +1.
2.2.2 Resultats asymptotiques
Le theoreme qui suit est une generalisation du theoreme de normalite asymptotique de ^( ),
(cf le corollaire 1.2), au sens ou l'amplitude de la rupture au point est autorisee a dependre
du nombre d'observations n. Nous supposons que pour tout n, la fonction de regression s'ecrit :
mn(x) = c(x) + n( )1I[;1](x);
ou c() est une fonction continue au point qui ne depend pas de n, et nous notons
n ( ) = mn;+ ( ) , mn;, ( ):
(2.2)
Theoreme 2.1. Supposons que les hypotheses B1-B5 soient veri ees, alors :
p
nhn (^n( ) ,
Preuve du theoreme 2.1.
L N 0; 2 2( ) V 2
(
))
,!
n
+
f ( )
:
L'estimateur du saut admet la decomposition suivante :
^n ( ) = m
^ n;+ ( ) , m^ n;, ( );
P
Pn w,( )y
n w+ ( )y
i
i;
i
=1
i
i=1 i
= Pn +
,
P
n
,
=1 wi ( )
Pni=1ww+i(())c(X ) iP
n w, ( )c(X )
i
i
=1
i
i=1 i
= iP
n w+ ( ) , Pn w, ( )
Pi=1n wi + ( ) ( )1I i=1(X )i Pn w,( ) ( )1I (X )
+ i=1 iPn n + [;1] i , i=1 iPn n , [;1] i
Pn w+ (i=1)w(Xi ()") Pn w, ( )(X )i"=1 wi ( )
+ i=1Pn i + i i , i=1Pn i , i i ;
i=1 wi ( )
i=1 wi ( )
= (C ) + (D) + (B );
(2.3)
92
CHAPITRE 2. TESTS DE RUPTURE
d'ou
^n ( ) , IE [^n ( ) j X1; : : : ; Xn ] = (B ):
Le comportement de (B ) est independant de n ( ) et la demonstration de sa normalite asymptotique est une modi cation immediate de celle du corollaire 1.2 (voir la demonstration dans le
chapitre 1). Il s'ensuit
22( ) p
L
nhn (B ) ,! N 0; f ( ) V+2 :
(2.4)
Nous avons
IE [^n ( ) j X1; : : : ; Xn ] = (C ) + (D):
Compte tenu de la de nition des wi ( ), il vient que pour tout i = 1; : : : ; n;
wi+ ( )1I[;1](Xi ) = wi+ ( );
et
wi, ( )1I[;1](Xi) = 0;
ce qui entra^ne :
IE [^n ( ) j X1; : : : ; Xn] , n ( ) = (C ):
Or, d'apres l'etude de l'erreur quadratique moyenne de ^ ( ) faite au chapitre 1 (cf le theoreme
1.1), nous avons
Pn w+ ( )c(X ) Pn w,( )c(X )
i
i
=1
i
i=1 i
(C ) = iP
n w+ ( ) , Pn w, ( ) ;
i
i=1 iP
Pn i=1
+
w
(
)
(
c
(
X
)
,
c
(
)) , ni=1 wi,P( ) (c(Xi) , c, ( )) ;
i
+
i=1 iP
=
n w + ( )
n w, ( )
i=1 i
i=1 i
= OP (h2n ):
Il en decoule que, si nous supposons que nh5n ! 0, alors
p
IP 0:
nhn (IE [^n ( ) j X1 ; : : : ; Xn] , n( )) ,!
Pour nir, il sut de combiner (2.4) et (2.5) et nous obtenons
22( ) p
L
nhn (^n( ) , n( )) ,! N 0; f ( ) V+2 :
Ce qui acheve la demonstration du theoreme.
Sous l'hypothese nulle, H0, ( ) = 0, nous avons immediatement :
(2.5)
ut
2.2. Test Strictement Local
93
Corollaire 2.1. Supposons que les hypotheses du theoreme 2.1 soient satisfaites, alors sous
l'hypothese nulle H0
p
L N 0; 2 2( ) V 2
nhn ^n ( ) ,!
f ( ) +
:
(2.6)
Sous l'hypothese nulle H0, la loi limite de la statistique de nie dans ( 2.1) depend des quantites
fX ( ) et 2( ) qui sont souvent, en pratique, inconnues. Pour que le test de rupture base sur
cette statistique soit operationnel, il faut avoir un resultat analogue a celui du corollaire 2.1 avec
fX ( ) et 2( ) remplacees par leurs estimateurs. Comme estimateur consistant de fX ( ), on
peut utiliser un estimateur a noyau de la fonction de densite :
f^ ( ) = 1 S ( );
X
nhn
0
ou S0 ( ) est de nie par (1.1). Avec quelques modi cations, l'estimateur propose par Muller et
Stadtmuller [MS87] peut ^etre utilise pour estimer 2( ).
Corollaire 2.2. Soient f^X ( ) et ^ ( ) deux estimateurs consistants respectivement de fX ( )
2
et 2 ( ). L' estimateur f^X ( ) est suppose positif. Supposons les conditions du corollaire 2.1
satisfaites. Sous l'hypothese nulle, H0, :
p
nhn
q
f^X ( )^n ( ) L ,
2
,!
N
0
;
2
V
+ :
^ ( )
(2.7)
Corollaire 2.3. Supposons les conditions du corollaire 2.2 satisfaites. Sous l'hypothese nulle,
H0, :
q
3
2
^X ( )^n ( )
p
f
ju 5= ;
lim IP 4 nhn j p
n! 1 H0
2V ^ ( )
+
+
(2.8)
avec u est le -quantile de la loi normale centree reduite.
Nous considerons maintenant la puissance du test pour une suite d'alternatives locales. De
maniere precise, soit la suite de contre-hypotheses de nies par
H1(n)
: n ( ) = pn ;
nh
n
avec j n j ! 1. Le theoreme suivant montre que le test base sur ^n ( ) a une puissance locale
asymptotique egale a 1.
94
CHAPITRE 2. TESTS DE RUPTURE
Theoreme 2.2. Soient (n ) une suite reelle telle que jnj ! 1 et
suite des alternatives locales associees de nies par n ( ) =
lim IPH1(n)
n!+1
nj
pjnh
n
pn . Pour tout
nhn
q
3
2
^X ( )^n ( )
p
f
4 nhn p
u5
2V ^ ( )
+
! 0, et (H1(n)) la
u > 0:
= 1:
(2.9)
p
En particulier, pour toute suite d'alternatives ou n ( ) tend vers 0 moins vite que 1= nhn , la
puissance locale tend vers 1.
Preuve du theoreme 2.2.
Pour tout u > 0, notons
En, =
2
3
p
p
4 nhn (^n( ) , n( )) q2V ^( ) u , n 5 ;
En+ =
2
3
p
p
4 nhn (^n( ) , n( )) , q2V ^( ) u , n 5 :
et
+
f^X ( )
+
f^X ( )
Nous avons alors
q
3
2
^X ( )^n ( )
p
f
u5
lim IP 4 nhn p
n! 1 H1 n
2V ^ ( )
+
( )
+
d'ou
lim IPH1(n)
n!+1
q
2
3
^X ( )^n ( )
p
f
4 nhn p
u5
2V ^ ( )
+
= n!lim
IPH1(n) En, \ En+ ;
+1
= 0;
= 1:
ut
2.3 Test Local
Le test que nous avons construit au paragraphe precedent est de ni en terme de la statistique
^n ( ), estimateur du saut eventuel au point . Nous proposons maintenant un test base sur la
valeur de la statistique ^n (t) dans un voisinage de . Le probleme de test est identique a celui
du paragraphe precedent, a savoir : tester l'hypothese
2.3. Test Local
H0 :
95
m+ ( ) = m, ( ),
contre
H1 :
m+ ( ) 6= m, ( ) (il y a un point de rupture en dans la fonction de regression m()).
Nous introduisons le processus de variation locale Zn de ni, pour z 2 [,M; M ], M etant
une constante positive quelconque, par :
p
p
Zn(z) = nhn (m^ ( + hnz) , m^ ,( + hn z)) = nhn ^( + hn z):
+
(2.10)
Dans certaines des enonces de ce paragraphe B4 et B5 seront remplaces par B4' et B5' :
(hn )n1 est une suite reelle positive veri ant : n!lim
hn = 0, n!lim
nhn = +1 et
+1
+1
lim nh3 = 0.
n!+1 n
B4'.
B5'.
On suppose que IE(j"j4) < +1.
Nous supposons egalement l'une ou l'autre des deux hypotheses ci-dessous veri ee :
B6-1.
K+ () 2 C 1[,1; 0] avec K+ (0) = K+(,1) = 0,
B6-2.
K+ () 2 C 1[,1; 0] avec K+ (0) 6= 0 ou K+ (,1) 6= 0.
2.3.1 Resultats asymptotiques
Le resultat cle sur lequel est base ce test, est le suivant :
Theoreme 2.3. Supposons que les hypotheses B1-B3, B4' et B5' soient satisfaites. Sous l'hypothese
nulle H0, (Zn ) converge faiblement vers un processus gaussien centre stationnaire (Z ) avec pour
fonction de covariance :
Z
2
(
)
Cov (Z (z1); Z (z2)) = f ( ) M (x + z1 , z2 )M (x)dx :
X
(2.11)
Preuve du theoreme 2.3.
La demonstration de la convergence faible du processus Zn est decomposee en trois parties :
1)
Demonstration de la convergence cylindrique du processus centre Z n ,
Z n = Zn , IE [ZnjX ; : : : ; Xn] ;
1
(2.12)
vers un processus gaussien stationnaire centre de fonction de covariance de nie par (2.11).
96
CHAPITRE 2. TESTS DE RUPTURE
2)
Veri cation du critere de tension pour le processus Z n .
3)
Demonstration, sous l'hypothese H0, de la convergence en probabilite de IE [Zn jX1; : : : ; Xn]
vers zero.
Les etapes 1 et 2 montrent la convergence faible du processus Z n (cf Billingsley [Bil68]).
1. Convergence cylindrique. Pour montrer la convergence cylindrique du processus Z n il
sut (theoreme de Cramer-Wold) de montrer la convergence en distribution de toute combinaison lineaire de variables d'etat du processus. Pour des raisons de simplicite, nous monterons ici
la convergence cylindrique seulement pour la dimension deux. La transposition a une dimension superieure est immediate. Une etape preliminaire a la demonstration de la convergence
cylindrique du processus Z n , consiste a montrer qu'il est, a un facteur pres, asymptotiquement
equivalent a un processus Z~n , qui s'ecrit comme la somme des termes d'une ligne d'un tableau
triangulaire, ou tous les termes d'une m^eme ligne sont i.i.d. C'est ce qu'enonce la proposition
suivante :
Proposition 2.1. Sous les hypotheses B1-B5, nous avons
Z n (z) = (1 +f o(P(1))
Z~n(z) + oP (1);
X )
avec
"X
n
1
Z~n (z) = pnh
n
#
M ( + hhn z , Xi )(Xi)"i :
n
i=1
Preuve de la proposition 2.1.
Remarquons d'abord que nous avons
Z n(z) = Z n (z) , Z ,n (z);
+
ou
et
Z n (z) = Zn(z) , IE Zn(z)jX ; : : : ; Xn ;
p
1
Zn(z) = nhn m^ ( + zhn ):
2.3. Test Local
D'ou
Z n (z) =
=
97
Pn w ( + h z)(X )" Pn w, ( + h z)(X )" n
i i, iP i
n
i i ;
nhn i Pn i
n w, ( + h z )
w
(
+
h
z
)
n
n
i
i
i
i
p Pni (wi ( + hn z) , wi, ( + hn z))(Xi)"i nhn
Pn w ( + h z)
n
i
i
p Pni wi, ( + hn z)(Xi)"i Pni wi ( + hn y) , wi,( + hn z) , nhn
Pn w , ( + h z )
Pn w ( + h z)
;
p
+
=1
=1
=1
+
=1
+
=1
+
=1
=1
=1
+
+
n
i=1 i
i=1 i
n
= An , Bn Cn :
(2.13)
Le produit Bn Cn est asymptotiquement negligeable par rapport a An , et An se comporte
comme (1+fXoP((1))
Z~n(z). En e et
)
wi+ ( + hn z ) , wi, ( + hn z)
= S2+ ( + hn z ) , S2, ( + hn z ) K+ ( + hhn z , Xi )
n
, S ( + hn z) + S ,( + hnz) ( + hn z , Xi)K ( + hhn z , Xi )
n
+h z,X
+ hn z , Xi +
1
+
1
+ S2, ( + hn z ) K+ (
n
i) , K (
,
)
hn hn
+ S1, ( + hn z )( + hn z , Xi ) K+ ( + hhn z , Xi ) + K, ( + hhn z , Xi ) :
Les numerateurs de Cn et Bn s'ecrivent donc
n
X
i=1
n
wi+ ( + hn z) , wi, ( + hnz )
= S2+ ( + hn z ) , S2, ( + hn z ) S0+ ( + hn z )
, S1+( + hn z) + S1,( + hn z) S1+( + hn z)
+ S0+ ( + hn z ) , S0, ( + hn z ) S2, ( + hn z )
+ S1+ ( + hn z ) + S1, ( + hn z ) S1, ( + hn z );
et
n
(2.14)
n
X
(wi+ ( + hn z ) , wi, ( + hn z )) (Xi)"i
i=1
= S2+ ( + hn z ) , S2, ( + hn z ) 0+ ( + hn z )
, S1+( + hn z) + S1,( + hnz) 1+( + hn z)
+ 0+ ( + hn z ) , 0, ( + hn z ) S2, ( + hn z )
+ 1+ ( + hn z ) + 1, ( + hn z ) S1, ( + hn z );
(2.15)
98
CHAPITRE 2. TESTS DE RUPTURE
avec
l (x) =
n
X
i=1
(x , Xi )l K ( x ,h Xi ) (Xi)"i :
n
La n de la demonstration de la proposition est une consequence immediate des resultats enonces
dans le lemme suivant :
Lemme 2.1. Sous les hypotheses B1-B5, nous avons :
P
a) ni wi ( + hn z ) = n hn fX ( )(K K , (K ) + op(1)),
Pn wi hnz ,wi, hnz
b) i P
= oP (1),
n w hn z
i
i
Pn w h z X "
c) i Pn i w n h z i i = OP pnh ,
n
n
i
i
Pn wi hn z ,wi, hnz Xi "i
Pni wi hn z
d) i
= pnhnoPfX Z~n (z ) + oP pnhn .
2
=1
=1
+
( +
+
=1
( +
=1
=1
=1 (
)
+
( +
( +
( +
+
2
2
+ 2
1
+
0
)
)
) (
( +
4
)
1
)
)
=1
+
( +
)) (
( +
)
(1+
(1))
1
( )
)
Pour demontrer ce lemme, nous devons contr^oler le comportement des termes Sl ( + hn z )
et celui des di erences Sl+ ( + hn z ) , (,1)l Sl, ( + hn z ). Rappelons que
Sl ( + hn z) = nhln+1 fX ( )(Kl + op(1)):
(2.16)
Le comportement des di erences et celui des termes l ( + hn z ) est precise dans le lemme
suivant.
Lemme 2.2. Sous les hypotheses B1-B5, nous avons
a) Sl ( + hn z ) , (,1)l Sl, ( + hn z ) = oP (nhln ),
p l b) l ( + hn z ) = OP
nhn .
+
+1
2 +1
Preuve du lemme 2.2.
a)
P
Remarquant que Sl ( + hn z ) s'ecrit sous la forme ni=1 Zi;1 avec
Z = ( + h z , X )lK ( + hn z , Xi );
i;1
n
i
hn
il vient :
h
IE Sl+ ( + hn z ) , (,1)l Sl, ( + hn z )
= nhln+1
Z
i
xl K+(x) [fX ( + hn (z , x)) , fX ( + hn (z + x))] dx ;
= o nhln+1 ;
2.3. Test Local
99
et
h
i
V ar Sl+ ( + hn z ) , (,1)l Sl,( + hnz )
Z
xlK (x) , xl K, (x) fX ( + hn (z , x))dx ;
l nhnl
2
2 +1
+
= O nh2n +1 ;
donc
Sl ( + hn z) , (,1)l Sl, ( + hn z)
= o
+
nhln+1
+ OP
q
nhnl
2 +1
;
= oP nhln+1 :
b)
Comme
et
IE l ( + hn z ) = 0;
Z
l
V ar l ( + hn z) nhn
x lK(x) ( + hn (z , x))fX ( + hn (z , x))dx ;
l 2 +1
2
2
2
= O nh2n +1 ;
alors
l( + hn z) = OP
q
nhnl
2 +1
:
ut
Preuve du lemme 2.1.
P
Puisque ni=1 wi ( + hn z ) = S2 ( + hn z )S0 ( + hn z ) , (S1( + hn z ))2, la partie a) du
lemme 2.1 peut ^etre deduite facilement de (2.16).
b) Les parties b) et c) du lemme 2.1 sont des consequences immediates de (2.14), (2.15), des
parties a) et b) du lemme 2.2 et de la partie a) du lemme 2.1.
a)
En e et nous avons
n
X
i=1
wi+ ( + hn z ) , wi,( + hnz ) = S2+ ( + hnz) , S2,( + hn z) S0+( + hn z)
, S ( + hn z) + S ,( + hnz) S ( + hn z)
+ S ( + hn z ) , S , ( + hn z ) S , ( + hn z )
=
+
1
1
+
1
+
0
0
2
+
1
1
1
+ S ( + hn z ) + S , ( + hn z ) S , ( + hn z );
, oP n hn ;
2 4
100
CHAPITRE 2. TESTS DE RUPTURE
et
n
X
i=1
donc
wi+( + hn z ) = n2h4n fX2 ( )(K2+K0+ , (K1+)2 + op(1));
Pn w ( + h z) , w,( + h z)
n
n = o (1) :
i
iP
i
P
n w ( + h z )
n
i
i
=1
+
=1
c)
n
X
i=1
+
wi ( + hn z ) (Xi)"i = S2( + hn z )0 ( + hn z ) , S1( + hnz )1 ( + hn z );
, pnh ;
n
= OP nh3n OP
= OP n hn :
3
2
7
2
d'ou
Pn w( + h z)(X )"
n
i i
iP i
n w ( + h z )
= OP
=1
i=1 i
d)
n
p1
nhn
:
n
X
(wi+ ( + hn z ) , wi, ( + hn z )) (Xi)"i
i=1
= S2+ ( + hn z ) , S2, ( + hn z ) 0+ ( + hn z )
, S1+( + hnz) + S1,( + hn z) 1+ ( + hnz)
+ 0+ ( + hn z ) , 0, ( + hn z ) S2, ( + hn z )
+ 1+ ( + hn z ) + 1, ( + hn z ) S1, ( + hn z );
, p = oP nh3n OP nhn
+ 0+ ( + hn z ) , 0, ( + hn z ) nh3n fX ( )(K2, + op (1))
+ 1+ ( + hn z ) + 1, ( + hn z ) nh2n fX ( )(K1, + op (1));
,
= nh3n fX ( ) (1 + op (1)) K2, 0+ ( + hn z ) , 0, ( + hn z )
p ,,
K
+
,
1
+ h 1 ( + hn z ) + 1 ( + hn z ) + oP n3 h7n ;
n
d'ou
Pn (w ( + h z) , w,( + h z))(X )"
n
i i
i
i P n
i
=1
+
n w+ ( + h z )
n
i=1 i
= p1 + oP (1) Z~n (z ) + oP p 1 :
nhn fX ( )
nhn
2.3. Test Local
101
ut
Il resulte des enonces b) et c) du lemme 2.1 que le produit Bn Cn dans l'ecriture (2.13) tend en
probabilite vers zero, et, de la partie d) de ce m^eme lemme que An a le comportement annonce.
Ceci termine la demonstration de la proposition 2.1.
ut
Montrons maintenant la convergence cylindrique de Z~ . Pour cela considerons :
aZ~n (z1 ) + bZ~n (z2) =
=
h Pn
+hnz1 ,Xi ) + bM ( +hn z2 ,Xi )) (X )"
i i
hn
pnh f ( ) hn
n X
n
X
aZ~i(n)(z1 ) + bZ~i(n)(z2):
i=1
i=1 (aM (
i
;
Lemme 2.3. Sous les m^emes hypotheses que celles du theoreme 2.3, nous avons :
h
i
a)
IE aZ~n (z1 ) + bZ~n (z2) = 0,
b)
2
V ar aZ~n (z1) + bZ~n (z2 ) = Va;b
(z1 , z2 ) (1 + o(1)),
c)
h
Pn
i
2+
(n)
(n)
= O((nh),=2 ),
i=1 IE jaZ~i (z1) + bZ~i (z2)j
avec
Z
2
2
Va;b
(z ) = f (())
[aM (x + z ) + bM (x)]2dx :
X
b) :
Le comportement de la covariance du processus (Z~n ) se deduit immediatement de la partie
~
2
Cov Zn(z1); Z~n(z2) = f (())
X
Z
M (x + z1 , z2 )M (x)dx (1 + o(1)) :
Preuve du lemme 2.3.
Les "i sont des variables aleatoires centrees et independantes des Xi , alors il est facile de montrer
que :
a)
h
i
IE aZ~n (z1 ) + bZ~n (z2 ) = 0:
102
b)
CHAPITRE 2. TESTS DE RUPTURE
h
i
V ar aZ~n(z1 ) + bZ~n (z2 )
+h z ,X
2
1
+
h
z
n
1
n
2 ,X
2
2
= 2
) + bM (
)) (X )" ;
fX ( )hZn IE (aM (
hn
hn
2 2
= 21
f ( ) (aM (x + z1 , z2) + bM (x)) ( + hn(z2 , x))fX ( + hn (z2 , x))dx ;
Z
2
(
)
2
= f ( )
[aM (x + z1 , z2 ) + bM (x)] dx (1 + o(1));
X
2
= Va;b
(z1 , z2 )(1 + o(1)):
X
c)
n
X
2+
IE aZ~i(n) (z1) + bZ~i(n)(z2 )
i=1
2+
nIE aM ( +hnhzn1 ,X ) + bM ( +hnhzn2 ,X ) 2+ (X )j"j2+
=
1+=2
2+
,=2 fX ( )(nhn)
= O (nhn )
:
Comme consequence du lemme precedent nous avons
~(n)(z1 ) + bZ~i(n)(z2)j2+
=1 IE jaZi
h
V ar aZ~n (z1) + bZ~n(z2)
;
ut
Ceci acheve la demonstration du lemme 2.3
Pn
i
i
1+
=2
= O((nh),=2 ) ! 0:
D'apres le theoreme central limite de Liapounov nous pouvons conclure que :
L N ,0; V 2 (z , z ) :
aZ~n (z1) + bZ~n (z2 ) ,!
1
a;b 2
Ceci etablit la convergence cylindrique du processus Z n .
2. Critere de Tension. Il est facile aussi d'etablir que :
a)
Sous l'hypothese B6-1, nous avons pour tout z1 z2 ,
IE Z~n (z2 ) , Z~n (z1 )
2
(z , z ) :
2
1
2
(2.17)
2.3. Test Local
103
Sous l'hypothese B6-2, nous avons pour tout z1 z z2,
b)
IE Z~n (z2 ) , Z~n (z )
~
2
Zn(z1) , Z~n(z)
2
(z , z ) :
2
1
(2.18)
2
En e et
a)
h
i
2
IE Z~n (z2 ) , Z~n (z1)
+h z ,X
2
1
+
h
z
n
2
n
1 ,X
2
2
= 2
) , M(
)) (X )" ;
hn
hn
fX ( )hZn IE (M (
2 2
= 21
fXZ( ) (M (x + z1 , z2) , M (x)) ( + hn (z2 , x))fX ( + hn(z2 , x))dx ;
[M (x + z2 , z1) , M (x)]2dx ;
(z , z ) :
2
2
1
Nous avons
b)
IE Z~n (z2) , Z~n (z )
ou
~
2
Zn(z ) , Z~n(z)
2
1
Ui = M ( +hnhzn ,Xi ) , M ( +hnhnz,Xi ) (Xi)"i,
ii)
Vi = M ( +hnhzn ,Xi ) , M ( +hhnnz,Xi ) (Xi)"i.
1
D'apres l'inegalite de Burkholder-Rosenthal, nous obtenons
IE Zn (z2 ) , Z~n (z )
i;j n Ui Vj
fX4 ( )n2h2n
2
;
2
~
1
i)
=
IE
P
~
2
Zn(z ) , Z~n (z)
1
2
hP
i
2 2
1i;j n Ui Vj
;
f X4 ( )n2h2n
2nIE U12V12 + 2n(n , 1)IE U12 IE V12
:
fX4 ( )n2h2n
2IE
Or
i)
IE U
2
1
Z
= hn (M (x + z1 , z ) , M (x))2 2( + hn (z , x))fX ( + hn (z , x))dx ;
hnjz1 , zj;
1 hn jz2 , z1 j:
1
104
ii)
iii)
CHAPITRE 2. TESTS DE RUPTURE
Un calcul similaire conduit a
Z
IE V12 1
hn jz2 , z1j:
Si nous supposons que IE "4 < 1, alors
IE U12 V12 = hn (M (x + z2 , z ) , M (x))2(M (x + z1 , z ) , M (x))2
( + hn(z , x))IE " fX ( + hn (z , x))dx ;
hn(z , z ) :
4
d'ou
2
2
IE Z~n (z2) , Z~n (z )
1
4
2
~
2
Zn(z1) , Z~n(z)
2
(z , z ) :
2
1
2
En n d'apres Billingsley [Bil68], les inegalites (2.17) et (2.18) impliquent que le processus Z~n
est tendu.
3. Limite de IE [Zn(z) j X ; : : : ; Xn]. Sous l'hypothese H0, nous avons :
IE [Zn (z ) j X ; : : : ; Xn ] = IE Zn (z ) j X ; : : : ; Xn , IE Zn, (z ) j X ; : : : ; Xn ;
p
= IE Zn (z ) j X ; : : : ; Xn , nhn m( + hn z )
p
, IE Zn,(z) j X ; : : : ; Xn , nhn m( + hn z) ;
p
= IE Zn (z ) j X ; : : : ; Xn , nhn m ( + hn z )
p
, IE Zn,(z) j X ; : : : ; Xn , nhn m, ( + hn z) :
1
+
1
+
1
1
1
1
+
1
+
1
Or
IE [Zn (z )pj X1; : : : ; Xn ] , m ( + h z )
n
Pn wnh(n+ h z) (m(X ) , m ( + h z))
i
n ;
= i i Pn
=1
=
ou
n w ( + h z )
n
i=1 i
S2 ( + hn z)M0 ( + hnz ) , S1( + hn z)M1( + hn z ) ;
S2 ( + hn z)S0( + hnz ) , S1 ( + hn z)S1( + hn z )
n
X
Ml (x) = (x , Xi )lK( x ,h Xi ) (m(Xi) , m (x)) :
n
i=1
2.3. Test Local
105
Lemme 2.4. Sous l'hypothese nulle H0, nous avons
Ml ( + hnz ) = OP (nhln+2 ):
Preuve du lemme 2.4. Elle est en tous points semblable a celle du lemme 2.2.
ut
Appliquons maintenant le lemme 2.4 et l'egalite (2.16). Nous en deduisons alors,
p
IE Zn (z ) j X1 ; : : : ; Xn , nhn m ( + hn z ) = OP
p nh3n :
Si nous supposons que nh3n tend vers zero, alors nous en deduisons que IE [Zn (z ) j X1; : : : ; Xn ]
converge en probabilite vers zero.
4. Conclusion. Sous l'hypothese nulle, le processus Zn converge faiblement vers le processus
gaussien centre stationnaire Z avec pour fonction de covariance :
Z
2
(
)
Cov (Z (z1); Z (z2)) = f ( ) M (x + z1 , z2 )M (x)dx :
X
Ceci termine la demonstration du theoreme 2.3.
ut
Le resultat de Leadbetter & al[LLR83] que nous rappelons ci-dessous est fondamental pour
la construction de la statistique du test local que nous de nissons plus loin.
Theoreme 2.4 (Leadbetter & al[LLR83]) Soit f (t); t 0g un processus gaussien stationnaire standard (IE[ (t)] = 0 et IE[ (t)] = 1) de fonction de covariance (). Supposons que :
2
la fonction de correlation, (), admette au voisinage de zero (h ! 0) un developpement
limite de la forme suivante :
C1.
(h) = 1 , jhj + o(jhj );
(2.19)
(h) log(h) ! 0;
(2.20)
ou 0 < 2,
C2.
lorsque h ! 1, nous ayons
alors, quand T ! 1 nous avons :
106
CHAPITRE 2. TESTS DE RUPTURE
"
a)
IP aT
"
b)
IP aT
!
#
sup (t) , bT x ! exp (, exp(,x))
t2[0;T ]
!
#
sup j (t)j , bT x ! exp (,2 exp(,x)),
t2[0;T ]
ou
aT =
et
p
2 log(T );
(2.21)
h
bT = aT + a1T 22, log(log(T )) + log( = Hp22,
1
(2
=
) 2
i
) ;
(2.22)
avec H une constante strictement positive, (H1 = 1, H2 = p1 ).
De maniere precise notons :
i)
ii)
C (h) = Cov(Z (z + h); Z (z )),
(h) = CC((0)h) .
Lemme 2.5. Sous les conditions B1-B6, le processus Z veri e les hypotheses C1 et C2.
Preuve du lemme 2.5.
Veri ons C1. Nous avons
R M (x + h)M (x)dx
(h) = R
:
(M (x)) dx
2
Proposition 2.2. Si la fonction K () est de classe C [,1; 0], alors
+
1
(h) = 1 , c1(K+ )jhj , c2(K+)h2 + o(h2);
ou
2
2
c1(K+ ) = 2MR+ (0) + M2+(,1) ;
(M (x)) dx
et
0
0
c2 (K+ ) = M+ (,1)M+(,1) , 2RM+ (0)M2 + (0) +
(M (x)) dx
R ,M (x) dx
:
(1)
2
2.3. Test Local
107
R
R
Il est clair que M (x + h)M (x)dx = M (x , h)M (x)dx. D'ou pour prouver la proposition
2.2, quitte a changer h en ,h, on peut supposer h > 0.
Puisque nous cherchons un developpement limite de () au voisinage de zero, on peut egalement
R
supposer que h < 1. M (x + y )M (x)dx se decompose comme suit :
Z
Z ,h
M (x + h)M (x)dx =
,1
+
M+ (x + h)M+ (x)dx ,
Z
1
0
,h
Z
0
,h
M,(x + h)M+ (x)dx
M,(x + h)M, (x)dx :
Il est facile de voir en faisant un changement de variable u = ,x , h que
Z
1
,h
0
M, (x + h)M, (x)dx =
=
Z ,h
Z,,1 h
,1
M, (,x)M, (,x , h)dx ;
M+ (x + h)M+(x)dx :
Comme K+ () 2 C 1 [,1; 0], alors M+ () 2 C 1 [,1; 0] et M, () 2 C 1[0; 1]. Par le theoreme de
Taylor, nous obtenons :
1)
Z ,h
,1
=
Z
M+ (x + h)M+ (x)dx
0
,1
,
M+2 (x)dx , h2 M+2 (0) + M+2 (,1)
Z0,
2
h
2
0
0
0
, 2 M+ (,1)M+(,1) , M+ (0)M+(0) +
M+ (x) dx + o(h2):
,1
2)
Z
0
,h
M, (x + h)M+(x)dx = hM+2 (0) , h2M+ (0)M+0 (0) + o(h2):
Il en resulte que
Z
=
M (x + h)M (x)dx
Z
,
1
M 2(x)dx , h 2M+2 (0) + M+2 (,1)
,1
,h
2
M+0 (,1)M+(,1) , 2M+ 0(0)M+ (0) +
Z ,
0
M (x) dx + o(h );
0
,1
+
2
2
108
CHAPITRE 2. TESTS DE RUPTURE
ceci implique qu'au voisinage de zero (h ! 0), nous avons
(h) = 1 , jhj 2MR+(0) + M2+ (,1)
(M (x)) dx
0 (,1)M+ (,1) , 2M+ 0 (0)M+(0) + R ,M (1)(x)2 dx
M
+
R (M (x))2dx
+ o(h2 ):
, h2
2
2
Veri ons C2. La condition C2 est clairement realisee puisque (h) = 0 des que jhj 2.
ut
D'ou le resultat enonce dans le lemme 2.5.
De maniere standard, nous en deduisons que le supremum de Zn convenablement normalise
admet pour loi asymptotique une loi du type loi de Gumbel. De maniere precise notons :
z) ,
Rn;M = sup pZnC((0)
i)
z2[,M;M ]
,n;M =
ii)
iii) aM
iv) b1M
v) bM
2
pn(z)j ,
sup jZ
z2[,M;M ] C (0)
p
= 2 log(M ),
= aM + a1M
h
1
2
i
log(log(M )) + log( c (pK ) ) ,
1
pc
+
= aM + aM log( p(2K ) ).
2
1
+
Nous avons alors le resultat suivant et son corollaire immediat :
Theoreme 2.5. Supposons les conditions du theoreme 2.3 satisfaites. Sous l'hypothese nulle
H0 :
1)
2)
Si B6-1 est veri ee, alors
IP a
M (,n;M , bM ) x = exp(,2 exp(,x)).
a)
lim lim IP aM (Rn;M , b1M ) x = exp(, exp(,x)).
M !+1 n!+1
b)
M !+1 n!+1
lim
lim
1
Si B6-2 est veri ee, alors
IP a
M (,n;M , bM ) x = exp(,2 exp(,x)).
a)
lim lim IP aM (Rn;M , b2M ) x = exp(, exp(,x)).
M !+1 n!+1
b)
M !+1 n!+1
lim
lim
2
2.3. Test Local
109
Il est immediat de montrer que lorsqu'on remplace C (0) par un estimateur consistant dans
,n;M et Rn;M , les resultats ci-dessus restent valables. Soit C^ (0) un estimateur consistant de
C (0). Notons
i)
ii)
z) ,
R^n;M = sup pZnC^((0)
z2[,M;M ]
,^ n;M =
jZ
z)j .
pnC^((0)
z2[,M;M ]
sup
Corollaire 2.4. Supposons les conditions du theoreme 2.3 satisfaites. Sous l'hypothese nulle
H0 :
1)
Si B6-1 est veri ee, alors
a)
b)
2)
h
h
i
i
lim lim IP aM (R^ n;M , b1M ) x = exp(, exp(,x)).
M !+1 n!+1
lim
lim IP aM (,^ n;M , b1M ) x = exp(,2 exp(,x)).
M !+1 n!+1
Si B6-2 est veri ee, alors
a)
b)
h
h
i
i
lim lim IP aM (R^ n;M , b2M ) x = exp(, exp(,x)).
M !+1 n!+1
lim
lim IP aM (,^ n;M , b2M ) x = exp(,2 exp(,x)).
M !+1 n!+1
Il est facile de montrer que les tests de l'hypothese d'absence de rupture, bases naturellement
sur les statistiques ,n;M ou ,^ n;M ont un comportement asymptotique satisfaisant. Ici egalement
on considere des alternatives locales de la forme :
H1(n)
: n ( ) = pn ;
nh
n
avec j n j ! 1. Le theoreme suivant montre que les tests bases sur ,n;M ou ,^ n;M ont une
puissance locale asymptotique egale a 1.
Theoreme 2.6. Supposons B1-B5 et B6-1 ou B6-2 satisfaites. Sous la suite des alternatives
locales (H1(n)), nous avons pour tout u, pour tout M > 0 et pour tout i = 1; 2, si jn j ! 1 :
h
i
a)
lim IP
a (, , biM ) u = 1.
n!+1 H1(n) M n;M
b)
lim IP
a (,^ , biM ) u = 1.
n!+1 H1(n) M n;M
110
CHAPITRE 2. TESTS DE RUPTURE
Preuve du theoreme 2.6.
Pour tout u, pour tout M > 0 et pour tout i = 1; 2 on note
+
En;i
=
2s
n
4 nh
^
et
, =
En;i
n ( ) 3
5;
(^n ( ) , n ( )) , a + biM , q
C (0)
M
u
C^ (0)
( ) 3
u
(^ ( ) , n ( )) a + biM , qn 5 :
M
C (0) n
2s
n
4 nh
^
C^ (0)
h
i
h
i
+
, ;
lim IP
a (,^ , biM ) u n!lim
IPH1(n) En;i
\ En;i
n!+1 H1(n) M n;M
+1
= 0:
ut
Dans plusieurs cas pratiques, on conna^t a priori le signe de la rupture, si elle a eu lieu. Pour
tester ce type d'hypothese, un test unilateral est mieux adapte. Dans le cas ou ce signe est
positif, les statistiques Rn;M et R^ n;M fournissent un moyen pour tester l'hypothese
H0 :
( ) = 0,
contre
H1 :
( ) > 0 (il y a un saut positif en dans la fonction de regression m()).
Le theoreme suivant montre la consistance de ces tests.
Theoreme 2.7. Supposons B1-B5 et B6-1 ou B6-2 satisfaites. Sous la suite des alternatives
locales (H1(n)), nous avons pour tout u, pour tout M > 0 et pour tout i = 1; 2, si n ! 1 :
h
i
a)
lim IP
a (R , biM ) u = 1.
n!+1 H1(n) M n;M
b)
n!+1
lim IPH1(n) aM (R^ n;M , biM ) u = 1.
2.4 Test Global
A partir des observations (X1; Y1); : : : ; (Xn; Yn ), nous souhaitons tester l'hypothese nulle
2.4. Test Global
H0 :
8t 2]0; 1[;
111
m+ (t) = m, (t),
l'hypothese alternative etant
H1 :
9 2]0; 1[;
m()).
m+ ( ) 6= m,( ) (il y a un point de rupture dans la fonction de regression
Nous introduisons le processus n (t) de ni par :
pnh f (t) =
n (t) = p n X(t)
(m^ (t) , m^ , (t)) ;
2V
1 2
+
et nous posons :
+
2
(2.23)
1=2
V (t) = p 1 fX2((tt)) :
(2.24)
2V+
Pour faciliter la lecture de cette partie du chapitre, nous allons presenter l'essentiel de notre
demarche et enoncer les resultats sans demonstration. L'enonce precis des hypotheses ainsi que
les preuves seront donnes plus loin.
La fonction de regression m() est supposee n'avoir que des discontinuites de premiere espece,
et on peut donc considerer une version cadlag (voir hypothese B7 plus loin). La principale
restriction par rapport a la situation du test local et a celle du test strictement local concerne
le bruit ". Nous sommes conduits a supposer que la distribution du bruit est susamment
concentree (voir hypotheses B10-1 et B10-2). De plus le comportement de la taille de fen^etre
hn est lie a celui de la queue de la distribution de ". Les conditions concernant " sont a fortiori
satisfaites dans le cas borne; elles le sont aussi dans le cas gaussien. Elles sont destinees a
nous permettre d'utiliser un resultat de Johnston [Joh82] montrant que le processus n (t),
approximation de n (t), que nous de nissons de maniere precise ci-dessous peut ^etre approche
par un processus gaussien Gn (t) obtenu par lissage du processus de Wiener bilateral. Comme
la fonction de covariance de ce processus satisfait les hypotheses du theoreme de Leadbetter et
al. (conditions C1 et C2 du du theoreme 2.4), nous obtenons la convergence du supremum de
n (t) ou de jn (t)j vers des lois de Gumbel.
Nous commencons par decomposer n (t) en somme de sa moyenne En (t) et de la partie
aleatoire centree Bn (t) :
n (t) = En (t) + Bn (t);
112
CHAPITRE 2. TESTS DE RUPTURE
ou
En (t) = En+(t) , En,(t);
Pn w~+(t)m(X ) Pn w~,(t)m(X ) p
= nhn V (t) i=1
Pn i w~+ (t) i , i=1
Pn i w~,(t) i ;
i=1 i
i=1 i
et
Bn (t) = Bn+ (t) , Bn, (t);
Pn w~+ (t)(Xi)"i Pn w~,(t)(Xi)"i p
= nhn V (t) i=1Pn i +
, i=1Pn i w~,(t)
:
w
~
(
t
)
i=1 i
i=1 i
Les quantites w~i (t) sont de nies comme suit :
w~i() = n21h4 wi():
n
Posons egalement
M~ () = nh1 M ();
n
et
n (t) = n+ (t) , n, (t);
ou
n
X
1
p
M ( t ,h Xi )(Xi)"i ;
n
2VK nhn fX (t) (t) i
pnh V (t) X
n
n
~ t , Xi
n (t) = p
=
+
=1
fX (t)
i=1
M ( h ) (Xi)"i;
n
Le lemme suivant montre que n (t) peut ^etre approche par n (t)
Lemme 2.6. Sous les hypotheses B7-B12 et pour tout hn = n, avec 1=5 < < 1=3, alors il
existe c1 > 0 et c2 > 0 telles que :
"
a)
IP sup jBn (t) , n (t)j c1(nhn )
t2[0;1]
"
b)
IPH0 sup jEn (t)j c1(nhn )
t2[0;1]
=
5 1 4
=
5 1 2
#
#
exp(,c nhn ).
2
3
exp(,c nhn ).
2
3
La demonstration de ce resultat est donnee plus loin.
On peut maintenant ecrire sous l'hypothese d'absence de discontinuites (H0) :
2.4. Test Global
113
"
IPH0 an sup jn (t)j , sup jn (t)j 2c1an (nhn )
"
t2[0;1]
t2[0;1]
IPH0 an sup jn(t) , n (t)j 2c an(nhn )
=
5 1 4
1
t2[0;1]
"
=
5 1 4
#
#
;
;
!
IPH0 an sup jBn (t) , n(t)j + sup jEn(t)j 2c an(nhn )
t2[0;1]
"
t2[0;1]
IPH0 an sup jBn (t) , n(t)j c an(nhn )
1
t2[0;1]
=
5 1 4
#
1
"
Il s'ensuit alors
;
=
5 1 4
t2[0;1]
#
;
3
"
!
#
lim IP an sup n (t) , bn x
n!+1
#
+ IPH0 an sup jEn (t)j c1an (nhn )
2 exp(,c nhn ):
2
=
5 1 4
t2[0;1]
"
!
#
= n!lim
IP an sup n (t) , bn x :
+1
t2[0;1]
Comme
plus haut le processus n (t) peut ^etre approche par le processus Gn (t) =
q 2il aR ete dit
t
,
x
1= 2V+ hn M ( hn ) dW (x) ou W est le processus de Wiener bilateral, au sens suivant
sup jn (t) , Gn (t)j = oP (log n),1=2 :
t2[0;1]
Il vient alors:
"
!
lim IP an sup n (t) , bn x
n!+1
#
t2[0;1]
"
!
#
= n!lim
IP an sup Gn (t) , bn x :
+1
t2[0;1]
On veri e facilement par changement de variable que
(
)
Z
L fsup Gn(t)g = L sup p21V M (t , x) dW (x)
t2[0;Tn ]
+
R
ou Tn = 1=hn . Le processus M (t , x) dW (x) est un processus gaussien centre de fonction de
covariance de nie par
Z
C (h) = M (x + h)M (x) dx
dont on a vu plus haut qu'elle satisfait les conditions du theoreme 2.4. Avec la normalisation
habituelle sup Gn (t) est donc asymptotiquement de loi de Gumbel. Nous avons donne les grandes
lignes de la demonstration du resultat suivant:
Theoreme 2.8. Notons
an =
p
,2 log(hn );
(2.25)
114
1)
CHAPITRE 2. TESTS DE RUPTURE
Si K+ (,1) 6= 0 ou K+ (0) 6= 0,
h c
bn = an + a1n log
2)
Si K+ (,1) = K+ (0) = 0,
bn = an + an log
1
ou
i
pK+ ) + 21 log log h1n
1(
pc
p K+ )
2
2(
;
;
(2.26)
(2.27)
+ M+ (,1)
c1(K+ ) = 2M+R(0)
M 2(u)du ;
2
2
R (M 0(u)) du
c (K ) = 2 R M (u)du :
et
2
2
+
2
Supposons les conditions B7-B12 satisfaites et hn = n, avec 51 < < 13 . Sous l'hypothese nulle
H0 :
"
a)
b)
!
#
lim IP an sup n (t) , bn x = exp(, exp(,x)).
n!+1
"
t2[0;1]
!
#
lim IP an sup jn (t)j , bn x = exp(,2 exp(,x)).
n!+1
t2[0;1]
Les arguments precedant l'enonce seront developpes plus loin de maniere plus precise.
Il est facile de montrer que le test global de l'hypothese d'absence de rupture, base sur le
theoreme 2.8 a un comportement asymptotique satisfaisant. Ici egalement on considere des
alternatives locales de la forme :
H1(n)
: n ( ) = pn ;
nh
n
jnj ! 1. Le theoreme suivant montre que le test global, lui aussi, a une puissance
avec plog(
n)
locale asymptotique egale a 1.
Theoreme 2.9. Supposons les hypotheses
de nies au theoreme 2.8.
1)
B1-B5
satisfaites. Soient (an ) et (bn) les suites
n ! +1, sous la suite d'alternatives locales H1(n), nous avons pour tout u > 0
Si plog(
n)
"
!
#
lim IPH1(n) an sup n (t) , bn u
n!+1
t2[0;1]
= 1:
(2.28)
2.4. Test Global
2)
115
nj ! 1, sous la suite d'alternatives locales H1(n), nous avons pour tout u > 0
Si pjlog(
n)
"
!
lim IPH1(n) an sup jn (t)j , bn u
n!+1
t2[0;1]
#
= 1:
(2.29)
Hypotheses
La fonction m() ainsi que ses derivees premiere et seconde sont supposees cadlag sur
[0; 1].
B7.
B8. fX ():
[0; 1].
B9.
la densite marginale de X est supposee lipschitzienne et strictement positive sur
2() est supposee bornee sur l'intervalle [0; 1].
h i
B10-1.
9 C > 0 tel que IE j"jk < C k, k!, k = 3; 4; : : :
B10-2.
Il existe une suite ( n )n1 tel que
1)
2)
B11.
n ! +1,
h
i
IE j"j2 1I(j"j > n ) = O(1=n).
Soit (hn )n1 une suite reelle positive veri ant :
lim h = 0 et n!lim
nhn
n!+1 n
+1
1=2
2
2) n h,
n n,1=6 (log n) ! 0.
1)
B12.
2
= +1,
K+ () est une fonction derivable a support sur [,1; 0].
Remarque 2.1.
1)
Si les " sont bornes, pour toute suite ( n ) qui tend vers l'in ni, les conditions B10-1 et B10-2
sont veri ees.
2)
Si " ; N (0; 1) et en choisissant n = n ( > 0, proche de zero), les conditions B10-1 et
B10-2 sont veri ees.
3)
Si n h,n 1=2 n,1=6 (log n)2 ! 0 alors nhn ! 1.
116
CHAPITRE 2. TESTS DE RUPTURE
On peut ecrire
n (t) = En (t) + Bn (t);
ou
En (t) = En+(t) , En,(t);
Pn w~+(t)m(Xi) Pn w~,(t)m(Xi) p
= nhn V (t) i=1
Pn i w~+ (t) , i=1
Pn i w~,(t) ;
i=1 i
i=1 i
et
Bn (t) = Bn+ (t) , Bn, (t);
Pn w~+ (t)(Xi)"i Pn w~,(t)(Xi)"i p
= nhn V (t) i=1Pn i +
, i=1Pn i w~,(t)
:
w
~
(
t
)
i=1 i
i=1 i
Les quantites w~i (t) sont de nies comme suit :
w~i() = n21h4 wi():
n
Posons egalement
M~ () = nh1 M ();
n
et
n (t) = n+ (t) , n, (t);
ou
n
X
1
p
M ( t ,h Xi )(Xi)"i ;
2VK nhn fX (t) (t) i
n
pnh V (t) X
n
n
~ t , Xi
n (t) = p
=
+
=1
fX (t)
i=1
M ( h ) (Xi)"i;
n
alors nous avons le lemme suivant
Lemme 2.7. Sous les hypotheses B7-B12 et pour tout hn = n, avec 1=5 < < 1=3, alors il
existe c1 > 0 et c2 > 0 telles que :
"
a)
IP sup jBn (t) , n (t)j c1(nhn )
t2[0;1]
"
b)
IPH0 sup jEn (t)j c1(nhn )
t2[0;1]
=
5 1 4
=
5 1 2
#
#
exp(,c nhn ).
2
exp(,c nhn ).
2
3
3
2.4. Test Global
117
Preuve du lemme 2.7.
a)
D'apres l'inegalite triangulaire, nous avons
D'autre part
sup jBn (t) , n (t)j sup jBn+ (t) , n+ (t)j + sup jBn, (t) , n, (t)j:
t2[0;1]
t2[0;1]
t2[0;1]
Bn (t) , n(t)
Pn w~(t) , f (t)M~ ( t,Xi ) (X )"
i i
i
i
= nhn V (t)
PXn w~(t) hn
i
i
"X
#
n
= ,f (t) , Pn w~ (t)
=
(
nh
)
(
nh
)
V
(
t
)
t
,
X
n
n
i
X
i
i
+
M~ ( h ) (Xi)"i
P
:
n
fX (t)
w
~
(
t
)
n
p
=1
=1
1 4
1 4
2
i=1 i
i=1
Nous en deduisons, qu'il existe a1 ; a2 > 0 telles que
sup jBn (t) , n (t)j
t2[0;1]
a
p
sup
1
t2[0;1]
nhn
+ a2 sup (nhn )1=4
t2[0;1]
sup (nhn)
=
1 4
t2[0;1]
t
,
X
i
~
w~i (t) , fX (t)M( h ) (Xi)"i
n
!
n
X
t
,
X
M~ ( h i )(Xi)"i
n
i=1
n X
i=1
n
X
i=1
w~i (t) , fX2 (t)
!
max(a ; a )A (B + C D);
1
=1
sup
t2[0;1] j
1
!
sup
t2[0;1] j
!
Pn w~ (t)j ;
i
i
=1
2
ou
i)
A = sup j Pni
t2[0;1]
wi (t)j ,
1
=1 ~
!
P
n w~ (t) , f (t)M
t,X
ii) B =
n sup
X ~ ( hn i ) (Xi)"i ,
i
i
t2 ;
!
P
=
n
t
,
X
i
iii) C = (nh )
sup
M~ ( ) (X )" ,
pnh
n
iv)
[0 1]
1 4
t2[0;1]
D = (nhn )
Nous avons
=
1 4
sup
t2[0;1]
A =1
i=1
hn
i i
Pn w~ (t) , f (t)
i
i
X
!
2
=1
.
1
inf f (t) , sup
t2[0;1] X
t2[0;1]
2
j Pni w~i (t) , fX (t)j
=1
2
;
1
Pn w~(t)j
i
i
=1
!
118
CHAPITRE 2. TESTS DE RUPTURE
En posant
inf f (t) = f0 ;
t2[0;1] X
2
2
IP A (B + C D) 22 x2
f0
IP A 22 + IP B + C D x2 ;
f0
f0
2
2
IP A 22 + IP B x2 + IP C D x2 ;
2
IP A f22 + IP B x2 + IP C pjx2j + IP D pjx2j :
0
Comme si jxj 1, alors x2 jxj nous pouvons donc ecrire
IP A (B + C D) 22 x2
fx 2
x2 2
x
IP A f 2 + IP B 2 + IP C 2 + IP D 2 ;
0
0
2
or
2
3
66
77
2
2
1
6
f 77 ;
IP A f IP 64
P
5
n
inf fX (t) , sup j i w~i (t) , fX (t)j
t2 ;
t2 ;
#
"
n
X f
2
0
2
[0 1]
IP sup j
t2[0;1]
[0 1]
2
0
2
=1
2
w~i (t) , fX2 (t)j 20 :
i=1
La majoration de ces quatre termes est assuree par le lemme 2.8.
b)
Sous l'hypothese nulle, nous avons
p
p
sup jEn (t)j sup jEn+(t) , nhn V (t)m+ (t)j + sup jEn, (t) , nhn V (t)m, (t)j:
t2[0;1]
t2[0;1]
t2[0;1]
2.4. Test Global
119
Or
p
En(t) , nhn V (t)m (t)h
Pn w~(t) m(X ) , m (t) , (X , t)m(1)(t)i
p
i
i
i=1 i
= nhn V (t)
Pn w~(t)
;
i=1 i
p
~ ~ 0 (t) , S~1 (t)R~ 1 (t)
= nhn V (t) S2 (t)RP
;
n w~ (t)
i
=1
i
pnh V (t)
h ~
= ,Pn n 2 2
S2 (t) , K2fX (t) R~ 0 (t) + K2 fX (t)R~ 0 (t)
i=1~w~i (t) , fX (t) +~fX (t) i
, S1 (t) , K1 fX (t) R1 (t) , K1 fX (t)R~1 (t) ;
ou S~l () = nh1ln Sl () (idem pour R~ l () et ~l ()).
+1
Il en resulte que
p
sup jEn(t) , nhn V (t)m (t)j
t2[0;1]
p
sup R~ l (t)
2 sup V (t) nhn max
l ;
"t2
;
=0 1
[0 1]
t2[0;1]
max
sup S~ (t) , Kl fX (t) + max
sup K f (t)
l=1;2 t2[0;1] l
l=1;2 t2[0;1] l X
inf f (t) , sup
t2[0;1] X
t2[0;1]
2
"
1
p
nhn max
sup R~ (t)
l=0;1 t2[0;1] l
Pn w~(t) , f (t)
i
i
X
max
sup S~ (t) , Kl fX (t) +
l=1;2 t2[0;1] l
3
, sup
ii)
2
= max
sup Kl fX (t) ,
l=1;2
iii)
3
= inf fX2 (t).
t2[0;1]
Posons
t2[0;1]
Pn w~(t) , f (t)
i
i
X
2
=1
= 2 sup V (t),
1
t2[0;1]
t2[0;1]
"
An =
max
sup S~l (t) , Kl fX (t) +
l=1;2
t2[0;1]
1
3
, sup
t2[0;1]
;
2
=1
ou
i)
#
Pn w~(t) , f (t)
i
i
X
=1
2
#
2
;
#
2
;
120
CHAPITRE 2. TESTS DE RUPTURE
alors
IPH0
"
p
sup En (t) , nhn V (t)m (t)
t2[0;1]
"
An max
sup R~ (t)
l=0;1 t2[0;1] l
IPH0
"
+ IPH0
IPH0
An > 2
1
"
c hn ;
5
2
1
2
#
1
2
1
2
#
3
2
3 c5
2
~
max
sup
R
(
t
)
h
+
IP
H0 An >
n
l
l=0;1
2
t2[0;1]
#
3
~ l (t) c5 h2n ; An > 2
R
An max
sup
l=0;1 t2[0;1]
1
2
;
2
3
:
3
IP max
sup S~ (t) , Kl fX (t)
l=1;2 t2[0;1] l
exp(,c nhn ):
#
"
> 2 + IP sup
t2[0;1]
2
3
6
#
!
"
"
IPH0
!
#
5
~ l (t) c5 h2n ; An 2
R
An max
sup
l=0;1 t2[0;1]
IPH0
Or
!
c (nhn )
=
5 1 2
Ceci implique qu'il existe c1 > 0 et c2 > 0 telles que
"
IPH0 sup jEn (t)j c1(nhn )
=
5 1 2
t2[0;1]
#
n
X
i=1
w~i(t) , fX2 (t)
#
> 4 ;
3
exp(,c nhn ):
2
3
Lemme 2.8. Sous les m^emes hypotheses que celles du lemme 2.7, il existe c ; c > 0 telles que
"
a)
IP (nhn )
IP sup
t2[0;1]
"
c)
=
1 2
"
b)
3
IP sup
t2[0;1]
sup
t2[0;1]
4
#
Pn w~(t) , f (t)M~ ( t,Xi ) (X )" c (nh ) = exp(,c nh ).
X
hn
i i
n
n
i
i
5 1 4
3
=1
#
Pn M~ ( t,Xi )(X )" c h exp(,c nh ).
i i
n
hn
n
i
3
=1
4
3
#
Pn w~(t) , (K K , (K ) )f (t) c h exp(,c nh ).
n
n
X
i
i
2
=1
Preuve du lemme 2.8.
2
0
1
2
3
4
3
4
3
2.4. Test Global
121
a)
(nhn )
=
1 2
sup
t2[0;1] i=1
= (nhn )1=2 sup
w~i (t) , fX (t)M~ ( t ,h Xi )
n
n
X
t2[0;1] i=1
(nhn )
=
1 2
+
n X
w~i(t) (Xi)"i , K2 fX (t)~0(t) + K1 fX (t)~1(t) ;
sup S~2 (t) , K2 fX (t)
t2[0;1]
sup S~1 (t) , K1 fX (t)
t2[0;1]
!
!
sup ~0 (t)
t2[0;1]
!
1 2
t2[0;1]
!
!
sup ~1 (t) ;
t2[0;1]
2(nhn) = max
sup S~l (t) , Kl fX (t)
l ;
=1 2
(Xi)"i ;
!
max
sup ~ (t) :
l=0;1 t2[0;1] l
Lemme 2.9. Soient X et Y deux variables aleatoires. Supposons qu'il existe 0 a 1 et b 0
telles que nous ayons :
1)
IP [jX j a] b,
2)
IP [jY j a] b,
alors,
IP [jXY j a] 2b
Preuve du lemme 2.9.
Nous avons
IP [jXY j a] = IP [jXY j a \ jX j > 1] + IP [jXY j a \ jX j 1] ;
IP [jX j > 1] + IP [jY j a] ;
2b:
ut
Pour terminer la demonstration du lemme 2.8, nous nous basons sur le lemme 2.9 en posant :
!
i)
X = 2(nhn )1=4 max
sup jS~l(t) , Kl fX (t)j ,
l=1;2
t2[0;1]
=
ii)
Y = (nhn ) j
iii)
a = c5(nh5n )1=4,
1 4
!
max
sup ~ (t)j ,
l=0;1 t2[0;1] l
122
iv)
CHAPITRE 2. TESTS DE RUPTURE
b = exp(,c7nh3n ),
et en utilisanta) et b) du lemme 2.10 demontre ci-dessous. Nous en deduisons donc qu'il existe
c3 > 0 et c5 > 0 telles que
"
IP sup
p
t2[0;1]
nhn j
exp(,c nhn ):
3
4
n X
i=1
w~i (t) , fX (t)M~ ( t ,h Xi )
n
(Xi)"ij c3 (nhn)
=
5 1 4
b)
sup
n
X
M~ ( t ,h Xi )(Xi)"i jK n
2
t2[0;1] i=1
sup j~0 + jK1 sup j~1 ;
t2[0;1]
t2[0;1]
!
c max
sup ~l ;
l ;
8
=0 1
t2[0;1]
or d'apres le e) du lemme 2.10 ci-dessous nous avons
"
IP max
sup ~ (t) c5hn
l=0;1 t2[0;1] l
#
exp(,c nhn);
7
3
ceci termine la demonstration de la deuxieme partie du lemme 2.8.
c)
En ecrivant
n
X
i=1
w~i (t) , (K2K0 , (K1 )2 )fX2 (t)
= S~2 (t)S~0 (t) , S~1 (t)S~1(t) , (K2 K0 , (K1 )2 )fX2 (t);
2
= S~2 (t) , K2 fX (t) S~0 (t) , K0 fX (t) , S~1 (t) , K1 fX (t)
+ S~2 (t) , K2 fX (t) K0 fX (t) + S~0 (t) , K0 fX (t) K2 fX (t)
, 2K fX (t) S~(t) , K fX (t) :
1
1
1
#
2.4. Test Global
123
Nous en deduisons
n
X
sup
t2[0;1] i=1
w~i (t) , (K2K0 , (K1)2)fX2 (t)
!
sup S~2 (t) , K2 fX (t)
t2[0;1]
sup S~2 (t) , K2 fX (t)
+
t2[0;1]
sup S~0 (t) , K0 fX (t)
+
t2[0;1]
!
+ 2 sup jK1 jfX (t)
t2[0;1]
sup S~0 (t) , K0 fX (t)
t2[0;1]
!
!
!
+ sup S~1 (t) , K1 fX (t)
2
t2[0;1]
sup jK0 jfX (t)
t2[0;1]
!
sup jK2 jfX (t)
t2[0;1]
!
sup S~1 (t) , K1 fX (t) ;
t2[0;1]
max sup S~ (t) , Kl fX (t)
l=0;1;2 t2[0;1] l
!
!
"
2 l=0
max
sup S~ (t) , Kl fX (t) + 4 l=0
max
sup
;1;2 t2[0;1] l
;1;2 t2[0;1]
KlfX (t)
#
:
Utilisant a nouveau le lemme 2.10, on voit qu'il existe c3 > 0 et c4 > 0 tels que
"
IP sup
n
X
t2[0;1] i=1
w~i (t) , (K2K0 , (K1 )2)fX2 (t)
#
c hn exp(,c nhn ):
3
4
3
ut
Ceci acheve la demonstration du lemme 2.8.
Rappelons que
i)
S~l (t) = nh1ln
+1
ii) ~l (t) =
iii)
1
nhln+1
R~l (t) = nh1ln
+1
Pn (t , X )lK ( t,Xi ),
i hn
i
Pn (t , X )lK ( t,Xi )(X )" ,
i i
i hn
i
Pn (t , X )lK ( t,Xi ) hm(X ) , m (t) , (X , t)m (t)i.
i
i
i hn
i
=1
=1
(1)
=1
Lemme 2.10. Supposons que les hypotheses B7-B12 soient satisfaites, alors il existe c > 0 et
c6 > 0 telles que pour hn = n, avec 1=5 < < 1=3 nous avons
"
a) IP sup jS~l (t) , Kl fX (t)j c5 hn
t2[0;1]
"
b)
#
#
exp(,c nhn ).
IP sup j~l (t)j c5 hn exp(,c6nh3n ).
t2[0;1]
6
3
5
124
CHAPITRE 2. TESTS DE RUPTURE
c)
IPH0
"
sup jR~ l (t)j c5h2n
t2[0;1]
#
exp(,c nhn ).
6
Nous en deduisons que si les hypotheses B7-B12 soient satisfaites, alors il existe c5 > 0 et c6 > 0
telles que pour hn = n, avec 1=5 < < 1=3 nous avons pour tout entier L xe
"
d)
#
IP 0max
sup jS~l(t) , Kl fX (t)j c5hn exp(,c6nh3n ).
lL
t2[0;1]
"
e)
f)
#
IP [0max
sup j~ (t)j c5 hn exp(,c6nh3n ).
lL t2[0;1] l
IPH0
"
[0max
sup jR~ (t)j c5h2n
lL t2[0;1] l
#
exp(,c nhn ).
6
Avant de donner la preuve de ce lemme, nous rappelons l'enonce de l'inegalite de Bernstein
pour preciser la version que nous utilisons.
Lemme 2.11 (Inegalite de Bernstein) Soient ; : : : ; n des variables aleatoires reelles independantes de nies sur l'espace probabilise ( ; A; P ).
1
1)
h
"X
n
IP j
2)
i
S'il existe C > 0 tel que pour tout k 3 et pour tout 1 i n, nous avons IE ji , IE (i ) jk P
C k,2 k!V ar(i), alors pour tout x 0 et v 2 ni=1 V ar(i) nous avons
#
2
i , IE(i )j x 2 exp , 2(v +x Cx) :
i=1
S'il existe C > 0 tel que pour tout 1 i n, nous avons IP [jij C ] = 1, alors, pour tout
P
x 0 et v ni=1 V ar(i), nous avons
"X
n
#
2
x
IP j i , IE(i )j x 2 exp , 2(v + Cx=3) :
i=1
Preuve du lemme 2.10.
des majorants de nh1ln (t , Xi)l K ( t,hXn i ), et V ar(S~l (t)) permettant d'appliquer
l'inegalite de Bernstein :
a) Cherchons
1)
+1
j 1l (t , Xi)lK( t ,h Xi )j 23nhv :
nhn
+1
1
n
n
2.4. Test Global
125
2)
Z
1
~
V ar(Sl (t)) nh x2l K2 (x)fX (t , hn x)dx;
n
v :
2nh
n
2
d'apres l'inegalite de Bernstein (la deuxieme partie du lemme), nous avons donc
h
i
IP jS~l(t) , IE(S~l (t))j x 2 exp(, vnh+n vx x );
2
1
or
IE(S~l (t)) =
Z
2
xl K(x)fX (t , hn x)dx:
Sachant que fX () est lipschitzienne ( hypothese B8), nous en deduisons que
jIE(S~l(t)) , KlfX (t)j Z
jxlK(x)jjfX (t , hn x) , fX (t)jdx;
v hn :
3
D'ou, comme application de l'inegalite triangulaire, nous avons
jS~l(t) , Kl fX (t)j jS~l(t) , IE(S~l(t))j + jIE(S~l(t)) , KlfX (t)j;
jS~l(t) , IE(S~l(t))j + v hn :
3
il en resulte que pour tout x v3 hn nous avons,
h ~
i
IP jSl (t) , Kl fX (t)j x
!
2
2 exp , vnh+nv(x(,x ,v3vhnh) ) :
2
1
3 n
En choisissant x = v4 hn > v3 hn et hn = n, avec 0 < < 1=3, l'inegalite precedente devient,
pour tout t xe,
h ~
IP jSl (t) , Kl fX (t)j v4hn
Nous avons
[0; 1] !
i
2
3
n (v4 , v3 )
2 exp , v nh
;
2 + v1 (v4 , v3 )hn
exp(,v5nh3n ):
d1[
=h3n e
k=1
[(k , 1)h3n ; kh3n ];
ou dxe designe la partie entiere superieure de x.
126
CHAPITRE 2. TESTS DE RUPTURE
Pour t 2 [(k , 1)h3n ; kh3n ], nous avons
jS~l(t) , KlfX (t) , S~l(khn ) + Kl fX (khn )j
jKljjfX (t) , fX (khn )j + jS~l(t) , S~l(khn)j;
Pn t,Xi lK t,Xi , khn ,Xi lK khn ,Xi hn
i
hn
hn
hn
v jt , khn j +
;
nhn
v jt , kh j + v jt , khn j ;
3
3
3
3
3
3
6
3
3
n
6
v hn:
3
=1
h2n
7
8
Pour obtenir cette majoration, nous avons utilise le fait que K+ () et fX () sont lipschitziennes
(B8 et B12).
D'ou
sup jS~l (t) , Kl fX (t)j max jS~l (kh3n ) , Kl fX (kh3n )j + v8 hn ;
1k b1=hn c
t2[0;1]
3
et par consequent
"
IP sup jS~l (t) , Kl fX (t)j v5 hn
#
t2[0;1]
IP
jS~l(kh3n ) , KlfX (kh3n )j (v5 , v8)hn ;
max
kb1=h3n c
b1X
=h3n c h
i
IP jS~l (kh3n ) , Kl fX (kh3n )j (v5 , v8 )hn ;
i=1
1
h1 exp(,v nhn );
n
exp(,c nhn );
9
3
6
3
3
donc il existe c5 > 0 et c6 > 0 telles que
"
IP sup jS~l (t) , Kl fX (t)j c5hn
t2[0;1]
b)
Nous avons :
#
exp(,c nhn ):
6
3
2.4. Test Global
127
1)
IE
"
1 (t , X )lK ( t , Xi ) k k (X )j" jk
i h
i i
l+1
nhn
#
n
Z
1 h jxlK (x)jk k (t , xh )IEj"jk f (t , xh )dx ;
n
n
X
n
(nhn )k
1 k hn v10k IEj"jk ;
(nhn )
1 k hn v10k C k,2 k!;
(nhn )
k,
v k, k!;
11
2
(nhn )
2)
2
Z
1
~
V ar(l (t)) nh x2l K2 (x)2(t , xhn)fX (t , hn x)dx;
n
1
=
2
v12 ;
nhn
d'apres l'inegalite de Bernstein (la premiere partie du lemme) nous avons donc
2
nh
x
n
IP jl (t)j x 2 exp , 2(v + v x) :
12
11
h ~
i
En utilisant de nouveau le fait que
[0; 1] d1[
=h3n e
k=1
[(k , 1)h3n ; kh3n ];
nous avons alors pour t 2 [(k , 1)hn ; khn ],
3
3
j~l (t) , ~l(khn )j
l t , Xi kh , Xi l kh , Xi (Xi)j"ij
n X
t
,
Xi
n
K
, n
K
;
3
hn
hn
n
3 X
v13 jt ,nhkh2 n j j"ij;
Pnn j"i=1j
v13hn i=1n i ;
i=1
donc
sup j~l (t)j t2[0;1]
1
max
kd1=h3n e
3
hn
3
hn
Pn
j~l(kh3n )j + v13hn i=1 j"ij ;
n
nhn
128
CHAPITRE 2. TESTS DE RUPTURE
et par consequent
"
#
IP sup j~l (t)j x
t2[0;1]
IP
max
kd =hne
1
1
3
Pn
IP 1kmax
j~(kh3n )j + v13hn
d1=h3 e l
j~l(kh3n )j + v13hn i=1n j"ij x ;
n
Pn
Pn j" j
i x ; i j"i j 2IEj"j
i
Pnn j" j
Pnn j" j
=1
=1
j~(khn )j + v hn
kd =h e l
i=1 i
i=1 i
> 2IEj"j ;
n
n
Pn (j"ij , IEj"ij)
3
i
=1
~
IP 1kmax
j (khn )j x , 2v13IEj"jhn + IP
> IEj"j :
n
d1=hn e l
+ IP
1
max
1
3
3
n
13
x;
3
Puisque
h
i
IEjj"j , IEj"jjk 2k,1 IEj"jk + (IEj"j)k ;
2k IEj"jk :
Alors d'apres l'inegalite de Bernstein appliquee aux "i nous avons
Pn j"ij , IEj"ij
i
> IEj"j IP
n
=1
IP
"X
n
i=1
#
j"ij , IEj"ij > nIEj"j ;
exp(,v n):
14
En posant x = v15hn (2v13IEj"j) hn , nous obtenons ainsi
"
#
IP sup j~l (t)j v15 hn
t2[0;1]
Pn j" j , IEj" j
i
3
~
IP 1kmax
j
l (khn)j (v15 , 2v13IEj"j)hn + IP i=1 in
3
d1=hn e
3
d1X
=hne h
i
IP j~l (kh3n )j (v15 , 2v13 IEj"j)hn + exp(,v14n);
i=1
exp(,c6nh3n );
donc il existe c5 > 0 et c6 > 0 telles que
"
IP sup j~l (t)j c5hn
t2[0;1]
c)
Nous avons
#
exp(,c nhn ):
6
3
> IEj"j ;
2.4. Test Global
1)
129
h
i
l
j (t , lXi) K( t ,h Xi ) m(Xi) , m(t) , (Xi , t)m (t) j 3v2nhn ;
nhn
n
(1)
1
+1
2)
Z
h
i2
1
~
(t) fX (t , hn x)dx ;
V ar(Sl (t)) nh x2l K2 (x) m(t , xhn ) , m(t) + xhn m(1)
n
v2hnn :
2
3
Appliquons l'inegalite de Bernstein (la deuxieme partie du lemme), nous avons donc
h ~
IP jRl (t) , IE(R~ l (t))j x
or nous avons
IE(R~ l (t)) =
Z
i
2
nx
2 exp , v h3 + v xh ;
2 n
1
n
h
i
xlK (x) m(t , xhn ) , m(t) + xhnm(1)
(t) fX (t , hn x)dx;
donc sous l'hypothese nulle
jIE(R~l (t))j v hn:
3
2
Comme
jR~l (t)j jR~ l (t) , IE(R~l (t))j + jIE(R~l (t))j;
jR~ l (t) , IE(R~l (t))j + v hn:
3
2
Il en resulte que pour tout x v3 h2n nous avons
h ~
i
2 2
IP jRl (t)j x 2 exp , v h3 n+(xv ,h v(3xhn,) v h2 )
2 n
1 n
3 n
!
Si on prend x = v4 h2n > v3 h2n et hn = n, avec 0 < < 1=3, alors pour tout t xe nous avons
h ~
IP jRl (t)j v4 hn
2
i
En outre
[0; 1] !
2
2 exp , vnh+nv(v4(v, ,v3v) ) ;
2
1 4
3
exp(,v5nhn ):
d1[
=h3ne
k=1
[(k , 1)h3n ; kh3n ]
130
CHAPITRE 2. TESTS DE RUPTURE
ou dxe designe la partie entiere superieure de x.
Pour t 2 [(k , 1)h3n ; kh3n ], nous avons
Or
R~ l (t) , R~l (kh3n )
l t , Xi h
n i
X
1
t
,
Xi
(1)
= nh
K
m
(
X
)
,
m
(
t
)
,
(
X
,
t
)
m
(
t
)
i
i
hn
hn
n i=1
l kh3 , X h
n 3
i
X
kh
,
Xi
1
i m(X ) , m (kh3 ) , (X , kh3 )m(1)(kh3 ) :
n
n
, nh
K
i
n
i
n n
hn
hn
n i=1
3
m(Xi ) , m(kh3n ) , (Xi , kh3n )m(1)
(ikhn )
h
= m(Xi) , m (t) , (Xi , t)m(1)
(t)
h
i
(1)
3
+ m (t) , m (kh3n ) + (Xi , t) m(1)
(
t
)
,
m
(
kh
)
n
(1)
3
3
+ (khn , t)m (khn );
h
i
3
= m(Xi) , m (t) , (Xi , t)m(1)
(t) + O(hn );
d'ou
R~l (t) , R~l (kh3n )
l t , X kh3 , Xi l kh3 , X #
n "
X
1
t
,
Xi
n
= nh
K h i ,
K nh i
h
h
n
n
n
n
h n i=1
i
2
m(Xi) , m(t) , (Xi , t)m(1)
(t) + O(hn );
= O(h2n );
donc
sup jR~ l (t)j et par suite
t2[0;1]
"
IP sup jR~ l (t)j v5 h2n
t2[0;1]
#
max
kd1=h3n e
1
IP
1
3
8
2
jR~ (khn)j (v , v )hn ;
kd =h e l
d1X
=h3ne
i=1
jR~l (khn )j + v hn ;
max
1
h
3
3
n
5
8
i
IP jR~ l (kh3n )j (v5 , v8)h2n ;
h13 exp(,v9nhn );
n
exp(,c6nhn);
2
2.4. Test Global
131
d'ou le resultat : il existe c5 > 0 et c6 > 0 telles que
"
IP sup jR~ l (t)j c5hn
t2[0;1]
#
exp(,c nhn ):
6
Les demonstrations des parties d), e) et f) sont de simples deductions des parties a), b) et
c). On fournit ici seulement la demonstration de la partie d), les autres sont similaires en tous
points a celle-ci.
d)
"
IP 0max
sup jS~l (t) , Kl fX (t)j c5hn
lL
#
t2[0;1]
L "
X
l=0
#
IP sup jS~l (t) , K2 fX (t)j c5 hn ;
t2[0;1]
(L + 1) exp(,c nhn );
exp(,c nhn ):
6
3
3
7
ut
Preuve du theoreme 2.8.
La demonstration du theoreme 2.8 est fondee principalement sur le resultat etabli par Johnston
[Joh82](cf aussi Bickel et Rosenblatt [BR73]) pour la loi limite de la deviation maximale de
l'estimateur de Nadaraya-Watson de la fonction de regression.
"
IPH0 an sup jn (t)j , sup jn (t)j 2c1an (nhn )
"
t2[0;1]
t2[0;1]
IPH0 an sup jn(t) , n (t)j 2c an(nhn )
"
t2[0;1]
=
5 1 4
1
=
5 1 4
#
#
;
;
!
IPH0 an sup jBn (t) , n(t)j + sup jEn(t)j 2c an(nhn )
t2[0;1]
"
t2[0;1]
IPH0 an sup jBn (t) , n(t)j c an(nhn )
t2[0;1]
1
=
5 1 4
#
1
"
#
;
+ IPH0 an sup jEn (t)j c1an (nhn )
2 exp(,c nhn ):
2
=
5 1 4
t2[0;1]
=
5 1 4
#
;
3
Lemme 2.12 (Konakov & Piterbarg [PK84]) Soient X et Y deux variables aleatoires reelles
telles qu'il existe 1 > 0 et 2 > 0 pour lesquels nous avons :
IP [jX , Y j 1 ] 2 ;
alors pour tout x
IP [Y x , 1 ] , 2 IP [X x] IP [Y x + 1 ] + 2 :
132
CHAPITRE 2. TESTS DE RUPTURE
Posons :
i) n;1
= 2c1an (nh5n )1=4 ! 0,
ii) n;2
= 2 exp(,c2nh3n ) ! 0.
D'apres le lemme 2.12 nous avons donc pour tout x
"
!
IPH0 an sup jn j , bn x
#
t2[0;1]
et
"
"
#
IPH0 an sup jn j , bn x
t2[0;1]
IPH0 an sup jnj , bn x , n; , n; ;
"
IPH0 an sup n , bn x
"
!
#
IPH0 an sup n , bn x
2
#
1
"
!
2
#
IPH0 an sup n , bn x , n; , n; ;
1
t2[0;1]
#
t2[0;1]
!
t2[0;1]
t2[0;1]
et
1
IPH0 an sup jnj , bn x + n; + n; :
Pour la m^eme raison nous obtenons egalement
!
#
t2[0;1]
!
"
!
"
!
2
#
IPH0 an sup n , bn x + n; + n; :
t2[0;1]
1
2
Or d'apres Johnston [Joh82], sous les hypotheses B7-B12
, on peut approcher le processus n
R
par un processus gaussien Gn (t) = p2V1 hn M th,nx dW (x), ou W est le processus de Wiener
bilateral, tel que
sup jn (t) , Gn (t)j = oP (log n),1=2 :
2
+
t2[0;1]
Nous avons aussi gr^ace a la propriete d'invariance en loi par changement d'echelle du processus
de Wiener :
L fGn (t) ; 0 t 1g =
9
8
< 1 Z t , x
=
M h dW (x) ; 0 t 1; ;
L :q
n
2V hn
1 Z t = L p
2
+
2V+
ou L(X ) designe la loi de X .
Posons Tn = h1n , d'ou
M h , x dW (x) ; 0 t 1 ;
n
2.4. Test Global
133
1)
(
)
L sup Gn(t)
t2[0;1]
2)
(
)
L sup jGn(t)j
t2[0;1]
(
(
)
Z
= L sup p 1
M ht , x dW (x) ;
n
(t2[0;1] 2V+ Z
)
1
= L sup p
M (t , x) dW (x) :
t2[0;Tn] 2V+
)
Z
1
= L sup p
M ht , x dW (x) ;
n
)
(t2[0;1] 2V+ Z
1
M (t , x) dW (x) :
= L sup p
t2[0;Tn] 2V+
R M (t , x) dW (x) est un processus gaussien stationnaire centre de fonction de covariance C ()
de nie par :
Z
C (h) = M (x + h)M (x)dx :
Or nous avons montre dans le paragraphe precedent que la fonction de covariance C () veri e
bien les hypotheses du theoreme 2.4, nous en deduisons donc :
"
1)
2)
!
#
lim IP an sup Gn (t) , bn x = exp(, exp(,x)),
n!+1
t2[0;1]
"
!
#
lim IP an sup jGn (t)j , bn x = exp(,2 exp(,x))
n!+1
t2[0;1]
ou an = aTn et bn = bTn .
Par consequent, sous l'hypothese nulle, nous avons
a)
"
!
lim IP an sup n (t) , bn x
#
n!+1
t2[0;1]
"
!
#
"
!
#
= n!lim
IP an sup n (t) , bn x ;
+1
t2[0;1]
= n!lim
IP an sup Gn (t) , bn x ;
+1
t2[0;1]
= exp(, exp(,x)):
134
CHAPITRE 2. TESTS DE RUPTURE
b)
"
!
#
lim IP an sup jn (t)j , bn x
n!+1
"
!
#
"
!
#
= n!lim
IP an sup jn (t)j , bn x ;
+1
t2[0;1]
t2[0;1]
= n!lim
IP an sup jGn(t)j , bn x ;
+1
t2[0;1]
= exp(,2 exp(,x)):
ut
Ceci acheve la preuve du theoreme 2.8.
Il est facile de montrer que le test global de l'hypothese d'absence de rupture, base sur le
theoreme 2.8 a un comportement asymptotique satisfaisant. Ici egalement on considere des
alternatives locales de la forme :
H1(n)
: n ( ) = pn ;
nh
n
jnj ! 1. Le theoreme suivant montre que le test global, lui aussi, a une puissance
avec plog(
n)
locale asymptotique egale a 1.
Preuve du theoreme 2.9.
Pour tout u > 0,
"
!
#
IPH1(n) an sup jn (t)j , bn u
t2[0;1]
Notons
+
En;i
=
et
, =
En;i
d'ou
IPH1 n [an (jn( )j , bn) u] :
( )
p
p
u
nhn V ( ) (^n( ) , n ( )) , au + bn , n ( )V ( ) ;
n
nhn V ( ) (^n( ) , n ( )) a + bn , n ( )V ( ) ;
n
"
!
lim IP
a sup jn (t)j , bn u
n!+1 H1(n) n
#
t2[0;1]
h
i
, ;
n!lim1 IPH1 n En;i \ En;i
+
( )
+
= 0:
ut
2.5. Simulations
135
2.5 Simulations
Dans cette section, nous e ectuons des simulations pour mettre en evidence le comportement
des trois tests pour des tailles echantillons raisonnables (n = 250, n = 500). Les facteurs
determinants dans ces simulations sont le choix du noyau, le choix de la fen^etre de lissage, le
nombre d'observations et le rapport signal sur bruit. Pour nos comparaisons, nous avons retenu
quatre modeles M01 , M02 (modeles sans rupture), M11 et M12 (modeles avec rupture) :
M01
m(x) = 4x2,
M11
m(x) = 4x2 + 1I[0:5;1],
M02
m(x) = exp(2jx , 0:35j),
M12
m(x) = exp(2jx , 0:35j) + 1I[0:35;1].
Les noyaux K 0, K 1 et K 2 utilises sont de nis par :
1)
K 0(x) = x2(1 + x)21I[,1;0](x).
2)
K 1(x) = (1 , x2)1I[,1;0](x).
3)
K 2(x) = ,x(1 + x)1I[,1;0](x).
K 0 et K 2 s'annulent en zero . K 1 > 0 en zero.
Lors de ces simulations, le plan d'experience est aleatoire de loi uniforme et le bruit est suppose
gaussien. Dans chaque test et pour chaque valeur du parametre concerne (taille de la fen^etre
de lissage, taille d'echantillon, rapport signal sur bruit) nous avons e ectue 100 simulations, et
releve la frequence avec laquelle l'hypothese nulle est acceptee obtenant ainsi une estimation de
l'erreur de premiere espece (pour les modeles M01 et M02) et l'erreur de deuxieme espece (pour les
modeles M11 et M12 ). Les tests sont construits de maniere a assurer une erreur de premiere espece
theorique asymptotique = 5%. Pour le test strictement local et le test local, la discontinuite est localisee en = 0:5 pour les modeles M01 et M11 et en = 0:35 pour les modeles M02 et M12 .
Choix du noyau. Les gures 2.1 et 2.3 montrent que les trois tests sont legerement sensibles au
choix du noyau en particulier en ce qui concerne leur puissance. Rappelons que la situation ou
le noyau s'annule en zero et celle ou le noyau est strictement positif a l'origine conduisent a deux
traitements di erents pour le test local et le test global (deux normalisations di erentes). Dans
la suite, nous avons choisi seulement de presenter les resultats pour le noyau K 2; les simulations
136
CHAPITRE 2. TESTS DE RUPTURE
ont ete e ectuees pour les trois types de noyau et nous avons constate la m^eme sensibilite de
ces trois tests vis a vis du choix du noyau.
Choix de la fen^etre de lissage. Tout au long de nos simulations, nous avons choisi de faire
varier hn entre 0:07 et 0:25 avec un pas de 0:02 (10 valeurs de hn en tout). Nous remarquons
que les trois tests sont plus sensibles au choix de la fen^etre de lissage qu'a celui du noyau. Cette
sensibilite est quasi nulle en ce qui concerne l'erreur de premiere espece ( 2.1, 2.2 et 2.5)mais elle
devient cependant plus importante lorsque la puissance des tests est consideree. Le test local
semble ^etre le plus conservateur des trois.
Nombre d'observations et RSB. Les simulations dont les resultats sont presentes par les
gures 2.5 et 2.6) montrent la sensibilite des trois procedures de test a la taille de l'echantillon
et au rapport signal sur bruit. En absence de discontinuite les procedures apparaissent peu
sensibles a la taille de l'echantillons et au rapport signal sur bruit. Par contre en situation
de discontinuite, comme on s'y attend la discontinuite est d'autant mieux detectee que le bruit
est faible par rapport a l'amplitude de la discontinuite, et que la taille de l'echantillon est grande.
E tude comparative des trois tests (TSL, TL et TG). Sur les exemples consideres ici ainsi
que sur d'autres exemples, nous avons constate que pour des tailles dechantillons raisonnables,
le test strictement local (TSL) est plus performant que le test local (TL) ou le test global (TG).
Dans les situations ou il y a une rupture dans le modele et ou le rapport signal sur bruit est
faible, le TSL semble avoir un comportement acceptable alors que les autres tests ont tendance,
dans ce cas, a accepter souvent l'hypothese nulle d'absence de ruptures. Ceci semble coherent
avec l'etude asymptotique qui est faite dans ce chapitre et qui montre que le test strictement
local est plus puissant que les deux autres tests.
2.5. Simulations
137
TSL
100
K0
K1
K2
50
0
0.06
0.08
0.1
0.12
0.14
0.16
TL
0.18
0.2
0.22
0.24
0.26
100
K0
K1
K2
50
0
0.06
0.08
0.1
0.12
0.14
0.16
TG
0.18
0.2
0.22
0.24
0.26
100
K0
K1
K2
50
0
0.06
0.08
0.1
0.12
0.14
0.16
0.18
0.2
0.22
0.24
0.26
Figure 2.1 : Evolution du pourcentage d'acceptation de l'hypothese nulle (absence de discontinuite) en fonction de la taille de la fen^etre de lissage pour le modele M01 dans le cas des trois
noyaux K 0, K 1, K 2 (n = 250, 2 = 0:1).
138
CHAPITRE 2. TESTS DE RUPTURE
K0
100
TSL
TL
TG
50
0
0.06
0.08
0.1
0.12
0.14
0.16
K1
0.18
0.2
0.22
0.24
0.26
100
TSL
TL
TG
50
0
0.06
0.08
0.1
0.12
0.14
0.16
K2
0.18
0.2
0.22
0.24
0.26
100
TSL
TL
TG
50
0
0.06
0.08
0.1
0.12
0.14
0.16
0.18
0.2
0.22
0.24
0.26
Figure 2.2 : Evolution du pourcentage d'acceptation de l'hypothese nulle (absence de discontinuite) en fonction de la taille de la fen^etre de lissage pour le modele M01 dans le cas des trois
noyaux K 0, K 1, K 2 (n = 250, 2 = 0:1).
2.5. Simulations
139
TSL
6
K0
K1
K2
4
2
0
0.06
0.08
0.1
0.12
0.14
0.16
TL
0.18
0.2
0.22
0.24
0.26
80
K0
K1
K2
60
40
20
0
0.06
0.08
0.1
0.12
0.14
0.16
TG
0.18
0.2
0.22
0.24
0.26
60
K0
K1
K2
40
20
0
0.06
0.08
0.1
0.12
0.14
0.16
0.18
0.2
0.22
0.24
0.26
Figure 2.3 : Evolution du pourcentage d'acceptation de l'hypothese nulle (absence de discontinuite) en fonction de la taille de la fen^etre de lissage pour le modele M11 dans le cas des trois
noyaux K 0, K 1, K 2 (n = 250, 2 = 0:1).
140
CHAPITRE 2. TESTS DE RUPTURE
K0
80
TSL
TL
TG
60
40
20
0
0.06
0.08
0.1
0.12
0.14
0.16
K1
0.18
0.2
0.22
0.24
0.26
80
TSL
TL
TG
60
40
20
0
0.06
0.08
0.1
0.12
0.14
0.16
K2
0.18
0.2
0.22
0.24
0.26
60
TSL
TL
TG
40
20
0
0.06
0.08
0.1
0.12
0.14
0.16
0.18
0.2
0.22
0.24
0.26
Figure 2.4 : Evolution du pourcentage d'acceptation de l'hypothese nulle (absence de discontinuite) en fonction de la taille de la fen^etre de lissage pour le modele M11 dans le cas des trois
noyaux K 0, K 1, K 2 (n = 250, 2 = 0:1).
2.5. Simulations
141
TSL
100
n = 250 et σ = 0.1
2
n = 250 et σ = 0.5
2
n = 500 et σ = 0.5
2
50
0
0.06
0.08
0.1
0.12
0.14
0.16
TL
0.18
0.2
0.22
0.24
0.26
100
n = 250 et σ2 = 0.1
n = 250 et σ2 = 0.5
n = 500 et σ = 0.5
2
50
0
0.06
0.08
0.1
0.12
0.14
0.16
TG
0.18
0.2
0.22
0.24
0.26
100
n = 250 et σ = 0.1
2
n = 250 et σ2 = 0.5
n = 500 et σ2 = 0.5
50
0
0.06
0.08
0.1
0.12
0.14
0.16
0.18
0.2
0.22
0.24
0.26
Figure 2.5 : Evolution du pourcentage d'acceptation de l'hypothese nulle (absence de disconti-
nuite) en fonction de la taille de la fen^etre de lissage pour le modele M02 . Le noyau utilise est
K 2.
142
CHAPITRE 2. TESTS DE RUPTURE
TSL
60
n = 250 et σ = 0.1
2
n = 250 et σ = 0.5
2
40
n = 500 et σ = 0.5
2
20
0
0.06
0.08
0.1
0.12
0.14
0.16
TL
0.18
0.2
0.22
0.24
0.26
100
n = 250 et σ2 = 0.1
n = 250 et σ2 = 0.5
n = 500 et σ = 0.5
2
50
0
0.06
0.08
0.1
0.12
0.14
0.16
TG
0.18
0.2
0.22
0.24
0.26
100
n = 250 et σ = 0.1
2
n = 250 et σ2 = 0.5
n = 500 et σ2 = 0.5
50
0
0.06
0.08
0.1
0.12
0.14
0.16
0.18
0.2
0.22
0.24
0.26
Figure 2.6 : Evolution du pourcentage d'acceptation de l'hypothese nulle (absence de disconti-
nuite) en fonction de la taille de la fen^etre de lissage pour le modele M12 . Le noyau utilise est
K 2.
Chapitre 3
Estimateur du nombre de ruptures
3.1 Introduction
L'objet de ce chapitre est de proposer une procedure permettant d'estimer par des estimateurs convergents, a la fois le nombre p de points de rupture et les localisations de ces ruptures.
La procedure est basee sur le comportement du processus de saut estime ^ (t) sur l'intervalle
[0; 1] decoupe en intervalles de longueur 2hn . Considerant le nombre d'intervalles ou ^() depasse
un seuil S0, en convenant de compter comme un seul intervalle une famille de tels intervalles des
lors qu'ils sont contigus, nous obtenons un estimateur naturel de p pour lequel nous montrons
qu'il y a bien convergence. De plus, les localisations des depassements du seuil convergent vers
les points de rupture 1 ; : : :; p. Cette procedure presente l'inconvenient de necessiter une information a priori pour choisir S0 < min ( (1); : : :; (p)). Une methode pour contourner cette
diculte consiste a avoir recours a une suite de seuils (Sn ) convergeant vers 0. Avec des hypotheses un peu plus fortes que dans le situation du seuil S0 xe, nous obtenons la convergence
p.s. de p^ vers p et de ^i vers i , i = 1; : : :; p. Pour avoir des resultats sur la vitesse de convergence nous nous placons ensuite dans un cadre d'hypotheses un peu di erent qui nous permet
de montrer que les probabilites d'erreur sur l'estimation de p et d'ecarts j^i , i j superieurs a hn
tendent exponentiellement vers 0. Ces resultats conduisent aussi a des enonces de convergence
presque s^ure.
3.2 Construction de l'estimateur du nombre de ruptures
Soit p le nombre de ruptures de la fonction de regression m() dans l'intervalle [0; 1]. On note
0 < 1 < : : : < p < 1, les localisations de ces ruptures, et f (i) = m+ (i ) , m, (i )gi=1;:::;p les
144
CHAPITRE 3. ESTIMATEUR DU NOMBRE DE RUPTURES
amplitudes des sauts. m+ (t) etant la limite a droite et m, (t) la limite a gauche de nies par :
m+(t) = x&lim
m(x) et m, (t) = x%lim
m(x):
t; x>t
t; x<t
Dans un premier temps on va supposer que i=1min
j (i)j > S0. Cette hypothese sera a aiblie
;::: ;p
par la suite. Par convention, nous posons
0 = 0 et p+1 = 1:
Introduisons la quantite ^(t) de nie par :
^(t) = m^ + (t) , m^ , (t); hn t 1 , hn ;
(3.1)
^(t) est un estimateur du saut eventuel de la fonction de regression au point t. Cette quantite
est proche de zero dans les regions ou la fonction m() est lisse. Par contre, elle est grande en
module lorsqu'on est au voisinage d'un point de rupture. De ce fait, ^() est un bon critere de
detection de points de rupture.
Notons pour la suite
gj = Gj ;
et
ou [m] est la partie entiere de m.
j = 1; 2; : : : ; G , 1;
1
G = 2h + 1;
n
On pose
J = fgj ; j = 1; : : : ; G , 2 j jj ^() jj[gj ;gj ] > S0g;
+1
avec
(3.2)
jjh()jj a;b = sup jh(t)j:
[
]
t2[a;b]
Les gj 2 J sont des candidats potentiels pour ^etre des points de rupture de la fonction de regression m(). Lorsque gj appartient a J , les gj qui sont au voisinage de gj vont vraisemblablement
eux aussi appartenir a J . Par consequent, si on prend comme estimateur de p le cardinal de J ,
le nombre de ruptures de m() sera probablement surestime. A n de parer a cet inconvenient,
nous proposons de regrouper les elements de J dans des classes (une classe regroupe les points
0
0
3.2. Construction de l'estimateur du nombre de ruptures
145
de J qui sont proches) et de prendre le nombre de ces classes comme estimateur du nombre de
ruptures.
Notons C l'ensemble des cha^nes maximales de J , c'est-a-dire
n
C = C = fgj gj
=
r;:::;r+
k j gj 2 J; j = r; : : : ; r + k; gr, 2= J et gr
1
k
+ +1
o
2= J :
C est une partition de J (J = [pi Ci). L'estimateur du nombre de discontinuites est alors de ni
^
=1
par :
p^ = #C :
On de nit aussi les estimateurs de localisation des ruptures :
^i = arg max
c j^(t)j;
I Di
c i = [min Ci; max Ci + G1 ].
avec i = 1; : : : ; p^ et ID
La gure 3.1 illustre, dans la situation d'un signal sans bruit avec deux ruptures la procedure
que nous avons de nie. Au voisinage de la premiere rupture, l'ensemble des points t ou ^ (t) Sn
se repartit sur deux intervalles consecutifs [g3; g4[ et [g4; g5[. On a donc C1 = fg4; g5g. Au
voisinage de la deuxieme rupture, ces points sont situes dans un seul intervalle [gi ; gi +1 [, on a
donc C2 = fgi g.
0
0
Seuil (S n )
C1
g1
^
ID
C2
2
gi0
g2
^
ID
1
τ^
1
^τ
2
Seuil (-S n )
Figure 3.1 : Estimation du nombre de ruptures : Algorithme.
0
146
CHAPITRE 3. ESTIMATEUR DU NOMBRE DE RUPTURES
Pour continuer, nous aurons besoin de quelques hypotheses de travail.
3.3 Hypotheses
1)
Les hypotheses sur les modeles sont les suivantes :
il existe s > 2 tel que IEjY js < 1,
M2. fX () est supposee continue et strictement positive sur l'intervalle [0; 1],
M3. les restrictions de la fonction de regression m() aux intervalles [i ; i+1] sont supposees continues et i=1min
j (i)j > S0,
;:::;p
M4. min j (i)j > S0,
i=1;:::;p
M5. les restrictions de la fonction de regression m() aux intervalles [i ; i+1] sont supposees deux fois contin^ument derivables,
M1.
Naturellement l'hypothese M5 est plus forte que M3 : Nous preferons garder la distinction
a n de preserver dans la mesure du possible la plus grande generalite dans les enonces.
Nous avons recours a M3 dans la situation d'un seuil S0 xe, et a M5 lorsqu'on a une suite
de seuils (Sn )n .
2)
La fen^etre de lissage hn est supposee satisfaire les conditions suivantes :
hn ! 0 et il existe < 1 , s,1 tel que n hn ! 1,
H2. hn ! 0 et il existe < 1 , s,1 tel que n2 ,1 hn ! 1,
P
H3. il existe > 0 tel que n hn < 1,
q
H4. Soient rn = nh1n log( h1n ) et (Sn )n0 une suite de reels positifs telle que Sn ! 0
et max(h2n ; rn) = o(Sn ),
H1.
3)
les noyaux de lissage veri ent l'hypothese suivante
K1.
K+ () est une fonction continue sur [,1; 0].
3.4 Consistance des estimateurs
Le resultat suivant est a la base des proprietes de convergence de notre estimateur du nombre
de ruptures.
Theoreme 3.1. Supposons que les hypotheses M1-M4, H1, H3 et K1 soient satisfaites. Alors :
3.4. Consistance des estimateurs
a)
b)
jj^()jj[pi
=1 [
i+hn ;i+1 ,hn ] = o(1);
147
p:s.
inf limninf jj ^()jj]i,hn ;i +hn [ > S0; p:s.
ip
1
D'apres la premiere partie du theoreme 3.1, necessairement ^() est proche de zero dans la partie
ou la fonction de regression m() est lisse. Par contre la deuxieme partie montre que ^() est
grand, en module, au voisinage de chaque point de rupture de m().
Theoreme 3.2. Sous les m^emes hypotheses que le theoreme 3.1, nous avons :
a)
p^ ,! p; p:s.
b)
81 i p;
^i ,! i; p:s.
En remplacant dans (3.2) S0 par une suite reelle positive (Sn )n0 qui veri e l'hypothese H4,
on peut obtenir deux theoremes analogues aux theoremes 3.1 et 3.2 .
Theoreme 3.3. Supposons que les hypotheses M1, M2, M5, H2-H4 et K1 soient satisfaites. Alors :
a)
b)
jj^()jj[pi
=1 [
i+hn ;i+1 ,hn ] = o(Sn );
p:s.
inf limninf jj ^()jj]i,hn ;i +hn [ > Sn ; p:s.
ip
1
Theoreme 3.4. Supposons que les hypotheses du theoreme 3.3 soient satisfaites. Alors :
a)
p^ ,! p; p:s.
b)
81 i p;
^i ,! i ; p:s.
Comme (^p) = (^pn )n0 est une suite entiere qui converge presque s^urement vers une limite
entiere, p, alors le theoreme 3.2 peut s'enoncer : il existe presque s^urement un entier n0 tel que
pour tout n > n0 ,
p^ = p:
Preuve des theoremes 3.1 et 3.3
Pour simpli er les ecritures, nous allons noter :
i)
Sp [ + h ; , h ],
i
n i
n
i
IC =
ii)
+1
=0
jj jj hn; ,hn = jj jj.
[
1
]
148
a)
CHAPITRE 3. ESTIMATEUR DU NOMBRE DE RUPTURES
Nous avons
jj^()jjIC jjm^ () , m ()jjIC + jjm^ ,() , m, ()jjIC ;
+
or
Pn
avec
et ou
donc
(3.3)
+
w~i (t)Yi
m^ (t) = Pi=1
n w~ (t) ;
i=1 i
(3.4)
w~i (t) = nh1 K ( t ,h Xi ) S~2(t) , t ,h Xi S~1 (t) =
n
n
n
1 w (t);
n hn i
(3.5)
2 4
n
X
S~l(t) = 1l+1 (t , Xi)l K( t ,h Xi ) = 1l+1 Sl (t);
nhn i=1
nhn
n
(3.6)
jjm^ P() , m()jjIC
n
= jj i w~Pi n()(Yi, m ()) jjIC ;
w~ ()
=1
i=1 "i
#
n
n
X
X
1
jj Pn w~() jj jj w~i ()(m(Xi) , m ())jjIC + jj w~i()(Xi)"ijj :
i=1 i
i=1
i=1
Tout d'abord, notons :
1)
Sous M3,
R~ l (t) =
=
2)
Sous M5,
R~l (t) =
=
Pn (t , X )lK ( t,Xi )(m(X ) , m (t)
i
i hn
i
;
=1
1 D (t):
nhln+1 l
nhln+1
Pn (t , X )lK ( t,Xi )(m(X ) , m (t) , (X , t)m (t))
i hn
i
i
i
;
(1)
=1
nhln+1
1 R (t):
l+1 l
nhn
3)
~l (t) =
=
n
X
(t , Xi )l K ( t ,h Xi ) (Xi)"i ;
l
+1
nhn i=1
n
1 (t):
nhln+1 l
1
3.4. Consistance des estimateurs
n
X
i=1
149
n
X
w~i(t)(m(Xi) , m (t)) =
i=1
w~i(t)(m(Xi) , m (t) , (Xi , t)m(1)
(t));
= S~2 (t)R~ 0 (t) , S~1 (t)R~ 1 (t);
donc
jj
n
X
i=1
h
w~i ()(m(Xi) , m())jjIC
i
jjS~() , K fX ()jj + jjK fX ()jj jjR~ ()jjIC
h
i
+ jjS~ () , K fX ()jj + jjK fX ()jj jjR~ ()jjIC ;
2
2
2
1
0
1
1
1
(3.7)
de la m^eme maniere nous obtenons
n
X
i=1
w~i (t) (Xi)"i = S~2(t)~0(t) , S~1 (t)~1(t);
d'ou
n
X
jj
i=1
h
w~i ()(Xi)"i jj
i
jjS~() , K fX ()jj + jjK fX ()jj jj~()jj
h
i
+ jjS~() , K fX ()jj + jjK fX ()jj jj~ ()jj:
2
2
1
2
0
1
1
(3.8)
1
Nous avons egalement
n
X
inft j
i=1
n
X
w~i ()j fX2 () , jj
i=1
w~i() , fX2 ()jj ;
or
n
X
i=1
w~i (t) , fX2 (t) = S~2 (t)S~0(t) , (S~1(t))2 , (K2K0 , (K1 )2 )fX2 (t);
h
i
= S~2 (t) , K2 fX (t) S~0 (t)
h
i
+ S~0 (t) , K0 fX (t) K2 fX (t)
h
ih
i
, S~(t) , K fX (t) S~(t) + K fX (t) ;
1
1
1
1
150
CHAPITRE 3. ESTIMATEUR DU NOMBRE DE RUPTURES
donc
n
X
jj
i=1
w~i() , fX2 ()jj
jjS~() , K fX ()jj jjS~()jj
+ jjS~ () , K fX ()jj jjK fX ()jj
+ jjS~ () , K fX ()jj jjS~() + K fX ()jj;
h
i
jjS~() , K fX ()jj jjS~() , K fX ()jj + jjK fX ()jj
+ jjS~ () , K fX ()jj jjK fX ()jj + jjS~ () , K fX ()jj
h
i
jjS~() , K fX ()jj + 2jjK fX ()jj:
2
2
0
0
0
1
1
2
2
1
2
1
0
0
0
1
1
0
2
0
1
1
1
(3.9)
Pour nir la demonstration des deux premieres parties des theoremes 3.1 et 3.3 , nous utilisons
les resultats du lemme suivant.
Lemme 3.1 (Silverman [Sil78], Mack & Silverman [MS82])
1)
Sous les m^emes hypotheses que le theoreme 3.1 nous avons
jjS~l() , KlfX ()jj = o(1) p:s.
b) jj~l ()jj = o(1) p:s.
~ l ()jjIC = o(1) p:s.
c) jjR
c') Pour tout j = 1; : : : ; p,
jR~l (j )j = o(1) p:s.
a)
2)
Sous les m^emes hypotheses que le theoreme 3.3 nous avons
d)
e)
jj~l()jj = O(rn) p:s.
jjR~ l ()jjIC = O(hn ) p:s.
e')
2
Pour tout j = 1; : : : ; p,
jR~l (j )j = O(hn ) p:s.
2
Preuve du lemme 3.1
a)
Voir theoreme A de Silverman [Sil78].
b)
et d) Voir Proposition 4 de Mack et Silverman [MS82].
3.4. Consistance des estimateurs
151
Pour tout 0 i p, m() est supposee continue sur l'intervalle [i ; i+1]. Alors, pour tout
0 i p et pour tout t 2 [i + hn ; i+1 , hn ],
c)
jR~ l (t)j
Pn (t , X )lK ( t,Xi ) jm(X ) , m (t)j
i hn
i
i
=1
nhl+1
Pn (t , X )lK n( t,Xi )
i hn
i=1
= o(1)
p:s;
l
nhn+1
= o(1)O(1) p:s;
= o(1) p:s:
;
d'ou
jjR~ l ()jjIC = o(1) p:s:
e) Puisque pour tout 0 i p, m() est supposee deux fois derivable sur l'intervalle [i ; i ],
nous avons donc tout 0 i p et pour tout t 2 [i + hn ; i , hn ]
+1
+1
jR~l (t)j
Pn (t , X )lK ( t,Xi ) m(X ) , m (t) , (X , t)m (t)
i
i
i hn
i
(1)
=1
nhln+1
Pn (t , X )lK ( t,Xi )
i hn
i
hn
nhln
hnO(1) p:s;
= O(hn ) p:s;
2
;
p:s;
=1
+1
2
2
d'ou
jjR~ l ()jjIC = O(hn ) p:s:
2
Les demonstrations de c) et e) restent valables si nous remplacons t par i . D'ou les resultats
enonces dans c') et e').
Ceci termine la preuve du lemme 3.1.
Lemme 3.2.
1)
Sous les hypotheses du theoreme 3.1 nous avons
a)
jj Pni w~i() , fX ()jj = o(1) p:s.
=1
2
ut
152
CHAPITRE 3. ESTIMATEUR DU NOMBRE DE RUPTURES
b)
c)
jj Pni w~i()(Xi)"ijj = o(1) p:s.
jjPni w~i()(m(Xi) , m())jjIC = o(1) p:s.
=1
=1
c')
Pour tout j = 1; : : : ; p,
n
X
j
2)
i=1
w~i(j )(m(Xi) , m (j ))j = o(1) p:s:
Sous les m^emes hypotheses que le theoreme 3.3 nous avons
d)
e)
jj Pni w~i()(Xi)"ijj = O(rn) p:s.
jjPni w~i()(m(Xi) , m())jjIC = O(hn ) p:s.
e')
=1
2
=1
Pour tout j = 1; : : : ; p,
j
Preuve du lemme 3.2.
n
X
i=1
w~i (j )(m(Xi) , m (j ))j = O(h2n ) p:s:
a)
La partie a) du lemme 3.1 et (3.9) nous permettent de conclure.
b)
Ce resultat est une consequence de la partie b) du lemme 3.1 et de (3.8).
c) Les parties a) et c) du
lemme 3.2.
d)
lemme 3.1 et (3.7) permettent de conclure la demonstration de c) du
Cette partie est une consequence de la partie d) du lemme 3.1 et de (3.8).
En n le e) du lemme 3.1 et (3.7) permettent de conclure la demonstration de la partie e)
du lemme 3.2.
e)
Les demonstrations de c') et e') sont similaires a celles de c) et e) respectivement.
Revenons maintenant a la demonstration de la partie 1 des theoremes 3.1 et 3.3. Nous avons
jjm^ () , m ()jjIC
"
#
n
n
X
X
1
jj Pn w~() jj jj w~i ()(m(Xi) , m())jjIC + jj w~i()(Xi)"ijj ;
jjPi=1n w~i ()(m(iX=1) , m ())jj + jj Pn w~ ()(i=1
Xi)"ijj
i
i
=1
IC
i
=1 i
i
:
P
inft fX2 (t) , ni=1 w~i () , fX2 ()
Pour nir nous utilisons les resultats du lemme 3.2 :
ut
3.4. Consistance des estimateurs
153
Sous les hypotheses du theoreme 3.1, nous obtenons
jjm^ () , m ()jjIC = o(1) p:s:
Nous en deduisons donc
jj^()jjIC = o(1) p:s:
Sous les hypotheses du theoreme 3.3, nous avons
jjm^ () , m ()jjIC = O(hn ) + O(rn) = o(Sn) p:s:
2
Ce qui implique
jj^()jjIC = o(Sn) p:s:
b)
Nous avons
jj^()jj i,hn ;i
[
hn ]
+
j (i)j , j^(i) , (i)j;
j (i)j , jm^ (i) , m (i)j , jm^ ,(i) , m,(i)j:
+
Or
m^ (j ) , m (j ) =
d'ou
+
Pn w~( )(m(X ) , m ( )) Pn w~( )(X )"
i
j + iP i j
i i;
i
i Pj
n w~ ( )
n w~ ( )
i
i j
i
i j
=1
=1
=1
=1
jm^ P
(j ) , m (j )j
n w~ ( )(m(X ) , m ( ))j + jj Pn w~ () (X )" jj
j
j
i
i i ;
i
i
i i inf
P j
fX (t) , jj ni w~i() , fX ()jj
=1
2
=1
= o(1); p:s:
=1
2
Par consequent, soit > 0 tel que j (i)j , S0 > . Pour n assez grand nous avons
d'ou
jm^ (i) , m(i)j < 2
jj^()jj i,hn ;i
[
+
hn ]
p:s;
j (i)j , ;
S
Sn
0
p:s;
p:s;
154
CHAPITRE 3. ESTIMATEUR DU NOMBRE DE RUPTURES
donc pour tout 1 i p, on a
limninf jj ^()jj[i,hn ;i +hn ] S0
p:s;
p:s;
Sn
d'ou
1
inf limninf jj ^()jj[i,hn ;i +hn ] S0
ip
p:s;
p:s:
Sn
ut
Ceci acheve les demonstrations des theoremes 3.1 et 3.3.
Preuve des theoremes 3.2 et 3.4.
Les demonstrations de ces deux theoremes sont analogues. Pour cette raison, nous allons prouver
seulement le theoreme 3.4. D'apres le theoreme 3.3, pour tout 1 i p et pour n assez grand
on a
jj^()jj]i,hn ;i+hn [ > Sn
p:s;
et
jj^()jj i
[
+
hn ;i+1 ,hn ] < Sn
p:s;
donc
pour tout 1 j p^, 8 1 i p on a
c j 6 [i + hn; i+1 , hn ];
ID
T
c j ]i , hn ; i + hn[6= ;.
d'ou, il existe un 1 i p tel que ID
c j . D'ou, pour n assez grand,
Or ]i , hn ; i + hn [ ne peut croiser qu'un seul intervalle ID
p^ p
p:s:
(3.10)
Nous avons egalement
j^j , ij hn
p:s:
(3.11)
3.5. Vitesses de convergence
155
c j T ]i , hn ; i + hn[ 6= ;, sinon nous aurions
8i = 1; : : : ; p, il existe un 1 j p^ tel que ID
c j ne peut intersecter qu'un seul ]i ,
jj^()jj i,hn ;i hn Sn . Or asymptotiquement un ID
hn ; i + hn [, sinon il existe un 1 i p tel que pour n assez grand, jj ^()jj i hn ;i ,hn >
]
+
[
[
Sn . Il en resulte que
p^ p; p:s:
+
+1
[
(3.12)
En combinant (3.10) et (3.12), nous montrons que
p^ ! p
p:s:
D'apres (3.11) et quitte a faire une permutation sur l'indice i, nous montrons que pour tout
i = 1; : : : ; p,
^i ! i
p:s:
ut
3.5 Vitesses de convergence
Rappelons que le processus ^(t) est de ni par :
^(t) = m^ + (t) , m^ , (t):
(3.13)
Supposons que la fonction de regression m() admet p points de rupture dans l'intervalle [a; b]
(p = 0 si m() est continue sur l'intervalle [a; b]). Soient 1 ; : : : ; p les p points de discontinuite
de la fonction de regression. Par convention, nous notons 0 = a et p+1 = b.
Posons
i)
Pour tout 0 i p,
ii)
IC i = [i + hn ; i+1 , hn ].
Pour tout 1 i p,
iii)
IC =
IDi =]i , hn ; i + hn [.
Sp [ + h ; , h ] = Sp IC .
i
n i
n
i
i
i
=0
+1
=0
156
CHAPITRE 3. ESTIMATEUR DU NOMBRE DE RUPTURES
Hypotheses
C1.
La fonction m() est deux fois contin^ument derivable sur chaque [i ; i+1, i = 0; 1; : : : ; P .
La densite marginale de X , fX (), est supposee strictement positive sur [0; 1] et telle
qu'il existe F > 0 pour laquelle
C2.
jfX (y) , fX (x)j F jy , xj ; 8 (x; y) 2 [0; 1] [0; 1]:
C3.
2() est supposee bornee sur l'intervalle [0; 1].
C4.
9 C > 0 tel que IE j"jk < C k, k!, k = 3; 4; : : :
C5.
Soit (hn )n1 une suite reelle positive veri ant :
h i
2
lim h
n!+1 n
C6.
= 0 et n!lim
nhn = +1:
+1
K+ () une fonction a support [,1; 0] lipschitzienne de rapport K :
8 (x; y) 2 [,1; 0] [,1; 0]; jK (y) , K (x)j K jy , xj:
+
+
Lemme 3.3. Sous les hypotheses C1-C6, on a :
a)
Il existe c1 ; c2; c3; c4 > 0 tels que pour tout x > c1hn ,
"
#
c1hn )2 :
IP sup j ^(t)j x exp ,c4 cnh+n c(x(,
3
2 x , c1 hn )
t2IC
b)
Si j (i)j > 0, alors pour tout 1 i p il existe c1; c2; c3; c4 ; c5 > 0 tels que pour tout
c1hn < x < j (i)j , c5h2n ,
#
"
2
IP sup j ^(t)j < x exp ,c4 nhn (x , c1hn ) :
c3 + c2(x , c1hn )
t2IDi
Preuve du lemme 3.3.
Pour montrer la premiere partie du lemme 3.3, il sut de prouver que pour tout 0 i p,
"
#
c1 hn )2 ;
IP sup j ^(t)j x exp ,c4 cnh+n c(x(,
3
2 x , c1 hn )
t2ICi
3.5. Vitesses de convergence
en remarquant que
157
IP sup j ^(t)j x
t2IC
p
X
i=0
IP sup j ^(t)j x :
t2ICi
Soit I un intervalle inclus dans [a; b]. Notons H0(I ) et H1(I ) les hypotheses suivantes :
H0(I ) :
la fonction de regression m() est deux fois contin^ument derivable sur l'intervalle I ,
H1(I ) :
la fonction m() admet un point de rupture dans l'intervalle I .
Ainsi pour prouver le lemme 3.3, il sut de montrer que
h
i
1)
IPH0(I ) sup j ^(t)j x exp ,c4 cnh+nc(x(,x,c chnh)n ) .
t2I
2)
IPH1(I ) sup j ^(t)j < x exp ,c4 cnh+nc(x(,x,c chnh)n ) .
t2I
2
1
3
h
2
1
2
1
3
2
i
1
Sans perdre de generalite, nous allons supposer que I = [0; 1] et nous notons H0([0; 1]) = H0 et
H1([0; 1]) = H1.
Decomposons en partie moyenne et partie aleatoire centree la variable de saut estime :
^ (t) = E~n (t) + B~n (t);
ou
~n+ (t) , E~n, (t);
E~n(t) = EP
n w~ + (t)m(X ) Pn w~ , (t)m(X )
= i=1
Pn i w~+ (t) i , i=1
Pn i w~,(t) i ;
i=1 i
i=1 i
et
~n+ (t) , B~n, (t);
B~n (t) = BP
Pn w~,(t)(X )"
n w~+ (t) (X )"
i
i
i
=1
i
=
Pn w~+ (t) , i=1Pn i w~,(t) i i :
i=1 i
i=1 i
Nous avons le lemme suivant
Lemme 3.4. Sous les hypotheses C1-C6,
a)
il existe c1 ; c2; c3; c4 > 0 telles que pour tout x > c1 hn nous avons
"
#
"
#
c1hn )2 :
IP sup jB~n (t)j x exp ,c4 cnh+n c(x(,
3
2 x , c1 hn )
t2[0;1]
158
b)
CHAPITRE 3. ESTIMATEUR DU NOMBRE DE RUPTURES
il existe c1; c2; c3 ; c4 > 0 telles que pour tout x > c1h2n nous avons
IPH0
c)
"
#
"
#
2 2
n
(
x
,
c
1 hn )
~
sup jEn (t)j x exp ,c4 c h3 + c h (x , c h2 ) :
3 n
2 n
1 n
t2[0;1]
Soit un point de rupture de m(), alors il existe c1; c2 ; c3 ; c4 > 0 telles que pour tout
j ( )j, c1h2n > x,
IPH1
"
#
"
#
2 2
n
(
j
(
)
j
,
x
,
c
1 hn )
~
sup jEn(t)j < x exp ,c4 c h3 + c h (j ( )j , x , c h2 ) :
3 n
2 n
1 n
t2[0;1]
Nous en deduisons
e)
qu'il existe c1 ; c2 ; c3 ; c4 > 0 telles que pour tout x > c1hn ,
IPH0
f)
"
#
"
#
c1hn )2 :
sup j ^(t)j x exp ,c4 cnh+n c(x(,
3
2 x , c1 hn )
t2[0;1]
Soit un point de rupture de m(), alors il existe c1; c2; c3 ; c4 ; c5 > 0 telles que pour tout
c1hn < x < j ( )j , c5h2n,
IPH1
"
#
#
"
2
nh
(
x
,
c
n
1 hn )
sup j ^(t)j < x exp ,c4 c + c (x , c h ) :
3
2
1 n
t2[0;1]
Preuve du lemme 3.4.
Il est facile de voir que
"
#
IPH0 sup j ^(t)j x
t2[0;1]
"
IPH0 sup jE~n(t)j + sup jB~n (t)j x ;
IPH0
et
"
#
IPH1 sup j ^(t)j < x
t2[0;1]
#
"t2
;
[0 1]
t2[0;1]
#
"
t2[0;1]
t2[0;1]
"
#
IPH1 sup jE~n(t)j , sup jB~n(t)j < x ;
"t2
;
[0 1]
IPH1
#
sup jE~n (t)j x2 + IP sup jB~n (t)j x2 ;
t2[0;1]
#
"
#
sup jE~n( )j < 2x + IP sup jB~n (t)j x ;
t2[0;1]
t2[0;1]
par consequent les parties d) et e) du lemme 3.4 sont des consequences immediates des parties
a) et b) et des parties a) et c) respectivement.
3.5. Vitesses de convergence
a)
159
D'apres l'inegalite triangulaire,
sup jB~n (t)j sup jB~n+ (t)j + sup jB~n, (t)j:
t2[0;1]
t2[0;1]
t2[0;1]
On peut ecrire :
~ ~0 (t) , S~1 (t)~2 (t)
B~n (t) = S2 (t)P
:
n w~ (t)
i=1 i
Nous en deduisons que
sup jB~n (t)j
t2[0;1]
"
#
( sup jS~2 (t)j)( sup j~0 (t)j) + ( sup jS~1 (t)j)( sup j~1 (t)j)
t2[0;1]
t2[0;1]
t2[0;1]
t2[0;1]
P
n
inf j
w~ (t)j
t2[0;1] i=1 i
2 max
sup ~l (t)
l ;
=0 1
!
"
max
sup S~ (t) , Kl fX (t) + max
sup
l=1;2 t2[0;1] l
l=1;2 t2[0;1]
t2[0;1]
2 max
sup ~ (t)
l=0;1 t2[0;1] l
2
inf f (t) , sup
t2[0;1] X
t2[0;1]
2
!"
2
=1
1
t2[0;1]
, sup
t2[0;1]
;
Pn w~(t) , f (t)
i
i
X
2
=1
avec
1
= max
sup Kl fX (t) ,
l=1;2
i)
2
= inf fX2 (t).
t2[0;1]
t2[0;1]
Posons
"
An = 2
max
sup S~l (t) , Kl fX (t) +
l=1;2
t2[0;1]
2
, sup
t2[0;1]
Pn w~(t) , f (t)
i
i
X
=1
Kl fX (t)
Pn w~(t) , f (t)
i
i
X
#
max
sup S~l (t) , Kl fX (t) +
l=1;2
i)
;
2
#
1
;
#
;
160
alors
CHAPITRE 3. ESTIMATEUR DU NOMBRE DE RUPTURES
"
#
"
!
IP An max
sup ~l (t) x ;
l ;
IP sup jB~n (t)j x
t2[0;1]
"
=0 1
t2[0;1]
IP An max
sup ~l (t)
l ;
"
=0 1
!
t2[0;1]
+ IP An max
sup ~ (t)
l=0;1 t2[0;1] l
"
IP max
sup ~ (t)
l=0;1 t2[0;1] l
Or
IP An > 4
1
#
2
4
x ; An 4
!
2
1
1
#
2
x ; An > 4
#
1
2
x + IP An > 4
"
IP max
sup S~ (t) , Kl fX (t)
l=1;2 t2[0;1] l
"
n
X
w~i (t) , fX2 (t)
+ IP sup
t2[0;1] i=1
> 2
1
#
1
2
;
:
#
#
> 4 :
2
Ceci implique d'apres le lemme 3.5 qu'il existe c1; c2; c3; c4 > 0 telles que pour tout x > c1hn ,
"
#
"
#
2
nh
(
x
,
c
n
1 hn )
~
IP sup jBn (t)j x exp ,c4 c + c (x , c h ) :
3
2
1 n
t2[0;1]
b)
Sous l'hypothese nulle H0, nous avons
sup jE~n (t)j sup jE~n+(t) , m+ (t)j + sup jE~n, (t) , m, (t)j:
t2[0;1]
t2[0;1]
t2[0;1]
Or
E~n(t) , m (t)h
Pn w~(t) m(X ) , m (t) , (X , t)m(1)(t)i
i
i
i=1 i
=
P
;
n w~ (t)
i=1 i
~ ~ 0 (t) , S~1 (t)R~ 1 (t)
= S2 (t)RP
;
n w~ (t)
i=1 i
1
= ,Pn
~i (t) , fX2 (t) + fX2 (t)
i
=1 w
h
S~2(t) , K2 fX (t) R~0 (t) + K2fX (t)R~0 (t)
i
, S~(t) , K fX (t) R~(t) , K fX (t)R~ (t) ;
1
1
1
1
1
3.5. Vitesses de convergence
161
donc
sup jE~n (t) , m (t)j
t2[0;1]
2 max
sup R~ (t)
l=0;1 t2[0;1] l
!
"
(max
sup S~ (t) , Kl fX (t) ) + (max
sup
l=1;2 t2[0;1] l
l=1;2 t2[0;1]
inf f (t) , sup
t2[0;1] X
t2[0;1]
2
2 max
sup R~ (t)
l=0;1 t2[0;1] l
2
!"
, sup
#
Kl fX (t) )
Pn w~(t) , f (t)
i
i
X
=1
max
sup S~ (t) , Kl fX (t) +
l=1;2 t2[0;1] l
t2[0;1]
#
1
Pn w~ (t) , f (t)
i
i
X
=1
;
2
:
2
La suite de la demonstration est identique a celle de a). Il en resulte qu'il existe c1; c2 ; c3 ; c4 > 0
telles que pour tout x > c1h2n ,
IPH0
c)
"
#
"
#
2 2
sup jE~n (t)j x exp ,c4 c h3 n+(xc ,h c(1xhn,) c h2 ) :
3 n
2 n
1 n
t2[0;1]
Sous l'hypothese H1, il existe 2 [0; 1] tel que ( ) 6= 0. Alors :
sup jE~n (t)j j ( )j , jE~n+( ) , m+ ( )j , jE~n,( ) , m, ( )j:
t2[0;1]
D'ou
"
#
IPH1 sup jE~n(t)j < x
t2[0;1]
h
i
IPH1 jE~n ( ) , m ( )j + jE~n,( ) , m, ( )j j ( )j, x ;
j
(
)
j
,
x
j
(
)
j,
x
,
IPH1 jE~n ( ) , m ( )j 2
+ IPH1 jE~n ( ) , m, ( )j :
2
+
+
Or
+
+
162
CHAPITRE 3. ESTIMATEUR DU NOMBRE DE RUPTURES
jE~n( ) , m( )j 2 max
R~ ( )
l=0;1 l
max
S~ ( ) , Kl fX ( ) + max
K f ( )
l=1;2 l
l=1;2 l X
;
P
n
inf fX2 (t) , sup i=1 w~i (t) , fX2 (t)
t2[0;1]
R~ ( )
2 max
l=0;1 l
2
"
t2[0;1]
max
sup S~l (t) , Kl fX (t) +
l=1;2
t2[0;1]
, sup
t2[0;1]
#
1
Pn w~ (t) , f (t)
i
i
X
:
2
=1
Utilisons maintenant les m^emes arguments que ceux qui ont permis de terminer la demonstrations de a). Nous en deduisons qu'il existe c1; c2; c3 ; c4 > 0 telles que pour tout j ( )j,x > c1h2n ,
h
#
"
i
2 2
n
(
j
(
)
j
,
x
,
c
1 hn )
~
IPH1 jEn ( ) , m ( )j x exp ,c4 c h3 + c h (j ( )j, x , c h2 ) :
3 n
2 n
1 n
ut
Ceci termine la demonstrations du lemme 3.4.
Lemme 3.5. Soit L un entier xe. Supposons les hypotheses C1-C6 sont satisfaites, alors :
a)
Il existe c1; c2; c3; c4 > 0 telles que pour tout x > c1hn ,
"
#
IP 0max
sup jS~(t) , Kl fX (t)j x
lL t2[0;1] l
b)
#
IP 0max
sup j~ (t)j x
lL t2[0;1] l
c)
"
#
2
exp ,c4 cnh+nc(x(,x ,c1chnh) ) :
3
2
1 n
Il existe c1; c2; c3; c4 > 0 telles que pour tout x > c1h2n ,
IPH0
d)
2
exp ,c4 cnh+nc(x(,x ,c1hc nh) ) :
3
2
1 n
Il existe c1; c2; c3; c4 > 0 telles que pour tout x > c1hn ,
"
#
"
"
max sup jR~ l (t)j x
0lL t2[0;1]
#
"
#
2 2
exp ,c4 c h3 n+(xc ,h c(1xhn,) c h2 ) :
3 n
2 n
1 n
Soit un point de rupture de m(). Alors il existe c1; c2; c3; c4 > 0 telles que pour tout
x > c1h2n ,
IPH1
"
#
2 2
n
(
x
,
c
1 hn )
~
max jRl ( )j x exp ,c4 c h3 + c h (x , c h2 ) :
0lL
3 n
2 n
1 n
3.5. Vitesses de convergence
e)
163
Il existe c1 ; c2 ; c3 ; c4 > 0 telles que pour tout x > c1hn ,
"
IP sup j
n
X
t2[0;1] i=1
#
w~i (t) , fX2 (t)j x
"
#
2
exp ,c4 cnh+nc(x(,x ,c1chnh) ) :
3
2
1 n
Preuve du lemme 3.5.
Les demonstrations des parties a), b), c) et d) sont triviales et identiques en tous points. Pour
cela nous donnons ici seulement la demonstration de la partie a).
a)
Nous avons
"
#
IP 0max
sup S~l (t) , Kl fX (t) x
lL
t2[0;1]
L "
X
l=0
#
IP sup S~l (t) , Kl fX (t) x :
t2[0;1]
Appliquons maintenant le resultata) du lemme 3.6. Nous en deduisons le resultat enonce dans
le a) du lemme 3.5.
e)
En ecrivant
n
X
i=1
w~i(t) , (K2K0 , (K1)2)fX2 (t)
= S~2 (t)S~0 (t) , S~1 (t)S~1 (t) , (K2 K0 , (K1 )2 )fX2 (t);
2
= S~2 (t) , K2 fX (t) S~0 (t) , K0 fX (t) , S~1 (t) , K1 fX (t)
+ S~2 (t) , K2 fX (t) K0 fX (t) + S~0 (t) , K0 fX (t) K2 fX (t)
, 2K fX (t) S~(t) , K fX (t) :
1
1
1
164
CHAPITRE 3. ESTIMATEUR DU NOMBRE DE RUPTURES
Nous en deduisons
sup j
n
X
t2[0;1] i=1
= sup j
w~i (t) , fX2 (t)j
n
X
t2[0;1] i=1
w~i(t) , (K2K0 , (K1)2)fX2 (t)j
sup S~2 (t) , K2 fX (t)
t2[0;1]
!
~
sup S1 (t) , K1 fX (t)
+
t2[0;1]
sup S~2 (t) , K2 fX (t)
+
t2[0;1]
sup S~0 (t) , K0 fX (t)
+
t2[0;1]
!
+ 2 sup jK1 jfX (t)
t2[0;1]
sup S~0 (t) , K0 fX (t)
t2[0;1]
!
2
!
!
sup jK0 jfX (t)
t2[0;1]
sup jK2 jfX (t)
!
!
t2[0;1]
sup S~1 (t) , K1 fX (t)
t2[0;1]
max sup S~ (t) , Kl fX (t)
l=0;1;2 t2[0;1] l
!
!
!
;
"
#
2 lmax
sup S~l (t) , Kl fX (t) + 4 l max
sup Kl fX (t) :
;;
;;
=0 1 2
t2[0;1]
=0 1 2
t2[0;1]
Pour terminer la demonstration du e) du lemme 3.5, nous utilisons le
existe c1; c2; c3; c4 > 0 telles que pour tout x > c1hn ,
"
n
X
IP sup j
t2[0;1] i=1
#
w~i(t) , fX2 (t)j x
a)
"
i)
S~l(t) = nh1ln
+1
ut
Pn (t , X )lK ( t,Xi ),
i hn
i
Pn (t , X )lK ( t,Xi )(X )" ,
=1
iii) ~l (t) = nh1l+1
n
~ l (t) =
iii) R
Pni
i=1
i
h
hn
i i
t,Xi )l K( t,hnXi ) m(Xi ),m (t),(Xi ,t)m(1)
(t)
l
+1
nhn
=1 (
#
2
exp ,c4 cnh+n c(x(,x ,c1chnh) ) :
3
2
1 n
et ceci acheve la demonstration du lemme 3.5.
Rappelons que
du m^eme lemme. Il
i
.
Lemme 3.6. Supposons que les hypotheses C1-C6 soient satisfaites, alors
3.5. Vitesses de convergence
a)
165
Il existe c1; c2 ; c3 ; c4 > 0 telles que pour tout x > c1hn ,
"
#
IP sup jS~l (t) , Kl fX (t)j x
t2[0;1]
b)
"
#
"
#
2
exp ,c4 cnh+nc(x(,x ,c1hc nh) ) :
3
2
1 n
Il existe c1; c2 ; c3 ; c4 > 0 telles que pour tout x > c1h2n ,
IPH0
d)
#
2
exp ,c4 cnh+n c(x(,x ,c1chnh) ) :
3
2
1 n
Il existe c1; c2 ; c3 ; c4 > 0 telles que pour tout x > c1hn ,
IP sup j~l (t)j x
t2[0;1]
c)
"
"
#
sup jR~ l (t)j x
t2[0;1]
"
#
2 2
exp ,c4 c h3 n+(xc ,h c(1xhn,) c h2 ) :
3 n
2 n
1 n
Soit un point de rupture de m(). Alors il existe c1 ; c2 ; c3 ; c4 > 0 telles que pour tout
x > c1h2n ,
IPH1
h ~
#
"
i
2 2
jRl ( )j x exp ,c4 c h3 n+(xc ,h c(1xhn,) c h2 ) :
3 n
2 n
1 n
Preuve du lemme 3.6.
Cherchons des majorants de nh1ln (t , Xi )l K ( t,hXn i ) et V ar(S~l(t)) permettant d'appliquer
l'inegalite de Bernstein 2.11 :
a)
+1
d'une part nous avons
d'autre part
j 1l (t , Xi)lK( t ,h Xi )j 23nhc :
2
nhn+1
n
n
Z
V ar(S~l(t)) nh1 x2lK2 (x)fX (t , hn x)dx;
n
c
3
2nh ;
n
d'apres l'inegalite de Bernstein (la deuxieme partie du lemme) nous avons donc
h ~
i
IP jSl (t) , IE(S~l (t))j x 2 exp , cnh+n cx x ;
3
2
or
IE(S~l (t)) =
Z
xl K (x)fX (t , hn x)dx ;
2
166
CHAPITRE 3. ESTIMATEUR DU NOMBRE DE RUPTURES
donc si nous supposons que fX () veri e C2, nous obtenons
Z
jIE(S~l(t)) , KlfX (t)j jxlK(x)jjfX (t , hnx) , fX (t)jdx ;
v hn :
1
En appliquant l'inegalite triangulaire nous avons
jS~l(t) , KlfX (t)j jS~l(t) , IE(S~l(t))j + jIE(S~l(t)) , KlfX (t)j;
jS~l(t) , IE(S~l(t))j + v hn;
1
d'ou pour tout x v1hn ,
h ~
IP jSl (t) , Kl fX (t)j x
Nous avons
[0; 1] i
d1[
=h3ne
k=1
"
#
2
2 exp , cnh+nc(x(,x ,v1vhnh) ) :
3
2
1 n
[(k , 1)h3n ; kh3n ];
ou dxe designe la partie entiere superieure de x.
Pour t 2 [(k , 1)h3n ; kh3n ],
jS~l(t) , KlfX (t) , S~l(khn ) + Kl fX (khn )j
jKljjfX (t) , fX (khn )j + jS~l(t) , S~l(khn)j;
Pn t,Xi lK t,Xi , khn ,Xi lK khn ,Xi hn
i
hn
hn
hn
v jt , khn j +
;
nhn
v jt , kh j + v jt , khn j ;
3
3
3
3
3
2
2
v hn;
3
3
n
3
=1
3
3
h2n
4
ou nous avons utilise le fait que les fonctions fX () et K+ () sont lipschitziennes (C2 et C6).
Donc
sup jS~l (t) , Kl fX (t)j max jS~l (kh3n ) , Kl fX (kh3n )j + v4 hn ;
1k d1=hn e
t2[0;1]
3
3.5. Vitesses de convergence
167
et par suite, pour tout x > (v1 + v4 )hn ,
"
IP sup jS~l(t) , Kl fX (t)j x
#
IP
t2[0;1]
max
jS~l(kh3n ) , KlfX (kh3n )j x , v4hn ;
kd1=h3n e
d1X
=h3ne h
i
IP jS~l (kh3n ) , Kl fX (kh3n )j x , v4 hn ;
k=1 "
#
2 exp , nhn (x , (v1 + v4 )hn )2 ;
h3n
c3 + c2(x , (v1 + v4)hn )
1
donc il existe c1 > 0 et c4 > 0 telles que pour tout x > c1hn ,
"
#
IP sup jS~l (t) , Kl fX (t)j x
t2[0;1]
b)
"
#
2
exp ,c4 cnh+nc(x(,x ,c1chnh) ) :
3
2
1 n
Nous avons
IE
"
1 (t , X )lK ( t , Xi ) k k (X )j" jk
i h
i i
l+1
nhn
#
n
1 v k IEj"jk ;
(nhn )k 5
ck2,2 k!:
(nhn )k,2
Z
V ar(~l (t)) nh1 x2l K2 (x)2(t , xhn )fX (t , hn x)dx ;
n
c
3
2nh ;
n
d'apres l'inegalite de Bernstein (la premiere partie du lemme) nous avons donc
2
nh
x
n
IP jl (t)j x 2 exp , 2(c + c x) :
3
2
h ~
i
Pour t 2 [(k , 1)h3n ; kh3n ],
j~l(t) , ~l(khn)j 3
Pn t,Xi lK t,Xi , khn ,Xi lK khn ,Xi (X )j" j
i=1
hn
n
X
v jt ,nhkhn j j"ij;
Pnn j"i j
vh i i;
3
6
2
=1
6
n
=1
n
hn
3
hn
nhn
3
hn
i
i
;
168
CHAPITRE 3. ESTIMATEUR DU NOMBRE DE RUPTURES
donc
sup j~l (t)j max 3 j~l (kh3n )j + v6 hn
1k d1=hn e
t2[0;1]
et par consequent
"
Pn j" j
i
i
n ;
=1
#
IP sup j~l (t)j x
t2[0;1]
Pn j" j i x ;
i
n
n
Pn j" j
Pn j" j
i
i
i
i
~
IP kmax
j (khn )j + v hn n x ; n 2IEj"j
d =hn e l
Pn j" j
Pn j" j
IP 1kmax
j~(kh3n )j + v6hn
d1=h3 e l
3
1
=1
6
3
1
=1
=1
i=1 i
j~(khn )j + v hn
e l
i=1 i
n
n > 2IEj"j ;
Pn
~l (kh3n )j x , 2v6IEj"jhn + IP i=1 (j"i j , IEj"ij) > IEj"j :
IP 1kmax
j
n
d1=hn e
+ IP
1
max
kd1=hn
3
3
6
x;
3
Nous avons
h
i
h
i
2k, IEj"jk + (IEj"j)k ;
2k IEj"jk ;
d'apres l'inegalite de Bernstein appliquee aux j"i j,
#
"X
Pn j"ij , IEj"ij
n
i
j" j , IEj" j > nIEj"j ;
IP
> IEj"j IP
IE jj"j , IEj"jjk
=1
n
1
i
i=1
i
exp(,v n)
7
d'ou, en prenant x v8 hn 2v6IEj"jhn ,
"
#
IP sup j~l (t)j x
t2[0;1]
IP max
j~(kh3n )j x , 2v6IEj"jhn + IP
k l
d1X
=h3ne
k=1
h
i
"
#
Pn j"ij , IEj"ij
i
> IEj"j ;
=1
n
IP j~l (kh3n )j x , v8 hn + exp(,v7 n);
2
h23 exp , 2(cnh+n (cx (,x v,8hvn)h )) + exp(,v7n);
3
2
8 n
n
donc il existe c1 > 0 et c4 > 0 telles que pour tout x > c1hn ,
"
#
"
#
2
nh
(
x
,
c
h
)
IP sup j~l (t)j x exp ,c4 c +n c (x ,1c nh ) :
3
2
1 n
t2[0;1]
3.5. Vitesses de convergence
c)
169
Nous avons
(t , Xi )l K ( t , Xi ) hm(X ) , m (t) , (X , t)m(1)(t)i 3c2hn :
i
i
2n
nhln+1 hn
Z
h
i
V ar(R~ l (t)) nh1 x2l K2 (x) m(t , xhn ) , m (t) + xhnm(1)
(t) fX (t , hn x)dx ;
n
3
c23hnn ;
2
d'apres l'inegalite de Bernstein (la deuxieme partie du lemme) nous obtenons donc
h ~
i
IP jRl (t) , IE(R~ l (t))j x 2 exp , c h3 nx
;
3 n + c2 xhn
or
IE(R~ l (t)) =
Z
2
h
i
xl K (x) m(t , xhn ) , m (t) + xhn m(1)
(t) fX (t , hn x)dx ;
donc sous l'hypothese nulle nous aurions
jIE(R~l (t))j v hn:
9
2
En appliquant de l'inegalite triangulaire nous obtenons
jR~l (t)j d'ou pour tout x v9 h2n ,
h ~
jR~ l (t) , IE(R~l (t))j + jIE(R~l (t))j;
jR~ l (t) , IE(R~l (t))j + v hn;
9
i
"
2
#
2 2
n
(
x
,
v
9 hn )
IP jRl (t)j x 2 exp , c h3 + c h (x , v h2 ) :
2 n
3 n
9 n
(3.14)
Pour t 2 [(k , 1)h3n ; kh3n ], nous avons
h
i
3
m(Xi) , m (kh3n ) , (Xi , kh3n )m(1)
(khn )
h
i
= m(Xi) , m (t) , (Xi , t)m(1)
(
t
)
h
i
(1)
(1)
3
3
3
+ m (t) , m (kh3n ) + (Xi , t) m(1)
(t) , m (khn ) + (khn , t)m (khn );
h
i
3
= m(Xi) , m (t) , (Xi , t)m(1)
(t) + O(hn );
170
CHAPITRE 3. ESTIMATEUR DU NOMBRE DE RUPTURES
donc
R~ l (t) , R~l (kh3n)
Pn t,Xi lK t,Xi r (t) Pn khn ,Xi lK khn,Xi r(kh3 )
hn
n
i=1 hn
i=1
i
i
hn
hn
,
;
=
nhn
nhn
Pn t,Xi lK t,Xi r (t) Pn khn ,Xi lK khn,Xi r(kh3 ) + O(h3 )
hn
n
n
i=1 hn
i
i
i=1
hn
hn
=
,
;
nhn
nhn
Pn t,Xi lK t,Xi , khn ,Xi lK khn ,Xi r (t)
hn
i
i=1
hn
hn
hn
+ O(h2n );
=
nhn
= O(h2n );
3
3
3
3
3
3
h
i
ou ri (t) = m(Xi ) , m (t) , (Xi , t)m(1)
(t) .
Donc
sup jR~ l (t)j max jR~ l (kh3n )j + v10h2n ;
1k d1=hn e
t2[0;1]
3
et par suite pour tout x > (v9 + v10 )h2n ,
"
#
IP sup jR~ l (t)j x
t2[0;1]
IP
max
jR~ l (kh3n)j x , v10h2n ;
kd1=h3n e
d1X
=h3n e h
i
IP jR~ l (kh3n )j x , v10 h2n ;
k=1 "
1
#
2 2
h23 exp , c h3 n+(xc ,h ((vx9 ,+ (vv10)+hnv) )h2 ) ;
2 n
3 n
9
10
n
n
donc il existe c1 > 0 et c4 > 0 telles que pour tout x > c1h2n ,
"
IP sup jR~ l (t)j x
t2[0;1]
d)
#
#
"
2 2
n
(
x
,
c
1 hn )
exp ,c4 c h3 + c h (x , c h2 ) :
3 n
2 n
1 n
En remplacant t par , (3.14) reste valable, ce qui prouve la partie 4 du lemme 3.6.
ut
Theoreme 3.5. Supposons que les hypotheses C1-C6 sont satisfaites et que le seuil Sn est tel
que Sn = n hn , Sn ! 0 et n ! 1. Alors il existe > 0 tel que :
, ,
a)
IP[jp^ , pj > 0] = O exp ,nh3n 2n ,
b)
1 , IP [81 i p; ^i 2 IDi et p^ = p] = O exp ,nh3n 2n ,
, ,
3.5. Vitesses de convergence
171
ou IDi =]i , hn ; i + hn [.
Preuve du theoreme 3.5.
a)
IP[^p , p > 0] IP[
sup
[pi=1 [i+hn ;i+1 ,hn ]
= IP[sup j ^(t)j Sn ]:
IC
IP[^p , p < 0] IP[9i = 1; : : : ; p; j
sup
i=1
j^(t)j < Sn ]
sup
j^(t)j Sn];
i ,hn ;i+hn ]
[
+ IP[9i = 1; : : : ; p; j
p
X
j^(t)j Sn];
i +hn ;i+1 ,hn ]
[
IP[sup j ^(t)j < Sn ] + IP[sup j ^(t)j Sn ]:
IDi
IC
Or d'apres lemme 3.3 il existe c1; c2; c3; c4 et c5 > 0 telles que si c1 hn < Sn < 1min
j (i)j, c5h2n ,
ip
alors :
h
i
1)
IP sup j ^(t)j Sn exp ,c4 cnh+nc(S(nS,n ,c chnh)n ) ,
t2IC
2)
IP sup j ^(t)j < Sn exp ,c4 cnh+nc(S(nS,n ,c chnh)n ) .
t2IDi
2
1
3
h
2
1
2
1
3
2
i
1
En choisissant le seuil Sn tel que Sn ! 0 et Sn = n hn ou n ! 1, nous en deduisons qu'il
existe une constante A > 0 telle que
,
,
1)
IP sup j ^(t)j Sn exp ,Anh3n 2n ,
t2IC
2)
IP sup j ^(t)j < Sn exp ,Anh3n 2n .
t2ID
i
Donc il existe > 0 tel que
, ,
IP[jp^ , pj > 0] = O exp ,nh3n 2n :
b)
IP [91 i p^; 1 j p; ^i 2 [j + hn ; j +1 , hn ] ou p^ 6= p]
IP[ p sup
j^(t)j Sn] + IP [^p 6= p] ;
[i i hn ;i ,hn
,
,
= O exp ,nhn n ;
=1 [
+
]
+1
3
2
(3.15)
172
CHAPITRE 3. ESTIMATEUR DU NOMBRE DE RUPTURES
donc
, ,
1 , IP [f^1; : : : ; ^pg [pi=1 ]i , hn ; i + hn [ et p^ = p] = O exp ,nh3n 2n :
Comme chaque intervalle ]i , hn ; i + hn [ ne peut contenir qu'un seul ^i , quitte a faire une
permutation sur l'indice i on peut armer que
, ,
1 , IP [81 i p; ^i 2]i , hn ; i + hn [ et p^ = p] = O exp ,nh3n 2n :
ut
Theoreme 3.6. Supposons que les hypotheses C1-C6 sont satisfaites et que min
j (i)j > S .
ip
0
1
Alors il existe > 0 tel que :
a)
IP[jp^ , pj > 0] = O (exp (,nhn )),
b)
1 , IP [81 i p; ^i 2 IDi et p^ = p] = O (exp (,nhn )),
ou IDi =]i , hn ; i + hn [.
Preuve du theoreme 3.6. Reprendre la demonstration du theoreme 3.5 en remplacant Sn
par S .
ut
0
Corollaire 3.1. Supposons que les hypotheses C1-C6 sont satisfaites et que nhn Sn=log n ! 1.
2
Alors :
a)
p^ ! p,
b) ^i
! i,
p:s:
p:s;
i = 1; : : : ; p.
La variance de ^(t) etant de l'ordre de 1=nhn . D'apres le theoreme 3.1, pour que la procedure
que nous avons de nie pour estimer le nombre de ruptures soit consistante (fortement), il sut
que la suite des seuils (Sn )n soit d'un ordre de grandeur plus grand que celui l'ecart-type, i.e.
(^(t)) = o(Sn ) (cf la gure 1.2).
Preuve du corollaire 3.1.
Sous les hypotheses du corollaire 3.1, il est facile de voir que nous avons :
3.6. Simulations
173
, ,
1)
IP[jp^ , pj > 0] = O exp ,nhn Sn2 ,
2)
1 , IP [81 i p; ^i 2 IDi et p^ = p] = O exp ,nhn Sn2 .
Or nhn Sn2 =log n ! 1. Il en resulte que la serie
donc, que :
a)
p^ ! p,
, ,
P exp ,,nh S converge. Nous en deduisons,
n n2
pco;
b) ^i ! i ,
pco;
i = 1; : : : ; p.
ut
Ceci termine la demonstration du corollaire.
Il est facile de veri er le corollaire suivant qui nous sera utile dans le chapitre suivant.
Corollaire 3.2. Sous les hypotheses du theoreme 3.5 et si nous supposons que
Sn = log1(n)
et hn = n, avec 0 < < 1, alors :
, 1 , IP [81 i p; ^i 2]i , hn ; i + hn [ et p^ = p] = o h4n :
3.6 Simulations
Nous explorons dans ce paragraphe, a l'aide de simulations, les performances de notre procedure d'estimation du nombre de ruptures pour des tailles d'echantillon raisonnables (n = 200
et n = 500). Quatre modeles sont consideres : M0 (modele sans rupture), M1 (modele avec une
seule rupture), M2 et M3 (modeles avec 2 ruptures).
Exemple 1.(Loader, C.R.)
Dans cet exemple nous nous sommes interesse seulement a la qualite de l'estimation du nombre
de ruptures pour chacun des trois modeles, M0, M1 et M2. Le modele M0 est de ni par une fonction
continue. Les modeles M1 et M2 sont obtenus en rajoutant une (M1), puis deux (M2) discontinuites.
1000 echantillons de taille n (200 ou 500) sont simules pour chacun des trois modeles suivants :
(M0)
Yi = 4 sin (5Xi) + 3Xi + "i
174
CHAPITRE 3. ESTIMATEUR DU NOMBRE DE RUPTURES
(M1)
Yi = 4 sin (5Xi) + 3Xi + 1I[0:3;1](Xi) + "i
(M2)
Yi = 4 sin (5Xi) + 3Xi + 1I[0:3;1](Xi ) , 1I[0:7;1](Xi) + "i
avec "i 0:5N (0; 1) et Xi U ([0; 1]).
Nous avons regroupe dans les tableaux 3.1 et 3.2 les distributions observees des estimateurs du
nombre de ruptures pour chaque modele. La taille des echantillons consideres dans le tableau
3.1 est de 200 et celle de ceux consideres dans le tableau 3.2 est de 500. Compte tenu du rapport
signal sur bruit (RSB = 2), les taux d'exacte decouverte du nombre de ruptures apparaissent
satisfaisants. Les resultats s'ameliorent lorsqu'on passe de n = 200 a n = 500. Dans la gure
3.2 nous avons visualise un echantillon de taille n = 200 de chacun des modeles M0, M1 et M2
ainsi que les fonctions de regression qui leur sont associees.
M0
M1
6
4
M2
8
8
6
6
4
Y
2
Y
Y
4
2
2
0
0
−2
0
0
0.5
X
−2
1
−2
0
4
5
3
4
2
3
1
1
−1
0
0.5
X
1
−1
0.5
X
1
M2
4
2
0
0
0
6
m(X)
6
−2
−4
1
M1
5
m(X)
m(X)
M0
0.5
X
2
0
0
0.5
X
1
−2
0
0.5
X
Figure 3.2 : Un echantillon de taille n = 200 pour les modeles M0, M1 et M2.
1
3.6. Simulations
175
Table 3.1 : Estimation du nombre de ruptures : hn = 0:2 et n = 200.
p^ n p
0
1
2
3
M0
M1
M2
0
0
0
778 239 6
217 737 380
5 24 614
Table 3.2 : Estimation du nombre de ruptures : hn = 0:15 et n = 500.
p^ n p
0
1
2
3
M0
M1
M2
0
0
0
913 23 0
84 960 38
3 17 962
Exemple 2.(Loader, C.R.)
Dans ce deuxieme exemple nous avons etudie la qualite des estimations des localisations ainsi
que des amplitudes de rupture lorsque leur nombre est correctement estime. De facon precise,
1000 echantillons de taille n (n = 200 ou n = 500) sont simules a partir du modele suivant :
(M2)
Yi = 4 sin (5Xi) + 3Xi + 1I[0:3;1](Xi) , 1I[0:7;1](Xi) + "i
avec "i 0:5N (0; 1) et Xi U ([0; 1]).
Pour chacun des echantillons pour lequels le nombre de ruptures est bien estime (c'est-a-dire p^ =
2) nous avons represente dans les gures 3.3 (pour les echantillons de taille n = 200) et 3.5 (pour
les echantillons de taille n = 500) les localisations estimees de ces deux ruptures. Dans les gures
3.4 et 3.6, nous avons rapporte les estimations des amplitudes de ces ruptures. Nous remarquons
qu'une bonne estimation du nombre de ruptures est accompagnee la plupart du temps d'une
bonne localisation des ruptures ainsi que d'une bonne estimation de leurs amplitudes. Ceci est
coherent avec les resultats asymptotiques etablis dans ce chapitre (voir theoreme 3.5).
176
CHAPITRE 3. ESTIMATEUR DU NOMBRE DE RUPTURES
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0
1
τ1
2
τ2
Figure 3.3 : Estimations de ^ et ^ sachant p^ = 2. n = 200 et hn = 0:2.
1
2
2
1.5
1
0.5
γ(τ )
2
0
γ(τ1)
−0.5
−1
−1.5
−2
−2.5
1
2
Figure 3.4 : Estimations de ^(^ ) et ^(^ ) sachant p^ = 2. n = 200 et hn = 0:2.
1
2
3.6. Simulations
177
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0
1
τ1
2
τ2
Figure 3.5 : Estimations de ^ et ^ sachant p^ = 2. n = 500 et hn = 0:15.
1
2
2
1.5
1
0.5
γ(τ )
2
0
γ(τ1)
−0.5
−1
−1.5
−2
1
2
Figure 3.6 : Estimations de ^(^ ) et ^(^ ) sachant p^ = 2. n = 500 et hn = 0:15.
1
2
178
CHAPITRE 3. ESTIMATEUR DU NOMBRE DE RUPTURES
Exemple 3.(Gijbels & al )
Dans ce troisieme exemple, nous analysons le comportement de notre procedure d'estimation du
nombre de ruptures en fonction du choix de la fen^etre de lissage hn . ce que nous observons est
coherent avec les constatations faites dans les chapitres precedents:
1)
L'utilisation de faibles tailles de fen^etre de lissage se traduit par une augmentation de la
variance du processus ^(t). Les perturbations conduisent a des extrema arti ciels et a une
surestimation du nombre de discontinuites.
2)
Le choix de fen^etres de lissage de grandes tailles conduit a gommer certaines proprietes
locales de ^ (t) comme les maxima relatifs, ce qui conduit a une sous-estimation du nombre
de ruptures dans la fonction de regression.
200 echantillons de taille n = 250 sont simules a partir du modele M3 suivant :
Yi = m(Xi) + "i
ou
8
>>
>>
<
m(x) = >
>>
>:
exp(,2(x , 0:35)) , 1
si x 2 [0; 0:35[,
exp(,2(x , 0:35))
si x 2 [0:35; 0:65[,
exp(2(x , 0:65)) + exp(,0:6) , 2 si x 2 [0:65; 1],
avec "i N (0; 1) et Xi U ([0; 1]).
Les resultats de ces simulations sont presentes dans le tableau 3.3 ci dessous.
3.6. Simulations
179
Table 3.3 : Estimation du nombre de rupture : modele M3 avec = 0:1 et n = 250.
2
p^ n hn 0:06 0:09 0:12 0:15 0:18
0
1
2
3
4
5
0
4
0
6
0
18
0
25
0
155
88
40
13
25
0
0
0
0
0
0
0
0
0
0
0
55 169 182 175 55
Chapitre 4
Segmentation
4.1 Introduction
Le probleme aborde dans ce chapitre est celui de la reconstitution de la fonction de regression
lorsque celle-ci presente un nombre ni de singularites. Dans la litterature, on distingue deux
approches pour estimer une fonction de regression presentant des points de rupture. D'une part
les methodes dites directes qui n'utilisent pas d'estimation prealable des points de rupture ( cf
[MO86] pour un exemple de cette facon de proceder). D'autre part les approches indirectes ou
de segmentation. Ce dernier type d'approches procede en deux etapes : une premiere etape qui
consiste a estimer le nombre de points de rupture et leurs localisations en utilisant une methode
quelconque de detection de ruptures. Ensuite, sur chaque intervalle de ni par deux points de
rupture consecutifs, la fonction de regression est estimee en utilisant les observations de ce seul
intervalle. Ainsi les methodes de segmentation suivent en general le schema suivant :
i)
ii)
Estimer le nombre de ruptures de la fonction de regression dans l'intervalle d'etude [a; b]:
p^;
Localiser les p^ ruptures dans le signal : ^1 < : : : < ^p^. Par convention, on note
^0 = a et ^p^+1 = b:
iii)
Segmenter les donnees : Supposons qu'on dispose de n observations D = f(xi ; yi); 1 i ng.
On construit une partition (Dj )0j p^ de l'ensemble des observations de nie par :
Dj = f(xi; yi); 1 i n et ^j xi < ^j+1 g :
182
iv)
CHAPITRE 4. SEGMENTATION
Pour tout ^j x < ^j +1 , estimer m(x) par une methode standard pour les fonctions lisses
en utilisant seulement les donnees Dj .
D
S
D0
E
G
M
...
R E G R E S S I O N
...
E
N
T
Di
A
T
...
L I N E A I R E
I
O
N
D p^
L O C A L E
...
Figure 4.1 : Les methodes de segmentation: Algorithme.
Ici nous allons estimer le signal en segmentant les donnees toujours dans le cadre d'estimation
par regression lineaire locale. Dans un premier temps, nous estimons le nombre de ruptures
et leurs localisations 1; : : : ; p par regression lineaire locale avec une taille de fen^etre gn en
utilisant des noyaux dissymetriques K+ () et K, (). Dans un deuxieme temps, nous e ectuons
sur chaque intervalle [^i ; ^i+1[ l'estimation de la fonction de regression en utilisant une deuxieme
taille de fen^etre hn pour un noyau K () standard a support [,1; 1]. Nous montrons que, dans
les conditions habituelles, avec un choix convenable pour gn , on obtient un estimateur m^ () qui
a la m^eme vitesse de convergence que dans le cas ou m() ne presente pas de ruptures. Il s'agit
bien entendu d'une consequence de la propriete d'absence d'e ets de bords de la regression
polyn^omiale locale. Les estimateurs de type Nadaraya-Watson ou Gasser-Muller ne peuvent
conduire au m^eme resultat qu'en modi ant le noyau au voisinage des points de rupture.
4.2. E et de la segmentation en deux intervalles
183
4.2 Un seul point de rupture. E et de la segmentation en deux
intervalles
Nous commencons par etudier, dans ce paragraphe, la situation d'un seul point de rupture et un point de segmentation. Nous explicitons le comportement asymptotique de l'erreur quadratique moyenne (MSE(x))de m^ (x) d'une part au voisinage du point de segmentation, d'autre part
au voisinage du point de rupture. On observe une deterioration de la qualite de l'estimation
uniquement au voisinage du point de rupture . De plus, lorsque le point de segmentation est
\susamment proche" de , cette deterioration n'a pas de repercussions au niveau du comportement asymptotique du MISE . En particulier, dans le cas ou est connu, la segmentation
en deux intervalles [0; [ et [; 1] ne modi e pas la qualite (au sens du MISE) de l'estimation de
m() par rapport a la situation ou m() ne presente pas de rupture.
Nous supposons, dans ce paragraphe, que nous savons que la fonction de regression admet
un seul point de rupture, . L'intervalle d'etude [a; b] est egal a [0; 1]. Nous montrons au
paragraphe 4.4 que, lorsque le nombre de ruptures et leurs localisations sont estimes, les vitesses
de convergence obtenues dans ce paragraphe sont conservees.
4.2.1 Notations et hypotheses
Nous presentons ici les notations et les hypotheses considerees dans ce chapitre :
La fonction de densite marginale fX () est supposee continue et strictement positive sur
l'intervalle [0; 1].
D1.
La fonction de regression m() = IE(Y j X = ) est deux fois contin^ument derivable en
tout point di erent de et est cadlag au point ainsi que ses deux premieres derivees.
D2.
D3.
La variance conditionnelle 2 (x) = V ar(Y j X = x) est continue sur l'intervalle [0,1].
D4.
Le point de discontinuite de la fonction de regression, , appartient a l'intervalle ]0; 1[.
Comme dans les chapitres precedents, nous posons pour = 0; 1; 2
i)
m(,)( ) = tlim
m( ) (t);
%
ii)
m(+) ( ) = tlim
m() (t);
&
iii)
( )
( ) = m(+ ) ( ) , m(, ) ( ):
184
CHAPITRE 4. SEGMENTATION
Ainsi ( ) = m+ ( ) , m, ( ) est l'amplitude de la discontinuite de la fonction de regression au
point .
Pour tout v , nous posons
i)
Kl(v ) =
ii)
1
BK (v) = KK ((vv))K,K(v()v,)KK ((vv)) ;
2
2
2
iii)
iv)
R xlK (x)dx;
v
Ll (v) =
VK2 (v ) =
3
0
1
2
1
R xlK (x)dx;
v
1
R
1
v
2
K2 (v),xK1 (v))2 K 2 (x)dx
:
2
(K2 (v )K0 (v ),K12 (v ))
(
Dans la suite, le noyau K () est suppose symetrique, i.e :
K (,x) = K (x):
Remarque 4.1. Comme K () a pour support l'intervalle [,1; 1], pour tout v ,1, on a
Kl(v) = Kl(,1) = Kl. Cette propriete est egalement vraie pour les quantites BK (v), Ll (v )
et VK (v ).
Nous notons m
^ (; t) l'estimateur de m(), ou t designe le point de segmentation. L'estimateur
m^ (; t) est obtenu de la facon suivante :
Lorsque x 2 [0; t[, on ajuste localement une droite
x + x (x , u) par la regression lineaire
^
locale (RLL) pour obtenir m^ (x; t) = x en utilisant seulement les observations Xi < t.
Lorsque x 2 [t; 1], on e ectue la m^eme construction en utilisant les observations Xi t.
En d'autres termes l'estimateur de m(x) est de ni par :
Pn w (x; t)Y
m^ (x; t) = Pi n wi (x; t) i ;
i
i
(4.1)
=1
=1
avec
8>
<0
wi(x; t) = >
: K ( x,hnXi )(S (x; t) , (x , Xi)S (x; t))
2
1
si i 2 B (x; t),
sinon,
(4.2)
4.2. E et de la segmentation en deux intervalles
ou pour l = 0; 1; 2; : : :
185
8P
>< Xi<t(x , Xi)lK ( x,hnXi )
Sl (x; t) = >
: PXit(x , Xi)lK ( x,h Xi )
n
et
si x < t,
(4.3)
si x t,
B(x; t) = f1 i n; x < t Xi ou Xi < t xg:
1.5
1
0.5
0
−0.5
−1
−1.5
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
x = 0.65
x = 0.75
Figure 4.2 : Construction de l'estimateur m^ (; t) : t = 0:7 et x = 0:65; 0:75.
Remarque 4.2. Il est important de noter que l'estimateur m^ (x; t) ainsi obtenu peut ^etre de ni
comme la valeur de b = b(x) solution du probleme de minimisation :
n
X
min
a;b) X 2D(x;t)
(
i
[Yi , (a(x , Xi ) + b)]2K ( x ,h Xi );
n
(4.4)
ou D(x; t) designe l'intervalle [0; t[ si x < t et [t; 1] sinon.
4.2.2 Resultats asymptotiques
Nous examinons d'abord la situation d'un point de segmentation loin du point de rupture
. La premiere partie du theoreme suivant est une reformulation de l'expression de l'erreur
186
CHAPITRE 4. SEGMENTATION
quadratique moyenne pour une fonction lisse, que ce soit aux bords ou loin des bords. Nous
demontrons ces resultats, pour mettre plus clairement en evidence les elements qui sont modi es
lorsque la fonction n'est plus lisse. Dans ce dernier cas, au voisinage du point de rupture, le
biais est de l'ordre de l'amplitude de cette rupture c'est a dire OP (1). L'ordre de grandeur de la
variance n'est pas modi e par la presence de la rupture. Il en resulte que l'erreur quadratique
moyenne au voisinage du point de rupture est OP (1).
Theoreme 4.1. Supposons que les hypotheses D1-D4 sont veri ees et que t = + rhn, avec
jrj > 1 et x = t + chn , alors
1) si jx , j > hn ,
a) IE [m
^ (x; t) j X ; : : : ; Xn] , m(x) = m (x)hn BK (,jcj) + oP (hn ),
b V ar [m
^ (x; t) j X ; : : : ; Xn ] = nhn fx x VK (,jcj) + oP ( nhn ),
2) si x = + hn z , jz j 1
a) IE [m
^ (x; t) j X ; : : : ; Xn] , m(x) = ,sign(z )c ;r(z ) ( ) + oP (1),
b) V ar [m
^ (x; t) j X ; : : : ; Xn ] = nhn fx x VK (,jz , rj) + oP ( nhn )
1
2
1
2( )
1
( )
(2)
1
1
2( )
1
et
2
2
1
avec
2
( )
1
2
z , rj)K0(jz j) , K1(,jz , rj)K1(jzj) ;
c1;r(z ) = KK2((,j
,jz , rj)K (,jz , rj) , K 2(,jz , rj)
2
0
8
>
< ,1
sign(z ) = >
: 1
1
si z < 0,
si z 0.
Remarque 4.3. Nous constatons qu'avec une segmentation basee sur un point de segmentation
loin de , la vitesse de convergence de l'erreur quadratique moyenne se deteriore au voisinage
de de la m^eme facon que si l'on ne faisait pas de segmentation. Par contre cette vitesse
reste optimale au voisinage de t, alors qu'elle se degrade avec des estimateurs tels que ceux de
Nadaraya-Watson ou Gasser-Muller. Neanmoins, dans cette situation, la vitesse de convergence
de l'erreur quadratique moyenne integree est la m^eme pour la regression lineaire locale et les
estimateurs de Nadaraya-Watson et Gasser-Muller (cf corollaire 4.1 et la remarque qui suit).
Nous presentons ci-dessous les graphiques des fonctions BK2 (,jz j), VK2 (,jz j) et c1;r (z ) pour
le noyau d'Epanechnikov :
83
>
< 4 (1 , x2) si jxj 1,
K (x) = >
: 0
sinon.
4.2. E et de la segmentation en deux intervalles
187
0.04
0.035
0.03
0.025
0.02
0.015
0.01
0.005
0
−1
−0.8
−0.6
−0.4
−0.2
0
z
0.2
0.4
0.6
0.8
1
0.6
0.8
1
Figure 4.3 : BK (,jzj).
2
4.5
4
3.5
3
2.5
2
1.5
1
0.5
−1
−0.8
−0.6
−0.4
−0.2
0
z
0.2
0.4
Figure 4.4 : VK (,jzj).
2
188
CHAPITRE 4. SEGMENTATION
0.6
0.5
0.4
0.3
0.2
0.1
0
−0.1
−1
−0.8
−0.6
−0.4
−0.2
0
0.2
0.4
0.6
0.8
1
Figure 4.5 : c ;r(z) pour 9 valeurs de r = 1; 1 + ; : : : ; 2.
1
9
1
Preuve theoreme 4.1.
L'erreur quadratique moyenne conditionnelle (MSE) de m^ (x; t) est donnee par
h
i
IE (m^ (x; t) , m(x)) j X ; : : : ; Xn
Pn wi(x; t) (m(Xi) , m(x)) Pn (wi(x; t)) (Xi)
Pn w (x; t)
;
+ i Pn
= i
2
+
1
2
=1
= Bn2 + Vn :
=1
2
2
( i=1 wi (x; t))2
i=1 i
Bn represente le biais conditionnel de m^ (x; t) et Vn sa variance conditionnelle. En remarquant
P
que ni=1 wi (x; t)(Xi , x) = 0, nous obtenons
Bn =
=
Pn w (x; t) (m(X ) , m(x))
iP
i
i
;
n w (x; t)
i
i
Pn w (x; t) (m(X ) , m(x) , (X , x)m0(x))
i
i
Pni w (x; t) i
:
=1
=1
=1
i=1 i
En remplacant les quantites wi (x; t) par leurs expressions (4.2), Bn et Vn s'ecrivent de la maniere
suivante :
t) , S1(x; t)R1(x; t) ;
Bn = S2(Sx;(tx;)Rt)0S(x;(x;
t) , (S (x; t))2
2
0
1
(4.5)
4.2. E et de la segmentation en deux intervalles
et
Pn (w (x; t)) (X )
i ;
i P i
n
(
w (x; t))
Vn =
avec pour tout x < t
189
2
=1
i=1 i
2
2
2
= (S2 (x; t)) T0(x; t) , 2S2(x; t)S1(x;2t)2T1(x; t)
(S2 (x; t)S0(x; t) , (S1(x; t)) )
(S1(x; t))2T2(x; t)
+
;
(S2 (x; t)S0(x; t) , (S1(x; t))2)2
(4.6)
P Z ;
Xi <t i;
P
b) Tl(x; t) = Xi <t Zi; ;
P Z :
c) R (x; t) =
a)
Sl (x; t) =
1
2
l
Xi <t i;3
pour tout x t
P Z ;
Xi t i;
P
e) Tl(x; t) = Xi t Zi; ;
P Z :
f) R (x; t) =
d)
Sl (x; t) =
1
2
l
Xi t i;3
et ou
i)
ii)
iii)
Zi;1 = (x , Xi)lK ( x,hnXi );
Zi;2 = (x , Xi)lK 2( x,hnXi )2(Xi);
Zi;3 = (x , Xi)lK ( x,hnXi ) (m(Xi) , m(x) , (Xi , x)m0(x)) :
Cette deuxieme facon d'ecrire le biais et la variance va nous ^etre utile par la suite.
1)
Supposons que jx , j > hn
Lemme 4.1. Soit t = + rhn , jrj > 1 et x = t + chn . Sous les hypotheses D1-D4 nous avons :
a)
Sl (x; t) = nhln+1 fX (x) (,sign(c))l Kl(,jcj) + oP (1) ,
b)
Tl(x; t) = nhln+1 fX (x)2(x) (,sign(c))l Ll (,jcj) + oP (1) ,
c)
Rl(x; t) = 21 m(2)(x)nhln+3 fX (x) (,sign(c))lKl+2(,jcj) + oP (1) .
190
CHAPITRE 4. SEGMENTATION
Preuve du lemme 4.1.
Posons x = t + chn . Nous allons montrer le lemme 4.1 seulement pour x < t, c'est a dire pour
c < 0. La demonstration pour x t est analogue.
D'apres l'inegalite de Bienayme-Tchebyche , nous avons
X
Xi <t
0v
0
11
u
u
X
X
tV ar @ Zi;j AC
IE
Zi;j + OP B
@u
A;
Xi <t
Xi <t
r h
Zi;j =
= nIE Z1;j 1IfX <tg + OP
1
avec
Z
IE Z1;11IfX <tg = hln+1
1
x,t
hn
1
nIE Z12;j 1IfX <tg
i!
;
1
ul K (u)fX (x , hn u)du ;
= hln+1 fX (x) (Kl(c) + o(1)) :
La fonction o(1) peut ^etre choisie independamment de x puisque fX () est uniformement continue. De la m^eme maniere, nous obtenons
IE Z
; 1IfX1 <tg
2
11
=
hnl
2 +1
= O
Z
hnl
1
x,t
hn
2 +1
u2l K 2(u)fX (x , hnu)du ;
:
Donc pour tout x = t + chn avec c < 0, on a
Sl(x; t) =
nIE Z
r h
i!
nIE Z ; 1IfX <tg ;
; 1IfX <tg + OP
11
2
11
1
1
= nhln+1 fX (x) (Kl(c) + oP (1)) :
Les approximations asymptotiques de IE [Z1;2] et IE Z12;2 sont obtenues de facon similaire. En
e et
IE Z
1;2 1I fX1 <tg
=
hln+1
Z
1
x,t
hn
ul K 2 (u)fX (x , hn u)2(x , hn u)du ;
= hln+1 fX (x) 2(x) (Ll (c) + o(1)) ;
4.2. E et de la segmentation en deux intervalles
IE Z
; 1IfX1 <tg
2
12
=
hnl
2 +1
Z
1
x,t
hn
191
u2lK 4 (u)fX (x , hn u) 4(x , hn u)du ;
= O h2nl+1 :
Ainsi
Tl(x; t) =
r h
i!
nIE Z ; 1IfX <tg ;
; 1IfX <tg + OP
nIE Z
12
2
12
1
1
= nhln+1 fX (x) 2(x) (Ll (c) + oP (1)) :
En utilisant la continuite uniforme de fX (), le fait que pour tout jx , j > hn ,
(2)
m(x , hn u) , m(x) + hnum0(x) = m 2(x) h2n + o(h2n );
et la continuite uniforme de m(2)() sur chacun des intervalles [0; ] et [; 1], nous obtenons
IE Z1;31IfX <tg
= hln+1
Z
,
1
1
ul K (u)fX (x , hn u) m(x , hn u) , m(x) + hnum0 (x) du ;
x,t
hn
= 21 m(2)(x)hln+3 fX (x) (Kl+2(c) + o(1)) :
Un calcul similaire conduit a
IE Z12;3 1IfX <tg
Z1
,
2l+1
= hn x,t ul K 2(u)fX (x , hn u) m(x , hn u) , m(x) + hn um0 (x) 2 du ;
1
hn
= O h2nl+5 ;
d'ou
Rl(x; t) =
nIE Z
; 1IfX1 <tg
13
+ O rnIE hZ
P
; 1IfX1 <tg
2
13
i!
;
= 12 m(2)(x)nhln+3 fX (x) (Kl+2(c) + oP (1)) :
Pour obtenir le resultat sous la forme enoncee dans le lemme, il sut de remarquer que pour
c0
Z1
ulK (u)du = (,sign(c))l Kl (,jcj);
c
192
CHAPITRE 4. SEGMENTATION
que pour c 0 et l pair
Zc
,1
ulK (u)du =
Z
1
,c
ulK (u)du = (,sign(c))l Kl (,jcj);
et en n que pour c 0 et l impair
Zc
,1
ulK (u)du
= ,
Z
1
ul K (u)du ;
,c
= ,Kl (,c);
= (,sign(c))l Kl (,jcj):
Ces egalites, qui sont encore satisfaites lorsqu'on remplace K par L, seront aussi utiles dans
les demonstrations d'autres resultats de ce chapitre. Ceci acheve la demonstration du lemme
4.1.
ut
En n, pour nir la demonstration de la premiere partie du theoreme 4.1, il sut de combiner
le lemme 4.1 et les egalites (4.5) et (4.6).
2)
Supposons x = xn = + hn z , jz j 1 (avec toujours jt , j > hn )
Lemme 4.2. Soit t = + rhn , jrj > 1 et x = t + chn = + zhn . Sous les hypotheses D1-D4,
nous avons :
a)
Sl(xn ; t) = nhln+1 fX ( ) (sign(c))lKl(,jcj) + oP (1) ,
b)
Tl (xn; t) = nhln+1fX ( )2( ) (sign(c))lLl (,jcj) + oP (1) ,
c)
Rl(xn ; t) = ,(sign(z ))l+1nhln+1 fX ( ) ( ) (Kl (jz j) + oP (1)).
Preuve du lemme 4.2.
La demonstration des resultats concernant Sl (; ) et Tl (; ) est identique a celle donnee dans le
lemme precedent, puisque Sl (; ) et Tl(; ) ne font intervenir que les Xi . Montrons le resultat
pour Rl (; ).
4.2. E et de la segmentation en deux intervalles
1
IE
hln+1
Z
=
=
Z
1
xn ,t
hn
Zz
xn ,t
hn
Z
; 1IfX1 <tg
13
ul K (u)fX (xn , hn u) (m(xn , hn u) , m(xn )) du + o(1);
ul K (u)fX ( + hn (z , u)) (m( + hn (z , u)) , m( + hn z)) du
1
+
ul K (u)fX ( + hn (z , u)) (m( + hn (z , u)) , m( + hn z )) du
z
+ o(1):
En utilisant un developpement de Taylor a l'ordre 1, il est facile de deduire que :
Si z 0, alors
1
IE
hln+1
Z
Z
; 1IfX1 <tg
13
1
ul K (u)fX ( + hn(z , u)) (m( + hn(z , u)) , m( + hn z)) du
z
+ o(1);
= fX ( ) ( ))Kl(z ) + o(1):
=
Si z < 0, alors
1
IE
hln+1
Zz
=
Z
xn ,t
hn
; 1IfX1 <tg
13
ul K (u)fX ( + hn (z , u)) (m( + hn (z , u)) , m( + hn z)) du
+Z o(1);
z
ulK (u)fX ( + hn(z , u)) (m( + hn(z , u)) , m( + hnz )) du
,1
+ o(1);
= fX ( ) ( )(sign(z ))l Kl (,z ) + o(1):
=
Par un calcul analogue, nous obtenons egalement
193
194
CHAPITRE 4. SEGMENTATION
IE Z12;31IfX <tg
Z1
= h2nl+1 xn ,t ul K 2(u)fX (xn , hn u) (m(xn , hn u) , m(xn ))2 du ;
1
=O
hnl
hn
2 +1
:
D'ou pour tout z 0,
Rl(xn; t) =
nIE Z
r h
i!
nIE Z ; 1IfX tg ;
; 1IfX tg + OP
13
2
13
1
1
= ,nhln+1 fX ( ) ( ) (Kl(z ) + oP (1)) ;
= ,(sign(z ))l+1 nhln+1 fX ( ) ( ) (Kl (jz j) + oP (1)) ;
et pour tout z < 0,
Rl(xn ; t) =
nIE Z
r h
i!
nIE Z ; 1IfX <tg ;
; 1IfX <tg + OP
l
13
2
13
1
1
= nhln+1 fX ( ) ( ) (,1) K (,z ) + oP (1) ;
= ,(sign(z ))l+1 nhln+1 fX ( ) ( ) (Kl (jz j) + oP (1)) :
Refaisant les calculs pour xn > t et utilisant les relations donnees a la n de la demonstration
du lemme 4.1, nous obtenons la forme annoncee pour Rl(xn ; t).
ut
Comme pour la premiere partie, pour terminer la demonstration de cette deuxieme partie, il
sut de combiner le lemme 4.2 et les egalites (4.5) et (4.6). Ceci acheve la demonstration du
theoreme 4.1 .
ut
Corollaire 4.1. Sous les hypotheses du theoreme 4.1, si t = + rhn, avec jrj > 1, alors
Z
1
0
=
h
i
Z (x ) V
dx + oP (hn +
IE (m^ (x; t) , m(x))2 j X1; : : : ; Xn dx
2
( )
Z
1
,1
1
c ;r(z)dz hn + nh
2
1
1
2
K
0
2
f (x)
1 ):
nh
n
Remarque 4.4. Le lissage des donnees par la regression lineaire locale sans la segmentation
(a fortiori pour les estimateurs de Nadaraya-Watson ou Gasser-Muller) engendrera une erreur
4.2. E et de la segmentation en deux intervalles
195
quadratique moyenne integree de l'ordre de OP hn + nh1n . En choisissant une fen^etre de lissage
hn proportionnelle a n, , nous obtiendrons dans le meilleur des cas
1
2
Z
h
1
i
0
IE (m^ (x; t) , m(x))2 j X1; : : : ; Xn dx = OP n, :
1
2
L'absence de segmentation ou une segmentation trop loin du point de rupture conduisent a des
vitesses de convergence du MISE identiques.
Preuve du corollaire 4.1.
Ce corollaire decoule immediatement du theoreme 4.1. En e et
Z
1
h
i
IE (m
^ (x; t) , m(x))2 j X1; : : : ; Xn dx
Z ,hn h
i
=
IE (m^ (x; t) , m(x)) j X ; : : : ; Xn dx
Z hn h
i
0
2
0
+
+
=
+
IE (m^ (x; t) , m(x))2 j X1 ; : : : ; Xn dx
,hn
Z
1
+hn
2
1
h
i
IE (m^ (x; t) , m(x))2 j X1; : : : ; Xn dx ;
Z
Z 1 2(x)
1
1 ):
2
( ) c ;r (z )dz hn + nh VK
dx
+
o
(
h
+
P
n
f (x)
nhn
,1
0
1
2
1
ut
Le theoreme ci-apres decrit le comportement de l'erreur quadratique moyenne au voisinage
du point de rupture lorsque la segmentation est faite au point n qui est proche du point de
rupture . Par la suite, n ne sera autre que l'estimateur de la localisation du point de rupture
et jn , j convergera vers 0 plus vite que hn . Si nous supposons que n , nous constatons
qu'il y a trois regions ou l'erreur quadratique moyenne se comporte di eremment:
i)
Dans la premiere region R1( x n ou x + hn ) : le biais est de l'ordre OP (h2n ).
C'est l'ordre de grandeur optimal que l'on peut esperer obtenir. Ceci s'explique par le fait
que pour les points x qui appartiennent a la region R1, nous utilisons pour estimer m(x)
uniquement les observations qui se trouvent avant le point de discontinuite.
196
CHAPITRE 4. SEGMENTATION
γ (τ)
R1
τ− h n
R1
τn
x
τ
τ+ h n
Figure 4.6 : Region R1.
ii)
Dans la deuxieme region R2 ( x 2 [n ; ] ), le biais a le m^eme ordre de grandeur que
l'amplitude de la rupture. Ceci est d^u au fait que pour les points n < x < qui se
trouvent avant la discontinuite, nous utilisons pour estimer m(x) des observations qui,
en grande partie, se situent apres le point de rupture. L'importance de ces points dans
l'erreur quadratique moyenne integree (MISE) est proportionnelle a la distance entre n
et c'est-a-dire jn , j. Plus cette distance est grande et plus l'e et de ces points est
dominant dans le MISE.
γ (τ)
R2
τ− h n
τn
x
τ
τ+ h n
Figure 4.7 : Region R2.
iii)
Dans cette derniere region R3( x 2 [; + hn ]), le biais se comporte comme jnh,n j . Pour ces
points qui se trouvent apres la discontinuite, nous utilisons, pour estimer m(x), quelques
observations qui se trouvent avant le point de rupture. Le nombre de ces observations est
proportionnel a jnh,n j .
4.2. E et de la segmentation en deux intervalles
197
γ (τ)
R3
τ− h n
τn
τ
τ+ h n
x
Figure 4.8 : Region R3.
Theoreme 4.2. Supposons que
i)
Les hypotheses D1-D4 sont satisfaites,
ii) n
1)
= + hann r avec jrj 1 et an ! 1.
xn = + hn z, si r 0, z 0 et xn < n (r > 0, z > 0 et xn n ), alors
2
2
IE [m
^ (xn ; n) , m(xn )jX1; : : : ; Xn] = 12 m(2)
( )hn BK (,jz j) + oP (hn ),
b) V ar [m
^ (xn ; n )jX1; : : : ; Xn] = nhn (f() ) VK2 (,jz j) + oP ( nh1n ),
a
2
2)
xn = + hn z, si r 0 et n xn < (r > 0 et xn < n ), alors
a)
b)
3)
2
Si r 0, z 0 et an = o(nhn ) (r > 0, z < 0), alors
a)
b)
ou
IE [m
^ (xn ; n) , m(xn )jX1; : : : ; Xn] = ,sign(r) ( ) + oP (1),
V ar [m^ (xn; n )jX1; : : : ; Xn] = nhn (f() ) VK2 (0) + oP ( nh1n ),
IE [m
^ (xn ; n) , m(xn )jX1; : : : ; Xn] = nh,n ( )c2(z ) + oP ( jnh,n j ),
V ar [m^ (xn; n )jX1; : : : ; Xn] = nhn (f() ) VK2 (,jzj) + oP ( nh1n ),
2
zj) + jz jK1(,jz j))K (,jz j)
c2 (z ) = (KK2((,j
,jzj)K (,jzj) , K 2(,jzj) :
2
0
1
Remarque 4.5. L'utilisation d'un estimateur tel que celui de Nadaraya-Watson ou GasserMuller, aurait conduit a un biais de l'ordre de OP (hn ) pour les points de la premiere region
(R1).
Nous presentons ci-dessous le graphique de la fonction c2(z ) pour le noyau d'Epanechnikov :
198
CHAPITRE 4. SEGMENTATION
6
5
4
3
2
1
0
−1
−0.8
−0.6
−0.4
−0.2
0
z
0.2
0.4
0.6
0.8
1
Figure 4.9 : c (z).
2
Preuve du theoreme 4.2.
Supposons x = xn = + zhn et t = n = + hann r. L'erreur quadratique moyenne conditionnelle
(MSE) de m^ (xn ; n ) est toujours donnee par
h
i
IE (m
^ + (xn ; n ) , m(xn ))2 j X1 ; : : : ; Xn
Pn w (x ; ) (m(X ) , m(x )) 2 Pn (w (x ; ))2 2(X )
n
i ;
+ i=1Pn i n n
= i=1 i Pnn nw (x ; i )
2
( i=1 wi (xn ; n))
i=1 i n n
2
= Bn + Vn ;
ou
S1(xn ; n)R1(xn; n )
Bn = S2(xSn;(xn );R0()xSn;(xn ); ,
) , (S (x ; ))2 ;
2
n n
0
n n
1
n n
(4.7)
4.2. E et de la segmentation en deux intervalles
et
Pn (w (x ; )) (X )
i ;
i P i n n
n
(
w (x ; ))
Vn =
2
=1
2
2
i=1 i n n
(S2 (xn ; n))2T0 (xn ; n) , 2S2(xn ; n )S1(xn ; n )T1(xn ; n)
(S2 (xn ; n )S0(xn ; n ) , (S1(xn ; n ))2)2
(S1 (xn ; n))2T2 (xn ; n)
+
:
(S2 (xn ; n)S0 (xn ; n) , (S1(xn ; n ))2)2
=
1)
199
(4.8)
z < 0, r < 0 et xn < n (z 0, r 0 et xn n )
Lemme 4.3. Soient n = + r hann et xn = + zhn telles que z < 0, r < 0 et xn < n (z 0,
r 0, xn n ) et an ! 1. Sous les hypotheses D1-D4, nous avons :
a)
Sl (xn; n) = nhln+1 fX ( ) (,sign(z))l Kl(,jz j) + oP (1) ,
b)
Tl(xn ; n ) = nhln+1 fX ( )2( ) (,sign(z))l Ll (,jzj) + oP (1) ,
c)
l
l+3
Rl(xn; n ) = 12 m(2)
( )nhn fX ( ) (,sign(z )) Kl+2(,jz j) + oP (1) .
Preuve du lemme 4.3.
A n de demontrer ce lemme nous considerons le cas ou z < 0, r < 0 et xn < n . La demonstration du cas symetrique (z 0, r 0 et xn n ) s'en deduit facilement.
Nous avons par l'inegalite de Bienayme-Tchebyche
X
Xi <n
Zi;j =
0v
0
11
u
u
X
X
tV ar @ Zi;j AC
IE
Zi;j + OP B
A;
@u
Xi <n
Xi <n
r h
= nIE Z1;j 1IfX <n g + OP
1
IE Z
; 1IfX1 <n g
11
=
hln+1
Z
1
xn ,n
hn
nIE Z12;j 1IfX <n g
1
ul K+ (u)fX (xn , hn u)du ;
= hln+1 fX ( ) (Kl (z ) + o(1)) :
De m^eme
i!
;
200
CHAPITRE 4. SEGMENTATION
IE Z
; 1IfX1 <n g
2
11
hnl
=
2 +1
Z
1
xn ,n
hn
u2lK 2(u)fX (xn , hn u)du ;
= O h2nl+1 ;
d'ou
nIE Z
Sl (xn ; n) =
r h
i!
nIE Z ; 1IfX <n g ;
; 1IfX <n g + OP
11
2
11
1
1
= nhln+1 fX ( ) (Kl (z ) + oP (1)) :
De la m^eme facon, nous obtenons pour IE [Z1;2 ] et IE Z12;2 ,
IE Z
1;2 1I fX1 <n g
=
hln+1
Z
1
xN ,n
hn
ul K 2(u)fX (xn , hn u)2(xn , hn u)du ;
= hln+1 fX ( ) 2( ) (Ll (z ) + o(1)) ;
IE Z
; 1IfX1 <n g
2
12
=
hnl
2 +1
Z
1
xn ,n
hn
u2lK 4(u)fX (xn , hn u)4(xn , hn u)du ;
= O h2nl+1 :
Nous en deduisons
nIE Z
Tl(xn ; n) =
r h
i!
nIE Z ; 1IfX <ng ;
; 1IfX <n g + OP
12
1
2
12
1
= nhln+1 fX ( ) 2( ) (Ll (z ) + oP (1)) :
IE Z1;31IfX <n g
= hln+1
Z
1
1
,
ulK (u) m(xn , hn u) , m(xn) + hn um0(xn ) fX (xn , hn u)du ;
xn ,n
hn
( )hln+3 fX ( ) (Kl+2(z ) + o(1)) :
= 1 m(2)
2 ,
Un m^eme calcul conduit a
4.2. E et de la segmentation en deux intervalles
201
IE Z12;31IfX <n g
Z1
,
2l+1
= hn xn ,n ul K 2 (u) m(xn , hn u) , m(xn ) + hn um0(xn ) 2
1
hn
fX (xn , hn u)du ;
= O hnl :
2 +5
Ainsi
nIE Z
Rl (xn ; n) =
; 1IfX1 <n g
13
+ O rnIE hZ
; 1IfX1 <n g
2
13
P
i!
( )nhln+3 fX ( ) (Kl+2 (z ) + oP (1)) :
= 1 m(2)
2 ,
Ceci termine la preuve du lemme 4.3.
;
ut
En combinant le lemme 4.3 et les egalites (4.7) et (4.8), nous prouvons la premiere partie du
theoreme 4.2.
2)
r < 0 et n xn < (r 0 et xn < n )
Lemme 4.4. Soit n = + r hann tel que r < 0 et xn n (r 0, xn < n ) et an ! 1. Sous
les hypotheses D1-D4 nous avons :
a)
Sl (xn; n) = nhln+1 fX ( ) (sign(r))l Kl (0) + oP (1) ,
b)
Tl(xn ; n ) = nhln+1 fX ( )2( ) (sign(r))l Ll (0) + oP (1) ,
c)
Rl(xn; n ) = ,sign(r) ( )nhln+1fX ( ) (sign(r))l Kl (0) + oP (1) .
Preuve du lemme 4.4.
Nous avons
IE Z1;11IfX n g = hln+1
1
=
de m^eme,
Z
xn ,n
hn
ul K+ (u)fX (xn , hn u)du ;
,1
l
+1
hn fX ( ) (Kl(,1) , Kl (0) + o(1)) ;
202
CHAPITRE 4. SEGMENTATION
IE Z
; 1IfX1 n g
2
11
hnl
=
2 +1
Z
xn ,n
hn
,1
u2l K 2(u)fX (xn , hn u)du
= O h2nl+1 ;
d'ou
Sl (xn; n ) =
nIE Z
r h
i!
nIE Z ; 1IfX n g ;
; 1IfX n g + OP
11
1
2
11
1
= nhln+1 fX ( ) (Kl (,1) , Kl(0) + oP (1)) ;
= nhln+1 fX ( ) (sign(r))l Kl (0) + oP (1) :
Les approximations de IE [Z1;2 ] et IE Z12;2 sont obtenues de maniere analogue.
IE Z
; 1IfX1 n g
12
=
=
IE Z
; 1IfX1 n g
2
12
hnl
=
Z
xn ,n
Z
xn ,n
hn
hn
ul K 2(u)fX (xn , hn u) 2(xn , hn u)du ;
hln+1
,1
hln+1 fX ( ) 2( ) (Ll (,1) , Ll(0) + o(1)) ;
2 +1
,1
u2l K 4(u)fX (xn , hn u)4(xn , hn u)du ;
= O h2nl+1 :
Nous en deduisons que
Tl(xn ; n) =
nIE Z
r h
i!
nIE Z ; 1IfX ng ;
; 1IfX n g + OP
12
1
2
12
1
= nhln+1 fX ( ) 2( ) (Ll (,1) , Ll (0) + oP (1)) ;
= nhln+1 fX ( ) 2( ) (sign(r))l Ll(0) + oP (1) :
IE Z1;31IfX n g
Z
1
xn ,n
hn
,
ul K (u) m(xn , hnu) , m(xn) + hn um0(xn )
,1
fX (xn , hn u)du ;
= ( )hln+1fX ( ) (Kl(,1) , Kl (0) + o(1)) :
= hln+1
4.2. E et de la segmentation en deux intervalles
203
Un calcul similaire donne
IE Z12;31IfX n g
Z
1
,
xn ,n
hn
ul K 2 (u) m(xn , hn u) , m(xn) + hn um0 (xn)
,1
fX (xn , hn u)du ;
= O h2nl+1 ;
= hnl
2 +1
2
d'ou
Rl (xn ; n) =
=
=
nIE Z
; 1IfX1 n g
13
+ O rnIE hZ
P
; 1IfX1 n g
2
13
i!
;
( )nhln+1fX ( ) (Kl (,1) , Kl(0) + oP (1)) ;
( )nhln+1fX ( ) (sign(r))l Kl(0) + oP (1) :
ut
3)
r < 0 et z 0 (r 0 et z < 0).
Lemme 4.5. Soit n = + r hann et xn = + zhn . telles que z 0, r < 0 (z < 0, r 0, xn n
) et an ! 1. Sous les hypotheses D1-D4 nous avons :
a)
Sl (xn; n) = nhln+1 fX ( ) (,sign(z))l Kl(,jz j) + oP (1) ,
b)
Tl(xn ; n ) = nhln+1 fX ( )2( ) (,sign(z))l Ll (,jzj) + oP (1) .
c)
Si an = o(nhn ),
Rl (xn ; n) = nh, ( )nhln+1fX ( ) (,sign(z))l jz jlK (,jz j) + oP (1) :
n
Preuve du lemme 4.5.
Nous avons
IE Z
; 1IfX1n g
11
Z
xn ,n
hn
ul K+ (u)fX (xn , hn u)du ;
,1 = hln+1 fX ( ) (,sign(z ))l Kl (,z ) + o(1) :
=
hln+1
204
CHAPITRE 4. SEGMENTATION
De m^eme
IE Z
; 1IfX1 n g
2
11
hnl
=
2 +1
= O
Z
hnl
xn ,n
hn
,1
2 +1
u2l K 2(u)fX (xn , hn u)du ;
:
Ainsi
Sl(xn ; n) =
nIE Z
r h
i!
nIE Z ; 1IfX n g ;
; 1IfX n g + OP
l
11
1
2
11
1
= nhln+1 fX ( ) (,sign(z )) Kl (,z ) + oP (1) ;
Z
xn ,n
h
Z
xn ,n
hn
n
ul K 2(u)fX (xn , hn u) 2(xn , hn u)du ;
IE Z1;21IfX n g = hln+1
,1
l
+1
= hn fX ( ) 2( ) (,sign(z ))l Ll (,z ) + o(1) ;
1
IE Z
; 1IfX1 n g
2
12
=
hnl
2 +1
,1
u2l K 4(u)fX (xn , hn u)4(xn , hn u)du ;
= O h2nl+1 :
Nous en deduisons
Tl(xn ; n) =
nIE Z
r h
i!
nIE Z ; 1IfX ng ;
; 1IfX n g + OP
l
12
1
2
12
1
= nhln+1 fX ( ) 2( ) (,sign(z )) Ll (,z ) + oP (1) :
D'autre part
IE Z
; 1IfX1 n g
13
=
Z
xn ,n
hn
ul K (u)fX (xn , hnu)
,
m(xn , hn u) , m(xn) + hn um0(xn) du ;
hln+1
,1
Z z, arn
ulK (u)fX (xn , hn u)
,z
m(xn , hn u) , m(xn) + hn um0(xn) du + o(hln+1);
= nh, ( )hln+1fX ( ) z l K (z ) + o(1) ;
=
hln+1
n
4.2. E et de la segmentation en deux intervalles
et
IE Z
; 1IfX1 n g
2
13
hnl
=
2 +1
Z
xn ,n
hn
205
ulK 2(u)fX (xn , hn u)
,
,
m(xn , hnu) , m(xn) + hn um0(xn) du
h l 1
2
= O
lorsque an = o(nhn ) nous avons alors,
2 +1
n
an
;
r h
i!
nIE Z ; 1IfX ng ;
; 1IfX n g + OP
l
n , l
nIE Z
Rl (xn ; n) =
=
13
2
13
1
1
( )nhn+1fX ( ) z K (z ) + oP (1) :
hn
Remplacant dans les expressions de Bn et Vn ((4.7) et (4.8)), les termes Sl(; ), Tl (; ) et Rl(; )
par leurs developpements donnes par les lemmes 4.3, 4.4 et 4.5, nous obtenons les resultats
enonces dans le theoreme 4.2.
ut
Corollaire 4.2. Sous les hypotheses du theoreme 4.2, nous avons
Z h
i
IE (m^ (x; n) , m(x)) j X ; : : : ; Xn dx
1
2
1
Z h
i VK Z (x) B
h
n
K
m (x) dx + nh
= 4
f (x) dx
0
2
1
4
(2)
0
2
1
2
2
0
+ oP (hn + nh1 ) + OP (jn , j)
n
Remarque 4.6. Notons que si nous avions utilise, a la place de la regression lineaire locale, un
estimateur a noyau de type Nadaraya-Watson
3 1 ou Gasser-Muller, l'erreur quadratique moyenne
1
integree aurait ete de l'ordre de OP hn + nhn alors que le corollaire ci-dessus conduit a une
vitesse de convergence meilleure des que n converge susamment vite. Ce qui sera realise dans
la pratique.
4
Preuve du corollaire 4.2.
Ce corollaire est une consequence immediate du theoreme 4.2. En e et
Z
0
=
R1
0
i
IE (m^ (x; n) , m(x))2 j X1; : : : ; Xn dx
Z
+
1
h
1
jx, jhn
Z +hn
,hn
h
i
h
i
IE (m
^ (x; n) , m(x))2 j X1; : : : ; Xn dx
IE (m^ (x; n) , m(x))2 j X1; : : : ; Xn dx :
m x;n ) , m(x)) j X1 ; : : : ; Xn dx
IE ( ^ (
2
206
CHAPITRE 4. SEGMENTATION
Tout d'abord, nous avons
Z
h
i
IE (m
^ (x; n) , m(x))2 j X1; : : : ; Xn dx
jx, jhn
Z
2 4
B
h
n
K
=
1
i VK Z (x) 1 ):
m (x) dx + nh
dx
+
o
(
h
+
P
n
f (x)
nhn
h
4
0
Si nous supposons, par exemple, que n , alors
Z
hn
+
,Zhn
n
=
+
+
1
2
2
(2)
2
4
0
h
i
IE (m
^ (x; n) , m(x))2 j X1; : : : ; Xn dx
Z,hn
Zn
h
i
h
i
IE (m
^ (x; n) , m(x))2 j X1 ; : : : ; Xn dx
IE (m
^ (x; n) , m(x))2 j X1 ; : : : ; Xn dx
hn
+
h
i
IE (m
^ (x; n) , m(x))2 j X1; : : : ; Xn dx ;
2
= oP (h4n + nh1 ) + OP (jn , j) + OP ( (n h, ) );
n
n
1
) + O (j , j):
= o (h4 +
P n
Nous en deduisons donc
Z
1
P
nhn
h
n
i
IE (m
^ (x; n) , m(x)) j X1; : : : ; Xn dx
2
Z 1 h
i2 VK2 Z 1 2(x) 2 4
B
h
n
(2)
K
= 4
m (x) dx + nh
f (x) dx
0
0
+ oP (h4n + nh1 ) + OP (jn , j):
0
n
Ceci termine la demonstration du corollaire 4.2.
ut
4.3 Un seul point de rupture. Segmentation basee sur l'estimateur
de la localisation de la rupture
Nous supposons dans ce paragraphe que la localisation de la rupture n'est pas connue et
montrons que si son estimateur ^ converge de maniere susamment rapide, la fonction m() est
estimee avec une erreur quadratique integree conditionnelle optimale.
Il est facile de voir que
Z
1
V ar [m^ (x; ^)jX1; : : : ; Xn] dx = OP nh :
n
4.3. Segmentation basee sur l'estimateur de la localisation de la rupture
207
Cherchons maintenant a contr^oler le biais de m^ (x; ^). E tant donne une suite (gn )n positive
convergent vers zero, nous pouvons ecrire :
jIE [m^ (x; ^) , m(x)jX ; : : : ; Xn]j
IE (m^ (x; ^) , m(x)) 1Ij , j>gn jX ; : : : ; Xn
+ IE (m^ (x; ^) , m(x)) 1Ij , jgn jX ; : : : ; Xn ;
h
i =
IE (m^ (x; ^) , m(x)) jX ; : : : ; Xn
IP = [j^ , j > gnjX ; : : : ; Xn]
h
i =
+ IE (m
^ (x; ^) , m(x)) 1Ij , jgn jX ; : : : ; Xn
:
1
1
^
1
^
1 2
2
1 2
1
1
1 2
2
1
^
Il en resulte, en particulier, que
Z
(IE [m
^ (x; ^) , m(x)jX1; : : : ; Xn ])2 dx
Z h
i
IE (m^ (x; ^) , m(x)) jX ; : : : ; Xn
IPZ [j^ ,h j > gnjX ; : : : ; Xn] dx
i
+ IE (m^ (x; ^) , m(x)) 1Ij , jgn jX ; : : : ; Xn dx ;
2
1
1
2
^
1
= OP hn + 1 IP [j^ , j > gn jX1; : : : ; Xn]
nh1n + OP h4n + nh + OP (gn ) ;
n
ou nous avons utilise pour obtenir la derniere majoration, le resultat enonce dans le corollaire 4.2.
Ainsi, nous en deduisons le theoreme suivant
Theoreme 4.3. Supposons que les hypotheses D1-D4 sont satisfaites et soit ^ un estimateur de
tel qu'il existe une suite (gn ) veri ant :
i) gn
ii)
Alors :
= O h4n + nh1n ,
IP [j^ , j > gn jX1; : : : ; Xn] = oP (h3n ).
Z h
i
IE (m^ (x; ^) , m(x))2 jX1; : : : ; Xn dx = OP h4n + nh1 :
n
Naturellement les estimateurs de etudies dans les chapitres precedents satisfont sous des conditions convenables les conditions requises ci-dessus (cf paragraphe 4.5).
208
CHAPITRE 4. SEGMENTATION
4.4 Plusieurs points de rupture
4.4.1 Notations et hypotheses
Dans ce paragraphe, nous supposons que la fonction de regression admet p points de rupture :
0 < 1 < : : : < p < 1. Par convention, nous posons 0 = 0 et p+1 = 1. Nous conservons les
hypotheses D1, D3, D4, et nous remplacons D2 par :
La fonction de regression m() = IE(Y j X = ) est deux fois contin^ument derivable
en tout point di erent de 1; : : : ; p et est cadlag aux points 1 ; : : : ; p ainsi que ses deux
premieres derivees.
D2'.
Pour estimer m(x), l'approche utilisee plus haut dans le cas d'un seul point de rupture, est
generalisee de la facon suivante :
Pour tout 0 i p, si x 2 [i; i [, nous ajustons localement une droite
+1
par RLL pour obtenir m^ (x) = ^x en utilisant seulement les
x + x (x , u )
observations i Xj < i+1 .
Soit = (1; : : : ; p), l'estimateur de m(x) est de ni par :
Pn w (x; )Y
m^ (x; ) = Pj n wj (x; ) j ;
j
j
(4.9)
=1
=1
avec lorsque x 2 [i ; i+1[,
8
>< 0
wj (x; ) = >
: K ( x,hnXj )(S (x; ) , (x , Xj )S (x; ))
2
ou pour l = 0; 1; 2; : : : et si x 2 [i ; i+1[
Sl(x; ) =
si Xj 2= [i ; i+1[,
1
X
i Xj <i+1
(x , Xj )lK ( x , Xj ):
hn
sinon,
(4.10)
Lorsque p est inconnu, ainsi que 1 ; : : : ; p, on leur substitue dans les expressions ci-dessous
les estimateurs p^; ^1; : : : ; ^p^.
4.4.2 Resultats asymptotiques
Soit p^ un estimateur du nombre de rupture de la fonction de regression. On note ^1 < : : : < ^p^
les estimateurs des points de ruptures de la fonction m(). Pour simpli er les expressions, nous
posons dans la suite :
4.4. Plusieurs points de rupture
i)
209
= (1 ; : : : ; p),
ii)
^ = (^1 ; : : : ; ^p^),
iii) En
=
Tp
T
fp^ = pg.
j fj^j , j j gn jg
^
=1
Nous avons d'une part
Z
V ar [m^ (x; ^)jX1; : : : ; Xn ] dx = OP nh1 ;
n
et d'autre part
jIE [m^ (x; ^) , m(x)jX ; : : : ; Xn]j
IE (m^ (x; ^) , m(x)) 1I(Enc )jX ; : : : ; Xn
+ IE (m^ (x; ^) , m(x)) 1I(En )jX ; : : : ; Xn ;
h
i =
IE (m^ (x; ^) , m(x)) jX ; : : : ; Xn
IP = [Enc jX ; : : : ; Xn]
h
i =
+ IE (m^ (x; ^) , m(x)) 1I(En )jX ; : : : ; Xn
:
1
1
1
1 2
2
1 2
1
1
1 2
2
Ainsi
Z
1
(IE [m^ (x; ^) , m(x)jX1; : : : ; Xn])2dx
Z h
i
IE (m^ (x; ^) , m(x)) jX ; : : : ; Xn
IPZ [Enc jhX ; : : : ; Xn] dx
i
+ IE (m
^ (x; ^) , m(x)) 1I(En )jX ; : : : ; Xn dx ;
2
1
1
2
1
= OP hn + nh1 IP [Enc jX1; : : : ; Xn] + OP h4n + nh1 + OP (gn ) :
n
n
D'ou le resultat enonce dans le theoreme suivant
Theoreme 4.4. Soit ^ un estimateur de tel que il existe une suite (gn) veri ant :
i) gn = O hn + nhn ,
ii) IP [Enc jX ; : : : ; Xn] = oP (hn ).
1
4
3
1
Supposons que les hypotheses D1,
Z h
D2', D3, D4
sont satisfaites,
i
IE (m^ (x; ^) , m(x))2 jX1; : : : ; Xn dx = OP h4n + 1
nh
n
:
210
CHAPITRE 4. SEGMENTATION
Il n'est pas impossible que les coecients, qui interviennent dans l'ecriture asymptotique de
l'erreur quadratique moyenne integree, ne soient pas modi es lorsqu'on remplace le nombre et
les localisations des points de rupture de la fonction de regression par leurs estimateurs. En
d'autres termes, il est probable qu'on puisse montrer:
Z
i
Z h
i VK Z (x) B
h
1 ):
n
K
= 4
m (x) dx + nh
dx
+
o
(
h
+
P
n
f (x)
nhn
1
0
h
IE (m^ (x; ^) , m(x))2 j X1; : : : ; Xn dx
2
1
4
1
2
2
(2)
0
2
4
0
En e et, nous montrons que la partie biais de l'expression asymptotique du MISE est inchangee
lorsque p et sont estimes.
jIE [m^ (x; ^) , m^ (x; )jX ; : : : ; Xn]j
IE (m^ (x; ^) , m^ (x; )) 1I(Enc )jX ; : : : ; Xn
^ (x; ^) , m^ (x; )) 1I(E )jX ; : : : ; X ;
+ IE (m
n
h
i = n = c
IE (m^ (x; ^) , m^ (x; )) jX ; : : : ; Xn IP [EnjX ; : : : ; Xn]
1
1
1
1 2
2
h
1
1 2
+ IE (m
^ (x; ^) , m
^ (x; ))2 1I(En )jX1; : : : ; Xn
Ainsi
Z
i =
1 2
1
:
(IE [m
^ (x; ^) , m
^ (x; )jX1; : : : ; Xn])2 dx
Z h
i
IE (m^ (x; ^) , m^ (x; )) jX ; : : : ; Xn IP [Enc jX ; : : : ; Xn] dx
Z h
i
+ IE (m^ (x; ^) , m^ (x; )) 1I(En )jX ; : : : ; Xn dx ;
1
2
1
2
1
1
OP hn + nh IP [Enc jX ; : : : ; Xn]
+
p Z
X
n
i+hn +gn
i=1 i ,hn ,gn
h
1
i
IE (m^ (x; ^) , m^ (x; ))2 1I(En )jX1; : : : ; Xn dx ;
p
2
X
1
c
= OP hn + nh IP [En jX1; : : : ; Xn] + OP hgn + gn :
n
n
i=1
Il en resulte que sous les hypotheses :
i) gn
ii)
= o h4n + nh1n ,
IP [Enc jX1; : : : ; Xn] = oP (h3n ),
4.5. Choix des estimateurs du nombre et des localisations des ruptures
Z
211
(IE [m^ (x; ^) , m^ (x; )jX1; : : : ; Xn]) dx = op hn + nh1 :
n
2
4
Nous en deduisons que le biais integre peut s'ecrire comme suit
Z
=
(IE [m^ (x; ^) , m(x)jX1; : : : ; Xn])2 dx
Z
+
(IE [m
^ (x; ) , m(x)jX1; : : : ; Xn])2 dx
Z
(IE [m
^ (x; ^) , m(x; )jX1; : : : ; Xn])2 dx
Z
+ 2 IE [(m^ (x; ^) , m^ (x; ))(m^ (x; ) , m(x)) jX1; : : : ; Xn ] dx
Z 1 h
i2 4 1 2 4
B
h
n
(2)
K
= 4
m (x) dx + op hn + nh :
0
n
Il reste maintenant a prouver que la variance conditionnelle n'est pas modi ee lorsqu'on remplace
p et = (1; : : : ; p) par leurs estimateurs respectifs p^ et ^ = (^1 ; : : : ; ^p^).
4.5 Choix des estimateurs du nombre et des localisations des
ruptures
Dans le chapitre precedent nous avons presente un algorithme pour estimer le nombre de
ruptures d'une fonction de regression. D'apres le corollaire 3.2, il est possible de construire un
estimateur de ce nombre de ruptures tel que
, 1 , IP [81 i p; ^i 2]i , gn ; i + gn [ et p^ = p] = o gn4 ;
ou gn = n, avec 0 < < 1.
Or
IE (IP [Enc jX1; : : : ; Xn]) = 1 , IP [81 i p; ^i 2]i , gn ; i + gn [ et p^ = p] ;
, = o gn4 :
Par consequent
IP [Enc jX1; : : : ; Xn ] = oP (gn4 ):
Maintenant si on choisit > 4=5, alors pour toute suite (hn )n1 qui veri e hn ! 0 et nhn ! 1,
on a :
212
CHAPITRE 4. SEGMENTATION
i) gn
ii)
= o h4n + nh1n ,
IP [Enc jX1; : : : ; Xn] = oP (h3n ).
4.6 Simulations
Nous analysons les e ets de la segmentation pour plusieurs modeles. Les facteurs determinants sont le choix de la fen^etre de lissage et le rapport signal sur bruit. Pour nos comparaisons,
nous avons retenu trois modeles M1, M2 et M3 :
M1
m(x) = 4x2 + 1I[0:5;1], n = 250 et 2 = 0:1.
M2
m(x) = 4x2 + 1I[0:5;1], n = 250 et 2 = 0:5.
M3
m(x) = 4 sin(5x) + 3x + 1I[0:7;1], n = 1000 et 2 = 1.
Tout au long de ces simulations, le plan d'experience est suppose aleatoire de loi uniforme et le
bruit est gaussien.
Notons :
p
p
m(x) = IE(m^ (x; t)) + 2 V ar(m^ (x; t)).
m(x) = IE(m^ (x; t)) , 2 V ar(m^ (x; t)),
Commentaires.
1)
Nous avons observe que l'augmentation du nombre d'observations s'accompagne d'un retrecissement de la \bande de con ance" de la fonction de regression m() ([m(); m()]). Pour
ne pas trop rallonger ce paragraphe, nous ne presentons pas ici les simulations concernant le
comportement en fonction du nombre d'observations.
2)
Dans tous les modeles analyses, nous remarquons que l'ecart entre m(x) et m^ (x; ^) s'accentue
au voisinage de la rupture. Ceci s'explique par :
L'augmentation du biais au voisinage du point de discontinuite (voir les gures 4.12, 4.16
et 4.20). Ceci est coherent avec les theoremes 4.1 et 4.2 qui montrent qu'au voisinage
de le biais se comporte en O(1).
L'augmentation de la variance autour de . Ceci est aussi coherent avec les resultats
enonces dans les theoremes 4.1 et 4.2. Ces theoremes montrent que m^eme si l'ordre
4.6. Simulations
213
de grandeur de la variance (O(1=nhn )) reste le m^eme au voisinage de , les constantes
VK2 (,jz j) sont plus grandes autour de la rupture (z ! 0) que lorsqu'en s'eloigne de la
rupture, jz j > 1 (cf la gure 4.4).
3)
Lorsque la segmentation des observations est e ectuee en utilisant la vraie localisation ,
nous avons aussi constate une deterioration de la qualite de l'estimation de m(x) au voisinage de . Elle est d^ue essentiellement a l'augmentation de la variance autour du point de
discontinuite pour la raison evoquee dans 2). En ce qui concerne le biais au voisinage de la
rupture, nous remarquons une diminution par rapport a celui cree loin de . En e et, (cf
le theoreme 4.2 pour n = ), lorsqu'on utilise la vraie localisation de la rupture pour segmenter les observations, le biais au voisinage de reste de l'ordre de O(h2n ). Les constantes
asymptotiques (BK (,jz j), cf la gure 4.3) sont cependant plus petites pour les points qui
sont proches de (z ! 0) que pour ceux qui en sont loins (jz j > 1). Notons que Fan &
Gijbels [FG92] ont observe ce phenomene dans le cadre de l'estimation d'une fonction de
regression lisse par polyn^omes locaux (augmentation de la variance et diminution du biais
sur les bords).
214
CHAPITRE 4. SEGMENTATION
hn = 0.14
hn = 0.16
6
6
4
4
2
2
0
0
−2
0
0.2
0.4
0.6
hn = 0.18
0.8
−2
1
6
6
4
4
2
2
0
0
−2
0
0.2
0.4
hn = 0.16
0.6
0.8
1
−2
hn = 0.18
0
0.2
0.4
0.6
hn = 0.20
0
0.2
0.4
3
3
3
2
2
2
1
1
1
0
0.4
0.6
0
0.4
0.6
0
0.4
0.8
1
0.6
0.8
hn = 0.20
1
0.6
Figure 4.10 : E et de la segmentation en t = : Estimation de m(x) et m(x) a partir de 200
echantillons simules selon le modele M1. La courbe en \-." represente une estimation de m(x),
celle en \- -" represente une estimation de m(x). La courbe en \-" represente la vraie fonction
de regression m(x). Dans le graphe en haut a gauche on a aussi represente avec des \." un
echantillon des observations. Les trois gures en bas sont des agrandissements du voisinage de
la discontinuite.
4.6. Simulations
215
hn = 0.14
hn = 0.16
6
6
4
4
2
2
0
0
−2
0
0.2
0.4
0.6
hn = 0.18
0.8
−2
1
6
6
4
4
2
2
0
0
−2
0
0.2
0.4
hn = 0.16
0.6
0.8
1
−2
hn = 0.18
0
0.2
0.4
0.6
hn = 0.20
0
0.2
0.4
3
3
3
2
2
2
1
1
1
0
0.4
0.6
0
0.4
0.6
0
0.4
0.8
1
0.6
0.8
hn = 0.20
1
0.6
Figure 4.11 : E et de la segmentation en t = ^ : Estimation de m(x) et m(x) a partir de 200
echantillons simules selon le modele M1. La courbe en \-." represente une estimation de m(x),
celle en \- -" represente une estimation de m(x). La courbe en \-" represente la vraie fonction
de regression m(x). Dans le graphe en haut a gauche on a aussi represente avec des \." un
echantillon des observations. Les trois gures en bas sont des agrandissements du voisinage de
la discontinuite.
CHAPITRE 4. SEGMENTATION
0.04
0.3
0.03
0.2
0.02
0.1
Biais local
Biais local
216
0.01
0
−0.01
−0.03
0
0.2
0.4
0.6
0.8
−0.1
n
−0.3
1
−0.4
0.12
hn = 0.14
hn = 0.16
h = 0.18
n
h = 0.20
0.2
0.4
0.6
0.8
1
hn = 0.14
hn = 0.16
h = 0.18
n
h = 0.20
0.4
Ecart−type local
Ecart−type local
0
0.5
0.1
n
0.08
0.06
0.04
0.02
h = 0.14
n
h = 0.16
n
h = 0.18
n
h = 0.20
−0.2
h = 0.14
n
h = 0.16
n
h = 0.18
n
hn = 0.20
−0.02
0
n
0.3
0.2
0.1
0
0.2
0.4
0.6
0.8
1
0
0
0.2
0.4
0.6
0.8
1
Figure 4.12 : Estimations du biais local et de l'ecart-type local (de haut en bas) a partir de 200
echantillons simules selon le modele M1. On montre a gauche ces di erentes estimations pour
m^ (; ) et a droite celles de m^ (; ^).
4.6. Simulations
217
−4
8
−3
x 10
1.5
x 10
6
4
1
2
0
0.05
−3
x 10
5
0.1
0.15
h
0.2
0.25
n
0.5
0.05
−3
x 10
10
4
8
3
6
2
0.05
−3
x 10
5
0.1
0.15
h
0.2
0.25
n
4
0.05
−3
x 10
12
4
10
3
8
2
0.05
0.1
0.15
h
n
0.2
0.25
6
0.05
0.1
0.15
h
0.2
0.25
0.15
h
0.2
0.25
0.15
h
0.2
0.25
n
0.1
n
0.1
n
Figure 4.13 : Estimations du biais au carre integre, de la variance integree et de la MISE (de
haut en bas) a partir de 200 echantillons simules selon le modele M1. On montre a gauche ces
di erentes estimations pour m
^ (; ) et a droite celles de m^ (; ^).
218
CHAPITRE 4. SEGMENTATION
hn = 0.14
hn = 0.16
10
6
4
5
2
0
−5
0
0
0.2
0.4
0.6
hn = 0.18
0.8
−2
1
6
6
4
4
2
2
0
0
−2
0
0.2
0.4
hn = 0.16
0.6
0.8
1
−2
hn = 0.18
0
0.2
0.4
0.6
hn = 0.20
0
0.2
0.4
3
3
3
2
2
2
1
1
1
0
0.4
0.6
0
0.4
0.6
0
0.4
0.8
1
0.6
0.8
hn = 0.20
1
0.6
Figure 4.14 : E et de la segmentation en t = : Estimation de m(x) et m(x) a partir de 200
echantillons simules selon le modele M2. La courbe en \-." represente une estimation de m(x),
celle en \- -" represente une estimation de m(x). La courbe en \-" represente la vraie fonction
de regression m(x). Dans le graphe en haut a gauche on a aussi represente avec des \." un
echantillon des observations. Les trois gures en bas sont des agrandissements du voisinage de
la discontinuite.
4.6. Simulations
219
hn = 0.14
hn = 0.16
10
6
4
5
2
0
−5
0
0
0.2
0.4
0.6
hn = 0.18
0.8
−2
1
6
6
4
4
2
2
0
0
−2
0
0.2
0.4
hn = 0.16
0.6
0.8
1
−2
hn = 0.18
0
0.2
0.4
0.6
hn = 0.20
0
0.2
0.4
3
3
3
2
2
2
1
1
1
0
0.4
0.6
0
0.4
0.6
0
0.4
0.8
1
0.6
0.8
hn = 0.20
1
0.6
Figure 4.15 : E et de la segmentation en t = ^ : Estimation de m(x) et m(x) a partir de 200
echantillons simules selon le modele M2. La courbe en \-." represente une estimation de m(x),
celle en \- -" represente une estimation de m(x). La courbe en \-" represente la vraie fonction
de regression m(x). Dans le graphe en haut a gauche on a aussi represente avec de \." un
echantillon des observations. Les trois gures en bas sont des agrandissements du voisinage de
la discontinuite.
220
CHAPITRE 4. SEGMENTATION
0.04
0.6
0.02
h = 0.14
n
hn = 0.16
h = 0.18
n
h = 0.20
0.4
Biais local
Biais local
n
0
−0.02
h = 0.14
n
h = 0.16
n
h = 0.18
n
hn = 0.20
−0.04
−0.06
0
0.2
0.2
0
−0.2
0.4
0.6
0.8
1
−0.4
0.3
hn = 0.14
hn = 0.16
h = 0.18
n
h = 0.20
0.4
0.6
0.8
1
0.4
0.6
0.8
1
hn = 0.14
hn = 0.16
h = 0.18
n
h = 0.20
0.4
Ecart−type local
Ecart−type local
0.2
0.5
0.25
n
0.2
0.15
0.1
0.05
0
n
0.3
0.2
0.1
0
0.2
0.4
0.6
0.8
1
0
0
0.2
Figure 4.16 : Estimations du biais local et de l'ecart-type local (de haut en bas) a partir de 200
echantillons simules selon le modele M2. On montre a gauche ces di erentes estimations pour
m^ (; ) et a droite celles de m^ (; ^).
4.6. Simulations
221
−4
5
−3
x 10
5
4
4.5
3
4
2
3.5
1
0.05
0.1
0.15
h
0.2
0.25
n
0.025
x 10
3
0.05
0.1
0.15
h
0.2
0.25
0.15
h
0.2
0.25
0.15
h
0.2
0.25
n
0.045
0.04
0.02
0.035
0.015
0.01
0.05
0.03
0.1
0.15
h
0.2
0.25
n
0.025
0.025
0.05
0.04
0.015
0.03
0.1
0.15
h
n
n
0.05
0.02
0.01
0.05
0.1
0.2
0.25
0.02
0.05
0.1
n
Figure 4.17 : Estimations du biais au carre integre, de la variance integree et de la MISE (de
haut en bas) a partir de 200 echantillons simules selon le modele M2. On montre a gauche ces
di erentes estimations pour m
^ (; ) et a droite celles de m^ (; ^).
222
CHAPITRE 4. SEGMENTATION
hn = 0.06
hn = 0.08
10
6
4
5
2
0
−5
0
0
0.2
0.4
0.6
hn = 0.10
0.8
−2
1
6
6
4
4
2
2
0
0
−2
0
0.2
0.4
hn = 0.08
0.6
0.8
1
−2
hn = 0.10
0
0.2
0.4
0.6
hn = 0.12
0
0.2
0.4
3
3
3
2
2
2
1
1
1
0
0.4
0.6
0.8
0
0.4
0.6
0.8
0
0.4
0.8
1
0.6
0.8
hn = 0.12
1
0.6
0.8
Figure 4.18 : E et de la segmentation en t = : Estimation de m(x) et m(x) a partir de 200
echantillons simules selon le modele M3. La courbe en \-." represente une estimation de m(x),
celle en \- -" represente une estimation de m(x). La courbe en \-" represente la vraie fonction
de regression m(x). Dans le graphe en haut a gauche on a aussi represente avec des \." un
echantillon des observations. Les trois gures en bas sont des agrandissements du voisinage de
la discontinuite.
4.6. Simulations
223
hn = 0.06
hn = 0.08
10
6
4
5
2
0
−5
0
0
0.2
0.4
0.6
hn = 0.10
0.8
−2
1
6
6
4
4
2
2
0
0
−2
0
0.2
0.4
hn = 0.08
0.6
0.8
1
−2
hn = 0.10
0
0.2
0.4
0.6
hn = 0.12
0
0.2
0.4
3
3
3
2
2
2
1
1
1
0
0.4
0.6
0.8
0
0.4
0.6
0.8
0
0.4
0.8
1
0.6
0.8
hn = 0.12
1
0.6
0.8
Figure 4.19 : E et de la segmentation en t = ^ : Estimation de m(x) et m(x) a partir de 200
echantillons simules selon le modele M3. La courbe en \-." represente une estimation de m(x),
celle en \- -" represente une estimation de m(x). La courbe en \-" represente la vraie fonction
de regression m(x). Dans le graphe en haut a gauche on a aussi represente avec des \." un
echantillon des observations. Les gures trois en bas sont des agrandissements du voisinage de
la discontinuite.
224
CHAPITRE 4. SEGMENTATION
0.2
0.6
h = 0.06
n
hn = 0.08
h = 0.10
n
h = 0.12
0.4
n
n
Biais local
Biais local
0.1
0
−0.1
−0.2
0.2
0
−0.2
0
0.2
0.4
0.6
0.8
1
−0.4
0.3
hn = 0.06
hn = 0.08
h = 0.10
n
h = 0.12
0.2
0.4
0.6
0.8
1
0.4
0.6
0.8
1
hn = 0.06
hn = 0.08
h = 0.10
n
h = 0.12
0.4
Ecart−type local
Ecart−type local
0
0.5
0.25
n
0.2
0.15
0.1
0.05
h = 0.06
n
hn = 0.08
h = 0.10
n
h = 0.12
n
0.3
0.2
0.1
0
0.2
0.4
0.6
0.8
1
0
0
0.2
Figure 4.20 : Estimations du biais local et de l'ecart-type local (de haut en bas) a partir de 200
echantillons simules selon le modele M3. On montre a gauche ces di erentes estimations pour
m^ (; ) et a droite celles de m^ (; ^).
4.6. Simulations
225
0.06
0.06
0.04
0.04
0.02
0.02
0
0.05
0.1
−3
x 10
12
0.15
h
0.2
0.25
n
0
0.05
0.018
8
0.016
6
0.014
0.1
0.06
0.15
hn
0.2
0.25
0.012
0.05
0.06
0.02
0.04
0.1
0.15
h
n
0.2
0.25
0.1
0.15
hn
0.2
0.25
0.1
0.15
h
0.2
0.25
n
0.08
0.04
0
0.05
0.15
h
0.02
10
4
0.05
0.1
0.2
0.25
0.02
0.05
n
Figure 4.21 : Estimations du biais au carre integre, de la variance integree et de la MISE (de
haut en bas) a partir de 200 echantillons simules selon le modele M3. On montre a gauche ces
di erentes estimations pour m
^ (; ) et a droite celles de m^ (; ^).
226
CHAPITRE 4. SEGMENTATION
4.7 Donnees reelles : Exemple du Nil.
Nous presentons dans cette section une application de l'analyse de ruptures par lissage
lineaire local aux donnees du Nil (cf chapitre Introduction). Pour l'analyse, nous avons prefere
supposer que le nombre de ruptures est au plus 1. Tout d'abord nous avons estime, dans le
cas ou nous supposons qu'il y a une seule rupture, les parametres de rupture ( et ( )) pour
di erentes tailles de la fen^etre de lissage. Ensuite nous avons veri e la pertinence de chacune
des ruptures detectees a l'aide du test strictement local. En n et suite aux resultats des tests
e ectues, nous avons garde comme parametre de localisation de la rupture ^ = 1898 et nous
avons estime le debit annuel du Nil en utilisant comme point de segmentation t = ^ = 1898.
Notons que le meilleur cadre pour analyser les donnees du Nil est celui des series chronologiques.
Neanmoins nous faisons comme si les conditions etaient remplies pour pouvoir appliquer notre
approche d'analyse de ruptures. Les resultats obtenus sont coherents avec ceux obtenus par
Muller [Mul92] a l'aide d'une methode de noyau, ou ceux de Cobb [Cob78] dans un cadre
parametrique.
1)
Estimation des parametres de rupture.
Table 4.1 : Estimations de ^ et ^(^ ). Les noyaux utilises sont K 1 et K 2.
hn
10
12
14
16
18
20
^
1915
1898
1898
1898
1898
1898
K1
^(^ )
269:1861
,283:3347
,316:9070
,307:8848
,296:1336
,293:0075
^
1897
1898
1898
1898
1899
1899
K2
^ (^ )
,473:2106
,534:6239
,543:0585
,445:1601
,375:6468
,385:7173
4.7. Donnees reelles : Exemple du Nil.
2)
227
Tests de rupture.
Table 4.2 : Test strictement local d'absence de rupture en = 1898; 1902; 1915 au seuil = 5%.
Dans chaque cellule gure la valeur de la statistique et la decision prise. Le noyau utilise est
K 1.
hn
10
12
14
16
18
20
= 1898
(TSL)
H0 (1:3888)
H1 (1:9890)
H1 (2:4029)
H1 (2:4957)
H1 (2:5461)
H1 (2:6555)
= 1902
(TSL)
H0 (0:2806)
H0 (0:3662)
H0 (0:2790:)
H0 (0:1807)
H0 (0:5442)
H0 (0:7921)
= 1915
(TSL)
H0 (1:7250)
H0 (1:6145)
H0 (1:5485)
H0 (1:3967)
H0 (1:3381)
H0 (1:3868)
Table 4.3 : Test strictement local d'absence de rupture en = 1898; 1902; 1915 au seuil = 5%.
Dans chaque cellule gure la valeur de la statistique et la decision prise. Le noyau utilise est
K 2.
hn
10
12
14
16
18
20
= 1898
(TSL)
H1 (3:2319)
H1 (4:4730)
H1 (4:9076)
H1 (4:3007)
H1 (3:8276)
H1 (3:7270)
= 1902
(TSL)
H0 (0:1869)
H0 (0:4891)
H0 (0:0914:)
H0 (1:4642)
H1 (2:3802)
H1 (2:7846)
= 1915
(TSL)
H1 (2:5969)
H0 (1:6405)
H0 (1:1916)
H0 (0:6091)
H0 (0:4756)
H0 (0:7208)
Rappelons que la statistique utilisee pour construire les di erents tests strictement locaux
228
CHAPITRE 4. SEGMENTATION
d'absence de ruptures dans le debit annuel du Nil sont de nis par :
p
TSL = nhn p^n ( ) :
2V+ ^
L N (0; 1). Pour ^ nous avons utilise l'estimation fournie par Cobb
Sous l'hypothese H0, TSL ,!
[Cob78] (^ = 125).
4.7. Donnees reelles : Exemple du Nil.
3)
229
Estimation du debit annuel.
h = 10
n
1400
1400
1300
1300
1200
1200
1100
1100
1000
1000
900
900
800
800
700
700
600
600
500
500
400
1870
1880
1890
1900
1910
1920
annee
1930
1940
1950
1960
1970
400
1870
1880
1890
1900
1910
h = 12
n
1400
1300
1300
1200
1200
1100
1100
1000
1000
900
900
800
800
700
700
600
600
500
500
1880
1890
1900
1910
1920
annee
1930
1940
1950
1960
1970
400
1870
1880
1890
1900
1910
h = 16
1300
1300
1200
1200
1100
1100
1000
1000
900
900
800
800
700
700
600
600
500
500
1890
1900
1910
1920
annee
1950
1960
1970
1920
annee
1930
1940
1950
1960
1970
1930
1940
1950
1960
1970
n
1400
1880
1940
h = 18
n
1400
400
1870
1930
h = 14
n
1400
400
1870
1920
annee
1930
1940
1950
1960
1970
400
1870
1880
1890
1900
1910
1920
annee
Figure 4.22 : Estimation du debit annuel du Nil entre 1870 et 1970.
Bibliographie
[AG93]
A. Antoniadis and G. Gregoire. Nonparametric estimation in change-point hazard
rate models for censored data : a counting process approach. Journal of Nonparametric Statistics, 3:135{154, 1993.
[AG96]
A. Antoniadis and I. Gijbels. Inference in change-point problems via wavelet decompositions. Technical report, Institut de Statistique, Universite Catholique de
Louvain, 1996.
[Bil68]
P. Billingsley. Convergence of probability measures. Wiley, New York 1968.
[BN93]
M. Basseville and I. V. Nikiforov. Detection of abrupt changes : theory and application. Prentice-Hall information and system sciences series. Prentice-Hall, 1993.
[BR73]
P. J. Bickel and M. Rosenblatt. On some global measures of the deviation of density
function estimators. Ann. Math. Statist, 1:1071{1095, 1973.
[CH91]
D. B. H. Cline and J. D. Hart. Kernel estimation of densities with discontinuities
or discontinuous derivatives. Statistics, 22:69{84, 1991.
[Che64]
H. Cherno . Estimation of the mode. Ann. Inst. Statist. Math, 16:31{41, 1964.
[Cin75]
Erhan Cinlar. Introduction to stochastic processes. Prentice-Hall, Inc., 1975.
[Cle79]
W. S. Cleveland. Robust locally weighted regression and smoothing scatterplots.
J. Amer. Statist. Assoc., 74(368):829{836, 1979.
[Cob78]
G. W. Cobb. The problem of the nile: Conditional solution to a changepoint
problem. Biometrika, 65:243{251, 1978.
[DBE75]
J. Durbin R. L. Brown and J. M. Evans. Techniques for testing the constancy of
regression relationships over time. J. Royal Statist. Soc. B, 37:149{163, 1975.
232
BIBLIOGRAPHIE
[Dum91]
L. Dumbgen. The asymptotic behavior of some nonparametric change-point estimators. The Annals of Statistics, 19(3):1471{1495, 1991.
[ECS95]
R. L. Eubank D. B. H. Cline and P. L. Speckman. Nonparametric estimation of
regression curves with discontinuous derivatives. Technical report, Texas A&M
University and University of Missouri-Columbia, 1995.
[Edd82]
W. F. Eddy. The asymptotic distributions of the mode. Ann. Statist., 59:279{290,
1982.
[Eed85]
C. V. Eeden. Mean integrated squared error of kernel estimators when the density and its derivatives are not necessarily continuous. Ann. Inst. Statist. Math.,
37(1):461{472, 1985.
[ES94]
L. Eubank and P. L. Speckman. Nonparametric estimation of functions with jump
discontinuities. In H.-G. Muller E. Carlstein and D. Siegmund, editors, ChangePoint Problems. Institute of Mathematical Statistics, Hayward, California, 1994.
[Fan92]
J. Fan. Design-adaptive nonparametric regression. J. Amer. Statist. Assoc., 87:998{
1004, 1992.
[Fan93]
J. Fan. Local linear regression smoothers and their minimax eciencies. Ann.
Statist., 21:196{216, 1993.
[FCM97] J. Fan M. Y. Cheng and J. S. Marron. On automatic boundary corrections. The
Annals of Statistics, 25(4):1691{1708, 1997.
[Fel66]
William Feller. An introduction to probability theory and its applications, volume II.
John Wily & Sons, Inc., 1966.
[FG92]
J. Fan and I. Gijbels. Variable bandwidth and local linear regression smoothers.
Ann. Statist., 20:2008{2036, 1992.
[FG95]
J. Fan and I. Gijbels. Data-driven bandwidth selection in local polynomial tting:
variable bandwidth and spatial adaptation. J. R. Statist. Soc. B, 57(2):371{394,
1995.
[FG96]
J. Fan and I. Gijbels. Local Polynomial Modelling and Its Applications. Chapman
and Hall, London, 1996.
BIBLIOGRAPHIE
233
[FM94]
J. Fan and J. S. Marron. Fast implementations of nonparametric curve estimators.
Journal of Computational and Graphical Statistics, 3(1):35{56, 1994.
[Gir90]
D. Girard. From template matching to optimal approximation by piecewise smooth
curves. In SPIE Proceedings on "Curves and surfaces in computer vision and graphics, Santa Clara, CA, Feb. 11-16 1990.
[GK68]
B. V. Gnedenko and A. N. Kolmogorov. Limit distributions for sum of independent
random variables. Addison-Wesley series in statistics. Addison-Wesley publishing
company, 1968.
[Ha90]
W. Hardle. Applied nonparametric regression. Cambridge University Press, 1990.
[HGK95] P. Hall I. Gijbels and A. Kneip. Interval and band estimation for curves with jumps.
Technical report, Institut de Statistique, Universite Catholique de Louvain, 1995.
[HGK96] P. Hall I. Gijbels and A. Kneip. On the estimation of jump points in smooth curves.
Technical report, Institut de Statistique, Universite Catholique de Louvain, 1996.
[HL84]
W. Hardle and S. Luckhaus. Uniform consistency of a class of regression function
estimators. The Annals of Statistics, 12(2):612{623, 1984.
[HL93]
T. Hastie and C. Loader. Local regression: automatic kernel carpentry. Statistical
Science, 8(2):120{143, 1993.
[HY96]
J. D. Hart and S. Yi. One-sided cross-validation. Technical report, Department of
Statistics, Texas A & M University, 1996.
[Joh82]
G. J. Johnston. Probabilities of maximal deviations for nonparametric regression
function estimates. Journal of Multivariate Analysis, 12:402{414, 1982.
[KBP95]
I. Koch M. Bunt and A. Pope. Kernel-based nonparametric regression for discontinuous functions. Technical report, Centre for Mathematics and its Applications,
School of Mathematical Sciences, Australian National University, Canberra, ACT
0200, Australia, 1995.
[KE96]
A. Kneip and J. Engel. A remedy for kernel estimation under random design.
Statistics, 28:201{225, 1996.
[KM88]
P. R. Krishnaiah and B. Q. Miao. Review about estimation of change points.
Handbook of Statistics, 7:375{402, 1988.
234
BIBLIOGRAPHIE
[Kor86]
A. P. Korostelev. On minimax estimation of a discontinuous signal. Probability
Theory and its Applications, pages 727{730, 1986.
[LB87]
J. P. Lecoutre D. Bosq. Theorie de l'estimation fonctionnelle. Economica, 1987.
[Lee91]
D. Lee. Detection, classi cation, and measurement of discontinuities. SIAM, J. Sc.
Stat. Comput., 12(2):311{341, 1991.
[Lej85]
M. Lejeune. Estimation non-parametrique par noyaux : Regression polynomiale
mobile. Revue de Statistiques Appliquees, 33:43{64, 1985.
[LLR83]
G. Lindgren M. R. Leadbetter and H. Rootzen. Extremes and related properties of
random sequences and processes. Springer, Series in Statistics, New York, 1983.
[Loa96]
C. R. Loader. Change point estimation using nonparametric regression. The Annals
of Statistics, 24:1667{1678, 1996.
[LU86]
P. J. Laurent and F. Utreras. Optimal smoothing of noisy broken data with spline
functions. J. Approximation Theory and its Apllications, 2:71{94, 1986.
[MCS94]
H. G. Muller E. Carlstein and D. Siegmund. Change-point problems, volume 23.
Institute of Mathematical Statistics Lecture Note Series, 1994.
[MO86]
J. A. McDonald and A. B. Owen. Smoothing with split linear ts. Technometrics,
28(3):195{208, 1986.
[MS82]
Y. P. Mack and B. W. Silverman. Weak and strong uniform consistency of kernel regression estimates. Z. Wahrscheinlichkeitstheorie verw. Gebiete, 61:405{415,
1982.
[MS87]
H. G. Muller and U. Stadtmuller. Estimation of heteroscedasticity in regression
analysis. Ann. Statist., 15:610{625, 1987.
[MS97]
H. G. Muller and K. S. Song. Two-stage change-point estimators in smooth regression models. Statistics & Probability Letters, 34:323{335, 1997.
[Mul87]
H. G. Muller. Weighted local regression and kernel methods for nonparametric
curve tting. Journal of the American Statistical Association, 82(397):231{238,
1987.
[Mul91]
H. G Muller. Kernels estimators of zeros and locations and size of extrema of
regression functions. Scand. J. Statist., 12(3):1471{1495, 1991.
BIBLIOGRAPHIE
235
[Mul92]
H. G. Muller. Change-points in nonparametric regression analysis. Ann. Statist.,
20:737{761, 1992.
[Oud95]
C. G. M. Oudshoorn. Minimax estimation of a regression function with jumps: attaining the optimal constant. Technical report, Mathematical Institute, University
of Utrecht, 1995.
[Pag57]
E. S. Page. Estimating the point of change in a continuous process. Biometrika,
44:248{252, 1957.
[PC72]
M. B. Priestley and M. T. Chao. Non-parametric function tting. J. Roy. Statist.
Soc. B, 34:385{392, 1972.
[PGC93]
D. Picard and V. Genon-Catalot. Elements de statistique asymptotique. SMAI.
Springer-Verlag, 1993.
[PK84]
V. I. Piterbarg V. D. Konakov. On the convergence rate of maximal deviation
distribution for kernel regression estimates. J. Multivariate Anal., 15:279{294, 1984.
[Pol84]
D. Pollard. Convergence of stochastic processes. Springer-Verlag, series in statistics,
New York Berlin Heidelberg Tokoyo, 1984.
[Qiu94]
P. Qiu. Estimation of the number of jumps of the jump regression functions. Statistics Theory and method, 23:2141{2155, 1994.
[QY98]
P. Qiu and B. Yandell. A local polynomial jump detection algorithm in nonparametric regression. To appear in Technometrics, 1998.
[Rai96]
M. Raimondo. Modeles en rupture, situations non ergodique et utilisation de methode d'ondelette. PhD thesis, Universite de Paris VII, 1996.
[RW94]
D. Ruppert and M. P. Wand. Multivariate locally weighted least squares regression.
Ann. Statist., 22:1346{1370, 1994.
[SG96]
B. Seifert and T. Gasser. Finite-sample variance of local polynomials: analysis and
solutions. Journal of the American Statistical Association, 91(433):267{275, 1996.
[Sha80]
S. A. Shaban. Change point problem and two-phase regression: an annotated
bibliography. International Statistical Review, 48:83{93, 1980.
[Shi85]
J. H. Shiau. Smoothing spline estimation of functions with discontinuities. PhD
thesis, University of Wisconsin, Madison, Wisconsin, 1985.
236
BIBLIOGRAPHIE
[Sil78]
B. W. Silverman. Weak and strong uniform consisttency of the kernel estimate of
a density and its derivatives. The Annals of Statistics, 6(1):177{184, 1978.
[Spe95]
P. L. Speckman. Detection of change-points in nonparametric regression. Technical
report, Department of Statistics, University of Missouri-Columbia, 1995.
[Spo97]
V. G. Spokoiny. Estimation of a function with discontinuities via local polynomial
t with an adaptative window choice. Technical report, Weierstrass Institute for
Applied Analysis and Stochastics, Mohrenstr. 39, 10117 Berlin, 1997.
[Sto77]
C. J. Stone. Consistent nonparametric regression. The Annals of Statistics,
5(4):595{645, 1977.
[Sto82]
C. J. Stone. Optimal global rates of convergence for nonparametric regression.
Annals of Statistics, 10:1040{1053, 1982.
[TK93]
A. B. Tsybakov and A. P. Korostelev. Minimax Theory of Image Reconstruction.
Springer-Verlag, Lecture Notes in Statistics, New York Berlin Heidelberg Tokoyo,
1993.
[Tsy86]
A. B. Tsybakov. Robust reconstruction of function by local-approximation method.
Problems of Information Transmission, 2:69{84, 1986.
[Tsy90]
A. B. Tsybakov. Locally-polynomial algorithms of passive stochastic approximation. Problems of Control and Information Theory, 3:181{195, 1990.
[Wan95]
Y. Wang. Jump and sharp cusp detection by wavelets. Biometrika, 82:385{397,
1995.
[WC93a] J. S. Wu and C. K. Chu. Kernel-type estimators of jump points and values of a
regression function. The Annals of Statistics, 21(3):1545{1566, 1993.
[WC93b]
J. S. Wu and C. K. Chu. Nonparametric function estimation and bandwidth selection for discontinuous regression functions. Statistica Sinica, 3:557{576, 1993.
[Whi70]
W. Whitt. Weak convergence of probability measures on the function space C [0; 1[.
Ann. Math. Statist., 41:939{944, 1970.
[Whi80]
W. Whitt. Some useful functions for functional limit theorems. Mathematics of
Operations Research, 5:67{84, 1980.
BIBLIOGRAPHIE
237
[WM90]
J. L. Wang and H. G. Muller. Nonparametric analysis changes in hazard rates
for censored survival data: An alternative to change-point models. Biometrika,
77:305{314, 1990.
[Yin88]
Y. Q. Yin. Detection of the number, locations and magnitudes of jumps. Commun.
Statist. Stochastic Models, 4(3):445{455, 1988.
[ZF96]
J. Zhang and J. Fan. Minimax kernels for nonparametric estimation. Technical
report, Department of Statistics, UNC-Chapel Hill, NC 27599-3260, 1996.
Resume
Nous nous interessons dans cette these a l'estimation, dans un cadre non parametrique, d'une
fonction de regression presentant des discontinuites et, plus precisement aux problemes de detection de ruptures, d'estimation des parametres de rupture (nombre, localisations, amplitudes)
et de segmentation de la fonction de regression (reconstitution de la fonction). La methode
utilisee est basee sur les proprietes du processsus de saut estime, ^ (t), de ni en tout t comme la
di erence entre un estimateur a droite et un estimateur a gauche, ces estimateurs etant obtenus
regression lineaire locale.
Dans un premier temps, nous considerons la situation d'une seule discontinuite et etudions
les proprietes de l'estimateur de l'amplitude de la discontinuite lorsque la localisation est connue. Nous donnons l'expression de l'erreur quadratique moyenne asymptotique et montrons la
convergence et la normalite asymptotique de l'estimateur. Lorsque la localisation n'est pas
connue, nous construisons un estimateur de a l'aide du processus de deviation locale associe a
^ (t) et montrons que cet estimateur converge avec une vitesse en n,1 ou arbitrairement proche
de n,1 selon le noyau utilise. Nous proposons ensuite trois tests d'existence d'une rupture : un
test strictement local, un test local et un test global, tous trois de nis en terme d'une statistique
construite a l'aide du processus de saut estime. Concernant le probleme d'estimation du nombre
de ruptures nous elaborons une procedure permettant a la fois d'estimer le nombre p de ruptures
et les localisations 1 ; : : :; p. Nous montrons la convergence presque s^ure de ces estimateurs et
donnons aussi des resultats sur les vitesses de convergence. En n nous proposons une methode
de reconstitution d'une fonction de regression presentant des discontinuites basee sur la segmentation des observations. Nous montrons qu'en utilisant la procedure d'estimation du nombre de
ruptures et des localisations developpee auparavant, nous obtenons un estimateur de la fonction
de regression qui a la m^eme vitesse de convergence qu'en l'absence de ruptures. Des experimentations numeriques sont fournies pour chacun des problemes etudies de maniere a mettre en
evidence les proprietes des procedures etudiees et leur sensibilite aux divers parametres.
Mots cles : regression, non-parametrique, rupture, regression lineaire locale, estimation,
detection, segmentation.
Abstract
In this thesis, we consider the change-point problems in nonparametric regression model:
detection of change-points, estimation of the change-point parameters and segmentation of the
regression function are investigated. The proposed method is based on a comparison of left and
right one-sided smoothers. These smoothers are obtained by local linear regression.
First, we propose an estimator of the jump size in the regression function when the location of the change-point is known. We derive the expression of its asymptotic MSE and its
asymptotic normality. Next we propose an estimator of the location of the change-point and
give its asymptotic distribution and corresponding rate of convergence. Afterwards, we are interested in testing for a change-point. The properties of the deviation process associated with
the jump estimate process, allow to obtain the asymptotic distributions of some test statistics
for a change-point. In the case where there are more than one change, we introduce a consistant
algorithm to estimate the number of change-points together with their localizations. Finally, we
propose a method for the estimation of a piecewise smooth regression fonction. We show that,
provided discontinuities can be located with sucient accuracy, our approach enjoys rates of
convergence similar to those obtained in smooth case. For each of the proposed procedures, we
provide numerical experiments that show evidence of the quality of the method and give some
information about the dependence upon such parameters as the kernel and the bandwith.
Keywords : regression, nonparametric, change-point, local linear regression, estimation,
detection, segmentation.
1/--страниц
Пожаловаться на содержимое документа