Extraction de connaissances pour la construction de scénarios médicaux Anne-Sophie Silvent To cite this version: Anne-Sophie Silvent. Extraction de connaissances pour la construction de scénarios médicaux. Autre [q-bio.OT]. Université Joseph-Fourier - Grenoble I, 2004. Français. �tel-00008108� HAL Id: tel-00008108 https://tel.archives-ouvertes.fr/tel-00008108 Submitted on 18 Jan 2005 HAL is a multi-disciplinary open access archive for the deposit and dissemination of scientific research documents, whether they are published or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers. L’archive ouverte pluridisciplinaire HAL, est destinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publiés ou non, émanant des établissements d’enseignement et de recherche français ou étrangers, des laboratoires publics ou privés. UNIVERSITÉ JOSEPH FOURIER DE GRENOBLE I THÈSE pour obtenir le grade de DOCTEUR DE L'UJF Spécialité : Modèles et Instruments en Médecine et Biologie préparée au laboratoire TIMC-SIC dans le cadre de l'Ecole Doctorale Ingénierie pour la Santé, la Cognition et l'Environnement présentée et soutenue publiquement par Anne-Sophie Silvent le 10 décembre 2004 Titre Extraction de connaissances pour la construction de scénarios médicaux JURY M. Guy Carrault Rapporteur M. Gilles Kassel Rapporteur Mme Catherine Garbay Directeur de thèse M. Michel Dojat Co-directeur M. Pierre Baconnier Examinateur Mme Marie-Christine Chambrin Examinateur M. Pierre-Yves Carry Invité Remerciements Je remercie Guy Carrault et Gilles Kassel d'avoir accepté de rapporter ce travail de thèse. Un grand merci à Catherine Garbay et Michel Dojat, mes deux directeurs de thèse pour m'avoir supportée (dans les deux sens du terme) durant ces années. Je remercie Pierre Baconnier d'une part de faire partie du jury de cette thèse et d'autre part et surtout, de m'avoir admise dans le DEA MIMB, puis dans le projet OSSCAR. Je remercie Marie-Christine Chambrin, chef du sous-projet pour sa disponibilité et le temps qu'elle m'a accordé. Un grand merci aux médecins Pierre-Yves Carry, Jean-Pierre Perdrix et Loïc Biot à qui j'exprime toute ma reconnaissance. Merci aussi à tous les autres membres du projet OSSCAR, en particulier à Éve. N'oublier personne. . . Je pense à Corinne Frison, Anne-Éva et Guillaume que j'ai connus dès le DEA, amitiés précieuses. Merci à Guillaume pour l'aide apportée pour mes premiers pas laborieux en informatique et pour son soutien. Je pense à Julien Balter, premier compagnon de bureau. Une pensée pour Véro et Corinne qui m'ont manqué ces deux dernières années . . . Grand merci aux ingénieurs systèmes Guy et Noureddine pour leur soutien et leur patience devant ma perplexité et ma poisse vis à vis d'un ordinateur ! Merci à Marie-Paule, Paulette, Nicole, Françoise et Maribel. Pensées pour Rémy, Chris, José et Zulma, Abdel (vieux sage du labo, mais trop peu longtemps), Vincent et Raph, Fred, Pat et Nico, Sandrine. . . Une pensée particulière pour Salima et Yazid d'Algérie pour qui la recherche est d'abord de trouver un ordinateur qui marche. Pensée pour ceux qui commencent : Thomas et Julie. Pensée à Julien et ses fromages, et son pounti, Bidule . . . Bien plus qu'une pensée : ma petite Sam, qu'est-ce que je ferai sans toi ? Et mes frères et s÷urs : JF, Manu et Cath et leurs moitiés, Agathe, Alain et Willy (qui pourra constater mon rapide apprentissage de la lecture et de l'écriture. . . clin d'÷il) et mon ado préféré Arthur. Une petite pensée pour tous les petits bouts arrivés pendant ces années : Adèle, Lucas, Zineb, Maëlle, Jules, Maé, Quentin, Zélie, Ambrine, Élisa, Léna . . . Un peu d'amertume à présent. Je ne remercie pas la personne qui m'a conseillé de me mettre à Latex pour rédiger cette thèse ! Table des matières INTRODUCTION 1 Chapitre 1 : LA SURVEILLANCE EN UNITÉS DE SOINS INTENSIFS 7 1.1 Présentation de l'organisation d'une salle de soins . . . . . . . . . . 7 1.2 Surveillance en salle de soins . . . . . . . . . . . . . . . . . . . . . . . . 9 1.2.1 En quoi consiste un système de surveillance en USIs ? . . . . . . . . 9 1.2.2 En quoi consistent les alarmes ? . . . . . . . . . . . . . . . . . . . . . 9 1.2.3 Des alarmes pertinentes ? 1.3 1.3.1 1.3.2 1.4 1.6 9 . . . . . . . . . . . . . . . . . . . . . . 10 Caractéristiques des données médicales . . . . . . . . . . . . . . . . . 10 Caractéristiques des données d'USIs . . . . . . . . . . . . . . . . . . 11 1.3.2.1 Haute dimensionnalité . . . . . . . . . . . . . . . . . . . . . 11 1.3.2.2 Incertitude . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 1.3.2.3 Imprécision . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 1.3.2.4 Ambiguïté . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 Spécicité des connaissances médicales en USIs . . . . . . . . . . . . 13 1.4.1 1.4.2 1.5 . . . . . . . . . . . . . . . . . . . . . . . . Spécicité des données en USIs . . . . . . . . . . . . . 13 1.4.1.1 Caractéristiques de la connaissances médicale L'incertitude en médecine . . . . . . . . . . . . . . . . . . . 13 1.4.1.2 Et le taux d'erreurs qui en découle . . . . . . . . . . . . . . . 14 Caractéristiques des connaissances associées aux USIs . . . . . . . . 14 . . . . . . . 14 . . . . . . . . . . . . . 14 1.4.2.1 Un nombre important d'informations à traiter 1.4.2.2 Une notion de temporalité à dénir 1.4.2.3 Des comportements du patient dicilement formalisables . 15 Bilan : Des caractéristiques particulières de la surveillance en USIs 15 1.5.1 Des données complexes et des connaissances incomplètes . . . . . . . 15 1.5.2 La surveillance : un équilibre entre les données et les connaissances ? 15 Des systèmes de surveillance dans d'autres domaines . . . . . . . . . 16 1.6.1 Surveillance de réseaux de télécommunications 16 1.6.2 Surveillance d'un système pour la transformation du dioxyde de carbone 17 1.6.3 Surveillance de turbines à gaz . . . . . . . . . . . . . . . . . . . . . 18 1.6.4 Surveillance d'une usine de traitement des eaux usées . . . . . . . . . 19 1.6.5 Surveillance de l'électrocardiogramme d'un patient 19 1.6.6 Comparaison des diérents systèmes de surveillance répertoriés 1.6.7 Où l'on envisage d'autres systèmes de surveillance pour les USIs i . . . . . . . . . . . . . . . . . . . . . . . . . 20 . . 22 Chapitre 2 : DES VOIES VERS DES SYSTÈMES DE SURVEILLANCE PLUS PERTINENTS EN USIs ? 2.1 2.2 26 2.1.1 Qu'est-ce qu'un protocole ? 26 2.1.2 Une amélioration de la surveillance ? . . . . . . . . . . . . . . . . . . 28 2.1.3 Dicultés de la mise en place des protocoles . . . . . . . . . . . . . . 28 2.1.4 Des protocoles contextuels ? . . . . . . . . . . . . . . . . . . . . . . . 29 Le protocole de sevrage 2.2.1 2.2.2 2.3 2.4 2.5 25 La mise en place de protocoles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 Présentation du sevrage : dénition, protocole, dicultés . . . . . . . 29 2.2.1.1 Dénition . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 2.2.1.2 Les dicultés du protocole de sevrage . . . . . . . . . . . . 30 Enjeux du sevrage . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 Vers des protocoles informatisés . . . . . . . . . . . . . . . . . . . . . . 33 2.3.1 Un meilleur suivi des patients grâce aux protocoles . . . . . . . . . . 33 2.3.2 Pourquoi des protocoles informatisés ? . . . . . . . . . . . . . . . . . 35 2.3.3 Comment informatiser des protocoles ? . . . . . . . . . . . . . . . . . 35 2.3.3.1 ASGAARD : un exemple de représentation de guideline . . 36 2.3.3.2 NéoGanesh : un protocole basé sur la construction de scénarios 39 2.3.3.3 Synthèse : principes de base de VIE-VENT et de NéoGanesh Vers la construction de scénarios ? . . . . . . . . . . . . . . . . . . . . . 41 2.4.1 Pourquoi des protocoles informatisés à base de scénarios ? . . . . . . 41 2.4.2 Pourquoi des alarmes intelligentes à base de scénarios ? . . . . . . . . 41 2.4.3 Comment construire des scénarios ? . . . . . . . . . . . . . . . . . . . 42 2.4.3.1 La transformation des données . . . . . . . . . . . . . . . . 42 2.4.3.2 La construction des scénarios . . . . . . . . . . . . . . . . . 43 Problématique du travail de thèse . . . . . . . . . . . . . . . . . . . . . 43 Chapitre 3 : ABSTRACTION DES DONNÉES ET DÉCOUVERTE DE SCÉNARIOS 3.1 3.2 3.3 40 Qu'est-ce que l'abstraction ? 45 . . . . . . . . . . . . . . . . . . . . . . . . 46 3.1.1 Un préambule à la dénition de l'abstraction de données . . . . . . . 46 3.1.2 Les mécanismes formels de l'abstraction de données . . . . . . . . . . 47 3.1.2.1 Les abstractions verticales et horizontales . . . . . . . . . . 47 3.1.2.2 Les abstractions temporelles simples et complexes . . . . . 49 Abstraction et fusion ? . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 3.2.1 . . . . . . . . . 50 3.2.1.1 La fusion dans le processus d'abstraction temporelle La fusion sémantique dans le processus d'abstraction . . . . 52 3.2.1.2 La fusion multi-sources dans le processus d'abstraction . . 52 3.2.1.3 La fusion temporelle . . . . . . . . . . . . . . . . . . . . . . 52 3.2.1.4 La fusion mixte ou oblique . . . . . . . . . . . . . . . . . 52 3.2.2 Un processus incrémental . . . . . . . . . . . . . . . . . . . . . . . . 53 3.2.3 Les connaissances dans le processus d'abstraction . . . . . . . . . . . 53 Quelle utilisation des données et de la connaissance pour l'abstraction ? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54 3.3.1 . . . . . . . . . 55 . . . . . . . . . . . . . . . . . . . . . . . . . . 55 Des méthodes d'abstraction des données statistiques 3.3.1.1 TrendFinder 3.3.1.2 Les tendances de Calvelo et al . . . . . . . . . . . . . . . . 56 3.3.1.3 Les abstractions de Morik et al . . . . . . . . . . . . . . . . 56 3.3.2 3.3.3 3.4 3.5 3.6 3.7 Des méthodes d'abstraction mixtes . . . . . . . . . . . . . . . . . . . 58 3.3.2.1 Le système TrenDx d'Haimowitz et al . . . . . . . . . . . . 59 3.3.2.2 Le système DIAMON-1 de Steiman 60 3.3.2.3 Le système VIE-VENT de Miksch et al 60 Des méthodes d'abstraction à base de connaissance . . . . . . . . . . 62 3.3.3.1 Les abstractions de Larizza et Bellazzi . . . . . . . . . . . . 62 3.3.3.2 Le système RÉSUMÉ de Shahar et al . . . . . . . . . . . . 63 3.3.3.3 Le système NéoGanesh de Dojat . . . . . . . . . . . . . . . 66 données . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 3.4.1 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 3.4.2 Pistes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 Découverte de scénarios et fusion . . . . . . . . . . . . . . . . . . . . . 69 3.5.1 Les scénarios et les abstractions . . . . . . . . . . . . . . . . . . . . . 69 3.5.2 La fouille comme un processus de fusion ? . . . . . . . . . . . . . . . 69 . . . . . . . . . . . . . . . . . . . 70 3.6.1 Dénition de la fouille de données . . . . . . . . . . . . . . . . . . . . 70 3.6.2 La fouille de données en trois axes . . . . . . . . . . . . . . . . . . . 71 La fouille de données temporelles . . . . . . . . . . . . . . . . . . . . . 71 Qu'est ce que la fouille de données ? En quoi la fouille de données temporelles est-elle diérente de la fouille de données atemporelles ? 3.9 . . . . . . . . . . . Synthèse et présentation de quelques pistes pour l'abstraction des 3.7.1 3.8 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72 3.7.1.1 Phénomènes de dilatation/translation . . . . . . . . . . . . 72 3.7.1.2 Plusieurs niveaux d'interprétation possibles . . . . . . . . . 72 3.7.1.3 Dépendances des valeurs numériques . . . . . . . . . . . . . 73 3.7.1.4 Mesures d'intérêt de la connaissance . . . . . . . . . . . . . 73 3.7.2 Plusieurs types de représentation de données temporelles . . . . . . . 73 3.7.3 Plusieurs types de représentation des patterns . . . . . . . . . . . . . 74 3.7.4 Plusieurs critères d'évaluation et/ou de validation . . . . . . . . . . . 74 3.7.5 Plusieurs méthodes de fouille 77 3.7.6 Exemple de découverte de motifs fréquents . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78 Synthèse et présentation de quelques pistes pour la fouille . . . . . 80 3.8.1 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80 3.8.2 Pistes 81 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . La fouille dans notre contexte . . . . . . . . . . . . . . . . . . . . . . . 3.9.1 Problématiques de la découverte de règles d'association 3.9.2 Représentation 3.9.3 Critères d'évaluation des règles 3.9.4 81 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82 . . . . . . . . . . . . . . . . . . . . . 82 Découverte de règles à partir de données de type état . . . . . . . . 82 3.9.4.1 Höppner : une approche théorique du problème de découverte de patterns dans des séquences d'intervalles . . . . . . 3.9.4.2 3.9.5 81 . . . . . . . 83 Bellazzi : une autre approche de la découverte de patterns dans des séquences d'intervalles . . . . . . . . . . . . . . . . 85 Des mesures spéciques aux règles d'association ? . . . . . . . . . . . 86 3.9.5.1 Principes à satisfaire pour une mesure d'intérêt . . . . . . . 86 3.9.5.2 Des principes spéciques aux mesures des règles d'association 87 3.9.5.3 D'autres mesures proposées tenant compte des caractéristiques des relations . . . . . . . . . . . . . . . . . . . . . . . 88 Chapitre 4 : LE RÔLE DE L'INFORMATION ET DE LA CONNAISSANCE DANS LA DÉCOUVERTE DE SCÉNARIOS 4.1 4.1.1 4.1.2 4.1.3 4.1.4 . . . . . . . . . . . . . . . . . . . . . . . . 92 Données/informations/connaissances : de quoi parle-t'on ? . . . . . . 93 4.1.2.1 Dénitions usuelles . . . . . . . . . . . . . . . . . . . . . . . 93 4.1.2.2 Quelques dénitions en intelligence articielle peu satisfaisantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93 4.1.2.3 Des dénitions plus claires . . . . . . . . . . . . . . . . . . 94 4.1.2.4 Les dénitions choisies . . . . . . . . . . . . . . . . . . . . . 95 L'extraction de connaissances : un processus incrémental ? . . . . . 95 Description des éléments . . . . . . . . . . . . . . . . . . . . . . . . . 96 4.1.4.1 Les données . . . . . . . . . . . . . . . . . . . . . . . . . . . 96 4.1.4.2 Les informations . . . . . . . . . . . . . . . . . . . . . . . . 96 4.1.4.3 Les connaissances 97 . . . . . . . . . . . . . . . . . . . . . . . La méthode proposée d'abstraction de données . . . . . . . . . . . . 98 4.2.1 Deux types d'abstraction temporelle de données . . . . . . . . . . . . 100 4.2.2 Les abstractions simples pour la construction d'états . . . . . . . . . 100 4.2.2.1 Détermination de plusieurs domaines de validité 100 4.2.2.2 L'interpolation temporelle : caractérisation des intervalles de . . . . . . stabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 4.2.2.3 Agrégation des segments 105 4.2.2.4 Abstraction qualitative : transformation symbolique des seg- . . . . . . . . . . . . . . . . . . . ments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.3 108 Les abstractions complexes ou la construction de patterns locaux pour la reconnaissance d'événements 4.3 92 L'importance de la transformation des données dans le processus d'extraction de connaissances 4.2 91 Données, information et connaissance dans l'ECD . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Phase de reconnaissance des patterns 4.2.3.2 Phase d'interprétation pour la détection d'événements externes113 La découverte de règles . . . . . . . . . . . . 110 4.2.3.1 . . . . . . . . . . . . . . . . . . . . . . . . . . . Chapitre 5 : RÉSULTATS 112 114 117 5.1 Contexte clinique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117 5.2 Les éléments choisis pour la construction du processus . . . . . . . . 119 5.2.1 Données brutes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119 5.2.2 Informations extraites . . . . . . . . . . . . . . . . . . . . . . . . . . 121 5.2.3 Connaissances . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123 5.2.4 Spécicité des éléments disponibles . . . . . . . . . . . . . . . . . . . 127 5.3 Application de la méthode d'abstraction des données 5.3.1 5.3.2 . . . . . . . . 127 Les abstractions simples pour la construction d'états . . . . . . . . . 127 5.3.1.1 Détermination des domaines de validité . . . . . . . . . . . 127 5.3.1.2 Caractérisation des intervalles de stabilité . . . . . . . . . . 131 5.3.1.3 Agrégation des segments . . . . . . . . . . . . . . . . . . . 136 5.3.1.4 Abstraction qualitative . . . . . . . . . . . . . . . . . . . . 139 Les abstractions complexes pour la reconnaissance d'événements . . 142 5.3.2.1 Deux phases dans la reconnaissance d'événements . . . . . 142 5.3.2.2 Trois événements à reconnaître . . . . . . . . . . . . . . . . 143 5.3.3 5.4 Validation des abstractions 5.4.1 5.4.2 5.5 Représentation des abstractions simples et complexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . La validation des abstractions simples 149 150 . . . . . . . . . . . . . . . . . 151 5.4.1.1 Contrôle a priori des abstractions simples . . . . . . . . . . 151 5.4.1.2 Contrôle a posteriori des abstractions simples . . . . . . . . 153 La validation des abstractions complexes . . . . . . . . . . . . . . . . 154 5.4.2.1 Contrôle a priori des abstractions complexes . . . . . . . . 154 5.4.2.2 Contrôle a posteriori des abstractions complexes . . . . . . 154 5.4.2.3 Discussion sur la reconnaissance d'événements spéciques . 156 . . . . . 157 Des résultats très préliminaires de la découverte de règles DISCUSSION ET PERSPECTIVES 161 ANNEXES 165 Annexe A : Protocole de recueil de données 167 Annexe B : Feuille de recueil (OSSCAR) 171 Annexe C : Récapitulatif des informations disponibles sur les systèmes utilisés 173 Annexe D : Moniteur cardio-vasculaire Spacelabs 175 Annexe E : Ventilateurs Evita - Dräger 179 Annexe F : Codication des événements extérieurs 181 Annexe G : Exemples de paramètres tirés des signaux 185 Annexe H : Les valeurs normales 189 Annexe I : Pré-traitement des signaux 191 Annexe J : Références 193 Bibliographie 195 INTRODUCTION CONTEXTE MÉDICAL En Unités de Soins Intensifs (USIs), un nombre croissant d'appareils est utilisé pour la surveillance et le traitement thérapeutique des patients. La plupart des patients en USIs nécessite une assistance respiratoire partielle ou totale, ce qui justie une surveillance importante. Ces patients doivent être suivis avec un soin tout particulier et toutes les études (cliniques mais aussi économiques ou sociologiques) sur ce sujet concourent à démontrer le besoin d'outils d'aide à la surveillance. Les progrès en anesthésie et en réanimation ont pour objectifs la réduction de la durée de la médication, de la surveillance, l'accélération et l'amélioration de la qualité de récupération. A partir de données hétérogènes, de tels outils devront compter sur des techniques ecaces pour faire la synthèse des données et la reconnaissance automatique de scénarios typiques [Dojat and Brochard, 2001]. La reconnaissance automatique de scènes cliniques est cruciale pour deux aspects : La détection intelligente d'alarmes Les systèmes standards de surveillance basés sur des seuils d'alarmes pour chaque paramètre sont très primitifs. En général, ils introduisent une pollution sonore au lieu d'informer de manière pertinente sur de vrais événements cliniques. Au contraire, la fusion d'informations pour la reconnaissance de scènes cliniques de haut niveau, représentatives de situations acceptables ou délétères (scénarios) serait très informative pour l'équipe soignante. La mise en place de protocoles informatisés L'introduction de protocoles ou guidelines, reétant une pratique médicale consensuelle a été proposée pour standardiser le processus de décision médicale et pour réduire les variations de prise de décison entre les praticiens [Morris, 1999]. La reconnaissance de scénarios spéciques est alors un pré-requis pour modéliser le plan d'actions spéciques d'un protocole pré-déni. De la même manière, la reconnaissance de scénarios peut attester du bon suivi du protocole par les cliniciens. 2 INTRODUCTION En pratique, la construction de tels scénarios directement à partir des données ou de la connaissance experte n'est pas envisageable. Comme il est mentionné dans [Morris, 1999] : Monitoring, [. . .] with respect to real-world medical environments entails non trivial data analysis problems. The available data occur at various observation frequencies (e.g., high or low frequency data), at various regularities (e.g., continuously or discontinuously assessed data), and at various types (e.g., qualitative or quantitative data) [. . .]. Moreover, the observed data include an unexpected high volume of faulty data. Parce que les phénomènes physiologiques sont lents et les données bruitées, les cliniciens sont plus intéressés par l'évolution d'un paramètre (ou par plusieurs) sur un intervalle de temps plutôt qu'à un instant précis. En plus de la complexité des données, la connaissance experte est peu précise sur l'évolution espérée du comportement normal ou non d'un patient donné. En fait, les cliniciens ne peuvent pas décrire à l'avance les scénarios qu'ils souhaiteraient que le système détecte. La diculté de la description de tels scénarios peut être aussi expliquée par le fait que : Chaque patient est unique et les réponses physiologiques à des événements divers sont très variables parmi les patients. Pour chaque patient, les réponses physiologiques peuvent dépendre du contexte (nuit ou jour, . . .). Le processus de décision médicale peut reposer sur des éléments non accessibles aux machines (odeurs de la salle de soins, angoisse du patient, . . .). L'amélioration de la surveillance de patients en USIs est au c÷ur de nombreuses recherches et en particulier en France où a commencé un projet MNRT en 2000. Le projet OSSCAR Ce travail de thèse fait partie d'un projet MNRT, OSSCAR pour Optimisation des Stratégies à partir des Signaux Cardio-Respiratoires en Anesthésie-Réanimation, animé par Pierre Baconnier (TIMC-IMAG). Il regroupe des chercheurs (Lille 2, TIMC-IMAG Grenoble, LAG-INPG Grenoble), des cliniciens (CHU Lille, CH Lyon-Sud) et des industriels (RBI et TAEMA). Le caractère innovant du projet réside dans une approche commune des diérentes équipes impliquées (utilisation d'outils, constitution de la base de données, élaboration de connaissances utilisables en temps réel par le clinicien et par les systèmes de suppléance) et dans la modulation des informations transmises compte tenu des informations reçues et des connaissances antérieures. Ce projet comprend un sous-projet Apprentissage dirigé par Marie-Christine Chambrin de Lille 2. Les objectifs établis dans le sous projet sont : 1. La dénition de la structure des données communes et des modalités de requête et de transfert (importation et exportation des données) correspondantes. 2. L'élaboration d'une ontologie des concepts (paramètres, tendances, scénarios) en collaboration avec les cliniciens partenaires. 3. L'entrée des données dans la base de données. 4. Le développement des méthodes d'extraction des connaissances pour l'élaboration des scénarios. INTRODUCTION 3 5. La formalisation de la connaissance. 6. L'implémentation des bases de scénarios et confrontation à la pratique médicale selon diérentes applications (sevrage, levée de sédation). Ce sous-projet est exploratoire et n'a pas de perspectives industrielles à court terme. Les participants au sous projet sont des cliniciens des CHU de Lyon et de Lille, des chercheurs des laboratoires de Grenoble (TIMC (SIC), LAG) et de Lille (Lille 2). Recherche au sein du projet Objectif Dans le cadre de ce sous-projet, nous avons travaillé sur l'apprentissage à partir des don- nées et de la connaissance experte dans le domaine médical pour la construction de scénarios. L'objectif à long terme est d'améliorer la supervision de la ventilation par la reconnaissance de scènes typiques pour aider à la prise de décision (diagnostic, thérapie). La conception de tels outils se heurte actuellement à une double diculté : (1) celle d'acquérir les connaissances permettant de décider du caractère alarmant ou non des événements perçus, et (2) celle de formaliser les processus décisionnels permettant l'intégration et la fusion des informations relatives au suivi d'un patient donné. Support Nous disposons pour ce projet de données de monitoring acquises en conditions réelles provenant des hôpitaux de Lyon-Sud et de Lille, qui ont été annotées par un médecin qualié (niveaux de pertinence des alarmes). Ces données constituent une base d'apprentissage naturelle pour extraire les connaissances requises. Dans notre étude, le contexte est le sevrage de la ventilation mécanique. C'est une étape primordiale puisqu'il s'agit de sevrer le patient de la respiration articielle dans les meilleures conditions. Un sevrage fait dans de bonnes conditions a de nombreux avantages car il permet une diminution de la durée de ventilation mécanique. Et, cette diminution implique des bénéces pour le patient et pour la santé publique en terme d'économie des dépenses. L'objectif pratique de la détection de tels scénarios dans le contexte du sevrage est de pouvoir : - à long terme, prévoir au plus vite l'échec ou le succès du protocole de sevrage, - à court terme, expliquer ou prévoir une situation alarmante. CONTEXTE SCIENTIFIQUE Le travail de cette thèse présente une méthode pour la découverte de scénarios médicaux, en particulier l'abstraction graduelle des données est détaillée. La découverte de scénarios relève de l'extraction de connaissances et comprend, entre autres, les étapes de transformation des données et de fouille de données. Nous développons brièvement ces points dans les sections suivantes. Ensuite, nous faisons le rapprochement entre la fusion et l'extraction de 4 INTRODUCTION connaissances, point de vue que nous adoptons pour décrire la méthodologie élaborée dans ce travail de thèse. La découverte de scénarios Dans [Ramaux, 1998], Ramaux donne la dénition suivante : Un scénario est une description d'un comportement [. . .] d'un système dynamique. Un scénario représente des liens temporels entre états, événements, . . . et peut être symbolisé par un graphe avec des contraintes temporelles [Dojat et al., 1998], par exemple. Mais, un scénario est avant tout une représentation de connaissance. La découverte de scénarios, ou plus exactement la découverte des liens temporels entre états relève de l'extraction de connaissances à partir des données (ECD). L'ECD est un processus complexe qui, à partir des données est chargé de découvrir des connaissances. Les données subissent une première étape de transformation an de mettre à jour leur potentiel informatif puis des algorithmes sont appliqués pour découvrir des caractéristiques (étape de fouille de données) et, après validation et interprétation, celles-ci pourront être qualiées de connaissances. L'étape de transformation se rapporte à un mécanisme d'abstraction. L'abstraction des données consiste en l'interprétation de données ; il s'agit principalement de la transformation en des données symboliques et lorsque les données sont temporelles, d'un changement de granularité temporelle. Clairement, deux étapes principales sont nécessaires : et la transformation des données la fouille de données pour la découverte de caractéristiques. Abstraction et fouille Ces deux étapes sont souvent considérées indépendamment, ce qui semble problématique [Lavrac et al., 2000] : So far the two technologies ( data abstraction and machine learning) are progressing independently of each other, although they both have the common objective of analyzing patient data in an intelligent way, but for dierent purposes ; machine learning for discovering knowledge, and data abstraction for generating more useful information about a single patient. A research direction worth exploring is the use of data abstraction in the context of machine learning [. . .]. Ce point est primordial selon nous. Nous défendons l'hypothèse selon laquelle tout le processus d'ECD est incrémental : les connaissances découvertes peuvent permettre d'améliorer la transformation/abstraction des données qui, à son tour, peut améliorer la qualité des connaissances découvertes, etc ; le processus s'arrête lorsque les experts du domaine considèrent les connaissances comme susamment pertinentes. Ce travail de thèse propose une méthodologie d'extraction de connaissances dans le but de construire des scénarios médicaux représentatifs de situations de bon ou de mauvais fonctionnement qu'il s'agira ensuite de reconnaître au plus tôt. Notre objectif est d'extraire, à partir des données monitorées et des informations disponibles, des séquences abstraites d'événements pertinents et ensuite de construire des scénarios validés par les experts comme 5 INTRODUCTION représentatifs d'une classe de situations à reconnaître. Cette construction passe par diérentes étapes, et nous nous intéressons particulièrement à la première, l'abstraction progressive des données. Nous insistons sur l'importance d'une gestion explicite des informations et des connaissances dans ce processus. Fusion et ECD ? La gestion explicite des informations et des connaissances peut consister selon nous, en un processus de fusion. La fusion est une façon de combiner des informations (ou données ou connaissances) dans un objectif précis. Il y a donc deux points clés : la combinaison et l'objectif. Les objectifs de la fusion peuvent être la synthèse d'informations, la reconnaissance de formes (voir par exemple la fusion d'images dans [Bloch, 2003]). La fusion dépend des informations à combiner, de leur caractéristiques, de la méthode de combinaison, . . . Ainsi, la dénition de la fusion n'est pas exhaustive et elle peut être adaptable suivant les particularités pré-citées. Par exemple, la dénition que donne Isabelle Bloch dans [Bloch, 2003] ne se rapproche-t'elle pas de l'extraction de connaissances ? : En traitement du signal et des images, il s'agit essentiellement, selon la déni- 1 tion , d'améliorer la connaissance du monde (tel qu'il est). ou encore, la dénition suivante [Wachowicz, 2001] : [. . .] is a multilevel process that involves combining data (measurements, modalities, variables) from dierent sources and sensors and reasoning about the semantics of space and time of the information content of this data in order to perform a specic task in a problem domain and make inferences about events, states, and patterns En ce sens (et selon nous), l'extraction de connaissances peut reposer sur des opéra- tions de fusion pertinentes. Nous proposons de développer ce point de vue dans ce travail de thèse. Dénir une méthode Le domaine d'application dans lequel cette recherche est eectuée, est un domaine hétérogène et complexe où peu de méthodes claires sont disponibles. Le travail de cette thèse a donc été, aussi, de tenter de formaliser les problématiques et d'énoncer une méthode de découverte de scénarios dans le contexte plus général de l'extraction de connaissances. Dans une première partie, nous détaillons le contexte médical et la problématique de surveillance associée. Le chapitre 1 présente la complexité des données, l'incomplétude des connaissances et positionne la problématique de surveillance en USIs par rapport aux autres problèmes de surveillance cités. De cela, nous en avons déduit l'originalité et la particularité de notre problématique dans le contexte général de la surveillance de systèmes dynamiques. 1 La fusion d'informations consiste à combiner des informations issues de plusieurs sources an d'amé- liorer la prise de décision. [Bloch, 2003] 6 INTRODUCTION Le chapitre 2 présente les nouvelles voies vers des systèmes de surveillance en USIs, en particulier par la mise en place de protocoles informatisés. Nous expliquons en quoi précisémment la construction de scénarios est à la base des protocoles informatisés, et en quoi leur construction consiste. Nous dégageons les deux points essentiels : l'abstraction des données et la fouille de données pour extraire des caractéristiques parmi les données. Dans le chapitre 3, nous étudions l'abstraction des données et la découverte de scénarios. Tout d'abord, est proposé un état de l'art non exhaustif des méthodes d'abstraction couramment employées pour la surveillance de patients en USIs. Nous comparons ces systèmes suivant le processus de fusion employé. Ensuite, nous présentons un tour d'horizon des méthodes de fouille de données temporelles ; nous insistons sur la notion d'intérêt des connaissances découvertes. Le chapitre 4 présente notre méthode globale d'extraction de connaissances re- posant sur une ontologie des concepts de données, d'informations et de connaissances. Nous développerons principalement l'étape d'abstraction des données. Nous présentons dans le chapitre 5 essentiellement les résultats de l'abstraction des données et quelques points sur la fouille de données que nous discutons. Finalement, nous concluons cette thèse par une discussion de la méthode proposée. Chapitre 1 LA SURVEILLANCE EN UNITÉS DE SOINS INTENSIFS Un cas à part dans les systèmes de surveillance ? Dans ce chapitre, nous allons tout d'abord présenter l'organisation d'une salle de soins, expliquer en quoi consiste le sevrage de la ventilation mécanique et sa surveillance. Ensuite, nous étudierons les particularités des données et des connaissances expertes dans ce domaine. Pour conclure, nous comparons plusieurs systèmes de surveillance de systèmes dynamiques dans le monde industriel et médical an de mettre en avant les spécicités d'un système de surveillance en anesthésie-réanimation. 1.1 Présentation de l'organisation d'une salle de soins De nombreux patients séjournant en Unités de Soins Intensifs (USIs) nécessitent une assistance respiratoire partielle ou totale pour prendre en charge une insusance respiratoire. Ce trouble peut être le résultat d'une détérioration des propriétés mécaniques du poumon mais aussi d'autres organes comme les muscles ventilatoires, le système nerveux central ou 8 Chapitre 1 : LA SURVEILLANCE EN UNITÉS DE SOINS INTENSIFS le système cardio-vasculaire. On dit qu'un patient est dépendant d'un point de vue respiratoire lorsqu'il a besoin d'une assistance pendant au moins 24 heures ou s'il a échoué lors de tests pour le replacer en respiration autonome [Collective Task, 2002]. Plusieurs causes d'une dépendance respiratoire peuvent être répertoriées : des problèmes neurologiques (qui troublent les cycles respiratoires par exemple), des muscles respiratoires défaillants (la myopathie en est une illustration), des anormalités au niveau des échanges gazeux, des facteurs cardio-vasculaires (en particulier des disfonctionnements au niveau du ventricule gauche), des facteurs psychologiques (comme le stress induit par le retrait de l'assistance respiratoire) (voir [Collective Task, 2002] pour plus de détails). Dans tous les cas, l'assistance respiratoire justie une surveillance importante. Pour ce faire, le patient est relié à plusieurs machines (voir gure 1.1) qui sont, en général : - un ventilateur pour assister/ suppléer la ventilation, - un moniteur pour la surveillance des paramètres (visualisation des signaux, réglages de seuils) - d'autres moniteurs (capnographe, moniteur cardio-vasculaire,. . .), - des pompes à médicament, - une centrale de recueil d'informations, - ... Fig. 1.1: La salle de soins Chapitre 1 : LA SURVEILLANCE EN UNITÉS DE SOINS INTENSIFS 9 Depuis quelques années, des progrès techniques ont permis le développement de nombreux appareils de surveillance au lit du patient. Ils se caractérisent par deux fonctions principales [Biot, 1998] : - une fonction d'information en temps réel sur l'état physiologique ou physiopathologique du patient, - une fonction d'alarme ou d'alerte prévenant de modications des paramètres surveillés. 1.2 Surveillance en salle de soins 1.2.1 En quoi consiste un système de surveillance en USIs ? La surveillance des patients en salle de soins est un enjeu capital dans les services d'anesthésie-réanimation. Un nombre limité de personnel médical est chargé de surveiller des patients qui peuvent se trouver dans des salles de soins séparées. En général, un système de surveillance regroupant toutes les informations de chaque patient se trouve dans un lieu déterminé et accessible à tout le personnel. Outre l'accessibilité aux signaux physiologiques du patient, le système dispose d'un mécanisme de déclenchement d'alarmes sonores. Ce système consiste en un écran d'ordinateur où sont lisibles les signaux des paramètres du patient choisi. Ainsi, lorsqu'une alarme se déclenche, l'utilisateur peut accéder aux signaux du patient et les analyser pour déterminer la gravité, s'il y a lieu, de l'alarme. 1.2.2 En quoi consistent les alarmes ? Les systèmes de surveillance des salles de soins sont, à l'heure actuelle, assez primitifs. Ils consistent principalement en le déclenchement d'alarmes primaires et en l'accès aux données numériques des signaux des paramètres surveillés. Les alarmes reètent simplement le dépassement d'un seuil par le paramètre. Pour chaque paramètre de surveillance, deux seuils sont xés : un seuil bas et un seuil haut. Entre ces deux seuils, les valeurs du paramètre sont considérées comme non problématiques au contraire des valeurs en dessous et au dessus. Ces seuils ne sont pas xés automatiquement. Suivant la pathologie du patient, sa thérapeutique, sa morphologie, le médecin en charge choisit les seuils. Ils sont xes mais peuvent être modiés (toujours par le médecin) au cours de la surveillance. 1.2.3 Des alarmes pertinentes ? Dans [Biot et al., 2000], les auteurs évaluent la pertinence des alarmes en réanimation. Cette pertinence est mise à mal lorsque l'on constate que, dans certains services, le taux d'alarmes fausses positives (FP : alarmes déclenchées à tort) est de 40 à 90% de la totalité des alarmes et que la valeur prédictive positive de certaines alarmes est faible. Ils notent que ces alarmes FP sont la source d'eets délétères [Biot et al., 2000] : Elles entraînent surtout une pollution sonore qui peut générer une accommodation acoustique avec baisse de vigilance du personnel soignant et un allongement du temps de réponse dans la prise en charge de l'événement détecté [. . .]. Certaines études en anesthésie ont montré que, pour réduire cette pollution sonore jugée insupportable, une attitude répandue (plus de 50% des cas dans certaines études) était d'inactiver volontairement et systématiquement les alarmes sonores. 10 Chapitre 1 : LA SURVEILLANCE EN UNITÉS DE SOINS INTENSIFS Dans [Chambrin et al., 1999], les auteurs font une étude descriptive des alarmes en USIs. Ils remarquent eux aussi, un taux élevé de fausses alarmes. An d'améliorer les systèmes de surveillance, ils proposent plusieurs débuts de solution : - dénir des recommandations pour la surveillance d'un patient suivant la gravité de la maladie, - modier les habitudes des inrmiers et l'ergonomie de la salle de soins pour réduire le nombre de fausses alarmes, - déterminer de nouveaux algorithmes pour la réduction des fausses alarmes. Pour les auteurs de [Friesdorf et al., 1999], le problème central de la surveillance des patients en USIs est le fait qu'elle ne s'attache pas à une analyse globale de l'état du patient : In our opinion the key problem is that a patient's treatment, the risk of incidents and the required monitoring are not considered as a whole. En conséquence, nous pouvons armer que ces systèmes d'alarmes à seuils xes sont loin d'être satisfaisants. Des systèmes plus élaborés ou dits intelligents permettraient de réduire cette pollution sonore tout en augmentant la valeur prédictive positive. Dans [Friesdorf et al., 1999], les auteurs critiquent les systèmes de gestion de données qui ne sont capables que de récolter les données. Pour eux, la question clé est de pouvoir déterminer un état normal du patient. Ainsi tout comportement diérent serait considéré comme susceptible d'être alarmant : During a ward round, prolonged weaning attracts attention. Is this still a normal course or the rst symptom of a beginning lung insuciency ? How can we discover a disturbance within a normal patient's course ? What is normal ? This is a question which leads us to the discussion of protocol-driven treatment. Today's electronic data management systems are appropriate to collect data, but they are far away from generating alarms related to an expected normal course. Les systèmes de surveillance s'orientent donc vers une meilleure adaptabilité, une meilleure prise en compte de l'état global du patient et une capacité à mettre en exergue des comportements de normalité/anormalité du patient. Nous étudierons ces nouvelles voies dans le chapitre 2. Mais avant, il est important de préciser la particularité de la surveillance des patients en USIs. Nous allons à présent décrire les particularités des données habituellement accessibles en USIs et des connaissances expertes. Nous essaierons ensuite d'expliquer pourquoi le problème de surveillance de patients en salle de soins est spécique par rapport aux autres problèmes de surveillance, que ce soit dans le monde industriel ou médical. 1.3 Spécicité des données en USIs 1.3.1 Caractéristiques des données médicales Selon [Cios and Moore, 2002], les données provenant d'un patient sont les données les plus diciles à analyser. Outre leurs spécicités intrinsèques, que nous détaillerons dans les Chapitre 1 : LA SURVEILLANCE EN UNITÉS DE SOINS INTENSIFS 11 cas des USIs, elles sous-tendent des particularités d'ordre éthique, économique et sociale. Plusieurs problèmes se posent : - L'anonymat des données : c'est le plus simple à résoudre du moins dans le cas des USIs ; il sut de coder le nom du chier. - La propriété des données : à qui appartient les chiers de données ? Peut-on les partager facilement ? Pour l'instant, il semble que non et la disponiblité de données est certainement le plus gros problème lorsque l'on veut traiter des données médicales. L'idéal serait de pouvoir déposer toutes les données sur diérents sites et de pouvoir les récupérer à tout moment (encore, faudrait-il qu'elles soient harmonisées et documentées (contexte d'acquisition,. . .)). - Les caractéristiques intrinsèques des données médicales : incertitude, imprécision, haute dimensionalité, ambiguïté. Nous développerons ces caractéristiques dans le contexte des USIs dans la section 1.3.2. - La spécicité des connaissances médicales : incertitude, interprétation suceptible d'être erronée, notion de temporalité dicilement formalisable et des liens mal dénis entre les données. Nous développerons ces caractéristiques dans le contexte des USIs dans la section 1.4.1. 1.3.2 Caractéristiques des données d'USIs Les données obtenues en salle de soins ont de nombreuses caractéristiques et autant de problématiques associées. Suivant les services et les habitudes des praticiens, elles ne sont pas identiques d'un service à l'autre. Même si certains signaux physiologiques sont unanimement surveillés quelques soient le praticien et les machines utilisées comme l'électrocardiogramme par exemple, d'autres sont spéciques aux habitudes particulières des praticiens (ou à la disponibilité de certains moniteurs). Ensuite, suivant la thérapeutique appliquée au patient, toutes les données ne sont pas disponibles continuellement ou, au contraire, d'autres sont nécessaires et de nouveaux capteurs doivent être introduits dans le système de surveillance. Hormis ces particularités, les données d'USIs ont des caractéristiques intrinsèques comme la haute dimensionnalité, l'incertitude, l'imprécision, et l'ambiguïté que nous allons détailler ci-après. 1.3.2.1 Haute dimensionnalité Les données d'USIs sont temporelles, et ont une fréquence d'acquisition très élévée. Elle est de l'ordre de la mesure par seconde et la surveillance d'un patient peut durer jusqu'à plusieurs semaines . . . En USIs, la surveillance d'un patient peut impliquer la prise en compte d'un nombre considérable de variables : les paramètres physiologiques, les paramètres de réglage des machines, les données provenant des laboratoires, les médicaments. . . Le personnel médical se retrouve alors à devoir ingérer, analyser et éventuellement décider d'une action à entreprendre à partir d'une multitude d'informations. Ces deux caractéristiques justient amplement la notion de haute dimensionnalité attribuée aux données d'USIs. Le ux de données reste considérable et les algorithmes de traitement doivent en tenir compte. 12 Chapitre 1 : LA SURVEILLANCE EN UNITÉS DE SOINS INTENSIFS 1.3.2.2 Incertitude An de discerner clairement les notions d'incertitude et d'imprécision, nous allons nous appuyer sur les dénitions données par Isabelle Bloch dans [Bloch and Maître, 1994] : [. . .] L'incertitude est relative à la vérité d'une information, caractérisant sa conformité à la réalité. Ainsi, la notion d'incertitude peut être rapprochée de la conance attribuée à une information. L'incertitude se réfère au manque d'information sur l'état du monde pour déterminer si une déclaration booléenne est eectivement vraie ou fausse [Bloch and Hunter, 2001]. Cette conance dans les données médicales est problématique. En eet, l'incertitude est omniprésente lorsqu'il s'agit de modéliser ou du moins d'expliquer le comportement d'un patient. Elle peut être la conséquence de plusieurs facteurs : - le pré-traitement : des machines assistant le patient en salle de soins (voir gure 1), plusieurs sortes de données sont disponibles : des signaux physiologiques et des valeurs numériques échantillonnées. En général, les valeurs numériques proviennent des signaux physiologiques comme la fréquence cardiaque de l'ECG par exemple (voir annexe A). Ce calcul est, la plupart du temps, eectué directement par les machines au lit du patient et l'accès aux algorithmes n'est pas disponible. De plus, ces algorithmes dièrent d'une marque à une autre. - les variables cachées : de nombreux facteurs ne peuvent être quantiables, voire même numérisés. Un médecin, en rentrant dans la chambre du patient, peut avoir une impression ou intuition sur l'état du patient par les odeurs, la couleur de la peau. . . - les relations entre paramètres : les liens entre les paramètres sont dicilement quantiables et mal connus des experts mais nous nous rapprochons ici de la notion de connaissance experte que nous développerons plus tard. 1.3.2.3 Imprécision Dans [Bloch and Maître, 1994], l'imprécision est attachée à une anomalie quantitative : L'imprécision concerne le contenu de l'information et porte donc sur un défaut quantitatif de connaissance, sur une mesure [. . .]. [. . .] Une proposition peut être imprécise (cette homme est grand), incertaine (cette lettre arrivera demain) ou à la fois imprécise et incertaine (il pleuvra beaucoup demain). L'imprécision se réfère au contenu de l'armation considérée et dépend de la granularité du langage utilisé (par exemple, l'armation il a cinq ans est précise seulement si l'on veut un âge en années et imprécise si l'on veut un âge en mois) [Bloch and Hunter, 2001]. L'imprécision des données d'USIs peut provenir de plusieurs facteurs : Le bruit : Par exemple, il peut sure que le patient bouge un membre pour modier les valeurs du paramètre acquises par un capteur. Des mesures imprécises : La surveillance du patient consiste principalement en la surveillance de l'évolution de son comportement. Ainsi, le personnel soignant s'attache surtout à considérer l'évolution de chaque paramètre surveillé. Il tiendra compte de l'augmentation d'un paramètre au cours de la dernière demi-heure par exemple. Le cas de l'électrocardiogramme est frappant. En surveillance, son obtention se fait par Chapitre 1 : LA SURVEILLANCE EN UNITÉS DE SOINS INTENSIFS 13 l'intermédiaire de trois capteurs. Mais, si le médecin ou l'inrmier veut une valeur précise, il rajoutera des capteurs an d'en avoir huit pour augmenter la précision et la qualité de la mesure. La précision de mesure peut être faible voire même très faible ; elle peut atteindre 20% pour certains paramètres. Néanmoins, les notions d'incertitude et d'imprécison sont souvent dicilement dissociables et classer les données en ces termes peut être sujet à discussion. Comme le notent les auteurs de [Bloch and Hunter, 2001] : Generally, a balance exists between uncertainty and imprecision : the more imprecise the statement, the more certain we are about it, and conversely, the more precise the statement, the more uncertain we are (with respect to a given state of available information). 1.3.2.4 Ambiguïté Les données peuvent être interprétables de plusieurs manières. Ici, ce sont bien les données qui sont ambigües et non l'interprétation. Nous aborderons plus tard les problèmes liés aux connaissances expertes. Par exemple, une chute de la saturation en oxygène peut correspondre à au moins deux événements : une déconnexion du capteur ou une désaturation. Une instabilité sur un paramètre peut correspondre à du bruit, à une angoisse du patient, à un signe clinique important ou non, à un changement de thérapeutique. . . Dans bien des cas, pour un même changement d'évolution ou d'état du paramètre, plusieurs interprétations sont possibles et seule une analyse a posteriori de tous les paramètres par les experts médicaux peut permettre de discriminer ces interprétations. 1.4 Spécicité des connaissances médicales en USIs 1.4.1 Caractéristiques de la connaissances médicale La diculté de la formalisation de la connaissance médicale permet de qualier la médecine de science non exacte. Elle est engendrée par l'incertitude des connaissances, ce qui implique un raisonnement dicilement transcriptible et reproductible. Ceci est d'autant plus vrai que le taux d'erreurs de diagnostic n'est pas négligeable (puisqu'il est indissociable du raisonnement humain). 1.4.1.1 L'incertitude en médecine La médecine est un domaine où la connaissance experte est dicilement formalisable. L'interprétation de l'état du patient est sujette à l'appréciation du médecin. En eet, bien que reposant sur des connaissances apprises, l'interprétation est anée, améliorée par l'expérience, l'intuition que l'expert aura su développer grâce à son expérience. L'incertitude, dans de justes proportions, est omniprésente quant à l'état du patient, son évolution, sa réaction à une thérapeutique . . . [Szolovits, 1995] : Uncertainty is the central critical fact about medical reasoning. Patients cannot describe exactly what has happened to them or how they feel, doctors and nurses cannot tell exactly what they observe, laboratories report results only with some degree of error, physiologists do not understand precisely how diseases alter 14 Chapitre 1 : LA SURVEILLANCE EN UNITÉS DE SOINS INTENSIFS the normal functioning of the body, pharmacologists do not fully understand the mechanisms accounting for the eectiveness of drugs, and no one can precisely determine one's prognosis. 1.4.1.2 Et le taux d'erreurs qui en découle . . . La médecine est un domaine [Morris, 2002]. . . in which there are available many more wrong responses than correct ones . . . Elle n'est pas à proprement parler une science exacte ; les situations sont rarement formalisables. Morris a très bien résumé cette notion dans [Morris, 2001] : Human decision-making limitations, perceptual inaccuracies, and variation in the use and in the interpretation of important clinical variables all make clinicians unable to consistently generate therapeutic decisions that are coherent, that consider all appropriate options, and that are based on the relevant scientic evidence. A cela, il faut ajouter le fait que l'interprétation experte est sujette à des erreurs [Morris, 2001] : Clinical error rates are common (about 1-50%). This is an expression of the general problem : that human error and injury are unavoidable. Even when ICU errors represent only 1% of clinical decisions and therefore indicate little room for personal improvement (in that 99% of decisions are correct), clinical ICU errors and injuries that threaten patient safety occur with distressing frequency. 1.4.2 Caractéristiques des connaissances associées aux USIs Outre les dicultés inhérentes au domaine médical en général, il faut rajouter certaines caractéristiques qui sont propres au domaine des USIs : la gestion d'un nombre important d'informations disponibles, de la notion de dynamique, de l'explicitation des relations entre plusieurs variables. 1.4.2.1 Un nombre important d'informations à traiter Le clinicien est confronté à une multitude d'informations (voir le paragraphe `Haute dimensionnalité de la page 11) qu'il doit intégrer, décompiler an de prendre une décision. De même, cette source importante d'informations l'empêche d'expliciter des connaissances intégrant autant de paramètres. Il est même tout à fait illusoire de penser qu'il est capable d'eectuer un tel exploit [Fried et al., 2002] (reprenant Miller dans [Miller, 1956]). While a physician can be confronted with more than 200 variables of the critically ill patients during a typical morning round, it is well-known that human beings are not able to develop a systematic response to any problem involving more than seven variables. 1.4.2.2 Une notion de temporalité à dénir Alors que les données sont acquises à une fréquence d'échantillonnage élevée, le personnel médical tient compte essentiellement de l'évolution de ces données. A partir d'une succession Chapitre 1 : LA SURVEILLANCE EN UNITÉS DE SOINS INTENSIFS 15 de données instantanées, il raisonne naturellement sur des intervalles de temps. Cependant, il ne s'agit pas d'un raisonnement pré-déterminé. La diculté du passage instantané/intervalle dans l'interprétation des données est d'une complexité importante [DeCoste, 1991] : Interpreting behaviour across a span of time is more dicult than interpreting behaviour at a single time. Tout le raisonnement nécessaire pour ce passage n'est pas objectif, dicilement reproductible. Un gros décalage existe entre la temporalité des données et le raisonnement du personnel médical. Ce dernier n'est pas capable de décrire la dynamique d'un paramètre à la seconde près, ce qui, d'aillleurs, n'est pas nécessaire dans un contexte de surveillance. 1.4.2.3 Des comportements du patient dicilement formalisables Bien évidemment des liens entre paramètres sont connus mais ils restent tout à fait ous. Par exemple, on sait que tel paramètre est lié à un tel autre. Mais ce lien n'est pas descriptible de façon précise (voir section précédente sur la temporalité par exemple). Outre ce manque de description formelle, la synthèse de toutes les données disponibles n'est pas possible pour un médecin malgré toutes les compétences qu'il peut avoir [Fried et al., 2002] : [. . .] humans are limited in their ability to judge the degree of relatedness between only two variables. De plus, il y a une réelle diculté à obtenir des représentations de toutes les situations des patients possibles. Malgré le fait que les données aient une haute dimension, elles ne couvrent pas toutes les situations puisque chaque patient a des réactions diérentes suivant sa morphologie, sa thérapeutique. . . Si on rajoute la pauvreté de la formalisation médicale, on comprend d'autant mieux l'incapacité des médecins à représenter des situations typiques de comportement du patient. 1.5 Bilan : Des caractéristiques particulières de la surveillance en USIs 1.5.1 Des données complexes et des connaissances incomplètes Nous avons vu les dicultés particulières liées aux données elles-mêmes et aux connaissances expertes disponibles. Pour résumer, la modélisation en USIs représente un vrai dé. Les données sont temporelles, de haute dimension, incertaines, imprécises et ambigües. Les connaissances du domaine sont diuses, incomplètes et non formalisables par les médecins. A ces deux points, il faut rajouter le fait qu'il est complexe de représenter des comportements typiques de patients puisque : Des données de haute dimension ne garantissent pas de reéter tous les comportements possibles des patients, en particulier à cause de leur éventail important. Les connaissances du domaine sont peu manipulables et peu transcriptibles ce qui gêne une telle représentation. 1.5.2 La surveillance : un équilibre entre les données et les connaissances ? Un système de surveillance d'un système dynamique est bien souvent construit à partir de données et/ou de connaissances ; l'équilibre de ces deux sources est même primordiale. 16 Chapitre 1 : LA SURVEILLANCE EN UNITÉS DE SOINS INTENSIFS Comme nous l'avons vu, les systèmes de surveillance en USIs sont très primaires. Ceci peut s'expliquer par la mauvaise qualité des données et connaissances du domaine. An de développer et argumenter la question de l'équilibre entre les données et les connaissances, nous allons à présent étudier d'autres systèmes de surveillance dans des domaines variés. Ceci nous permettra de mettre en avant le rôle véritable des données et connaissance dans la construction d'un système de surveillance. 1.6 Des systèmes de surveillance dans d'autres domaines Nous proposons une présentation succincte de quelques exemples de surveillance de systèmes dynamiques. Cette liste n'est pas exhaustive et met en avant simplement la diversité de ces applications. Nous verrons qu'elle nous permet tout de même d'en dégager certaines analogies ou dissemblances. Ainsi, elle souligne le fait qu'aucun problème de surveillance n'est le même ou du moins, que chaque problème de surveillance a des spécicités qui lui sont propres. Néanmoins, an d'en dégager une analyse pertinente pour situer notre travail, nous nous focaliserons sur les particularités liées à la nature des données d'entrée et à la disponibilité de connaissances a priori. Ces deux caractéristiques sont tout à fait capitales lorsque l'on a aaire à un problème de modélisation. Un tableau récapitulatif et très simplié est donné à la n de cette section. Nous commençons par étudier des systèmes dans le monde industriel puis nous terminerons par un exemple médical. 1.6.1 Surveillance de réseaux de télécommunications Dousson et al [Dousson and Duong, 1999] [Dousson, 2002] proposent un système de surveillance d'un réseau de télécommunications à partir d'un journal d'alarmes. Un journal d'alarmes consiste en la génération automatique et spontanée d'alarmes par les équipements du réseau et transmises jusqu'à un superviseur central. Ces journaux intègrent de nombreuses fausses alarmes qui sont dues aux automatismes du réseau. Elles doivent donc être ltrées an de ne garder que celles ayant un caractère véritablement informatif. Dousson et al proposent une méthodologie se basant sur l'idée que les phénomènes qui se répètent fréquemment peuvent permettre de réduire de façon signicative le nombre d'alarmes présentées à l'opérateur. Ainsi, les auteurs construisent des algorithmes permettant de découvrir des chroniques (ensemble d'alarmes contraintes temporellement entre elles) se répètant fréquemment. L'idée directrice est qu'une chronique est fréquente si toutes ses sous-chroniques le sont. Ensuite, ces chroniques sont ltrées en construisant un graphe de dépendances entre celles-ci an de ne garder que les plus pertinentes pour simplier l'analyse dans le processus de supervision. . . Pour ce faire, l'idée est que si une chronique est toujours incluse dans une autre chronique fréquente alors elle ne sera pas conservée. Enn, un expert qualie chaque chronique (parasite ou dysfonctionnement) découverte par les algorithmes qui sera alors montrée ou non dans le processus de supervision. Dans [Dousson, 2002], Dousson propose d'étendre la méthode proposée en 1999 an d'introduire la possibilité de compter les alarmes dans l'algorithme. Plusieurs occurrences d'alarmes peuvent être synonymes d'un problème et compter alors le nombre d'alarmes peut permettre de donner un ordre de grandeur de la sévérité du problème. De plus, certaines erreurs du système ne sont reconnaissables que par le comptage des alarmes. Chapitre 1 : LA SURVEILLANCE EN UNITÉS DE SOINS INTENSIFS Bilan 17 Il s'agit dans ces articles d'une analyse fréquentielle ; les journaux d'alarmes men- suels intégrent approximativement 40000 alarmes. Mais les situations de pannes rares ne sont pas détectées et l'on peut se demander si les scénarios les plus fréquents sont les plus pertinents. La faible quantité de connaissances a priori est compensée par une importante quantité de données. Les traitements ont été appliqués directement aux données (les alarmes associées à un temps d'occurrence) sans interprétation, ni transformation au préalable. Elles ont donc été considérées comme susamment informatives. Dans les exemples suivants, au contraire, les auteurs ont à disposition une expertise du domaine bien dénie par des classes de comportements normaux ou non, par exemple. En particulier, dans les deux problèmes de surveillance suivants, les données d'entrée sont simulées pour pallier la complexité des données brutes, ce qui nécessite une connaissance du domaine bien formalisée. 1.6.2 Surveillance d'un système pour la transformation du dioxyde de carbone Lerner et al [Lerner et al., 2002] présentent un système (Reverse Water Gas Shift system développé à la NASA), dédié à la transformation du dioxyde de carbone de l'atmosphère de Mars en oxygène. S'il est envoyé sur Mars, il devra agir seul, sans assistance humaine et donc posséder un système automatique de surveillance, et même de prédiction. La quantité de capteurs, le bruit engendré, des données obtenues à un grain de temporalité variable . . . en font un système complexe. Les auteurs modélisent alors les données an de nourrir un réseau bayésien dynamique. Ce réseau possède pour chaque instant 33 variables discrètes et 184 variables continues. Les variables discrètes sont toutes connues et correspondent aux réglages de contrôle et aux défauts des capteurs. Les variables continues sont les valeurs des éléments du système (température, composition des gaz). Les auteurs démontrent la faisabilité d'un tel réseau. Pour cela, ils comparent les prédictions de leur modèle avec les mesures réelles pour certains scénarios 2 . Les résultats obtenus sont encourageants et dans certains cas, le modèle est même capable de reconnaître des comportements complexes. Dans leur modèle, toutes les variables sont observables et ils envisagent de l'améliorer en incluant des variables cachées an de détecter des dysfonctionnements de composants. Bilan Dans cette application, les données brutes sont complexes mais la connaissance a priori dans ce domaine est bien dénie et l'état de fonctionnement régulier est modélisable. Ainsi, les auteurs peuvent modéliser les données en s'appuyant sur des modèles physiques courants. Il ne s'agit pas d'une recherche exploratoire au sens strict puisque les paramètres et leurs relations sont déjà établies. La diculté de leur projet réside principalement dans la faisabilité d'un tel réseau vu le nombre élevé de n÷uds et l'intégration de variables à granularités temporelles diverses. 2 état stable, état non stable, déconnexion de capteur, et les modications de la modélisation des capteurs (augmentation du bruit sur le modèle par exemple). 18 Chapitre 1 : LA SURVEILLANCE EN UNITÉS DE SOINS INTENSIFS 1.6.3 Surveillance de turbines à gaz Travè-Massuyès et al [Travé-Massuyès and Milne, 1997], présentent le système de surveillance en continu de turbines à gaz Tiger. Il permet en particulier à un ingénieur de revenir à ce qui a pu se passer durant la nuit ou à un moment où il n'était pas disponible. Tiger est constitué principalement de deux modules : un pour le diagnostic et un pour la détection de fautes. Ce dernier coordonne les conclusions du module de diagnostic. Celui-ci est composé de plusieurs sous-modules. L'ensemble de ces modules de diagnostic permet de déterminer des dysfonctionnements diérents. Un premier module consiste en la comparaison de chroniques, l'une dénie par l'utilisateur et l'autre provenant du système. Un deuxième module permet la comparaison de données simulées et d'un comportement normal modélisé et basé sur un modéle qualitatif. Lorsqu'un problème est diagnostiqué, une alarme est provoquée et l'ingénieur peut, grâce à une interface graphique, sélectionner les diérents dysfonctionnements évalués et recevoir les causes plus précises. Il peut même revenir aux données. Dans [Yu et al., 2001], Yu et al cherchent à améliorer le module de diagnostic. En eet, une turbine à gaz peut fournir jusqu'à 600 mesures de données par seconde. L'ingénieur chargé de la surveillance peut donc avoir du mal à assimiler cette quantité de données et à les comparer à des modèles pré-dénis. Les auteurs proposent une méthode pour résumer les données et sélectionner les événements importants. Ces résumés pourront aider les ingénieurs à comprendre la dynamique d'une grande quantité de données dicilement représentable sur un seul écran. Un algorithme sélectionne les événements importants à reconnaître. Un évènement est représenté par un pattern qui est lui-même représenté par une chronique. Les auteurs composent ensuite une classe de comportements normaux ou anormaux qui seront comparés aux données. Dans [Yu et al., 2002] , [Yu et al., 2003], Yu et al améliorent le système de visualisation des patterns 3 en donnant la possibilité de changer l'échelle 4 temporelle . L'évaluation est en cours mais les résultats préliminaires montrent une bonne reconnaissance des patterns. Bilan Dans cet exemple, le modèle formel du système physique est construit à partir de la connaissance sur le comportement du système. Cette connaissance consiste en l'élaboration de classes de comportements normaux et anormaux, ce qui caractérise une connaissance a priori importante du domaine ; elle est présente aussi dans l'élaboration des données simulées. Le ux de données est aussi important. Pour les derniers exemples, sont considérées comme données d'entrée, des données transformées ou interprétées. 3 Les patterns étant des patterns primitifs symbolisant des oscillations ou des changements de niveau. Les patterns changent d'aspect suivant leur échelle temporelle ; ils sont multi-niveaux. Une oscillation d'un paramètre détectée à une grande échelle peut s'avérer être des changements de niveau à une plus petite échelle par exemple. 4 Chapitre 1 : LA SURVEILLANCE EN UNITÉS DE SOINS INTENSIFS 1.6.4 19 Surveillance d'une usine de traitement des eaux usées Dans [Cortés et al., 2002] et [Rodriguez-Roda et al., 2002], il s'agit de la supervision et du contrôle des opérations d'une usine de traitement des eaux usées. Le système implémenté intégre des algorithmes avancés de contrôle basés sur la connaissance heuristique et sur un raisonnement à partir de cas dans une architecture hybride. Les données en temps réel du système sont des signaux numériques (120) et analogiques (20). Les données en diéré comportent des informations numériques et qualitatives jusqu'à 158 variables (comme des analyses de laboratoire par exemple). L'architecture hybride repose sur un système expert et un système basé sur des cas. Pour le premier, les données sont transformées 5 par des méthodes statistiques classiques et mono-paramétriques puis le module de méta-diagnostic propose (à l'aide d'arbres) une stratégie pour résoudre le probléme posé. Pour le second, la stratégie est donc de comparer la situation courante à une base de cas et éventuellement de l'enrichir. Ces deux systèmes nourrissent ensuite un module de supervision et de prédiction en comparant leurs résultats. Le diagnostic nal est soumis à un expert qui décide de la meilleure stratégie à suivre. La validation du système global a été eectuée pendant quatre mois et montre un taux de 80% de bons diagnostics. Bilan Ce projet met l'accent sur une architecture hybride permettant une meilleure ap- préhension du problème. Ce système hybride consiste en deux modules ayant les propriétés suivantes : la possibilité de transformer les données brutes (qui sont présentes en grand nombre) pour nourrir le système et, l'accès à une grande quantité de connaissances a priori par le biais de la base de cas. 1.6.5 Surveillance de l'électrocardiogramme d'un patient Dans le but d'assister les médecins dans l'analyse des électrocardiogrammes, Carrault et al [Carrault et al., 1999], [Carrault et al., 2003] ont proposé un système pour l'aide à la reconnaissance d'arythmies cardiaques (anomalies de l'ECG). Un électrocardiogramme reéte l'activité du champ électrique induit par la fonction cardiaque. Pour la mesurer, plusieurs électrodes sont nécessaires que l'on appelle voie (pour plus de détails voir le mémoire de DEA de Fildier [Fildier, 2001]). Les données dont les auteurs disposent sont des valeurs symboliques (normal,. . .) sur les diérentes ondes (P, QRS,. . .) de l'électrocardiogramme. Le système proposé apprend des règles caractérisant des arythmies grâce à un apprentissage 6 par programmation logique inductive . Cet apprentissage est eectué à partir de données multi-sources provenant de voies diérentes. Deux méthodologies basées sur une problématique de fusion de données sont proposées dans [Fromont et al., 2004] : agréger les informations provenant des diérentes sources pour obtenir une base d'apprentissage ou apprendre séparément les régles sur chaque source puis fusionner les règles obtenues. Les résultats sont prometteurs et une étude plus approfondie de la fusion de ces données est en cours an d'améliorer la pertinence des résultats. 5 en données symboliques La programmation logique inductive consiste en une théorie initiale B (connaissance a priori ) et des exemples E ; l'objectif est de produire une théorie H (hypothèses) qui explique avec B, des propriétés de E [Lavrac, 1998]. 6 20 Chapitre 1 : LA SURVEILLANCE EN UNITÉS DE SOINS INTENSIFS Bilan Dans cet exemple, on peut remarquer tout d'abord que les données d'entrée du sys- tème ne sont pas des données issues directement des capteurs. Un travail de transformation et d'interprétation a déjà été produit. La base de données est importante ; elle comprend les chiers de 72 patients, pouvant avoir une durée de plus de 40 heures 7 . Ensuite, comme nous l'avons signalé, la programmation logique inductive nécessite des connaissances a priori précises et une base d'exemples positifs et négatifs. 1.6.6 Comparaison des diérents systèmes de surveillance répertoriés Bien que les applications et les modèles d'apprentissage soient très diérents, nous avons tenté de les comparer suivant des critères généraux, qui sont les caractéristiques des données d'entrée et la connaissance disponible pour construire le modèle (voir tableau 1.1). 7 Et la période d'échantillonnage d'un ECG est de l'ordre du centième de seconde. 21 Chapitre 1 : LA SURVEILLANCE EN UNITÉS DE SOINS INTENSIFS Systèmes Données Données Données Quantité Connais- de brutes transfor- modéli- de sances mées sées connais- formali- sances sées don- nées Réseaux Connaissance a priori Données d'entrée Quantité élevée oui non non faible non élevée non non oui élevée oui élevée non non oui élevée oui élevée non oui non élevée oui élevée non oui non élevée oui de télécommunications Transformation du CO2 Turbines à gaz Traitement des eaux usées ECG Les diérents systèmes de surveillance suivant les données d'entrée, la connaissance. Au niveau des données d'entrée, la comparaison se fait suivant plusieurs caractéTab. 1.1: ristiques : la quantité de données nourrissant le modèle et la qualité des données (brutes, modélisées ou simulées, transformées ou interprétées). Par quantité de données, on entend non pas le nombre de variables mais le nombre de mesures de chaque variable. On remarque que pour les systèmes dont les données d'entrée sont modélisées, leur quantité est décidée par les utilisateurs ; c'est pourquoi nous l'avons qualiée d'élevée. Pour la connaissance, on considère la quantité de connaissance et sa qualité, à savoir si elle est formalisable. Au vu de ce tableau, nous pouvons tirer quelques remarques. Pour la plupart, la connaissance a priori du domaine est bien connue et formalisable, c'est à dire directement utilisable. Pour toutes ces applications, la quantité de données disponibles est élevée. Seul la modélisation des réseaux de télécommunications utilise les données brutes ; les autres considèrent des données modélisées ou interprétées. A partir de ces simples remarques, nous pouvons en déduire certains points. En particulier : Lorsque la connaissance a priori est faible (voir exemple sur la modélisation des réseaux de télécommunications), une grande quantité de données peut permettre une analyse statistique des données d'autant que ces dernières sont très informatives (et donc ne nécessitent pas de transformation). Lorsque la connaissance a priori est importante et formalisable, elle permet de compenser les problèmes liés aux données comme le bruit, l'imprécision (voir exemple sur la modélisation d'un système pour la transformation du dioxyde de carbone) . . . par la possibilité de leur simulation. La transformation des données est rendue nécessaire lorsque les données brutes ne sont pas considérées comme susamment expressives ou informatives. La conance 22 Chapitre 1 : LA SURVEILLANCE EN UNITÉS DE SOINS INTENSIFS attribuée en cette interprétation des données est assurée par la connaissance a priori importante et par la quantité de données brutes 1.6.7 8. Où l'on envisage d'autres systèmes de surveillance pour les USIs Pour résumer brièvement, on peut dire que, en général, lorsque les données ne sont pas ou peu informatives, la connaissance a priori du domaine peut compenser ce manque. Par contre, lorsque les données brutes sont en grand nombre ou/et informatives, la recherche d'un modèle d'apprentissage peut se faire de manière exploratoire. De manière très grossière, il nous semble qu'un système d'apprentissage pour la surveillance d'un modèle dynamique repose sur un équilibre entre les qualités des données et des connaissances. Mais qu'en est-il lorsque cet équilibre n'est pas présent comme en USIs ? Dans le chapitre suivant, nous décrivons les techniques de surveillance ou du moins les recherches vers des systèmes de surveillance spéciques aux USIs. Ces dernières proposent une voie tout à fait originale (par rapport aux autres systèmes de surveillance) vers une surveillance appropriée au contexte des USIs, qui facilitent l'acquisition des données et la formalisation des connaissances. 8 Mais pour l'exemple de la surveillance de l'électrocardiogramme, elles sont fournies déjà transformées. Chapitre 1 : LA SURVEILLANCE EN UNITÉS DE SOINS INTENSIFS 23 Bilan : un système de surveillance particulièrement dicile à modéliser ! La surveillance en USIs, de par ses spécicités (tant au niveau des données que des connaissances), est complexe puisque : - Elle est exploratoire ; les connaissances du domaine sont incomplètes et limitées. - Les données sont complexes par bien des aspects (haute dimensionnalité, . . .). - La représentation de comportements typiques du patient n'est pas réalisable à cause du manque de formalisation des connaissances et de l'insufsance de données reétant le même comportement. Ces caractéristiques poussent le développement de méthodes particulières que l'on détaille dans le chapitre suivant. 24 Chapitre 1 : LA SURVEILLANCE EN UNITÉS DE SOINS INTENSIFS Chapitre 2 DES VOIES VERS DES SYSTÈMES DE SURVEILLANCE PLUS PERTINENTS EN USIs ? Vers la standardisation des pratiques médicales Dans ce chapitre, nous présentons les moyens mis en ÷uvre pour une standardisation de la surveillance en USIs : la mise en place de protocoles. Nous étudierons leurs avantages et leurs inconvénients. Nous détaillerons un protocole spécique pour le sevrage, qui est une étape primordiale dans les USIs. Enn, nous introduirons les moyens d'informatiser ces protocoles ; cette informatisation permet de pallier les inconvénients des protocoles en langage naturel décrits par les médecins. Nous introduirons la notion de scénario qui est primordiale pour l'informatisation des protocoles informatisés. Nous dégagerons enn la problématique de notre travail. Dans le chapitre précédent, nous avons vu que la surveillance de patients en anesthésie-réanimation consiste principalement en l'acquisition, le stockage et la visualisation des données [Dojat and Brochard, 2001]. Les médecins ont commencé ces dernières années à mettre au point des protocoles thérapeutiques an d'essayer d'unier et de standardiser les soins des 26 Chapitre 2 : DES VOIES VERS DES SYSTÈMES DE SURVEILLANCE PLUS PERTINENTS EN USIs ? patients. Mais ces protocoles sont construits en langage naturel et des recherches ont été eectuées an de les informatiser : cette informatisation est tout à fait envisageable d'un point de vue pratique puisque la surveillance en USIs engendre l'acquisition de données de haute dimension, comme nous avons pu le voir. Par ailleurs, le développement des protocoles permet : (1) D'une part, la mise en place d'un recueil de données. Les données sont automatiquement enregistrées, et peuvent l'être en grand nombre : les recueils d'un même protocole assurent l'homogénéisation des données puisqu'elles sont acquises dans le même contexte (en particulier, parce que le protocole nécessite de sélectionner les patients suivant un même prol). La possiblité qu'elles reètent le même type de comportement est d'autant plus grande. (2) D'autre part, d'aider à la formalisation des connaissances. Elle est même l'élément essentiel de la construction des protocoles, elle est aussi facilitée par la contextualisation du protocole qui réduit l'espace des connaissances. Ainsi, les protocoles permettent de faciliter la formalisation des connaissances et l'acquisition des données. Ces deux aspects rendent possible une homogénéisation des données et connaissances (puisqu'elles sont contextualisées) ce qui permet un meilleur équilibre qualité et/ou quantité. Ce chapitre est donc centré sur les protocoles (ce en quoi ils consistent) et leur informatisation éventuelle avec quelques débuts encourageants. Cependant, nous n'oublions pas la perspective de construction d'alarmes intelligentes. Dans la première section, nous dénissons les protocoles et dans la deuxième, nous présentons l'exemple du protocole de sevrage. Ensuite, la troisième section présente l'informatisation des protocoles, en quoi elle facilite et améliore le suivi des patients. Des exemples de représentation de protocoles informatisés sont présentés. La notion de scénario est introduite. Dans la quatrième section, nous développons le rôle des scénarios dans les protocoles informatisés. Enn, nous nissons par la problématique du travail de thèse. 2.1 La mise en place de protocoles Dans cette section, nous dénissons ce que sont les protocoles ou guidelines, dans quelles circonstances ils peuvent être utilisés et enn, pourquoi ils permettent eectivement une amélioration de la surveillance. 2.1.1 Qu'est-ce qu'un protocole ? Les guidelines ou protocoles reètent une pratique consensuelle et ont été proposés pour standardiser le processus de prise de décision et pour réduire les variations inutiles de raisonnement entre les praticiens [Morris, 2001]. Les protocoles sont rédigés en langage naturel et interprétés par les médecins. Ils consistent en une pratique standardisée, suivant une ligne conductrice dénie préalablement. Par exemple, un protocole de sevrage de la ventilation mécanique, déni habituellement par les médecins, consiste en plusieurs étapes (voir gure 2.2). Chaque patient est soumis à une série de tests, puis il est soumis à une ventilation plus douce puis sevré. Le protocole de sevrage présenté dans la gure 2.2 est construit de la manière suivante : Chapitre 2 : DES VOIES VERS DES SYSTÈMES DE SURVEILLANCE PLUS PERTINENTS EN USIs ? Fig. 2.2: 27 Un exemple de protocole de sevrage d'après [Esteban and Alia, 1998] Tous les patients susceptibles d'être sevrés passent de nombreux tests de type quanti- = tatif sur des paramètres physiologiques (f VT correspond au quotient de la fréquence respiratoire sur le volume courant) et des tests qualitatifs quant au comportement du patient (éveillé ou non, angoissé ou non). Si les tests sont négatifs, on ne fait pas de tentative, le patient reste en ventilation mécanique et sera re-testé ultérieurement. Si les tests sont positifs, on le place sous ventilation spontanée (VS) à l'aide d'une pièce en T ou d'une aide en pression. Si le patient ne supporte pas très bien cette ventilation, il va lui être préconisé un sevrage progressif qui va consister en un essai de deux heures avec par exemple une aide en pression plus importante. Ensuite, il est extubé et récupère une ventilation autonome. Si dès le départ, le patient supporte bien l'essai de ventilation spontanée, il est extubé rapidement. Dans ces deux cas, on a une réussite du protocole de sevrage. Mais le patient devra respirer par luimême pendant au moins 24 heures avant de pouvoir dire que le sevrage est réussi. Le protocole peut très bien réussir mais quelques heures plus tard, le patient montrant des problèmes respiratoires, doit être replacé sous ventilation mécanique. 28 Chapitre 2 : DES VOIES VERS DES SYSTÈMES DE SURVEILLANCE PLUS PERTINENTS EN USIs ? 2.1.2 Une amélioration de la surveillance ? Le suivi de protocoles a un réel impact sur l'amélioration de la prise en charge des patients en USIs. Il permet une meilleure ecacité des soins dans la mesure où leur standardisation permet leur uniformité. Tout le personnel soignant en charge (inrmiers, médecins, kinésithérapeutes,. . .) suivra le même protocole pour le même patient et leur approche thérapeutique aura ainsi le même but connu de tous. Cette pratique diminue ainsi les variations quant au traitement attribué au patient. Dans [Burns et al., 2003], Burns et al proposent une étude de l'eet du suivi de protocoles dans cinq services d'anesthésie-réanimation. Ils montrent que : This institutional approach to the care of patients ventilated >3 days improved all clinical and nancial outcomes of interest. Les auteurs notent une diminution de la durée de la ventilation mécanique ; les patients sont plus rapidement sevrés, ils recouvrent plus rapidement une ventilation autonome. Comme nous le verrons plus tard, moins un patient est longtemps ventilé mécaniquement moins il a des séquelles physiques et physiologiques. Sa durée d'hospitalisation sera alors plus courte. La mortalité est aussi moins importante. Ces caractéristiques sont répertoriées dans l'étude de [Burns et al., 2003]. Elle porte sur 510 patients témoins et 590 patients surveillés à l'aide d'un protocole et d'une personne chargée exclusivement du bon suivi du protocole. Clinical data for the ve units combined demonstrate a statistically signicant decrease in vent days, ICU and hospital LOS (length of stay), and mortality rate [. . .]. Median vent days declined from 10 to 9 days ; median ICU LOS declined from 15 to 12 days ; and total hospital LOS declined from 22 to 20 days. Ainsi, vu le coût important de la prise en charge d'un patient dans un service d'anesthésie-réanimation, les économies conséquentes ne sont pas négligeables. Toujours dans l'étude [Burns et al., 2003], les auteurs montrent une nette diminution des coûts : The reduction in ICU LOS and overall hospital LOS resulted in substantial institutional cost savings. Direct and total cost gures were generated by our institution's cost accounting system to estimate savings related to the interventions. Total costs attributed to the LTV (long-term ventilation) population declined by approximately $3 millions for the rst year of the OM (outcome managers) intervention. 2.1.3 Dicultés de la mise en place des protocoles Même si les bénéces des protocoles sont incontestables, il y a peu d'études sur leur suivi, leur mise en application [Burns et al., 2003] : [. . .] we have little information on the sustainability of practice change initiatives using protocols and guidelines previously applied sucessfully during a study interval. Dans [Burns et al., 2003], Burns et al préconisent la présence d'une personne responsable uniquement de la bonne mise en place et du suivi consciencieux du protocole. Cette condition est primordiale à leurs yeux pour pouvoir faire une étude ultérieure sur les bénéces engendrés par ces pratiques : Chapitre 2 : DES VOIES VERS DES SYSTÈMES DE SURVEILLANCE PLUS PERTINENTS EN USIs ? 29 Early in the project we realized the need for someone to be responsible for pathway and guideline adherence, as well someone responsible for data collection, if the project goals were to be realized. Cette personne doit s'assurer que les diérentes étapes du protocole sont appliquées dans de bonnes conditions et de manière adéquate. Puisqu'il n'est pas possible de deviner à l'avance le comportement du patient et ses réactions, le chemin n'est pas toujours prédictible et en particulier lorsque son état se complique et qu'il est nécessaire de faire un nouveau diagnostic. Ainsi la personne en charge suit les recommendations du protocole et adapte la thérapeutique en fonction. 2.1.4 Des protocoles contextuels ? Les guidelines ou protocoles nécessitent de dénir un contexte précis d'utilisation et ne peuvent, à l'heure actuelle, être applicables que dans certaines situations. Autrement dit, il faut restreindre l'espace de recherche pour les décrire et leur utilisation ne peut donc être eectuée que dans un certain contexte. Diérentes situations s'y prêtent bien comme le sevrage de la ventilation mécanique que nous décrivons dans la section suivante. 2.2 Le protocole de sevrage Nous allons à présent détailler une étape importante en réanimation médicale : le sevrage. C'est une étape primordiale puisqu'il s'agit de sevrer le patient de la respiration articielle dans les meilleures conditions. Comme nous l'avons vu dans la section 2.1.2, un sevrage fait dans de bonnes conditions a de nombreux avantages puisqu'il permet une diminution de la durée de ventilation mécanique. Et, cette diminution implique des bénéces pour le patient et pour la santé publique en terme d'économie des dépenses. Les enjeux du sevrage seront détaillés dans la section suivante. Outre l'importance de ces deux points, le sevrage a l'avantage d'avoir été souvent étudié dans la littérature : il existe à ce jour beaucoup de protocoles de sevrage. Ces protocoles diffèrent principalement par la forme (thérapeutique diérente, modes de ventilation diérents, . . .) mais le fond reste à peu près identique (nombre d'étapes, . . .) (voir section suivante). Néanmoins, il reste plusieurs problématiques primordiales comme, par exemple, le choix du moment où débuter le sevrage (voir section 2.2.1.2). De plus, durant la phase de sevrage, de nombreux événements ont lieu (puisque le patient est stimulé par des changements de modes de ventilation . . .) comme des alarmes ou des soins ,. . . dans un temps limité. Cet état de fait permet donc de pouvoir étudier les réactions du patient à des stimuli dans un temps raisonnable. Toutes ces raisons nous ont poussés à étudier le sevrage et à contextualiser notre travail. 2.2.1 Présentation du sevrage : dénition, protocole, dicultés Ce chapitre est inspiré de l'article [Richard et al., 2001] publié dans la revue spécialiste Réanimation en 2001. 30 Chapitre 2 : DES VOIES VERS DES SYSTÈMES DE SURVEILLANCE PLUS PERTINENTS EN USIs ? 2.2.1.1 Dénition La ventilation mécanique est associée à la survenue de complications dont l'incidence est d'autant plus grande que la durée de l'intubation est plus longue. La ventilation mécanique est par dénition invasive. A l'aide d'une sonde, de l'air est insué au patient. Plusieurs modes de ventilation mécanique existent mais les principaux sont une ventilation à pression ou à débit constant. Les cycles respiratoires peuvent être totalement (début, durée, n), ou partiellement (début déclenché par le patient) imposés par le ventilateur. Les premiers sont appelés des modes contrôlés et les seconds des modes assistés. Le fait d'imposer un mode respiratoire ne doit pas être prolongé plus que nécessaire puisqu'il est contraignant au niveau de tout le système respiratoire du patient. Comme le soulignent les auteurs de [Richard et al., 2001], [. . .] souvent la ventilation mécanique est inutilement prolongée comme en atteste le faible pourcentage de réintubations des patients extubés de manière non programmée et l'impact favorable de la mise en place d'un protocole de sevrage. A l'inverse, l'échec d'une extubation programmée est responsable d'une augmentation de morbidité et de mortalité. Ainsi, un protocole de sevrage se divise, en général, en trois parties. La première consiste à faire passer des tests au patient (angoisse du patient, valeur de paramètres, . . .). En cas de réussite de ces tests, la deuxième étape est la mise en ventilation spontanée du patient où il peut respirer d'une manière plus naturelle. Si cette étape est réussie, le patient respire par lui-même. Le sevrage est dit réussi si le patient peut respirer de façon autonome pendant au moins 48 heures. En cas d'échec, il est replacé sous ventilation mécanique jusqu'à un autre essai (voir gure 2.2 pour un exemple de protocole de sevrage). 2.2.1.2 Les dicultés du protocole de sevrage Cependant, les étapes du sevrage sont encore mal dénies. Suivant les thérapeutes, les tests d'entrée ne sont pas les mêmes, la ventilation spontanée n'a ni une durée ni un mode dénis. Plusieurs protocoles de sevrage sont référencés (voir par exemple [Weavind et al., 2000], [Esteban and Alia, 1998], [Ely, 1996], [Ely et al., 1999]). Des questions restent toujours d'actualité : - Quand débuter le sevrage de la ventilation mécanique ? - Peut-on prévoir que le sevrage de la ventilation mécanique sera dicile ? - Comment conduire le sevrage de la ventilation mécanique ? Dans le papier collectif [Collective Task, 2002], les auteurs proposent plusieurs recommandations pour une bonne conduite du sevrage, la première étant de déterminer les causes de la mise en place d'une ventilation mécanique. Recommendation 1. In patients requiring mechanical ventilation for 24 hours, a search for all the causes that may be contributing to ventilator dependence should be undertaken. This is particularly true in the patient who has failed attempts at withdrawing the mechanical ventilator. Reversing all possible ventilatory and non ventilatory issues should be an integral part of the ventilator discontinuation process. Chapitre 2 : DES VOIES VERS DES SYSTÈMES DE SURVEILLANCE PLUS PERTINENTS EN USIs ? 31 La deuxième recommandation est la mise au point de tests pour arrêter la ventilation mécanique et débuter le sevrage. Ils impliquent des critères généraux et des critères respiratoires. La possibilité d'un sevrage doit être envisagée tous les jours, et ce, le plus tôt possible durant le séjour du patient en USIs. Elle doit suivre un protocole déni. Cependant, le sevrage ne doit pas être envisagé de façon systématique [Ely et al., 1999] (daily screen est le nom donné aux diérents tests pour envisager le sevrage) : It is sometimes questioned whether a patient who has been on mechanical ventilation for a prolonged period of time needs to be slowly weaned from mechanical ventilation after having recovered from respiratory failure. Although not designed to address this issue, the current data show an inconsistent relationship between these two times. Some patients who passed the daily screen early developed complications (e.g., nosocomial pneumonia) which delayed their sucessful extubation, while others who were on mechanical ventilation for over 3 weeks were able to be removed from the ventilation quickly after naly passing the daily screen. Les conséquences d'un essai de sevrage prématuré peuvent amener des problèmes physiologiques d'importance pour le patient [Collective Task, 2002]) : Premature discontinuation (weaning) carries its own set of problems, including diculty in reestablishing articial airways and compromised gaz exchange. It has been estimated that as much as 42% of the time that a medical patient spends on a mechanical ventilator is during the discontinuation process. Un sevrage est déni comme dicile lorsqu'un premier essai de mise en ventilation spontanée a échoué ou lorsqu'une remise en ventilation mécanique est requise durant les 48 heures suivant l'extubation. Dénir une classe de patients à risque de sevrage dicile est un enjeu important puisque la ré-intubation est associée de manière indépendante à une augmentation de la morbidité [Richard et al., 2001]. Actuellement, un sevrage peut être classé comme dicile par des mesures d'indices respiratoires par exemple. Cependant, ces critères ne sont pas exhaustifs et peuvent nécessiter le rajout de capteurs non discriminants pour la surveillance. De plus, il s'agit de critères instantanés et ne suivant pas l'évolution du patient. Par exemple : De nombreux indices respiratoires ont été étudiés. L'indice le plus souvent pro- = posé est le rapport fréquence respiratoire sur volume courant (f Vt). L'existence = d'un f Vt >= 105, mesuré deux minutes après la mise en ventilation sponta- née sur tube en T, permettrait de détecter précocement les patients qui ne vont pas supporter l'épreuve de ventilation spontanée. Son intérêt est discutable tant au plan scientique que pratique. Sa valeur discriminante varie selon les études qui ont utilisé ce test de façon non standardisée sur des populations diérentes. Enn, le calcul de cet indice nécessite l'utilisation d'un spiromètre. Des critères prédictifs peuvent être avancés pour la diculté d'un sevrage comme l'encombrement des bronches du patient ce qui l'amènera à tousser souvent et les inrmiers à pratiquer des aspirations. Dans ces cas présents, la surveillance devra être accrue durant le protocole de sevrage. Dans [Ely et al., 1999], une étude est proposée sur le rôle de ces tests dans le succès ou non du sevrage. Les tests sont au nombre de cinq et concernent des valeurs numériques ou 32 Chapitre 2 : DES VOIES VERS DES SYSTÈMES DE SURVEILLANCE PLUS PERTINENTS EN USIs ? une appréciation du médecin : rapport de la pression partielle de l'oxygène dans le sang sur la fraction d'oxygène inspirée (PaO2/FIO2), la pression de n d'expiration positive (PEEP), le rapport de la fréquence respiratoire sur le volume courant, évaluation des réexes respiratoires (toux), traitement sédatif en cours. Ils montrent l'importance de cette phase de tests pour réussir le sevrage de la ventilation mécanique (75% des 151 patients ayant subi les tests sont extubés contre 29% des 149 patients n'ayant jamais été testés). Cependant, ils nuancent un peu leur propos en précisant que 25 patients ayant échoué aux tests ont pu quand-même être extubés avec succès. Une fois ces tests eectués et réussis, le patient doit être placé en ventilation spontanée avant d'être complètement sevré (recommandation 3). Recommendation 3. Formal discontinuation assessments for patients receiving mechanical ventilation for respiratory failure should be done during spontaneous breathing rather than while the patient is still receiving substantial ventilatory support. An initial brief period of spontaneous breathing can be used to assess the capability of continuing onto a formal SBT (Spontaneous Breathing Trial). The criteria with which to assess patient tolerance during SBTs are the respiratory pattern, adequacy of gaz exchange, hemodynamic stability, and subjective comfort. The tolerance of SBTs lasting 30 to 120 minutes should prompt consideration for permanent ventilator discontinuation. [Collective Task, 2002] Un exemple de ventilation est l'aide inspiratoire (AI). Elle est très souvent utilisée pour le sevrage. C'est un mode de ventilation dit assisté qui ne peut s'appliquer que chez des malades qui présentent une activité respiratoire spontanée. A cause de son principe de fonctionnement tout à fait particulier, l'AI est souvent considérée comme un mode d'assistance partiel plus physiologique que la ventilation où le débit est contrôlé (VAC). C'est pour cette raison que l'AI a très vite été proposée pour le sevrage de la ventilation. L'AI est un mode de ventilation assisté où le paramètre qui est réglé par le médecin est la pression (pression de consigne). Le ventilateur doit donc atteindre cette pression inspiratoire plus ou moins rapidement (notion de pente de montée en pression) et la maintenir pendant toute la phase inspiratoire. Lors de l'expiration, la pression retombe jusqu'au niveau de pression expiratoire positive (PEP) ou au niveau de la pression atmosphérique si la PEP est réglée à 0. La durée de ventilation spontanée doit être comprise entre 30 minutes et deux heures, pour la plupart des cas. La durée en cas d'un sevrage facile sera raccourcie mais devra être d'au moins 30 minutes. Durant cette étape, la capacité à respirer du patient doit être prise en compte puisqu'un échec de l'extubation peut se produire pour des raisons totalement différentes de celles causant un échec du sevrage (l'obstruction des voies aériennes supérieures, par exemple) (recommandation 4). Recommendation 4. The removal of the articial airway from a patient who has successfully been discontinued from ventilatory support should be based on assessments of airway patency and the ability of the patient to protect the airway. [Collective Task, 2002] La conduite du sevrage doit répondre à un protocole précis et la possibilité d'un sevrage doit être envisagée tous les jours (recommandation 5). Chapitre 2 : DES VOIES VERS DES SYSTÈMES DE SURVEILLANCE PLUS PERTINENTS EN USIs ? 33 Recommendation 5. Patients receiving mechanical ventilation for respiratory failure who fail an SBT should have the cause for the failed SBT determined. Once reversible causes for failure are corrected, and if the patient still meets the criteria [. . .], subsequent SBTs should be performed every 24 hours. [Collective Task, 2002] En cas d'échec du protocole, le patient doit être stabilisé avant un autre essai. Un changement de ventilation, en particulier le passage d'une ventilation contrôlée à une ventilation spontanée peut être la source d'un profond stress pour le patient. Recommendation 6. Patients receiving mechanical ventilation for respiratory failure who fail an SBT should receive a stable, nonfatiguing, comfortable form of ventilatory suport. [Collective Task, 2002] 2.2.2 Enjeux du sevrage Dans [Weavind et al., 2000], Weavind et al notent que près de 40% du temps total passé en USIs est dû au sevrage. De cette simple remarque, on peut facilement en déduire que n'importe quel moyen de réduire ce temps et ce, dans de bonnes conditions, sera bénéque pour le patient. Réduire la durée de présence en USIs est loin d'être évidente puisque : Une trop brusque diminution de l'assistance peut causer une fatigue excessive des muscles respiratoires et un stress additionnel au patient. D'autre part, le maintien sous ventilation mécanique a des impacts physiologiques, psychologiques et économiques. Les enjeux d'un sevrage réussi dans de bonnes conditions et précoce sont donc capitaux tant sur un plan médical, social, qu'économique [Ely, 1996]. Pour toutes ces raisons, le sevrage est un candidat tout à fait pertinent pour la construction correspondante de protocole informatisé [Collective Task, 2002] : Recommendation 8. Weaning/discontinuation protocols designed for nonphysician health care professionals (HCPs) should be developed and implemented by ICUs. Protocols aimed at optimising sedation should also be developed and implemented. 2.3 Vers des protocoles informatisés 2.3.1 Un meilleur suivi des patients grâce aux protocoles L'utilisation des protocoles permet une meilleure prise en charge des patients : 1. une prise de décision plus standardisée, 2. une thérapeutique mieux adaptée, 3. une baisse de la morbidité, 4. une diminution de la durée d'hospitalisation, 5. une baisse des coûts de la prise en charge des patients. Mais il reste quelques zones d'ombre à une bonne pratique des protocoles par l'existence : - de dicultés de standardisation des protocoles, - du besoin d'une personne chargée du bon suivi du protocole. 34 Chapitre 2 : DES VOIES VERS DES SYSTÈMES DE SURVEILLANCE PLUS PERTINENTS EN USIs ? La nécessité de l'informatisation des protocoles relève directement du besoin d'une standardisation de ces derniers. L'informatisation (au moins ponctuelle) permet réellement d'améliorer les protocoles en facilitant leur mise en ÷uvre par le respect des contraintes pour assurer une tâche, . . . Comme le souligne Morris dans [Morris, 2001], elle permet aussi une meilleure adaptation au patient et diminue les variétés possibles d'interprétation des 9 protocoles en langage naturel . Computerized protocols used for complex clinical problems can contain much more detail than is possible with textual guidelines or with parper-based ow diagrams. The increased detail allows the generation, at the point of care, of patient-specic therapy instructions that can be performed by dierent clinicians with almost no inter-clinician variability. Un point important à souligner est la possibilité de supprimer ou diminuer la présence d'une personne en charge de la bonne conduite du protocole. En outre, l'informatisation est rendue possible par la nature de l'environnement des USIs. La surveillance de patients permet techniquement un stockage d'une grande quantité de données numériques d'où la possibilité d'une analyse et d'un traitement éventuel de ces dernières. Cependant, en pratique, l'acquisition de données reste dicile (voir section 5.1, page 117. Nous citons ici Morris et reprenons son résumé de l'article [Morris, 2001] The excess information in complex ICU environments exceeds human decisionmaking limits, increasing the likelihood of clinical errors. Explicit decision-support tools have favourable eects on the clinician and on patient outcomes. They have been implemented in diverse clinical environments and have been successfully transferred and used in geographically dispersed ICUs that were not involved in their initial development. However, various human factors and the paucity of distributed electronic clinical databases impede the widespread distribution of clinical decision-support tools. Notwithstanding these challenges, the documented benet of the application of decision-support tools in the ICU and the rapid expansion of electronic ICU databases promise an increasingly favourable environment for the development, implementation, and use of computerized protocols to aid clinical decision-makers in the ICU. Partant de ce constat, beaucoup de recherches pour l'informatisation de protocoles sont en cours (voir section suivante) depuis quelques années. On peut citer par exemple, le Symposium on Computerized Guidelines and Protocols (CGP-2004) organisé dans le cadre de la conférence EuroMISE 2004 qui a eu lieu en avril 2004 en République Tchèque. Des chercheurs ont développé diérentes technologies pour l'informatisation de protocoles pour les soins cliniques. Ces technologies s'appuient sur plusieurs communautés qui vont de la communauté de l'intelligence articielle à celle de la médecine clinique. 9 Par exemple, diérentes interprétations des signes de défaillance du patient (voir le protocole présenté sur la gure 2.2) sont possibles. 35 Chapitre 2 : DES VOIES VERS DES SYSTÈMES DE SURVEILLANCE PLUS PERTINENTS EN USIs ? 2.3.2 Pourquoi des protocoles informatisés ? L'informatisation des protocoles permet d'améliorer encore les avantages des protocoles car elle assure : Une standardisation des termes médicaux Par exemple, dans un protocole de sevra- ge, les médecins tiennent souvent compte du stress du patient. Mais ce terme reste ou, ou tout du moins très subjectif et dépend entièrement de l'appréciation du médecin. Une standardisation des pratiques des diérents médecins et services De la mê- me manière que les protocoles permettent une diminution des variations de traitement sur un patient, leur informatisation pourra engranger une baisse des variations des traitements d'un patient à l'autre et des pratiques des médecins. Une optimisation des stratégies thérapeutiques pour les patients L'informatisa- tion des protocoles permet de prendre en compte directement et immédiatement les valeurs numériques des paramètres physiologiques surveillés et leur évolution. Cette informatisation n'est pas un obstacle à un traitement personnié du patient ; elle standardise simplement le processus de décision des médecins [Morris, 2002] : Reducing clinician variability might seem to challenge the importance that clinicians assign to individualized (patient-specic) therapy. Unexpectedly, individualization of patient therapy is preserved when clinical decisions are standardized with explicit, detailed, patient-data-driven, computerized protocols. 2.3.3 Comment informatiser des protocoles ? Des recherches sur les protocoles informatisés sont en cours depuis quelques années ([Shahar et al., 1998], [Tu and Musen, 1999], [Peleg et al., 2000], [Quaglini et al., 2001], . . .). Pour une étude comparative des résultats obtenus, nous invitons le lecteur à la lecture de [Peleg et al., 2003]. Cependant, cette informatisation ne va pas de soi et nécessite de résoudre de nombreux problèmes, en particulier de tenir compte de la dimension temporelle des protocoles. Certaines recherches actuelles se concentrent sur la représentation des protocoles an d'aider les médecins à formaliser leurs connaissances. Dans [Clerq et al., 2004], De Clerq et al soulignent le fait que ces recherches se focalisent plus sur leur représentation et leur développement que sur leur implémentation éventuelle directement en salle de soins. Nous présentons dans cette section deux approches pour la représentation des protocoles. Cette présentation est loin d'être exhaustive. Elle a pour principe de nous familiariser avec la problématique de l'informatisation des protocoles. Le premier est un modèle de représentation générique de protocoles qui est actuellement en cours d'implémentation et le second, déjà utilisé en routine clinique, implémenté dans un ventilateur [Mersmann and Dojat, 2004]. Nous allons nous attarder sur le projet ASGAARD an de mettre en avant les diérentes problématiques qui découlent de la construction d'un guideline. Puis, nous introduirons succinctement la mise au point d'un système appelé NéoGanesh pour l'informatisation de protocoles de sevrage qui nous permettra d'introduire la notion de scénario. 36 Chapitre 2 : DES VOIES VERS DES SYSTÈMES DE SURVEILLANCE PLUS PERTINENTS EN USIs ? 2.3.3.1 ASGAARD : un exemple de représentation de guideline 10 [Shahar et al., 1998], [Seyfang et al., 2002] concerne la mise en Le projet ASGAARD application de protocoles. Le but de ce projet est de répondre à deux problématiques : diagnostic quant à l'état du patient et aide à la décision quant à la thérapeutique associée [Seyfang et al., 2002]. Pour la construction des protocoles, le langage ASBRU a été implémenté : Asbru enables the designer to represent a clinical protocol in computer processable form. It also enables the physicians to execute the protocol in a exible way, based on the patient's state. This leads to a better acceptance of both protocols and computer support by the medical sta. [Seyfang et al., 2002] ASBRU est un langage de spécication des guidelines qui permet d'assurer la complétude de leur sémantique en tenant compte des contraintes temporelles [Miksch et al., 1997], [Duftshmid and Miksch, 2001]. Ce langage permet ainsi de représenter un protocole clinique, incluant toutes les connaissances utiles pour leur construction. Plutôt que de vérier leur exactitude, les auteurs préfèrent l'utilisation d'un langage standard d'écriture des guidelines. Les points-clés de ce langage consistent en la représentation des patterns temporels et le développement d'interface pour l'utilisateur an qu'il puisse visualiser les plans développés. La représentation temporelle d'ASBRU tient compte aussi des abstractions temporelles et permet à l'utilisateur de spécier des expressions comme le patient soure d'un second épisode d'anémie. Les protocoles sont représentés par des schémas de plans-squelettes ; ceux-ci sont instantiables suivant les situations. Les protocoles sont principalement construits à partir de plans et d'actions avec ASBRU. Chaque plan est décomposable en sous-plans qui euxmêmes sont décomposables . . . Le dernier sous-plan correspond à une action à entreprendre. A chaque plan correspond des connaissances expertes. Le modèle du protocole est basé sur deux étapes : l'étape de mise au point du protocole et celle de son exécution. La mise au point du protocole repose sur plusieurs étapes. L'auteur du protocole décrit 1) les conditions nécessaires d'entrée (fréquence respiratoire supérieure à un seuil), 2) les actions (administrer un médicament), 3) un plan d'actions avec ses intermédiaires et tous les schémas des actions (utiliser des médicaments d'une certaine classe de médicaments deux fois par jour), 4) les schémas des états des patients (le taux de glucose dans le sang devrait être dans telle tranche de valeurs le matin). Cela permet de contrôler l'exécution correcte d'un protocole, voire de proposer des changements si les observations ne sont pas en accord avec les buts poursuivis. L'état du patient est enregistré, observé et abstrait ainsi que les intentions thérapeutiques de l'équipe médicale réalisant telle étape (comme une baisse de la fréquence respiratoire, par exemple) peuvent être aussi enregistrées. A partir de ces plans, est décrite une liste de tâches suivant les étapes de mise au point et d'exécution des protocoles et la connaissance nécessaire analysée. Chaque tâche peut être vue comme la réponse à une question spécique. L'étape d'exécution des protocoles écrits avec ASBRU est en cours. 10 Pour plus d'informations sur ASGAARD, on peut se référer au site : http ://www.asgaard.tuwien.ac.at/protocols.html Chapitre 2 : DES VOIES VERS DES SYSTÈMES DE SURVEILLANCE PLUS PERTINENTS EN USIs ? 37 Nous présentons à présent un exemple d'application de l'informatisation de protocoles avec ASBRU. Le syndrome de détresse respiratoire Le projet VIE-VENT 11 [Miksch et al., 1996] [Horn et al., 1997] a pour but d'optimi- ser la planication thérapeutique et de développer un système de surveillance basé sur les connaissances pour la ventilation des nourrissons. Le système comporte enn une interface présentant toutes les données et traitements disponibles et facilement lisible par le personnel soignant. Nous détaillons, dans cette section l'informatisation de protocoles dans VIE-VENT avec le langage ASBRU. La gure 2.3 illustre le protocole de prise en charge du syndrome de détresse respiratoire chez les enfants (I-RDS pour infant's respiratory distress syndrom) 12 . Le protocole prend en compte le diagnostic du syndrome jusqu'à la guérison complète du patient qui inclut son extubation. Le plan global de prise en charge du syndrome respiratoire est décomposé en sous-plans. Le protocole de syndrome respiratoire développé au sein du projet VIEVENT. Après que ce syndrôme soit diagnostiqué, un plan d'actions avec des possibilités limitées de Fig. 2.3: surveillance est activé ; il est appelé la phase initiale (initial phase). Ensuite, suivant la sévérité de la maladie, trois sortes diérentes de plans peuvent être envisagées : ventilation contrôlée (controlledventilation), l'hypercapnie (permissive-hypercapnia) ou la gestion de crise (crisis-management). Seul un de ces plans peut être activé. Puis, le plan de sevrage est activé une fois que le patient est revenu en ventilation contrôlée (controlled-ventilation). Une fois le plan de sevrage réussi, l'extubation est mise en route. L'extubation peut être soit un seul plan d'extubation soit une exécution séquentielle de sous-plans. Dans la gure 2.4, est représenté le sous-plan de la ventilation contrôlée (il s'agit d'un zoom du plan global présenté au dessus) et ses possibles sous-plans utilisant le langage ASBRU. On voit representées sur cette gure, les connaissances utilisées suivant leur rôle, elles sont classées en préférences, intentions, . . .. 11 12 Nous développerons ce projet dans la section 3.3.2.3 http ://www.asgaard.tuwien.ac.at/asbru/examples/vent.pdf 38 Chapitre 2 : DES VOIES VERS DES SYSTÈMES DE SURVEILLANCE PLUS PERTINENTS EN USIs ? Zoom sur le protocole automatisé de prise en charge du syndrome de détresse respiratoire. Deux notations sont considérées : les caractères majuscule suivis de : Fig. 2.4: indiquent les éléments d'ASBRU et les caractères en minuscule les plans particuliers ou les actions. Le plan de ventilation contrôlée est décomposé en deux sous-plans ; diminution ou augmentation des réglages de la ventilation (plan inc-ventilation et dec-ventilation) et le plan observé. La fréquence de ces deux plans ne peut pas être spéciée à l'avance. Le nombre de périodes d'activation dépend de l'état de santé du patient. Les points (trois à la suite) indiquent ces répétitions. Le sous-plan incventilation est lui-même décomposé en trois sous-plans inc-o2, inc-f et inc-pip (augmenter la FiO2, augmenter la fréquence, . . . Ces trois sous-plans ou actions ne sont pas décomposables. Seule une de ces actions peut être activée à chaque instant, ce qui est illustré par les crochets. La même décomposition existe pour le sous-plan dec-ventilation avec dec-o2, dec-f et dec-pip. La gure 2.5 représente les connaissances nécessaires à la construction du sous plan ventilation contrôlée. 39 Chapitre 2 : DES VOIES VERS DES SYSTÈMES DE SURVEILLANCE PLUS PERTINENTS EN USIs ? Fig. 2.5: Les connaissances utilisées pour la ventilation contrôlée. Les commentaires sont repris d'après le site internet du système, voir note 12. The intentions of subplan controlledventilation are to maintain a normal level of the bloodgas values and the lowest level of mechanical ventilation (as dened in the context of controlled ventilation therapy) during the span of time over which the subplan is executed. This subplan is activated immediately, if peak inspiratory pressure = 30 and the transcutaneously assessed blood-gas values are available for at least one minute if 30 or the increase of the blood-gas level is too steep (as dened in the context of controlled ventilation-therapy) for at least 30 seconds. The sampling frequency of the abort condition is 10 seconds. The subplan is completed successfully, if 2 = 50%, = 23, = 60, the P IP < after activating the last plan instance initial-phase (as reference point). The subplan must be aborted, P IP > F iO < P IP < f < patient is not dyspneic, and the level of blood gas is normal or above the normal range (as dened in the context of controlled ventilation-therapy) for at least three hours. The sampling frequency of the complete condition is 10 minutes. The body of the subplan controlled-ventilation consists of a sequential execution of the two subplans one-of-increase-decrease-ventilation and observing. Ces connaissances portent aussi sur des abstractions temporelles. Par exemple, pour que le sous-plan présenté au-dessus fonctionne, il faut que le niveau des gaz du sang soit normal pendant au moins trois heures. Ici, on voit bien qu'il a fallu transformer les données numériques en données symboliques supportant des notions de temporalité. Bilan ASBRU permet la formalisation de la connaissance directement par l'expert. Il intègre aussi les abstractions des données et permet ainsi la construction du protocole en un langage proche de celui des médecins. Ceci dit, les liens entre les états des paramètres du patient ne sont pas formalisés et les abstractions obtenues à partir des données ne le permettent pas non plus. Ce système reste principalement un système de visualisation et de représentation des protocoles pour faciliter leur formalisation par les experts. 2.3.3.2 NéoGanesh : un protocole basé sur la construction de scénarios Dojat et al [Dojat et al., 1997], [Dojat and Brochard, 2001] ont proposé un système à base de connaissance en boucle fermée pour implémenter un protocole de sevrage de la ven- 40 Chapitre 2 : DES VOIES VERS DES SYSTÈMES DE SURVEILLANCE PLUS PERTINENTS EN USIs ? tilation mécanique. Ce système montre de nombreux bénéces potentiels pour les patients [Dojat et al., 2000], ce qui a conduit à sa mise en pratique dans des ventilateurs, testés à l'hôpital Henri Mondor à Créteil et dans divers centres européens [Mersmann and Dojat, 2004]. L'informatisation du protocole est basée uniquement sur la modélisation des connaissances médicales. Elles sont représentées par des scénarios médicaux. Ceux-ci permettent une représentation des liens temporels entre les événements et les états décrivant le comportement du patient [Dojat, 1994], [Dojat et al., 1998]. De Clerq et al dénissent les scénarios de la façon suivante [Clerq et al., 2004] : A scenario is a (partial) characterization of the state of a patient. [. . .]. In a scenario, eligibility conditions specify the necessary conditions for a patient to be in the scenario. Scenarios allow a clinician to synchronize the management of a patient with the corresponding parts of (a portion of ) a guideline and are commonly used as entry points in a guideline. Un scénario permet donc une description de plus haut niveau de l'état du patient que les abstractions décrivant simplement le comportement d'un paramètre comme celles utilisées dans l'exemple du syndrome respiratoire décrit précédemment. Ensuite, ces scénarios sont comparés aux données des patients abstraites 13 , ce qui per- met un ajustement, si nécessaire du mode de ventilation et l'éventualité d'une extubation. La construction des scénarios est faite uniquement à partir des connaissances médicales pragmatiques. Ceci est justié par : la diculté de la validation de modèles physiologiques des données, le fait que ces modèles sont rarement adaptés à la variété des situations rencontrées et le fait qu'il y a moins de variations entre les expertises de diérents médecins qu'entre les diérentes physiologies des patients [Dojat and Brochard, 2001] : [. . .] the decision making process of clinicians may be less variable than the complex physiology of patients. This is reinforced by the introduction of protocols or guidelines for mechanical ventilation based on objective measurements like respiratory frequency or the rapid shallow breathing index. In conclusion, it seems simpler to model decision making based on objective measurements, rather than based on physiology and multiple assumptions of the patient's behavior. Therefore the NéoGanesh system is more a decision-driven system than a patient-driven system, although it indeed uses data coming from the patient. Bilan Bien que NéoGanesh soit un système en boucle fermée, le principe est le même que celui de VIE-VENT. Néoganesh repose sur la construction de scénarios directement à partir de la connaissance experte. 2.3.3.3 Synthèse : principes de base de VIE-VENT et de NéoGanesh VIE-VENT et NéoGanesh se ressemblent par leur approche du problème. Ils ont permis une aide à la formalisation de la connaissance. Le patient fournit les données brutes qui sont abstraites (ici, les méthodes d'abstraction dièrent, ce que nous verrons dans la section 3.3). La connaissance médicale permet, grâce à des systèmes de représentation, de 13 voir section 3.3.3.3 pour plus de détails Chapitre 2 : DES VOIES VERS DES SYSTÈMES DE SURVEILLANCE PLUS PERTINENTS EN USIs ? construire des scénarios 41 14 . Ceci dit, les scénarios construits uniquement à partir de la connaissance médicale possèdent de nombreuses lacunes (nous développerons cet aspect dans les chapitres suivants). Ensuite, les données abstraites sont comparées aux scénarios médicaux an de pouvoir déterminer des actions à entreprendre (dans NéoGanesh en boucle fermée et en boucle ouverte dans le projet VIE-VENT). Nous allons à présent étudier la possibilité de construire des scénarios à partir des données et des connaissances. 2.4 Vers la construction de scénarios ? Il y a un réel besoin d'assistant informatisé pour aider le clinicien à construire la synthèse des données. Etant donné l'incomplétude des connaissances des médecins (voir la section 1.4), la mise en place de protocoles standardisés est une solution tout à fait acceptable, voire même primordiale. En outre, la surveillance informatisée de patients en anesthésie-réanimation n'a pas pour but de remplacer les médecins ; elle doit les aider à prendre une décision. La reconnaissance de scénarios spéciques est alors un pré-requis pour déclencher un plan d'actions spéciques d'un protocole pré-déni. De la même manière, la reconnaissance de scénario peut attester qu'un clinicien est en train de suivre le protocole. 2.4.1 Pourquoi des protocoles informatisés à base de scénarios ? Les protocoles informatisés consistent principalement en une assistance à l'interprétation des données et à un suivi des protocoles. Leur première tâche est de faire un diagnostic qui soit possible grâce à la reconnaissance de situations typiques de comportement du patient. C'est cette description de comportements dynamiques que l'on appelle scénario. Les scénarios : un pré-requis pour la mise en place de protocoles informatisés Les scénarios permettent de : (1) Décrire les étapes du protocole en termes synthétiques. (2) Déterminer l'état du patient et donc l'étape à eectuer en accord avec le protocole. (3) Reconnaître des situations typiques lors de certaines étapes du protocole et, le cas échéant contribuer à leur amélioration. Cependant, à l'heure actuelle, ces comportements typiques sont décrits par les experts. Cette description reste particulièrement incomplète à cause du manque de formalisation de la connaissance. 2.4.2 Pourquoi des alarmes intelligentes à base de scénarios ? On peut se demander quel est le rapport entre la construction d'alarmes intelligentes et celle de protocoles informatisés tant il est vrai que ces deux solutions semblent diérentes. 14 Dans VIE-VENT, le terme de scénario n'est pas employé mais la formalisation des connaissances induite par ASBRU (voir gure 2.5) est bien la description dynamique du comportement du patient. 42 Chapitre 2 : DES VOIES VERS DES SYSTÈMES DE SURVEILLANCE PLUS PERTINENTS EN USIs ? Cette diérence s'explique aisément si l'on considère la première uniquement comme une solution explicative 15 et la seconde comme prédictive 16 . Cependant, il serait erroné de raisonner ainsi. Ces deux solutions ne sont pas si disjointes qu'il n'y paraît. Ainsi, l'on peut très bien imaginer le rôle prédictif d'une alarme 17 . Le système indiquerait que la situation se dégrade jusqu'à ce qu'il y ait véritablement une situation alarmante. On pourrait ainsi avoir plusieurs niveaux d'alarmes par exemple. Il en ressort la nécessité de construire des scénarios que ce soit pour la mise au point d'alarmes intelligentes et/ou de protocoles informatisés. Cette construction est le point clé de notre travail de thèse. 2.4.3 Comment construire des scénarios ? La construction des scénarios doit reposer sur une combinaison des données et des connaissances an d'obtenir un modèle du patient le plus pertinent possible. Le problème est d'une part, de rendre les données informatives et d'autre part, de découvrir les relations tant temporelles que causales entre elles an d'assurer la construction de scénarios. Les connaissances permettront de guider tout le processus. Nous dégageons alors naturellement deux points : (1) la transformation des données pour les rendre informatives, (2) la construction des scénarios représentatifs du comportement du patient. 2.4.3.1 La transformation des données Le fait de tenir compte de l'état du patient nécessite de prendre en compte les données. Comme nous l'avons vu dans la section 1.3, les données d'USIs sont complexes (incertaines, imprécises, ambiguës, de haute dimension) ce qui pose le problème de leur validation pour la construction d'un modèle. La comparaison avec les discours médicaux nécessite de transformer les données en des informations décrites en des termes plus proches des experts. L'abstraction des données permet en particulier de rendre les données informatives : Some of the information needed in the diagnosis process is entered in the same form it is needed, e.g., by answering questions with yes or no. Other parts, such as complex series of measurements must be ltered to eliminate measuring errors, compared to each other to detect trends, and abstracted to turn a host of data into information useful to the physician. Not only high-frequency domains such as monitoring in an ICU, but also low frequency domains in which parameters are measured a few time per a day often demand complex abstractions from the numbers delivered by the laboratory, namely their association with one of several qualitative values such as normal, too high, or too low. [Seyfang et al., 2002] 15 par explicative, nous entendons la qualité d'expliquer, de donner une raison valable à une alarme (si une alarme sonne, le système serait capable d'expliquer pourquoi ; on peut envisager un système d'alarmes intelligentes par le fait de ltrer aussi toutes les fausses alarmes (voir la section 3.3.1.1 pour un exemple de système dédié à la diminution des fausses alarmes). La notion donnée d'explication peut être rapprochée alors de celle de diagnostic. 16 par prédictive, nous entendons la qualité de prévoir dans une juste mesure ce qui risque de se produire et indiquer éventuellement une thérapeutique. 17 mais pas d'indication thérapeutique dans ce cas là Chapitre 2 : DES VOIES VERS DES SYSTÈMES DE SURVEILLANCE PLUS PERTINENTS EN USIs ? 2.4.3.2 43 La construction des scénarios En pratique, la construction de scénarios exclusivement à partir des données ou de l'expertise médicale n'est pas réaliste. Les cliniciens ne sont pas intéressés par les mesures instantanées des paramètres et préfèrent pouvoir suivre leur évolution. En plus de la complexité des données, nous ne disposons pas de connaissance précise sur l'évolution normale ou anormale espérée pour un patient donné (voir la section 1.4). En réalité, les cliniciens ne peuvent pas décrire à l'avance les scénarios qu'ils aimeraient que le système détecte. Cette diculté supplémentaire peut s'expliquer par le fait que : Les situations typiques sont diciles à abstraire. Les médecins ne sont pas capables de formaliser leurs prises de décision. Chaque patient est unique et les réponses physiologiques aux diérents événements sont très variables suivant les individus. Pour chaque patient, les réponses physiologiques peuvent elles-mêmes dépendre du contexte (jour ou nuit, présence de la famille,. . .). Les décisions médicales peuvent s'appuyer sur des éléments non accessibles par les ordinateurs (signes d'angoisse,. . .). 2.5 Problématique du travail de thèse La problèmatique de ce travail de thèse est donc l'extraction de scénarios à partir des données et des connaissances. Notre objectif est d'extraire petit à petit des séquences typiques des données monitorées dans le contexte du sevrage. Nous envisageons un système permettant, dans un premier temps, la construction d'abstractions grâce à la combinaison d'informations et de connaissances (ces dernières consistent en des connaissances `simples, voir section 3.2.3). Dans un second temps, de ces séquences abstraites (états, événements, . . .), le système devrait détecter et extraire des régularités, a priori inconnues, qui pourront éventuellement être considérées par les experts cliniciens comme représentatives d'une classe de situations (scénarios) à reconnaître. Pour ce faire, le travail de cette thèse comporte deux axes : (1) Dénir une méthodologie globale d'extraction de scénarios où sont déve- loppés de façon précise le rôle et la gestion des données et des connaissances. (2) Développer une méthode d'abstraction des données pour la construction de scénarios. Nous présentons dans le chapitre suivant un état de l'art de l'abstraction de données dans le contexte de la surveillance de patients. Nous en protons pour décrire le point de vue adopté pour assurer au mieux la robustesse et la pertinence des abstractions. Nous étudierons ensuite, la problématique de la fouille de données pour l'extraction de scénarios. 44 Chapitre 2 : DES VOIES VERS DES SYSTÈMES DE SURVEILLANCE PLUS PERTINENTS EN USIs ? Dans ce chapitre, nous avons décrit les nouvelles voies de surveillance en USIs : les protocoles. Leur informatisation, à l'heure actuelle repose principalement sur les connaissances expertes. Le protocole est construit par les experts, les données patient abstraites et leur comparaison est alors rendue possible. La construction de scénarios est alors un pré-requis à la mise en place de protocoles informatisés. Ces scénarios doivent être construits à partir de la connaissance médicale et des données patient an de pallier l'incomplétude des premières et la complexité des secondes. Le travail présenté dans cette thèse se situe à ce niveau-là. La construction de scénarios nécessite alors : une abstraction des données robuste, la découverte de liens entre les paramètres. Ces deux points vont être développés dans le chapitre suivant. Chapitre 3 ABSTRACTION DES DONNÉES ET DÉCOUVERTE DE SCÉNARIOS Un processus de fusion ? Ce chapitre est constitué de deux parties. Nous présentons tout d'abord un état de l'art de l'abstraction de données dans les systèmes de surveillance de patients. L'abstraction de données permet de rendre les données informatives en en faisant une synthèse pertinente. Dans un premier temps, nous dénissons les mécanismes de l'abstraction temporelle. Puis, dans un deuxième temps, nous présentons notre point de vue selon lequel un système d'abstraction doit reposer sur un processus de fusion des données et des connaissances an d'assurer la robustesse du système. Après avoir déni la fusion, nous expliquerons ce qui nous permet de faire une telle relation. Ensuite, à partir de ces considérations, nous étudierons plusieurs systèmes d'abstraction selon le rôle des données et de la connaissance dans leur construction. Le but de cette première partie est donc de présenter les diérents points de vue présents dans la littérature et surtout de mettre en exergue le fait qu'il y a un réel besoin d'un système utilisant de la fusion. Ensuite, nous présentons la recherche de patterns à partir des données temporelles. Dans le chapitre précédent, il a été mis en exergue la nécessité de construction de scénarios à partir des données et des connaissances. Les scénarios découverts permettraient, en particulier d'améliorer le processus d'abstraction. Nous situons ainsi la recherche de scénarios dans le processus plus global 46 Chapitre 3 : ABSTRACTION DES DONNÉES ET DÉCOUVERTE DE SCÉNARIOS d'extraction de connaissances et spécialement dans celui de la fouille de données. Ensuite, nous présentons la fouille de données temporelles et décrivons les caractéristiques des données temporelles, la représentation des patterns à découvrir, les critères d'évaluation de ces patterns et enn les diérentes méthodes de fouille. Ce tour d'horizon permet de situer plus clairement la recherche de scénarios dans notre contexte. Enn, nous présentons la technique de fouille qui semble adaptée à notre problématique et qui repose sur la recherche de règles d'association. Cette présentation est axée sur les critères d'évaluation. 3.1 Qu'est-ce que l'abstraction ? 3.1.1 Un préambule à la dénition de l'abstraction de données Le verbe abstraire provient du verbe latin abstrahere qui signie détourner. D'après le dictionnaire Le petit Larousse éditions 2000, abstraire signie isoler, séparer mentalement un élément, une propriété d'un objet an de les considérer à part. Mais dans quelle mesure peut-on dissocier un objet ou une propriété de son environnement sans perdre tout sens ou signication intrinsèque de cet objet ? Par exemple, si l'on considère une personne avec une fréquence cardiaque de 150 bp/min, peut-on considérer pour autant qu'elle a une valeur anormale ? Suivant si elle est au repos ou en activité physique, la valeur de la fréquence cardiaque sera anormale dans le premier cas et tout à fait normale dans le second cas. Ici, on voit bien qu'il est nécessaire de tenir compte du contexte pour abstraire de façon pertinente des données ou objets. Ainsi, dès à présent, on considérera le fait d'abstraire comme une interprétation et ce, en tenant compte de l'environnement de l'objet à abstraire. Le fait de tenir compte du contexte nécessite d'introduire toutes sortes d'informations et de connaissances dans le processus global d'abstraction. Cette introduction est permise grâce à la fusion. La fusion est le maître-mot, selon nous, dans un processus d'abstraction. Si nous considérons la dénition de la fusion donnée par Sylvain Gatepaille et Stéphan o Brunessaux dans le bulletin de l'AFIA n 24 de 1996, il est clair que la fusion rejoint les objectifs de l'abstraction. Elle est dénie de la manière suivante : Procédé d'intégration d'information depuis des sources multiples permettant de produire des données uniées les plus spéciques et les plus pertinentes sur une entité, activité ou événement. Dans cette dénition, ce qui nous semble tout à fait intéressant pour notre problématique est le fait de dénir la fusion comme un procédé d'intégration , ce qui sous-tend un aspect de gestion et d'assimilation d'informations diérentes, qui nous paraît primordial comme nous le verrons dans la suite. De plus, le résultat est décrit comme la production de données uniées [. . .] les plus pertinentes , ce qui correspond aux résultats que l'on peut attendre d'un 47 Chapitre 3 : ABSTRACTION DES DONNÉES ET DÉCOUVERTE DE SCÉNARIOS processus d'abstraction de données. Pour cela, il nous semble tout à fait naturel d'introduire la notion de fusion dans une méthodologie d'abstraction puisque, selon nous : Abstraire des données d'un système est d'abord fusionner les données, informations et connaissances disponibles. La section suivante présente les mécanismes formels de l'abstraction. Celle-ci est décrite de façon détaillée, voir même minutieuse et le rôle important de la connaissance a priori dans cette construction est mis en exergue. 3.1.2 Les mécanismes formels de l'abstraction de données Le processus d'abstraction évolue dans l'espace des paramètres du domaine à plusieurs niveaux de granularité temporelle. Son objectif est de transformer des données numériques instantanées en des données symboliques sur des intervalles de temps, et de générer plusieurs niveaux d'abstraction résumant l'évolution des paramètres 18 . Dans cette section, nous décrivons tout d'abord les mécanismes primaires de construction des abstractions, qui se retrouvent dans tous les processus d'abstraction. Puis, dans une seconde section, nous présentons des concepts plus évolués, de niveau d'interprétation supérieur. 3.1.2.1 Les abstractions verticales et horizontales En intelligence articielle, on dénit généralement l'espace dans lequel l'abstraction va avoir lieu comme un espace à deux dimensions. L'axe horizontal concerne la dimension temporelle des données. L'axe vertical concerne les valeurs des paramètres, qu'elles soient numériques ou symboliques. D'après Shahar, toute augmentation seule de la granularité temporelle est une une abstraction horizontale et tout changement de l'espace des paramètres est abstraction verticale [Ramaux, 1998]. Ainsi, trois types d'abstraction sont référencés selon Shahar [Shahar, 1994] : les abstractions verticales (concernant l'aspect paramètre), les abstractions horizontales (concernant l'aspect temporel), et les abstractions obliques ou tendances (liant les paramètres et le temps). Ces trois types d'abstraction sont liés à des mécanismes basés sur la connaissance. Les abstractions verticales On note que Shahar considère les abstractions verticales comme un cas particulier des abstractions temporelles. Pour Clancey [Clancey, 1985], les abstractions verticales permettent de changer l'espace des paramètres et ne sous-tendent pas nécessairement de notion temporelle. Trois mécanismes d'abstraction verticale sont répertoriés : L'abstraction qualitative est une classication symbolique des données numériques (par exemple, fréquence respiratoire : 10, 25, 35 cycles/minute 18 ! bas, normal, haut). Russ dans [Russ, 1995] note que l'abstraction des données permet ainsi de réduire les temps de calculs des machines 48 Chapitre 3 : ABSTRACTION DES DONNÉES ET DÉCOUVERTE DE SCÉNARIOS L'abstraction dénitionnelle est basée sur les caractéristiques essentielles et nécessaires d'un concept (par exemple, une désaturation est une chute de la SpO2). La généralisation est un sous-type hiérarchique (par exemple, une désaturation rapide est une sous-classe d'une situation alarmante). Les abstractions horizontales Quatre mécanismes d'abstraction horizontale sont communément distingués : L'interpolation temporelle met en relation une propriété instantanée et un intervalle temporel (il y a une notion sous-jacente de persistance sur un intervalle tempo- 19 . rel) La prolongation par continuité crée un état à partir des deux états consécutifs lorsque une propriété donnée est valide. L'agrégation concerne la concaténation d'états consécutifs où une propriété n'est valide que sur une partie d'entre eux. L'oubli permet de ne pas tenir compte de données redondantes ou non-pertinentes [Dojat, 1994]. Ces diérents mécanismes d'abstraction sont résumés dans la gure 3.6. 19 Dans [Russ, 1995], une abstraction quantitative peut avoir lieu telle que si deux mesures sont eectuées à t0 et à t0+dt , on attribue la première mesure sur l'intervalle [t0 , t[0+dt[ . Chapitre 3 : ABSTRACTION DES DONNÉES ET DÉCOUVERTE DE SCÉNARIOS Fig. 3.6: 49 Illustration des abstractions verticales et horizontales. f , e, n signient respectivement, faible, élevé et normal. Toutes ces étapes d'abstraction sont eectuées dans un certain contexte. L'étape de prolongation par continuité permet de remplacer deux intervalles élevé par un seul. L'étape d'agrégation permet de remplacer l'ensemble d'intervalles codés par élevé, faible, élevé par un seul codé élevé. La phase d'abstraction qualitative permet de transformer des valeurs numériques en symboliques, d'où les diérents symboles obtenus comme élevé. L'abstraction dénitionnelle interprète les abstractions précédentes à un niveau supérieur. 3.1.2.2 Les abstractions temporelles simples et complexes Elles permettent de reconnaître des formes caractéristiques dans une série temporelle. Elles consistent en la détermination de deux sortes d'abstraction suivant le niveau d'interprétation des données [Bellazzi et al., 1998] : les abstractions simples et les abstractions complexes. Les premières correspondent à celles décrites dans la section précédente et les secondes à des abstractions de plus haut niveau [Ramaux, 1998] : Les abstractions temporelles utilisées sont scindées en deux classes diérentes. L'abstraction temporelle simple permet d'identier à partir de séries chronologiques des séquences ou des tendances temporelles. [. . .]. Les abstractions utilisées par Larizza ont pour but de simplier la représentation de l'évolution des données en une séquence d'épisodes signicatifs. D'autre part, un mécanisme de persistance ainsi que d'agrégation d'intervalles temporels est introduit. L'abstraction temporelle complexe ore une représentation synthétique de la combinaison de deux abstractions temporelles simples ou complexes. Les fonctions implémentées à ce niveau sont proches de la reconnaissance de formes (p43). L'abstraction temporelle complexe n'est pas construite à partir des données brutes mais à partir d'abstractions (simples ou complexes) ; elle représente des relations temporelles entre abstractions. 50 Chapitre 3 : ABSTRACTION DES DONNÉES ET DÉCOUVERTE DE SCÉNARIOS 3.2 Abstraction et fusion ? An de pallier les problèmes d'incomplétude tant au niveau des données qu'au niveau des connaissances, une méthodologie d'abstraction se doit d'être robuste. De plus, les données d'USIs sont tout à fait particulières (voir section 1.3.2) ce qui pénalise tant les méthodes statistiques traditionnelles que les méthodes à base de connaissances. Par méthodologie robuste, nous entendons un processus contrôlé an d'apporter de l'information able et pertinente. Ce contrôle peut être eectué grâce à la fusion [Bloch and Hunter, 2001] : The reason for fusing information is usually the hope of getting more precise, or more reliable information as a result. Let us briey recall the dierent defective aspects of information : ambiguity, uncertainty, imprecision, incompleteness, vagueness, inconsistency. Nous proposons ainsi une approche : 1. Utilisant de la fusion an d'enrichir le processus de décision. 2. Incrémentale : le processus se fait en plusieurs étapes et chaque étape est soumise à contrôle. De plus, les approches incrémentales permettent : une utilisation possible des informations même si le processus n'est pas terminé, une plus grande richesse au niveau de la prise de décision. 3.2.1 La fusion dans le processus d'abstraction temporelle Nous distinguons trois types de fusion suivant les sources qui vont être combinées. La première source est issue d'une source physique ; ce sont les valeurs d'une donnée issues d'un capteur par exemple. Mais on peut aussi envisager une source comme étant une donnée ou une donnée interprétée à un certain moment dans un processus. Elle corres- 20 ). Dans pond alors à un niveau d'interprétation d'une donnée (information ou connaissance [Bloch and Hunter, 2001], les auteurs distinguent ces sources suivant leur représentaion numérique ou symbolique (cette dernière représentation comprenant les connaissances). Enn, puisque l'on considère des données temporelles, la caractéristique temporelle est représentée. La fusion va alors consister en la gestion, l'utilisation des diérentes sources dans le but d'interpréter de la meilleure façon possible des données. Nous décrivons l'espace de fusion selon trois axes (voir gure 3.7) : l'axe des sources physiques, celui des niveaux d'interprétation et enn l'axe temporel. Un élément de cet espace correspond à une source physique, à un niveau d'interprétation et à un temps donnés. Nous dénissons ainsi plusieurs types de fusion suivant les sources : La fusion sémantique construite à partir d'une même source physique, à un même instant ou à un même niveau temporel et à plusieurs niveaux d'interprétation. La fusion multi-sources construite à partir de sources physiques. Elle permet de combiner des informations de plusieurs paramètres à un même niveau d'interprétation et à un même instant ou à un même niveau temporel. La fusion temporelle construite à partir d'une même source à un même niveau d'interprétation et à plusieurs instants ou à plusieurs niveaux temporels. 20 Nous verrons dans le chapitre 4 les dénitions précises de ces concepts. 51 Chapitre 3 : ABSTRACTION DES DONNÉES ET DÉCOUVERTE DE SCÉNARIOS Fig. 3.7: La fusion suivant les sources. Les points Ii et Ji pour i 2 1 2 3 correspondent à ; ; diérentes interprétations des paramètres (sources physiques) P1 et P2. Les points I1 et J1 corres- pondent à des valeurs numériques ou symboliques à un instant donné. Les ensembles d'intervalles I2 et J2 représentent des valeurs numériques ou symboliques sur des intervalles temporels ; il peut s'agir des abstractions obtenues après l'étape d'interpolation temporelle. Les ensembles d'intervalles I3 et et J3 , les abstractions après l'étape d'agrégation par exemple. Chaque ensemble f 3 3 g correspond à un niveau d'interprétation, I ;J A1 , A2 et A3 . f 1 1 g, f 2 2 g I ;J I ;J Une ligne verticale qualie une fusion à partir de plusieurs niveaux d'interprétation d'une seule source physique. Une ligne horizontale signie que la fusion a été eectuée à partir de plusieurs sources physiques à un même niveau d'interprétation ; elle est qualiée de fusion multi-sources. La courbe qualie une fusion mixte ou oblique : elle combine plusieurs sources physiques à plusieurs niveaux d'interprétation. C'est cette fusion là qui nous paraît être la plus pertinente. 52 Chapitre 3 : ABSTRACTION DES DONNÉES ET DÉCOUVERTE DE SCÉNARIOS 3.2.1.1 La fusion sémantique dans le processus d'abstraction La fusion sémantique consiste en la combinaison de diérents niveaux d'interprétation de la même source physique (ou donnée) dans le but d'obtenir ou de faire ressortir des caractéristiques pertinentes de la donnée représentant une entité, activité ou événement (on reprend ici la dénition de la fusion donnée précédemment, transposée au cas où l'on considère une seule donnée). La fusion sémantique permet de construire des nouvelles abstractions à partir d'autres abstractions. Cette armation sous-tend une libre circulation des informations dans le processus. Comme on l'a vu, la fusion permet d'abstraire des données. Un exemple de fusion sémantique est la construction des abstractions complexes dénies dans la section 3.1.2.2 ; la combinaison des abstractions simples et de plusieurs types de connaissances permet de dénir d'autres abstractions (la fusion temporelle a été aussi introduite). 3.2.1.2 La fusion multi-sources dans le processus d'abstraction La fusion multi-sources n'est pas utilisée sur des données d'USIs, ou du moins si elle l'est, c'est après une étape de fusion sémantique. Les raisons sont essentiellement pratiques (mais des recherches vont dans ce sens depuis peu), en particulier parce que les relations entre les données d'anesthésie réanimation sont mal connues. De plus, elles sont dicilement transcriptibles par les médecins. Ceci s'explique de plusieurs manières. Tout d'abord, le ux de données est important (de l'ordre d'une mesure par seconde par paramètre et ce pour plusieurs dizaines de paramètres) et le format des données ne correspond pas aux discours des médecins, ce qui empêche une bonne visibilité des données par les médecins. Ces derniers abstraient les données naturellement et considèrent ainsi principalement leurs valeurs symboliques, à savoir un paramètre considéré comme normal ou anormal. C'est pourquoi la fusion multi-sources est employée une fois les données abstraites pour extraire de la connaissance. 3.2.1.3 La fusion temporelle La fusion temporelle est omniprésente dans les processus d'abstraction temporelle. En particulier, les mécanismes horizontaux d'abstraction relèvent de fusion temporelle. Nous n'entrerons pas dans plus de détails (voir par exemple [Bloch, 2003] où un chapitre lui est consacré). 3.2.1.4 La fusion mixte ou oblique C'est la fusion qui semble la plus pertinente dans un processus d'abstraction. Elle combine plusieurs données à plusieurs niveaux d'interprétation. C'est aussi la plus complexe à mettre en ÷uvre et c'est pour cette raison qu'elle est très peu usitée. A l'heure actuelle, les processus d'abstraction des données reposent principalement sur des méthodologies mono-paramétriques ; c'est à dire qu'elles permettent d'abstraire les données, donnée par donnée sans tenir compte (ou très peu) des relations entre les données. En 21 . Ceci ce sens, les méthodes d'abstraction relèvent d'une application de la fusion sémantique 21 Nous verrons plus tard que l'abstraction des données devrait relever de la fusion oblique mais la complexité d'un tel système est telle que les recherches dans ce sens sont encore embryonnaires. Chapitre 3 : ABSTRACTION DES DONNÉES ET DÉCOUVERTE DE SCÉNARIOS 53 dit, les systèmes d'abstraction actuels ne reposent pas sur des principes de fusion à proprement parler. Certains systèmes reposent uniquement sur une étude statistique de la donnée. D'autres seulement sur la connaissance experte. Il est clair que pour ces deux procédés, il n'y a pas de fusion sémantique puisqu'ils n'utilisent pas diérents niveaux d'interprétation de la donnée. Des systèmes dits mixtes utilisant plusieurs sources d'informations (données et connaisances) sont plutôt des systèmes itératifs que des systèmes reposant sur de la fusion. Les diérentes informations ne sont pas combinées, elles sont injectées dans le système d'abstraction au fur et à mesure. En outre, ces informations ne sont aucunement produites par le système. Nous développerons ces remarques dans la section 3.3. 3.2.2 Un processus incrémental Le processus d'abstraction doit être contrôlé an d'apporter de l'information able : un niveau trop bas d'abstraction noie l'information, et un niveau trop haut perd de l'information qui peut s'avérer pertinente. Il s'agit alors de déterminer le niveau optimal à atteindre et le moyen d'y parvenir. Cette recherche du meilleur compromis (pour résoudre le gap sémantique) peut être optimisée par un procédé incrémental, contrôlé à chaque étape. De plus, le processus d'abstraction doit reposer sur des valeurs de paramètres ables, cette exigence n'étant pas vériée automatiquement, en particulier dans les applications médicales à cause du bruit qui entache les données et des données manquantes. Un processus incrémental permet de prendre de petites décisions au fur et à mesure du processus. De cette manière, il rend possible une validation petit à petit et limite donc les erreurs importantes. De plus, il est tout à fait adapté à un processus de fusion puisqu'il rend possible l'utilisation des résultats obtenus à chaque étape pour l'étape suivante. 3.2.3 Les connaissances dans le processus d'abstraction L'abstraction temporelle peut être considérée comme une tâche d'interprétation des données [Shahar, 1997] : The temporal-abstraction (TA) task can be viewed informally as a type of a generic interpretation task : given a set of time-stamped data, external events, and abstraction goal, produce abstractions of the data that interpret past and present states and trends and that are relevant for the given set of goals. Interpréter des données nécessite de la connaissance. Tous les mécanismes d'abstraction doivent être guidés par la connaissance du domaine. Une abstraction ne peut avoir lieu sans tenir compte du contexte, elle n'a de sens que dans un contexte précis ; autrement dit, l'action d'abstraire doit être contextualisée. L'introduction de connaissances permet de guider le processus d'abstraction dans un contexte donné. Le contexte lui-même est construit à partir de connaissance (en l'occurrence des connaissances de classication). La section suivante décrit les connaissances utiles d'après Shahar [Shahar, 1997]. Les connaissances utiles selon Shahar An de décrire chaque mécanisme d'abstraction en terme de connaissance utilisée, Shahar a classié ces dernières selon quatre types [Shahar, 1997] : 54 Chapitre 3 : ABSTRACTION DES DONNÉES ET DÉCOUVERTE DE SCÉNARIOS La connaissance structurelle concerne les propriétés des paramètres comme les unités, . . . La connaissance sur la classication permet de transformer les valeurs numériques des données en valeurs symboliques par exemple. La connaissance sur la sémantique temporelle permet de concaténer deux intervalles successifs par exemple. La connaissance sur la dynamique temporelle détermine la persistance d'une valeur d'un paramètre, par exemple. Chaque type de connaissance permet de guider les diérents mécanismes d'abstraction temporelle. Considérons un paramètre échantillonné à 0.1Hz, soit une valeur toutes les dix secondes. Si on a la connaissance sur la dynamique temporelle du paramètre suivante : valeur du paramètre valide sur dix secondes, alors on considère que sur l'intervalle de longueur dix secondes, le paramètre a la même valeur. Il s'agit uniquement de la connaissance utilisée pour la construction des abstractions. Plusieurs types de connaissance peuvent être utilisés pour une tâche d'abstraction. An de conclure cette section, nous tenons à préciser que la contruction d'un système d'abstraction n'est pas aussi évidente que l'on pourrait le croire ; nous reprenons ainsi la citation suivante de Sowa mentionné dans [Clancey, 1985] : The set of features. . . seem almost obvious once they are presented, but nding the right features and categories may take months or years of analysis. The proper set of categories provides a structural framework that helps to organize the detailed facts and general principles of a system. Without them, nothing seems to t, and the resulting system is far too complex and unwieldy. 3.3 Quelle utilisation des données et de la connaissance pour l'abstraction ? A notre connaissance, les processus d'abstraction de données en USIs que l'on trouve dans la littérature ne sont pas qualiés en terme de fusion de données. Cependant, on peut les classer suivant l'utilisation qu'ils font des connaissances et des informations. Certains présentent une méthodologie ne tenant compte que des données, d'autres reposent sur la gestion explicite des connaissances [Shahar, 1997] par exemple ou encore l'utilisation des données et des connaissances [Miksch et al., 1996]. . . Chaque système de monitoring est dévoué à une tâche particulière. Certains sont conçus pour reconnaître des patterns prédénis (DIAMON-1 [Steimann, 1996], [Steimann, 1995] et TrenDx [Haimowitz and Kohane, 1996]) ; d'autres pour le suivi de protocole et la dénition d'action thérapeutique à entreprendre (Vie-Vent [Miksch et al., 1996]). La comparaison est alors dicile. Les problèmes rencontrés pour la surveillance clinique de patients sont si nombreux qu'une seule approche ne peut pas les résoudre tous. Dans cette section, nous détaillons ces méthodologies d'abstraction des données classées suivant l'utilisation des données et des connaissances qu'elles proposent an de mettre en exergue des processus de fusion ou tout du moins, de pouvoir les comparer sur leur principe fusionnel. Ceci dit, on peut noter dès à présent deux points : (1) Les données étant temporelles, la fusion temporelle est introduite dans tous les sytèmes d'abstraction, ainsi nous ne reviendrons pas ou peu sur cette fusion. Chapitre 3 : ABSTRACTION DES DONNÉES ET DÉCOUVERTE DE SCÉNARIOS 55 (2) Moins la connaissance est utilisée plus le traitement peut être considéré de bas niveau (il se résume à de la détection de tendances) et plus la connaissance est employée plus les abstractions sont de haut niveau (comme les scénarios de Dojat [Dojat et al., 1998]). 3.3.1 Des méthodes d'abstraction des données statistiques Nous présentons ici, trois systèmes d'aide à la décision comportant chacun une étape d'abstraction des données. La construction des abstractions repose ici, sur des méthodes statistiques, très proches du traitement du signal qui transforment les données en une seule étape. Le premier système est primaire (et les abstractions sont donc de très bas niveau) et nous verrons que la préoccupation des auteurs n'est pas l'étape d'abstraction. Les deuxième et troisième comportent une phase d'apprentissage pour le calcul des abstractions. Dans les systèmes présentés ci-après, les abstractions sont calculées paramètre par paramètre. Il n'y a donc aucune fusion à partir de sources physiques dans ces processus (au niveau du processus d'abstraction). Nous allons étudier ces systèmes suivant l'utilisation de fusion de niveaux d'interprétation. 3.3.1.1 TrendFinder TrendFinder conçu par Tsien et al [Tsien, 2000], [Tsien et al., 2000], est un système élaboré pour découvrir de la connaissance nécessaire pour détecter des événements, ou des tendances dans des séries temporelles, en l'occurrence, des valeurs de paramètres de nouveauxnés en USIs. Deux applications du système sont possibles : la première est de détecter des artefacts de bas niveau sur les signaux physiologiques et la seconde de détecter des tendances de haut niveau indiquant des vraies alarmes. Il s'agit d'un système dédié à la diminution des fausses alarmes. La méthodologie est décrite de la manière suivante. Des tendances simples (moyenne, médiane, . . .) sont calculées sur plusieurs intervalles temporels xés (3, 5 et 10 minutes) pour chacun des quatre signaux physiologiques traités. A chaque valeur calculée est attribuée a posteriori une classe (artefact, non artefact et transition). Elles sont réparties grâce au fait que durant l'acquisition des données, un expert se trouvait au lit du malade et était chargé d'annoter les alarmes. Ensuite, une régression logistique est appliquée pour chaque signal an d'optimiser le nombre de noeuds fournis à un arbre de décision. Un arbre de décision est construit par signal pour détecter un artefact sur ce signal. Les résultats semblent encourageants. Par exemple, pour l'oxygène, tous les événements non artefacts (3335) sont classés correctement et 56 des 64 artefacts sont repérés comme tels. Cependant, le choix du calcul des tendances et de la taille des fenêtres dépendant de seuils prédénis est discutable. Bilan Ici, on voit bien que la transformation des données, ce que l'on appelle abstrac- tion, est sous-estimée ou tout du moins de très bas niveau. Il n'y a pas eu, à proprement parler, de véritable travail de réexion sur ce sujet. Il s'agissait ici, de passer rapidement à l'étape de classication. Il n'est pas question de fusion pour aboutir aux abstractions, ni d'incrémentalité. Mais, les auteurs négligent l'importance de l'étape de transformation. 56 Chapitre 3 : ABSTRACTION DES DONNÉES ET DÉCOUVERTE DE SCÉNARIOS 3.3.1.2 Les tendances de Calvelo et al Dans [Calvelo et al., 2000], Calvelo et al proposent une méthodologie pour l'extraction de tendances locales de données de patients d'unités de soins intensifs. Les tendances sont calculées par régression linéaire dans une fenêtre temporelle glissante, appelée échelle caractéristique dont la taille dépend de la dynamique du paramètre traité. L'écart type donne un index de stabilité locale. L'étape d'abstraction qualitative est eectuée à partir du partitionnement du plan tendance/stabilité et procure des notions comme augmenté, diminué, constant ou instable. Le partitionnement de ce plan nécessite l'introduction de connaissances a priori pour xer les seuils ; il s'agit donc de connaissances de classication, puisque ces seuils concernent les variations des écart-types et des coecients de régression propres à la méthodologie proposée. Dans ce papier, les seuils sont xés au préalable quelle que soit l'évolution du patient. Mais, dans une version récente, pour la valeur du seuil de stabilité/instabilité, le choix du critère a été déni comme la valeur d'un percentile de la distribution des écart-types calculés sur une fenêtre pré déterminée de longueur xe. Le principe de ce système est d'extraire le maximum d'information à partir des données elles-mêmes et de repousser le plus tard possible l'introduction de connaissances (dans le chapitre 5, on détaille cette méthodologie). Ensuite, un arbre de décision est utilisé pour la phase de décision. Bilan Cette méthodologie a deux principales qualités. La première est de tenir compte de la dynamique propre de chaque paramètre, en particulier pour le calcul de la fenêtre glissante. La seconde est de proposer la notion d'instabilité. C'est une notion très pertinente et rarement dénie (à notre connaissance, elle n'est pas répertoriée dans d'autres systèmes de monitorage clinique), en particulier en USIs où les signaux peuvent être très bruités et/ou très perturbés (par exemple si le patient tousse). Le contrôle est principalement dû à la modélisation statistique et la validation a priori est eectuée par les experts. Même si l'étape d'abstraction est pertinente pour plusieurs points déjà évoqués, elle ne repose pas exactement sur de la fusion. La transformation numérique/symbolique est fondée sur l'introduction de connaissance a priori pour la détermination des seuils de stabilité/instabilité et augmenté/constant/diminué. Mais, cette étape est eectuée après le calcul des coecients de régression et d'écart-types. On ne peut alors pas parler véritablement de fusion. Le processus est constitué de plusieurs étapes : calcul de l'échelle caractéristique par apprentissage, calcul des coecients de régression et d'écart-types, puis transformation numérique/symbolique. En ceci, le processus est incrémental. Le calcul de l'échelle caractéristique permet de tenir compte de la dynamique propre de chaque paramètre. Cette échelle constitue une fenêtre glissante sur laquelle chaque tendance est calculée. Par contre, le seuil de stabilité/instabilité est xe que ce soit pendant toute la durée du signal ou sur des intervalles xes de longueurs pré-déterminées de ce signal. 3.3.1.3 Les abstractions de Morik et al Ici, le problème est un peu diérent, il ne s'agit pas à proprement parler de surveillance de patients en général. Le système est chargé de surveiller la prise d'un médicament en USIs (plus particulièrement, quand et comment changer la dose de tel médicament). Dans [Morik et al., 1999] [Morik, 2000] [Morik et al., 2000], Morik et al décrivent une méthode de combinaison de diérentes méthodes d'acquisition de connaissances médicales basées sur les 57 Chapitre 3 : ABSTRACTION DES DONNÉES ET DÉCOUVERTE DE SCÉNARIOS machines à vecteur de support (Support Vector Machines ). L'abstraction de données est utilisée pour la détection de tendances ou de changements de comportement. Elle repose sur une analyse statistique ; la méthode employée est appelée ARIMA (Auto-Regressive Integrated Moving Average). La méthodologie s'appuie sur les travaux de [Imho et al., 1997] puis revus par Bauer et al [Bauer et al., 1998] (voir l'article de Imho [Imho et al., 1997] pour une description de cette méthode et les références de cet article). Le principe de ce modèle est de considérer chaque observation comme la somme de deux combinaisons linéaires ; une des observations passées (AR) et l'autre de bruits blancs (MA). Le I dans ARIMA signie simplement qu'on applique le modèle aux diérences entre deux observations. Les valeurs de prédiction de ce modèle pour les valeurs suivantes sont ensuite comparées aux valeurs réelles du laboratoire. Ce modèle permet de détecter les changements signicatifs des valeurs des variables et d'estimer les eets des actions thérapeutiques sur trois variables physiologiques. Dans [Bauer et al., 1998], Bauer et al proposent une méthode statistique pour trouver des patterns qualitatifs de type tendance, changements de niveau ou outliers sur des données physiologiques. Elle est basée sur la reconstruction de l'espace des phases qui est la projection des séries temporelles dans un espace euclidien de dimension la longueur de la fenêtre temporelle choisie. Le processus de reconnaissance de pattern s'appuie ainsi sur l'espace des phases et de la méthode des moyennes mobiles sur une fenêtre temporelle de dimension xée au préalable (pour plus de détails, voir [Morik et al., 2000]). Le principe est de déterminer pour chaque point, si le vecteur de l'espace des phases associé aux points antérieurs et correspondant à la fenêtre temporelle, est dans une région critique 22 ; ce qui permet de détecter un changement de comportement du paramètre considéré. L'abstraction dans le système d'aide à la décision Les abstractions construites par apprentissage nourrissent un système global. Ce dernier comporte un autre module comportant des règles (découvertes par apprentissage à l'aide de machines à vecteurs de support) permettant de modéliser les interventions appropriées quant à la quantité de médicament à injecter. Ensuite, à partir de la connaissance médicale et de l'expertise clinique en aide à la décision, une base de connaissances (s'appuyant sur la logique du premier ordre) sur les eets et les interventions thérapeutiques a été créée. De plus, il a été intégré un mécanisme de traitement statistique. L'intégration de procédures numériques et de base de connaissances facilite la tâche de validation de deux manières. D'un côté, la base de connaissances est validée par les enregistrements antérieurs des patients. De l'autre, les interventions médicales qui sont recommandées par les résultats de l'apprentissage sont justiées par la base 22 Le principe est décrit de la manière suivante (la fenêtre temporelle est ici choisie de longueur 60 observations et di est la diérence entre deux observations) [Morik et al., 2000] : The rst 60 observations are taken and retrospectively analysed (i.e. outlying regions are estimated and patterns in this time interval identied). After this, a time window of length 60 is moved through the data. That means, that at time point 61 we determine if the phase space vector d 61 is in the critical region. If not, then no pattern is detected, and the estimated critical 2 region is replaced by a new one, that is estimated from the last 60 observations d , . . ., d 61 . This is repeated for every new observation as long as for the time point t the phase space vector dt once falls into a critical region. Then the system is said to be no longer in a steady state, and after analyzing the consecutive observations dt+1 , dt+2 ,. . ., it is decided if a pattern is present similar to the retrospective analysis. 58 Chapitre 3 : ABSTRACTION DES DONNÉES ET DÉCOUVERTE DE SCÉNARIOS de connaissances. Dans [Fried et al., 2002], les auteurs répertorient plusieurs méthodes statistiques pour détecter des tendances ou des changements de niveau dans les données de monitoring. Cependant, ils concluent sur les limites de telles méthodes numériques et le besoin de les combiner à des méthodes à base de connaissances an de pouvoir estimer l'état du patient. Bilan Dans le système décrit dans les articles [Morik, 2000] [Morik et al., 2000], il s'agit principalement d'étudier les eets d'une action thérapeutique. Le contexte d'étude est restreint et les connaissances expertes sont bien dénies (voir [Imho et al., 1997] pour la description des changements des paramètres attendus). L'application de cette méthode à des données de haute dimension comme en surveillance de patients en anesthésie réanimation semble compromise. Cependant, dans [Gather et al., 2001], Gather et al proposent une méthode de réduction de dimension. Une telle méthode permet de ne tenir compte que des variables les plus signicatives avant de chercher des patterns caractéristiques. L'apprentissage du système de Morik et al nécessite de solides connaissances en mathématiques an de la comprendre correctement et la visualisation des résultats n'est peut-être pas très explicite pour les experts médicaux. La validation des abstractions n'est pas faite explicitement. Les abstractions sont utilisées pour décider s'il faut eectuer une intervention thérapeutique. Ce sont alors les règles de décision d'une action qui sont validées par de la connaissance experte. Dans le processus propre d'abstraction, il n'y a pas de fusion, ni d'incrémentalité. Comme dans les systèmes précédents, une fois les abstractions calculées, elles sont directement utilisées. Bilan sur les méthodes statistiques d'abstraction Dans ces exemples, on note une absence quasi-totale de fusion de données, sémantique ou multi-sources. Les méthodologies ne sont pas incrémentales ce qui empêche, par nature une fusion sémantique : puisqu'il n'y a qu'un seul niveau d'interprétation des données dans ces méthodes, il ne peut y avoir de fusion de plusieurs niveaux d'interprétation. Il est à noter que le travail de Calvelo et al repose sur une méthodologie incrémentale et induit plusieurs niveaux d'interprétation (au nombre de deux, niveau numérique avec les coecients de régression et les écart-types et un niveau symbolique après le partitionnement du plan tendances/stabilité). Mais la méthodologie ne procède pas à la fusion, les diérentes étapes se succèdent sans tenir compte de la précédente et il n'y a pas de combinaison d'informations. En ce sens, on considère qu'il n'y a pas de fusion sémantique. La fusion multi-sources qui permet de combiner plusieurs paramètres n'est pas utilisée dans ces exemples. Aucune relation entre plusieurs paramètres n'est étudiée pour améliorer le processus d'abstraction. L'introduction de connaissances est très faible. Les abstractions obtenues sont de bas niveau. 3.3.2 Des méthodes d'abstraction mixtes Les méthodes présentées ci-après sont appelées mixtes car elles utilisent à la fois les données numériques et les connaissances dans le processus d'abstraction. Elles tiennent 59 Chapitre 3 : ABSTRACTION DES DONNÉES ET DÉCOUVERTE DE SCÉNARIOS compte à diérents niveaux des comportements des données numériques et des connaissances expertes dans le processus pour contrôler les mécanismes de l'abstraction, en particulier la transformation et l'interprétation des données. Les méthodes présentées sont au nombre de trois. Les deux premières consistent en la comparaison de patterns pré-dénis grâce à la connaissance experte à des formes extraites des données ; il n'y a pas de fusion dans ces systèmes. La dernière est plus élaborée ; de la connaissance a priori est injectée à plusieurs niveaux du processus. Cependant, on ne peut pas, là non plus, parler de fusion sémantique ou multi-sources. Les diérents niveaux d'interprétation des données (d'où les diérentes étapes d'abstraction) se suivent mais ne communiquent pas entre eux. 3.3.2.1 Le système TrenDx d'Haimowitz et al TrenDx, conçu par Haimowitz [Haimowitz and Kohane, 1996] permet la reconnaissance automatique de tendances en comparant les données à des patterns appelés trend templates. TrenDx a été appliqué à la surveillance de patients en USIs et de la croissance des enfants. En USIs, les principaux objectifs de leur système sont de développer des moniteurs dépendants du contexte an de réduire le nombre de fausses alarmes et de créer un langage permettant aux utilisateurs d'écrire des patterns cliniques pertinents. Les formes de référence ou trend templates sont construites à partir des discours des experts et peuvent être associées entre elles ; il s'agit principalement de connaissance de classication. A partir de plusieurs modèles de régression linéaire (constant, linéaire et quadratique), les auteurs distinguent plusieurs types de comportement. Par exemple, un modèle quadratique avec des contraintes qualitatives permet de représenter une forte augmentation ou diminution suivie d'une stabilisation. La construction des abstractions repose sur des connaissances sur la sémantique et sur la dynamique temporelles. Grâce à ces diérents comportements, les experts peuvent construire les patterns de situations connues. Ces patterns consistent alors en des contraintes appliquées à des intervalles temporels, ces derniers possédant des extrémités incertaines. Pour chaque valeur de contrainte de chaque intervalle temporel, est attribuée une distribution de croyance suivant le patient. Pour tenir compte des incertitudes temporelles, TrenDx utilise deux techniques : régression et granularité temporelle. Bilan Le principal défaut de ce système réside dans le fait que le comportement nor- mal du sujet observé doit être connu et traduisible, ce qui n'est pas toujours le cas. Dans [Horn et al., 1997], Horn et al critiquent le système TrenDx pour son manque de exibilité. En eet, TrenDx ne s'adapte pas au contexte durant le temps d'observation. Les comportements dits normaux sont dénis au départ et ne sont pas adaptatifs. Un comportement normal au début d'une observation peut très bien ne plus l'être après ; par exemple, après la prise d'un médicament ou un changement de ventilation, le comportement physiologique d'un patient en anesthésie-réanimation. D'après [Miksch et al., 1996], le système a aussi un défaut d'ordre conceptuel puisque TrendX ne prend pas en compte la thérapeutique et ses bénéces sur le patient. Il s'agit ici, d'un traitement bas niveau ; il est principalement considéré comme un pré-traitement des données. Le processus d'abstraction ne repose pas sur un principe de fusion, mise à part la fusion temporelle. La connaissance est utilisée pour classier les patterns extraits et ces derniers sont construits à partir de modèles statistiques simples. Il n'y a pas de fusion de diérents niveaux d'interprétation. En outre, les patterns sont extraits sans procédé incrémental. 60 Chapitre 3 : ABSTRACTION DES DONNÉES ET DÉCOUVERTE DE SCÉNARIOS 3.3.2.2 Le système DIAMON-1 de Steiman DIAMON-1 [Steimann, 1995] [Steimann, 1996], est un système pour la construction de moniteurs capables de faire du diagnostic. A partir de patterns pré-déterminés associés à des diagnostics, le système essaie d'identier ces patterns dans le ux de données. Il s'agit de connaissance de classication ne rentrant pas directement dans le processus d'abstraction. Il fournit deux méthodes d'interprétation de données temporelles : une pour la détection de tendances basée sur des classes de comportement, et l'autre grâce à des automates, pour la modélisation de l'historique de la maladie du patient. C'est un moniteur intégrant le temps dans son modèle de données et combinant observations temporelles et logique oue. Steimann donne comme dénition d'une tendance dans [Steimann, 1996] : set of courses of continuous-time functions having identical meaning with respect to the given monitoring problem. Le signal est représenté dans un repère à trois axes : temporalité, valeur de possibilité et valeur numérique. A chaque point représenté par une valeur numérique et un temps correspondant est associé une mesure d'appartenance ; Steimann parle de concept d'évolution oue. Un ensemble ou d'évolutions est modélisé ; à chaque évolution possible est associée une possibilité globale. Ensuite, il procède à une approche par automates : une fois que chaque tendance est répertoriée dans la base de connaissances, l'automate permet de modéliser les comportements possibles du système à un instant donné. La spécication de l'automate n'est pas oue, seules les entrées le sont. L'automate ou permet de prendre en compte les abstractions temporelles. La construction de ces abstractions nécessite des connaissances sur la sémantique et la dynamique temporelles. Bilan Ce système nécessite de connaître a priori les situations à détecter (par exemple, l'eet d'une ventilation manuelle sur un nourrisson provoque certaines réactions attendues et décrites par les experts), ce qui n'est pas toujours possible. On peut faire les mêmes remarques que précédemment ; la connaissance n'est pas utilisée directement dans le processus d'abstraction et il n'y a pas de fusions sémantique et multi-sources à proprement parler. 3.3.2.3 Le système VIE-VENT de Miksch et al VIE-VENT [Miksch et al., 1996] est un système pour la validation des données et la planication d'une thérapie, et ce, pour la ventilation articielle des nouveaux nés. C'est un système en boucle ouverte qui regroupe les systèmes d'alarmes, de monitoring et de thérapie. Il est dédié à la recommandation thérapeutique pour le changement de réglages du ventilateur. Il permet aussi de signaler des situations critiques, de commenter et de documenter l'état du patient ventilé. VIE-VENT dispose d'un module d'abstraction de données (voir page 37, le paragraphe Le syndrome de détresse respiratoire). Les auteurs appellent le processus d'abstraction data point transformation. Le système met en correspondance la validation et l'abstraction des données. La validation permet principalement de détecter des artefacts et de vérier que les abstractions sont cohérentes [Horn et al., 1997]. Le module d'abstraction des données se divise en plusieurs sous parties : l'abstraction qualitative des points par le biais de seuils, le lissage des oscillations autour des seuils, Chapitre 3 : ABSTRACTION DES DONNÉES ET DÉCOUVERTE DE SCÉNARIOS 61 l'adaptation des seuils et l'ajustement des valeurs qualitatives suivant le contexte (ce qui est permis par des connaissances de classication23 ) et enn la transformation en des intervalles de temps à l'aide des tendances et des connaissances expertes sur les intervalles de temps (ce qui permet des termes qualitatifs comme diminue trop vite, diminue normalement, . . .). Cette étape correspond à l'étape d'interpolation temporelle et nécessite de la connaissance sur la dynamique temporelle des données 24 . Ces diérentes ten- dances calculées sur diérentes fenêtres temporelles permettent de valider l'abstraction d'un point (par exemple, si la succession des tendances sur une fenêtre temporelle et la valeur symbolique du point ne sont pas cohérentes, l'abstraction attribuée au point est déclarée comme invalide et donc la mesure du point l'est aussi). La connaissance utilisée est une connaissance de classication. Cependant, dans [Miksch et al., 1999], les auteurs proposent une nouvelle méthode d'abstraction des données brutes considérant celle de [Miksch et al., 1996] comme non utilisable sur des données obtenues sur de longues périodes. L'objectif de cette méthode est principalement d'améliorer le passage numérique/symbolique en introduisant de la structurelle 25 . Bilan connaissance Le processus d'abstraction est incrémental et à chaque étape est utilisé un type de connaissance. Ce système permet de tenir compte du contexte en plusieurs étapes ce qui est très pertinent. Chaque étape est cloisonnée et n'interfère pas sur la suivante ou la précédente. Les diérents niveaux d'interprétation ne communiquent pas et la fusion sémantique n'est donc pas partie prenante du processus. La notion de validité d'un paramètre sur un intervalle de temps s'appuie principalement sur la comparaison des diérentes tendances attribuées au point de mesure considéré. Elle est rendue possible par l'introduction de connaissances pré-établies sous forme d'heuristiques. Mais, la fusion est utilisée ici a posteriori et ne permet pas l'obtention de nouvelles abstractions. La fusion multi-sources n'est pas présente puisque le système est quasiment monoparamètrique. Il étudie principalement l'évolution d'un seul paramètre à la fois. L'étude des relations multi-paramètres est surtout réalisée dans l'étape de la validation, mais il s'agit d'heuristiques de connaissances de classication de type : V alid(P ULS ) = false =) V alid(SaO2) = false j HR P ULS j> 8 =) V alid(SaO2) = false 23 Suivant le mode ventilation du patient, les seuils sont changés mais de façon évolutive sur un laps de temps prédéni. L'ajustement des valeurs qualitatives se fait grâce à des règles du type : if 30 < PIP<= 35 and PtcCO2 is extremely below target range then PtcCO2 is changed to substantially below target range 24 Cette connaissance reste très générique. Elle permet de considérer plusieurs intervalles temporels sur lesquels les tendances sont calculées : la dernière minute, les 10 dernières minutes, les 30 dernières minutes et les 3 dernières heures. Ensuite, elles sont répertoriées suivant 10 valeurs qualitatives suivent des critères physiologiques (diminue trop vite, diminue normalement, . . .) 25 Des seuils sur chaque paramètre, donnés par les experts, permettent d'enlever les valeurs abérrantes des paramètres. Le bruit est ltré grâce à des informations supplémentaires sur la distribution des données, ce qui permet de dessiner une bande autour des valeurs brutes représentant l'erreur d'approximation. Et enn, les courbes sont qualiées suivant le comportement de la bande dénie précédemment ; un passage numérique/symbolique est eectué. 62 Chapitre 3 : ABSTRACTION DES DONNÉES ET DÉCOUVERTE DE SCÉNARIOS Bilan sur les méthodes mixtes d'abstraction Dans les processus présentés, la fusion dans l'abstraction n'est pas non plus considérée en tant que telle. Bien que certains systèmes en semblent proches (comme VIE-VENT, par exemple), il ne s'agit pas exactement de fusion. Même si certains processus sont incrémentaux, les étapes sont cloisonnées, chaque étape est construite à partir de la précédente mais il n'y pas de circulation de l'information : le processus est principalement itératif. Les auteurs se servent de la connaissance a priori pour diriger leurs recherches mais elle ne rentre pas en compte directement dans la construction propre des abstractions. 3.3.3 Des méthodes d'abstraction à base de connaissance Nous présentons trois processus d'abstraction à base de connaissances. Bellazzi et Larizza diérencient deux types d'abstraction, Shahar a construit un système formel très proche de celui de Dojat. Ces trois processus nous ont déjà permis d'introduire les mécanismes formels de l'abstraction dans la section 3.1.2. 3.3.3.1 Les abstractions de Larizza et Bellazzi Dans [Bellazzi et al., 2003], Bellazzi et al décrivent un projet de recherche dénissant des méthodes et des outils pour l'estimation de la performance clinique d'un service d'hémodialyse sur la base de séries temporelles collectées durant la surveillance de patients diabétiques, divisée en sessions correspondant au moment où le patient va faire une dialyse (ce peut être une session par semaine, durant quelques heures sur plusieurs mois). Ce projet se divise en deux parties, une pour l'abstraction de données et l'autre pour l'extraction de connaissances grâce à des méthodes de découvertes de règles à partir de ces abstractions. Le module d'abstraction de données est décrit dans [Larizza et al., 1995]. Il s'agit de reconnaître des formes caractéristiques dans les séries chronologiques observées. Dans [Bellazzi et al., 2002], les données sont d'abord résumées ; pour ce faire, des calculs de médianes et de percentiles ont été eectués pour chaque session. Ensuite, pour le calcul des abstractions simples, le principe est de classer les résultats en increasing, decreasing et `stationnary pour les tendances et en low, high et normal pour les états. Ils utilisent des connaissances de classication. A partir de ces dernières, sont construites les abstractions complexes. Celles-ci reposent sur l'étude des relations entre deux intervalles. Ces relations sont issues de l'algèbre d'Allen (BEFORE, FINISHES,. . .) [Allen, 1984]. La détermination de contraintes pour déterminer par exemple à partir de quel délai une abstraction est considérée comme étant avant une autre nécessite d'introduire des connaissances sur la sémantique et la dynamique temporelles des données. Dans [Bellazzi et al., 2003], Bellazzi et al ont ané leur méthode d'abstraction. Les auteurs utilisent des ltres multi-échelles basés sur la transformée en ondelettes discrètes pour calculer les abstractions simples. Bilan Le ux de données est relativement peu important puisqu'il s'agit de données ayant une fréquence d'acquisition de l'ordre de la mesure par jour et les abstractions sont donc calculées sur des intervalles de temps de l'ordre de la dizaine de mesures, soit de la dizaine de jours. Le calcul des abstractions simples reste assez primaire et ne tient pas susament compte de la dynamique des données et surtout, de la grande quantité de bruit présente. Chapitre 3 : ABSTRACTION DES DONNÉES ET DÉCOUVERTE DE SCÉNARIOS 63 Toutes les propriétés des abstractions (symboles et durée) sont données à partir de la connaissance. Il s'agit là aussi d'abstractions extraites à partir de signaux mono-paramétriques. Il n'y a donc pas de fusion multi-sources. Par contre, la construction des abstractions complexes relève bien de la fusion sémantique puisqu'ils utilisent les abstractions simples (précédemment calculées) et plusieurs types de connaissance. 3.3.3.2 Le système RÉSUMÉ de Shahar et al Shahar a implémenté une base de connaissances d'abstractions temporelles dans le système RÉSUMÉ. Celui-ci permet de modéliser et de créer des abstractions de données médicales et temporelles pour l'aide au diagnostic. L'objectif d'un tel système est d'interpréter le passé et le présent plutôt que de planier [Shahar, 1994]. Ce système peut être appliqué dans plusieurs domaines : endocrinologie, surveillance du trac routier. Shahar a construit une base de connaissances d'abstractions temporelles à partir d'une étude très précise des mécanismes de l'abstraction temporelle. Il a décrit de façon formelle les mécanismes d'abstraction [Shahar, 1994], [Shahar, 1997], [Shahar and Cheng, 1999] que nous avons en partie présentés dans la section 3.1.2.1. L'abstraction sous-tend la notion de temporalité et de connaissance. Ces deux aspects sont cruciaux dans les mécanismes d'abstraction qu'il décrit. La logique temporelle de Shahar se situe entre celles d'Allen [Allen, 1983] et de Mc Dermott [McDermott, 1982] : ses propositions sont interprétables sur des intervalles (comme Allen mais ici les intervalles peuvent être de longueur nulle) mais ses primitives sont des points. Elle est ainsi fortement inspirée de Soham [Shoham, 1987]. Cette logique correspond mieux aux données cliniques qui sont discrètes mais dont l'interprétation doit se faire le plus souvent sur des intervalles de temps [Shahar, 1994]. Dans un souci de formalisme, Shahar dénit plusieurs entités de la base de connaissances d'abstractions temporelles (KBTA). Ces entités sont au nombre de treize et basées sur les notions d'événement, de paramètre, de contexte 26 . Grâce à l'ontologie des événements, celle du contexte et celle des paramètres . . ., Shahar constitue l'ontologie des abstractions temporelles. Les contextes d'interprétation comme [. . .] drug insulin has an eect on blood glucose during this interval changes the interpretation of the state of the blood-glucose level, by suggesting a dierent denition of the value LOW [Shahar, 1997], sont construits principalement à partir de connaissances de classication. Shahar utilise l'ontologie des abstractions temporelles qui permet de résoudre les cinq sous-tâches d'abstraction temporelle (voir gure 3.6 où sont reportés certains de ces mécanismes). Les cinq sous-tâches sont résolues par cinq mécanismes d'abstraction temporelle (voir gure 3.8). Le mécanisme tenant compte du contexte crée des intervalles liés au 26 Chaque notion est dénie en termes de proposition ou autre puis déclinée en structure prenant en compte son aspect temporel. Il dénit un événement comme une action ou un processus extérieur. Il est ainsi externe au système d'abstraction, et ne peut donc être abstrait à partir des données (par exemple, l'administration d'un médicament). Il décline cette entité en une entité de type structure associant l'événement à un intervalle. Pour Shahar, un événement a une durée. 64 Chapitre 3 : ABSTRACTION DES DONNÉES ET DÉCOUVERTE DE SCÉNARIOS contexte. Par exemple, il peut s'agir du suivi d'un protocole spécique ou de l'occurrence d'un événement externe. Le mécanisme d'abstractions contemporaines (correspondant à l'inférence temporelle verticale) crée des abstractions sur des points ou intervalles de type état sachant l'ontologie des paramètres, les intervalles contextuels et les paramètres. Il peut être appliqué à un paramètre ou à plusieurs. Dans ce dernier cas, à partir de plusieurs paramètres abstraits est construite une seule abstraction, sous forme par exemple de diagnostic. Les trois derniers mécanismes, le mécanisme d'inférence temporelle, d'interpolation temporelle et de reconnaissances de patterns temporels permettent de résoudre les trois dernières sous-tâches. La construction des contextes est essentiellement construite à partir de connaissance de classication. A chaque tâche d'abstraction correspond un ou plusieurs types de connaissance (voir gure 3.8). 65 Chapitre 3 : ABSTRACTION DES DONNÉES ET DÉCOUVERTE DE SCÉNARIOS Fig. 3.8: La méthode d'abstraction temporelle basée sur la connaissance (KBTA) d'après [Shahar, 1997]. La tâche d'abstraction temporelle est divisée en 5 sous-tâches. triction du contexte temporel La res- crée des intervalles contextuels à partir d'un but d'abstraction, d'inter- valles d'événements ou de paramètres (par exemple, le contexte AZT-toxicity interpretation context induced by the existence of an AZT-administration event in the context of the CCTG-522 AIDStreatment experimental protocol). L'inférence temporelle verticale crée des abstractions symboliques 1 par inférence à partir des valeurs contemporaines des paramètres (numériques ou symboliques) . L'inférence temporelle horizontale (ou prolongation par continuïté) : à partir d'intervalles tempo- rels contigus, liés à un même paramètre, mais liés à des contextes diérents, l'inférence temporelle horizontale permet d'abstraire un seul intervalle temporel qualié par une proposition temporelle unique [Ramaux, 1998]. L'interpolation temporelle (correspond à l'agrégation lorsque l'on consi- dère des intervalles) permet de générer des abstractions temporelles d'un même paramètre sur des intervalles disjoints voir même des points (création d'un intervalle si à 2 instants pas trop éloignés le paramètre traité a la même valeur dans le même contexte). formes La reconnaissance temporelle de crée des intervalles à partir d'intervalles disjoints par comparaison avec des modèles prédé- nis. Chaque sous-tâche peut être eectuée par un des cinq mécanismes d'abstraction temporelle. Les mécanismes d'abstraction temporelle dépendent de quatre types de connaissance. Bilan Selon Shahar et al, bien que ces résultats soient encourageants, ils notent quelques dicultés pour des données médicales, en particulier la représentation de données cycliques, la recherche d'une origine temporelle (âge du patient et cycles de chimiothérapie par exemple), l'intégration de requêtes statistiques ou temporelles et l'intégration de patterns d'événements (administration de médicaments) et non plus seulement de paramètres (glucose). D'après 1 En fait, Shahar considère l'inférence temporelle verticale comme temporelle puisqu'il justie le fait de joindre deux intervalles disjoints ou deux points si l'espace les séparant, c'est-à-dire le délai temporel entre les deux éléments, est en dessous d'un seuil donné. Il y a la notion de persistance des valeurs du paramètre dans un contexte temporel donné. Ainsi, on peut rapprocher l'inférence temporelle verticale de Shahar de l'abstraction qualitative de Clancey pour un paramètre et de l'abstraction dénitionnelle pour plusieurs. 66 Chapitre 3 : ABSTRACTION DES DONNÉES ET DÉCOUVERTE DE SCÉNARIOS [Horn et al., 1997], le système RÉSUMÉ comprend plusieurs défauts : il n'inclut pas diérents classieurs pour diérents niveaux d'anormalité, il nécessite de la connaissance prédénie du domaine ce qui n'est pas possible dans certains domaines. De plus, on peut noter que ce système ne semble pas adapté à des données de haute dimension comme celles d'USIs, où la fréquence des données est élevée. Shahar et al ont permis de poser clairement et de manière formelle, voire même de disséquer le problème d'abstraction temporelle des données. Ils ont mis en lumière le rôle primordial des connaissances du domaine dans le mécanisme d'abstraction. Cependant, elles jouent un rôle tel, que la construction des abstractions est pénalisée dans le cas de domaines d'application où la connaissance est incomplète. En particulier, la reconnaissance de patterns qui permet d'obtenir des abstractions plus complexes et donc d'un niveau d'interprétation supérieur (par le biais de relations entre paramètres, par exemple), est basée entièrement sur la connaissance experte. 3.3.3.3 Le système NéoGanesh de Dojat Les travaux de Dojat [Dojat, 1994] rejoignent ceux de Shahar dans la mesure où les abstractions sont là aussi principalement basées sur la connaissance. Les mêmes connaissances (connaissance structurée, connaissance sur la classication, connaissances sur la sémantique et la dynamiques temporelles) sont utilisées. Cependant, Dojat introduit les concepts d'abstraction d'oubli/agrégation an de ne pas stocker des données obsolètes qui peuvent saturer les machines, en particulier en temps réel dans des domaines où un important ux de données existe. Ces abstractions permettent la construction de scénarios à partir de la connaissance experte. Ce système appelé NéoGanesh est en boucle fermée et est destiné à contrôler l'assistance ventilatoire de patients en USIs (voir chapitre 2). Bilan Le processus est basé sur l'implication de plusieurs types de connaisances à chaque étape de l'abstraction. En ce sens, on peut parler de fusion. Cependant, la construction des patterns est régie par la connaissance experte et n'est pas apprise à partir des données : il n'y a pas de fusion multi-sources puisque ces règles ne sont pas apprises. Par contre, le processus est incrémental. Bilan sur les méthodes d'abstraction à base de connaissances Ces deux systèmes (RÉSUMÉ et NéoGanesh) proposent une méthodologie de type supérieur, c'est à dire qu'une fois les abstractions produites, le système ne permet pas d'y revenir. Pour cette raison, ils paraissent peu adaptatifs. L'introduction de connaissances dans ces systèmes permet de contrôler les abstractions. Elle est aussi incrémentale puisqu'il y a plusieurs étapes : construction des abstractions simples et complexes pour Larrizza et al et plusieurs mécanismes (inférence, puis agrégation, etc . . .) pour les deux autres. Par contre, bien que les systèmes décrits utilisent de la fusion sémantique, cette utilisation reste tout de même limitée. Ces processus sont incrémentaux : chaque étape d'abstraction est eectuée à partir des résultats de l'abstraction précédente. La fusion consiste principalement en la combinaison de ces résultats et la connaissance a priori. La communication entre les informations est alors restreinte. La construction de scénarios Chapitre 3 : ABSTRACTION DES DONNÉES ET DÉCOUVERTE DE SCÉNARIOS 67 ou de patterns est faite à partir de connaissance et ne procède pas à des règles apprises. En ce sens, la fusion multi-sources n'est pas utilisée. 3.4 Synthèse et présentation de quelques pistes pour l'abstraction des données 3.4.1 Synthèse Nous récapitulons dans le tableau 3.2 les diérents systèmes d'abstraction pré-cités suivant les principes énoncés en introduction de ce chapitre ; à savoir si ce sont des systèmes incrémentaux, et s'ils utilisent de la fusion (comme elle a été dénie dans ce chapitre). Au vu de ce tableau, il est clair que les méthodes d'abstraction de données citées dans ce chapitre, n'ont pour la plupart, pas tenu compte de ces principes. Même si certaines peuvent être décrites en terme de fusion, elles n'intègrent pas de fusion de plusieurs niveaux d'interprétation. La fusion est essentiellement due à l'incrémentalité de l'injection de connaissances qui permet de guider le procédé d'abstraction. En cela, il s'agit plutôt de procédés itératifs. Il n'y a aucun procédé de fusion multi-sources : les relations entre les paramètres n'ont pas été apprises, elles sont dues à la connaissance experte et les auteurs n'envisagent pas de les apprendre. Par contre, des opérateurs de fusion temporelle ont été employés dans tous les processus (plus ou moins évolués). Ces méthodes n'ont pas été du tout construites suivant ces principes. Il est très dicile de comparer ces systèmes mais on peut en tirer quelques remarques : Il n'existe pas de méthodologie clairement dénie d'un système d'abstraction. Pour chaque système décrit précédemment, il n'y a pas de formalisation du problème (mis à part RÉSUMÉ où Shahar a formalisé le rôle de la connaissance grâce à la construction d'une ontologie, et non pas son rôle dans la dynamique du processus d'abstraction). Chaque système a été construit pour répondre à une problématique contextualisée et non formalisée. Ces systèmes sont fermés. Une fois les abstractions établies, le système les considère comme dénitives et il n'y a pas de moyen possible pour revenir en arrière. En particulier, les systèmes basés sur les statistiques marchent comme une espèce de boîte noire qui renvoie les résultats sans que ni les experts ne puissent intervenir, ni le système lui-même. Cet état de fait marque surtout un manque d'adaptabilité du système concerné. 3.4.2 Pistes Partant de ce constat, nous avons essayé dans ce travail de thèse de formaliser la problématique de l'abstraction de données dans un contexte plus général qui est l'extraction de connaissances (puisque le but de ce travail est d'extraire des scénarios). Ainsi, concernant l'abstraction des données, nous nous sommes eorcés de construire une méthodologie basée sur une ontologie des concepts manipulés. Cette méthodologie propose : de manipuler des concepts clairement dénis dans un souci de généralisation, de fusionner ces concepts an d'en optimiser leur utilisation, de procéder par étapes successives an de prendre de petites décisions et assurer le contrôle, Chapitre 3 : ABSTRACTION DES DONNÉES ET DÉCOUVERTE DE SCÉNARIOS 68 ou au- Incrémenta- Fusion Fusion multi-sources oui lité Fusion sémantique non oui précé- précé- Fusion non non que que oui oui oui oui oui relle non non TrendFinder oui oui Calvelo non non non Morik oui non non non non non car les règles permettant de passer à une abstraction dénitionnelle sont obtenues grâce à la connaissance experte. Des relations entre plusieurs paramètres ne sont pas cherchées pendant le processus d'abstraction. car les règles permettant de passer à une abstraction dénitionnelle sont obtenues grâce à la connaissance experte. même remarque demment Des relations entre plusieurs paramètres ne sont pas cherchées pendant le processus d'abstraction. non oui/non oui/non oui/non oui/non La fusion réside plutôt dans l'introduction de connaissances dans les étapes qui ne communiquent pas entre elles. non non oui oui oui oui non non Larizza VIE-VENT DiaMon1 TrendX teurs Nom Systèmes d'abstraction Principe Basé sur les données Mixte Basé sur la connaissance RÉSUMÉ NéoGanesh même remarque demment tempo- Les diérents systèmes d'abstraction suivant les critères dénis (incrémentalité et fusion). Les réponses oui/non signient qu'elles sont mitigées et que le système possède certains points pouvant répondre au critère déni mais pas de façon globale. Tab. 3.2: Chapitre 3 : ABSTRACTION DES DONNÉES ET DÉCOUVERTE DE SCÉNARIOS 69 d'améliorer le contrôle par la découverte de scénarios permettant de revenir sur les abstractions déjà trouvées et éventuellement de les aner. Nous développons ces points dans le chapitre suivant. 3.5 Découverte de scénarios et fusion 3.5.1 Les scénarios et les abstractions Les systèmes d'abstraction cités sont des processus mono-paramètriques appliqués à chaque donnée et ils construisent donc les abstractions paramètre par paramètre. Or, faire une analyse multi-paramètrique serait certainement le plus pertinent. Par exemple, l'analyse des autres données peut expliquer un comportement surprenant d'une donnée : soit ce comportement est justié puisque des comportements similaires se retrouvent chez les autres données, soit, au contraire il est classé comme artefact s'il n'est pas justié par les autres. Ce genre d'analyse est typique du raisonnement des experts pendant la surveillance. Ceci dit, certains systèmes tentent de prendre en compte le comportement de l'ensemble (ou d'une partie) des données (comme les systèmes de Shahar sous le nom de pattern ou Dojat sous le terme de scénario). Néanmoins, cette prise en compte est basée uniquement sur la connaissance experte : ce sont les médecins qui donnent les liens entre les paramètres, états, événements, . . . Des systèmes de représentation des données et des connaissances sont développés pour leur faciliter l'expression de cette connaissance. Comme on l'a vu au chapitre 1, la connaissance médicale est particulièrement incomplète et l'obtention de scénarios uniquement pas ce biais est limitée. L'extraction de scénarios par apprentissage à partir des données, informations et connaissances semble ainsi la méthode la plus pertinente. Cette extraction se place donc dans le contexte plus général d'extraction de connaissance (un scénario étant une représentation d'une connaissance), et en particulier, elle repose sur la fouille de données. Dans notre travail de thèse, nous envisageons la fouille pour l'extraction de scéna- rios. Les données ont été préalablement transformées (par des méthodes d'abstraction), et la recherche de scénarios s'eectue à partir de ces données ou informations. Les scénarios permettraient : la découverte de connaissances, qui à leur tour permettraient le ranement des abstractions, qui à leur tour permettrait l'obtention par le biais de méthodes de fouille de nouvelles connaissances, etc . . . Le processus s'arrêterait lorsque la connaissance découverte sera considérée comme susament pertinente par les experts. Nous proposons ainsi une approche globale procédant par fusion sémantique (pour le calcul des abstractions), puis par fusion multi-sources, puis après l'interprétation des résultats, de nouveau par fusion sémantique (pour raner les abstractions), etc. . . La fusion temporelle est présente dans tout le processus. 3.5.2 La fouille comme un processus de fusion ? La fouille peut être envisagée comme un processus de fusion des données, informations et connaissances [Bloch and Hunter, 2001] : 70 Chapitre 3 : ABSTRACTION DES DONNÉES ET DÉCOUVERTE DE SCÉNARIOS Fusing data and rule bases aims at completing the data using (maybe defeasible) inference or at improving the rules by means of data. This involves some learning, and is close to data mining, where the aim is prediction. La fouille peut reposer sur les trois types de fusion dénis : fusion temporelle, fusion sémantique et fusion multi-sources. Comme pour les processus d'abstraction, trouver un algorithme adéquat de fouille consiste à trouver le bon équilibre entre la qualité des données et la connaissance disponible. Ainsi, il s'agit d'intégrer de la manière la plus pertinente et judicieuse les données et les connaissances an de pouvoir extraire de la connaissance utile. La notion d'utilité nécessite l'interprétation des résultats obtenus et une méthode de validation et d'évaluation robuste. Nous dénissons à présent ce qu'est la fouille de données et en particulier la fouille de données temporelles an d'introduire la recherche de patterns dans notre contexte. 3.6 Qu'est ce que la fouille de données ? 3.6.1 Dénition de la fouille de données On peut trouver sur le web plusieurs dénitions de la fouille de données. Par exemple, une dénition dans un contexte industriel : On peut dénir le data mining comme un processus analytique destiné à explorer de larges quantités de données (typiquement en marketing, mais aussi en génomique, essais thérapeutiques,. . .) an de dégager une certaine structure et/ou des relations systématiques entre variables, puis en validant les conclusions en appliquant les structures trouvées à de nouveaux groupes de données. Le processus suit donc trois étapes : exploration, construction d'un modèle ou dénition d'une structure, et validation/vérication. Idéalement, si la nature des données le permet, le processus est répété par itérations jusqu'à ce qu'un modèle robuste soit obtenu. . . . ou une déniton plus académique donnée par B. Zupan 27 : Data mining is an increasingly popular interdisciplinary eld that combine statistics, visualisation, machine learning, and other data manipulation and knowledge extraction techniques in order to gain insight into the relationships and patterns hidden in the data. Finalement, la fouille de données est l'ensemble des techniques et algorithmes permettant de détecter des caractéristiques des données (comme des patterns 28 , par exemple). Elle est une étape dans le processus d'extraction de connaissance [Fayyad et al., 1996] : it consists of applying data analysis and discovery algorithms that, under acceptable computational eciency limitations, produce a particular enumeration of patterns (or models) over the data. 27 http ://www.spss.com/france/seminars/ Un pattern est une forme caractéristique des données qu'elles soient temporelles ou non, discrètes ou continues,. . . Il peut lier une ou plusieurs caractéristiques d'un même paramètre ou de plusieurs. 28 Chapitre 3 : ABSTRACTION DES DONNÉES ET DÉCOUVERTE DE SCÉNARIOS 71 Les patterns obtenus devront être ensuite interprétés, évalués et validés pour extraire de la connaissance. 3.6.2 La fouille de données en trois axes Il est remarquable de noter ici la diculté de trouver des patterns caractéristiques des données. Suivant les applications, les dépendances/relations entre les données sont très complexes et ardues à transcrire, à interpréter. Les chapitres 1 et 2 ont permis de pointer le fait que les données sont souvent peu informatives, à potentiel informatif restreint. Les connaissances a priori sont bien souvent, faibles ou dicilement manipulables. Non seulement la fouille doit permettre la détection des patterns mais ces derniers doivent posséder des qualités informatives. Ainsi, la validation des patterns utiles est primordiale et doit être prise en compte dans le choix de l'algorithme de fouille, de la représentation des patterns et de la méthode de validation. Le choix de ces trois points fait partie intégrante de la fouille. Ils peuvent être dénis de la manière suivante [Fayyad et al., 1996] : Une représentation du modèle Elle doit permettre une explicitation pertinente du pattern découvert, susamment expressive et informative pour l'utilisateur. Cependant, une représentation satisfaisante du pattern n'induit pas forcément une interprétation aisée du modèle (le meilleur exemple étant les réseaux de neurones dont les patterns peuvent être exprimés sous forme de règle mais dont l'interprétation du modèle reste une boîte noire pour l'utilisateur). Des critères d'évaluation du modèle Ils sont quantitatifs et permettent de quantier l'utilité, la nouveauté, l'informativité, . . . des patterns découverts. Une méthode de recherche Lorsqu'une représentation du modèle et les critères d'évaluation sont dénis, la recherche du modèle peut être envisagée comme un problème d'optimisation : quel est le meilleur modèle qui optimise les critères d'évaluation pour la représentation du modèle choisie ? Faire de la fouille de données, c'est aussi, dans un premier temps avoir ou choisir (lorsque l'on peut) une représentation des données. Avoir une représentation des données perti- nente permet d'avoir des données informatives, à potentiel informatif et des résultats de la fouille dignes d'intérêt dépendent souvent de la représentation initiale des données. Nous allons à présent présenter la fouille de données temporelles qui est le sujet nous intéressant dans cette thèse. 3.7 La fouille de données temporelles Cette section est un tour d'horizon des problèmes posés pour la fouille de données temporelles. Il n'a pas la prétention d'être exhaustif. Il s'agit de présenter quelques représentations de données temporelles et quelques techniques de fouille. Le but de cette section est de mettre en avant les dicultés liées à toutes ces possiblités. Ici, se pose une question importante pour les données temporelles : traditionnellement, on transforme les données an de pouvoir appliquer les algorithmes de fouille de données (qui sont indépendants du temps). Mais ne serait-il pas astucieux de développer de nouveaux algorithmes (spéciques aux données temporelles) 72 Chapitre 3 : ABSTRACTION DES DONNÉES ET DÉCOUVERTE DE SCÉNARIOS pour pouvoir traiter les données ? Cette question commence à se poser chez les chercheurs s'intéressant aux données temporelles. Ceci dit, nous ne répondrons pas à cette question dans ce travail de thèse, d'autant plus que nous nous intéressons à des données temporelles mais dans le domaine médical, qui est tout à fait à part [Cios and Moore, 2002]. 3.7.1 En quoi la fouille de données temporelles est-elle diérente de la fouille de données atemporelles ? Nous nous inspirons ici de [Höppner, 2002]. Il s'agit de quelques points de diérence entre la fouille de données temporelles et atemporelles. La diérence repose principalement sur les données elles mêmes ; les données temporelles possèdent des caractéristiques spéciques. Nous les détaillons ci-après. 3.7.1.1 Phénomènes de dilatation/translation La notion de similarité dans les données temporelles est bien moins évidente que pour des données atemporelles. Ceci provient des phénomènes de dilatation/translation. Les mesures de similarité traditionnelles, comme la mesure euclidienne par exemple, ne tiennent pas compte de la dimension temporelle. La gure 3.9 présente quelques séries temporelles. La mesure euclidienne considère les courbes (a) et (c) comme similaires alors qu'il semble que ce soit les plus dissemblantes au contraire, du moins à l'÷il humain. Fig. 3.9: Illustration de la notion de similarité. La courbe (a) est plus proche de la courbe (c) que les courbes (b) et (d) lorsque l'on utilise la mesure euclidienne [Höppner, 2002]. 3.7.1.2 Plusieurs niveaux d'interprétation possibles Dans les séries temporelles, il est souvent plus intéressant d'étudier les variations de comportement des données (les tendances en particulier) que la valeur elle-même à un instant précis. Mais, la détermination de la bonne échelle temporelle pour étudier les variations est complexe (voir par exemple [Calvelo et al., 2000]). Sur la gure 3.10, l'on peut se demander si les variations rapprochées sont signicatives ou non et si elles ne sont pas simplement l'eet d'une mauvaise échelle de représentation, par exemple. Il s'agit de pouvoir interpréter les données de la façon la plus able possible. L'étape de transformation des données prend tout son sens et reste une étape primordiale (voir section 3.1). Chapitre 3 : ABSTRACTION DES DONNÉES ET DÉCOUVERTE DE SCÉNARIOS Fig. 3.10: 3.7.1.3 73 Exemple d'une série temporelle ([Höppner, 2002] ). Dépendances des valeurs numériques Les données temporelles correspondent à des valeurs d'une même variable à des instants diérents. Ces valeurs ne sont pas indépendantes et sont fortement corrélées en général. Cette caractéristique est spécique aux données temporelles contrairement aux données atemporelles. 3.7.1.4 Mesures d'intérêt de la connaissance Trouver une mesure appropriée pour évaluer l'intérêt de la connaissance extraite n'est pas spécique à la fouille de données temporelles. Cependant, la dimension temporelle complique la recherche d'une mesure pertinente puisque la fouille de données temporelles est généralement utilisée pour faire de la prédiction. Il s'agit de prédire au mieux comment le paramètre va se comporter. Ainsi, au début de l'épisode, l'incertitude quant à son comportement est importante et plus le temps passe, plus il est prédictible. Cette diérence de point de vue est dicilement modélisable et donc mesurable. Ceci est renforcé par le fait que les mesures actuelles sont surtout consacrées aux données atemporelles. 3.7.2 Plusieurs types de représentation de données temporelles La fouille de données temporelles concerne plusieurs types de représentation de données temporelles. Elles peuvent être sous la forme de : Séries temporelles Ce sont des valeurs numériques échantillonnées à une certaine fréquence. Fragments de séries temporelles Ce sont des séquences de séries temporelles séparées par des périodes où les données sont manquantes. Séquences d'événements Ce sont des alarmes par exemple. A chaque événement correspond une étiquette temporelle précisant l'instant où a eu lieu l'événement. Séquences d'états ou d'intervalles A chaque état correspond là aussi une étiquette temporelle mais elle est un intervalle temporel précisant la durée de l'état correspondant. A chaque type de représentation des données temporelles, va correspondre une ou plusieurs technique(s) de fouille. Par exemple, pour une série temporelle classique, les algorithmes de fouille sont numériques comme par exemple les méthodes de régression. Pour des séquences d'états, la recherche de règles d'association va être plutôt considérée. 74 Chapitre 3 : ABSTRACTION DES DONNÉES ET DÉCOUVERTE DE SCÉNARIOS 3.7.3 Plusieurs types de représentation des patterns Les types de représentation des patterns peuvent être confondus avec le modèle de recherche des patterns. Par exemple, les arbres de décision désignent une méthode de fouille et une forme de représentation des patterns. Dans ce chapitre, nous nous focalisons sur les types de représentation. Cette étude n'a pas l'ambition d'être exhaustive mais de présenter succinctement des exemples. La fouille de données concerne plusieurs types de représentation de patterns. Ils peuvent être sous la forme de : Graphes C'est une représentation très explicite. Si l'on prend l'exemple des réseaux bayésiens, la structure propre du réseau peut être directement donnée par les experts du domaine. Règles Elles sont principalement de type SI (conditions) ALORS (conclusion). La prémisse peut comporter plusieurs conditions, qu'elles soient quantitatives et/ou qualitatives, qu'elles portent sur des notions temporelles ou non, . . . Les mêmes remarques sont applicables à la conclusion. Les arbres de décision rentrent dans cette catégorie. Systèmes de visualisation spéciques Les cartes de Kohonen [Kohonen, 1997]29 en sont un exemple. Les techniques de visualisation des patterns sont un sujet de recherche prometteur et en plein essor [Cios and Moore, 2002] : Visualization techniques will play an increasing role in this setting, since images are the easiest for humans to comprehend, and they can provide a great deal of information in a single snapshot of the results. Dans [Unwin, 2002], l'auteur précise même que des systèmes de visualisation peuvent permettre d'évaluer les patterns découverts et ainsi, être des méthodes alternatives d'évaluation et de validation par rapport aux méthodes classiques telles que les méthodes de statistique. Cette liste n'est pas non plus exclusive. Par exemple, la représentation de connaissances sous forme de scénario peut être autant une formulation sous forme de règle qu'une formulation sous forme de graphe. 3.7.4 Plusieurs critères d'évaluation et/ou de validation Le principal problème de la découverte de patterns n'est pas tant la découverte elle-même que l'intérêt des patterns. Les patterns découverts par les algorithmes de fouille doivent être analysés suivant leur intérêt et leur capacité à apporter de la connaissance utile, nouvelle et pertinente. Dans cette section, nous assimilons donc les critères d'évaluation aux critères d'intérêt 30 . Cette validation ou interprétation peut être eectuée par l'intermédiaire de mesures construites à cet eet. Cependant, comme nous allons le voir plus tard, l'obtention de telles mesures est particulièrement délicate et mal aisée. La mesure des patterns découverts est une étape suivant la fouille de données dans le processus d'extraction. Mais, 29 Les réseaux de Kohonen sont une projection d'un espace de dimension n dans un espace de dimension m. An de pouvoir observer concrètement les résultats, on choisit généralement m avec une valeur de 2. Il est néanmoins possible de le prendre avec une valeur de 3. Mais, cette valeur est rarement supérieure, pour des raisons de lisibilité graphique. 30 Nous verrons dans un exemple présenté ci-après que des algorithmes de fouille peuvent être validés selon leur robustesse au bruit mais non pas par rappport à leur intérêt. Chapitre 3 : ABSTRACTION DES DONNÉES ET DÉCOUVERTE DE SCÉNARIOS 75 il n'existe pas de mesure universelle, i.e. valable pour tous les algorithmes et souvent, la mesure dépend de l'algorithme lui-même. Pour illuster notre propos, nous présentons les travaux de Hilderman et al qui ont essayé de classer ou du moins de recenser les mesures d'intérêt de la connaissance extraite. On peut dénir plusieurs critères d'intérêt qui peuvent être classiés de deux manières [Hilderman and Hamilton, 2000] : mesures objectives : elles sont basées sur la structure des patterns découverts : jmesure, facteur de certitude,. . . mesures subjectives : elles sont basées sur les croyances concernant les relations entre les données. Ces dernières sont sujettes à l'appréciation de l'utilisateur et de l'expert, eux seuls déterminent la pertinence des règles apprises suivant des critères qui leur sont propres ; ces mesures sont donc dépendantes de leur utilisation ultérieure et peuvent sembler ainsi complètement subjectives. Dans [Hiderman and Hamilton, 1999], Hilderman et al répertorient 17 mesures d'intérêt qu'ils comparent suivant leur mode de représentation, la nature générale de la mesure (probabiliste, distance,. . .), le nombre de règles couvertes par chaque valeur d'intérêt et la classe de la mesure suivant son objectivité ou sa subjectivité (voir gure 3.11). Fig. 3.11: Les 17 mesures d'intérêt d'après [Hiderman and Hamilton, 1999] Par exemple, la J-mesure est dénie comme une mesure de classication, de nature probabiliste, calculée pour des règles simples et c'est une mesure objective. La J-mesure est une mesure d'information de la règle, elle s'apparente à la mesure d'information de Kullback. Etant donnée la règle if Y = y then X = x, avec X et Y, deux variables aléatoires, la J- mesure compare la distribution a priori de X avec la distribution a posteriori de X sachant 76 Chapitre 3 : ABSTRACTION DES DONNÉES ET DÉCOUVERTE DE SCÉNARIOS Y. L'information relative quantie l'information que j( X nY = X y) = z 2f g P r (X = z n Y Y = y procure sur X : P r (X = z n Y = y ) P r (X = z ) = y) log2 = y ) j (X n Y x;x La J-mesure en est une moyenne : J (X n Y = y ) = P r (Y = y) . Dans [Hilderman and Hamilton, 2000], Hilderman et al énoncent cinq principes devant être respectés par les mesures an de rendre compte de l'intérêt de la connaissance extraite. Ces principes sont diérents de ceux cités précédemment ; ce sont les principes de valeur minimale, de valeur maximale, de biais, d'invariance par permutation et de trans- f de m variables, f (n1 ; : : : ; n ) où f représente une mesure générale, m le nombre total de tuples et chaque n , le nombre de tuples t ayant la propriété i. Ces principes sont inspirés de la théorie de fert. Ils ont une formulation mathématique et s'appuient sur une fonction m i i l'information. Par exemple, le principe de valeur minimale : n ;:::;n Given a vector ( 1 m ), where n i = n,i j 6= j , for all i, j, f (n1; : : : ; n m ) attains its minimum value. Ce principe signie que l'intérêt minimal devrait être atteint quand les nombres de tuples sont tous égaux (c'est à dire qu'on a une distribution uniforme) et donc, aucun tuple n'apporte plus d'information qu'un autre. Le deuxième principe stipule que le maximum de la fonction f doit être atteint si la distribution est inégale. Dans la suite de l'article, les auteurs étudient l'adéquation de ces principes à une quinzaine de mesures (qui sont référencées dans [Hiderman and Hamilton, 1999]). Seules cinq mesures satisfont les cinq principes (voir gure 3.12). Fig. 3.12: Les diérents mesures suivant les 5 principes d'après [Hilderman and Hamilton, 2000]. Les colonnes représentent les cinq principes proposés et les lignes les diérents mesures. Par exemple, la mesure de Shanon respecte les cinq principes. 77 Chapitre 3 : ABSTRACTION DES DONNÉES ET DÉCOUVERTE DE SCÉNARIOS Cette étude nous montre qu'il n'y a pas de mesures attribuées à une méthode de fouille en particulier et que le choix des mesures dépend de plusieurs paramètres, entre autres de l'objectif que l'on s'est attribué. Bien que l'intérêt des connaissances nous semble le critère le plus important, il existe bien d'autres critères comme les critères de sensibilité, de robustesse au bruit, de rapidité des algorithmes, . . . 3.7.5 Plusieurs méthodes de fouille Dans cette section, nous décrivons les techniques de fouille en tenant compte de la temporalité des données mais elles sont applicables à toutes sortes de données tant temporelles qu'atemporelles. Le site internet UCR Time Series Mining Data Archive procure de nombreuses références dans le domaine de la fouille de données temporelles 31 . Il existe plusieurs techniques de fouille de données : L'indexation sert à trouver les séries similaires parmi un ensemble de séries temporelles. Le clustering permet de trouver des groupes similaires de séries suivant des mesures de similarité/dissimilarité. La classication assigne une classe prédénie à une série temporelle non labellisée. La segmentation crée une approximation de plus petite dimension d'une série temporelle contenant n points. Cependant, la segmentation se rapproche plus d'une technique de transformation des données que d'un processus capable d'extraire de la connaissance. L'extraction de règles décrit les données sous forme de relation de type if then. La plus connue est la découverte de règles d'association. La détection d'anomalies permet de trouver des comportements anormaux, surprenants ou nouveaux étant donnée une liste de comportements normaux. Par exemple, dans [Keogh et al., 2002], Keogh et al dénissent les patterns comme surprenants si la fréquence de leur occurrence dière de celle que l'on pouvait attendre au vu de données antérieures. Cette dénition ne reposant pas sur l'appréciation de l'expert semble, pour les auteurs, plus commode et plus objective. Ces techniques peuvent être envisagées suivant le domaine d'application, l'objectif que l'on a xé, et la représentation des données que l'on dispose. Les objectifs de la fouille de données se divisent en deux classes [Roddick and Spiliopoulou, 2002] : la prédiction des valeurs des caractéristiques d'une population, l'identication de similarités parmi les membres d'une même population. Ceci dit, il est très dicile de classer ces techniques tant elles dépendent du domaine d'application, de l'objectif, . . . Comme l'ont si bien dit Fayyad et al, [Fayyad et al., 1996] : [. . .] there is no universal data-mining method, and choosing a particular algorithm for a particular application is sometimes of an art. 31 http ://www.cs.ucr.edu/eamonn/TSDMA/ 78 Chapitre 3 : ABSTRACTION DES DONNÉES ET DÉCOUVERTE DE SCÉNARIOS 3.7.6 Exemple de découverte de motifs fréquents Nous présentons un exemple d'extraction de motifs fréquents dans une série temporelle. Cet exemple nous semble intéressant puisqu'il permet d'illustrer la problématique de fouille de données temporelles. Il s'agit de trouver des motifs de longueur pré-déterminée dans une série temporelle sans connaissance a priori sur les régularités des données [Chiu et al., 2003]. Les données brutes sont transformées et représentées sous forme de données numériques sur des intervalles de temps, type état. Dans [Lin et al., 2003], Lin et al décrivent la méthode de transformation des données et montrent l'intérêt de leur représentation des données pour les tâches de fouille telles que la classication, l'indexation, . . . Dans [Chiu et al., 2003], Chiu et al appliquent cette représentation pour l'extraction de motifs fréquents. Nous verrons dans l'exemple présenté ci-après que les critères d'évaluation ne reposent pas sur des mesures d'intérêt mais plutôt sur la capacité de la méthode à résister au bruit. Les critères d'évaluation dépendent aussi de la représentation des motifs et de la méthode de fouille. La transformation/représentation des données [Lin et al., 2003] La recherche porte ici sur des intervalles de même longueur et des relations monoparamétriques. Ainsi à partir d'une série temporelle que Lin et al transforment en série symbolique (suite d'intervalles temporels sur lesquels est attribuée une valeur symbolique) [Lin et al., 2003], ils décrivent un algorithme permettant de découvrir des motifs. L'idée de l'algorithme est de projeter les objets-données sur des sous-espaces de dimension inférieure, basés sur un choix aléatoire des caractéristiques des objets. Avant cette projection, la série temporelle est d'abord transformée en série symbolique ; les auteurs découpent la série en intervalles égaux sur lesquels ils calculent la moyenne des valeurs qu'ils attribuent ensuite à cet intervalle. Puis, ils déterminent les points de rupture grâce à une méthode s'appuyant sur une gaussienne : B = b1 ; : : : ; b b +1 = 1=a Breakpoints are a sorted list of number a N(0,1) Gaussian curve from b i to a 1 such that the area under i Suivant la position des intervalles par rapport aux points de rupture, sont attribués des symboles aux intervalles (voir gure 3.13) Fig. 3.13: Série temporelle discrétisée puis après détermination des points de rupture (courbe verticale) symbolisation d'après [Chiu et al., 2003] Cette transformation de séries temporelles numériques en séries temporelles symboliques est appelée SAX (Symbolic Aggregate approXimation). Chapitre 3 : ABSTRACTION DES DONNÉES ET DÉCOUVERTE DE SCÉNARIOS 79 La découverte de motifs fréquents [Chiu et al., 2003] Représentation des patterns Les patterns sont représentés sous une forme de visualisation typique des séries temporelles (voir gure 3.14). Fig. 3.14: Illustration de motif découvert dans une série temporelle d'après [Chiu et al., 2003]. A gauche, une série temporelle. A droite, un motif est découvert même en présence d'un spike. La méthode de découverte Les auteurs cherchent des motifs de longueur pré-dénie. Par exemple, sur la gure 3.13, le motif cherché a une longueur de 4, c'est à dire qu'il est de longueur correspondant à quatre intervalles. An de découvrir des motifs fréquents à partir des données transformées comme ci-dessus, Chiu et al comptabilisent dans une matrice dite de collision le nombre de fois où l'on retrouve une sous-séquence de symboles et ce, pour toutes les sous-séquences ; un nombre élevé est un indice fort de la présence d'un motif. An de conrmer cette supposition, les auteurs calculent la distance entre les sous-séquences numériques (à partir des données initiales) ayant donné lieu aux motifs ; ils utilisent la distance euclidienne (ce qui peut être discutable). Le problème est qu'ils peuvent trouver des sous-séquences avec une distance susamment faible pour être considérées comme faisant partie de la classe des motifs découverts, alors que d'un point de vue symbolique, elles n'en faisaient pas partie. Dans ce cas là, la sous-séquence symbolique doit avoir une valeur dans la matrice de collision proche de celle du motif. Pour déterminer un critère d'arrêt pour le calcul des valeurs de la matrice de collision, plusieurs possibilités sont oertes : xer au préalable un nombre d'itérations, arrêter les calculs lorsque l'expert est satisfait des motifs découverts ou lorsque la plus grande valeur trouvée n'est pas plus élevée que ce à quoi ils s'attendent. Ils testent leur méthode sur plusieurs jeux de données : un simulé et deux autres réels dans les domaines de l'industrie et de l'astrophysique. Les critères d'évaluation Le critère d'évaluation est la sensibilité et la robustesse face au bruit des données. Les auteurs comparent les résultats sur des séries test et des séries où est rajouté du bruit gaussien. Leur méthodologie permet de trouver des motifs en un temps raisonnable et ce même en cas de bruit. Cependant, ils ne tiennent pas compte de l'intérêt éventuel des motifs découverts. Leurs travaux portent sur la découverte de motifs ; ils ne cherchent pas à les interpréter. Il est 80 Chapitre 3 : ABSTRACTION DES DONNÉES ET DÉCOUVERTE DE SCÉNARIOS remarquable de noter aussi qu'ils cherchent des motifs sur une seule série. Leurs perspectives de recherche sont d'introduire d'autres mesures comme la Dynamic Time Warping, de travailler sur du multi-paramètrique. . . La transformation/représentation des données appliquée à d'autres techniques de fouille Dans [Lin et al., 2003], les auteurs appliquent la méthode SAX à diérentes tâches de fouille de données temporelles, telles que le clustering, la classication (classication par les k plus proches voisins et par arbre de décision), l'indexation (voir gure 3.15). Dans ces trois tâches, ils trouvent des résultats compétitifs par rapport aux mêmes techniques utilisant des données brutes ou des valeurs réelles (par exemple, avec une représentation par ondelettes des données). Ensuite, ils illustrent par quelques exemples le fait que cette représentation de données par SAX peut être un réel avantage pour certaines tâches de fouille de données. La première est la détection d'anomalies. Fig. 3.15: Comparaison de cinq algorithmes de détection d'anomalies d'après [Lin et al., 2003]. I) la série temporelle brute de référence, II) la série temporelle dont il faut détecter les anomalies, III) et IV) technique des chaînes de Markov utilisant 2 représentations différentes de la série, V) algorithme IMM, VI) l'approche par arbre TSA, VII) l'approche basée sur un modèle Markov utilisant SAX qui détecte le mieux les anomalies. La seconde est la détection de motifs décrite précédemment. Cette méthode SAX est compétitive, voir supérieure à d'autres modes de représentation de données dans les tâches de fouille de données. 3.8 Synthèse et présentation de quelques pistes pour la fouille 3.8.1 Synthèse Ce chapitre a permis de présenter des techniques de découverte de patterns dans des séries temporelles. La fouille de données, notamment temporelles, repose sur quatre étapes : la Chapitre 3 : ABSTRACTION DES DONNÉES ET DÉCOUVERTE DE SCÉNARIOS 81 représentation des données, la représentation des patterns, le choix des critères d'évaluation et le choix du modèle. Par un exemple, nous avons souligné l'importance de la représentation des données (qui doit être susamment informative) dans le processus de fouille. 3.8.2 Pistes Comme nous l'avons vu en début de chapitre, nous cherchons à extraire de la connaissance proche des discours médicaux ou tout du moins compréhensible facilement par les médecins. De plus, cette connaissance doit être décrite sous forme de scénarios. L'extraction de règles nous a semblé répondre à cette directive puisque : Elle permet autant de faire de la prédiction que de l'identication. Elle peut prendre en compte les données interprétées ou abstraites, c'est à dire représentées sous forme d'événements ou de séquences d'états ou d'intervalles. Les patterns découverts sont représentés sous forme de règles. Ce type de représentation a deux avantages. Tout d'abord, il peut illustrer des considérations temporelles et causales et décrire les liens entre les paramètres (et les raisonnements des médecins intègrent principalement la causalité plutôt que la temporalité). Ensuite, il est facilement lisible par les médecins (puisqu'ils ont l'habitude de raisonner en ces termes), et interprétable (puisque les mécanismes de découverte de règles restent tout de même explicites). Les règles peuvent lier des états et des événements par des contraintes temporelles. Nous développons ces points dans la section suivante. Nous cherchons des relations temporelles entre états, événements. Nous sommes ici dans le cas d'une fusion qui peut être multi-sources, sémantique et temporelle. 3.9 La fouille dans notre contexte La fouille de données nécessite de dénir : une représentation des données et des patterns, un modèle ou une méthodologie de fouille et des critères d'évaluation. Dans la section précédente, nous avons proposé la recherche de règles d'association pour la découverte de scénarios. Après avoir posé les dicultés de la recherche de règles d'association, nous revenons sur les quatre points de la fouille dans notre contexte. 3.9.1 Problématiques de la découverte de règles d'association Deux questions centrales peuvent être posées : 1. En général, les algorithmes de fouille de données génèrent une liste de règles d'association. Quelle mesure peut être introduite pour estimer le pouvoir informatif des règles et sélectionner les plus informatives ? 2. Dans le contexte médical, le temps est omniprésent. Comment tenir compte de cet aspect temporel ? Les algorithmes de recherche de règles d'association impliquent explicitement les critères d'évaluation. Ces derniers jouent un rôle important dans la recherche elle-même. On ne peut pas diérencier l'algorithme de ces critères puisqu'ils sont impliqués l'un dans l'autre. 82 Chapitre 3 : ABSTRACTION DES DONNÉES ET DÉCOUVERTE DE SCÉNARIOS 3.9.2 Représentation Représentation des données Les données qui nourriront le processus de fouille sont des données transformées, interprétées : ce sont des abstractions. Elles correspondent à des données symboliques sur des intervalles de temps, elles sont donc de type état. Ce sont des prédicats alliant une propriété symbolique à un intervalle temporel. Un exemple est présenté ci-après : [Paramètre 1 instable durant 20 minutes ] Représentation des patterns Nous cherchons des relations que l'on peut représenter par des règles d'association. Elles associent temporellement plusieurs prédicats. Un exemple est présenté ci-après : SI [Paramètre 1 instable durant 20 minutes ] AVANT [Paramètre 2 instable durant 5 minutes ] ALORS [événement spécique se produit] 3.9.3 Critères d'évaluation des règles A une règle est associée un support, c'est à dire le nombre de fois où cette règle est considérée comme vraie. Le support est donc le nombre de fois où l'on rencontre la prémisse et la conclusion en même temps ; il correspondra ainsi à la probabilité de leur intersection. Et grâce à la règle de Bayes, plusieurs types de probabilité peuvent être calculés. Par exemple, si l'on considère la règle A =) B , on a la conance calculée par : conf (\A =) B 00 ) = P (B=A) = P (A; B )=P (A) avec supp(\A =) B 00 ) ' P (A; B ) Cependant, nous verrons plus tard dans ce chapitre que face à des données temporelles, l'étude de la co-occurrence peut s'avérer non ou peu pertinente. Une autre dénition d'une règle est nécessaire. 3.9.4 Découverte de règles à partir de données de type état La découverte de règles à partir de données temporelles a focalisé de nombreuses recherches depuis une dizaine d'années. Cependant, elles ont été axées principalement sur la découverte de règles à partir de séquences d'événements (voir par exemple, les travaux de Mannila et al [Mannila et al., 1997]). Il s'agit dans cette section de décrire les méthodes d'analyse et de découverte de règles à partir de données ou d'informations ayant une valeur persistante dans le temps ; ainsi rentre en compte la recherche de règles à partir de séquences d'états. Peu de recherches, à notre connaissance, ont été eectuées dans ce domaine. Dans les exemples présentés ci-après, les techniques de découverte de règles impliquent de dénir explicitement les mesures d'intérêt de ces règles. Elles reposent même complétement sur la dénition de telles mesures. Nous étudions donc ces exemples suivant les dénitions des mesures qu'ils utilisent. 83 Chapitre 3 : ABSTRACTION DES DONNÉES ET DÉCOUVERTE DE SCÉNARIOS Pour des données à intervalles temporels, la notion de support peut correspondre à la longueur de l'intervalle [Bellazzi et al., 2003]. En général, si la conance accordée à la règle ( X ) Y ), conf (X =) Y ) = supp(X =) Y )=supp(X ), est supérieure à un certain seuil, = alors la règle est considérée comme pertinente et à potentiel informatif. Un problème crucial se pose alors : comment déterminer les patterns fréquents ? Par exemple, dans la gure A =) B ), combien de donnée par Höppner (voir gure 3.16), si l'on considère le pattern ( fois se présente t'il ? : trois fois (en ne considérant que les états successifs) ?, cinq fois (en considérant qu'une sous-séquence {B,A} peut se trouver entre les deux), . . . Et si à présent, l'on supprime le premier état B, peut-on supposer que le premier A a tout de même une inuence sur le deuxième B, devenu à présent le premier ? Si oui, quel support considérer ? Fig. 3.16: Exemple de patterns avec relations temporelles associées d'après [Höppner and Klawonn, 2001] Nous répertorions deux travaux dont les recherches se fondent principalement sur l'adéquation entre la recherche de règles et de mesures d'intérêt pertinentes mais qui dièrent profondément. En particulier, le premier s'attache à dénir la notion de support d'une règle. 3.9.4.1 Höppner : une approche théorique du problème de découverte de patterns dans des séquences d'intervalles Dans [Höppner and Klawonn, 2001], Höppner et al décrivent une méthodologie pour découvrir des règles pertinentes dans des séquences d'intervalles. Ces intervalles sont de longueurs diérentes et les auteurs cherchent des relations entre plusieurs paramètres. Si un pattern est décrit avec les relations d'Allen, il y a un fort risque d'explosion combinatoire des patterns possibles si l'on considère toutes les relations entre les états. Pour faire face à ce genre de conit, Höppner et Klawonn proposent la dénition suivante pour le support et le calcul de sa fréquence : We therefore dene the total time in which (one or more) instances of the patterns can be observed in a sliding window of width w as the support of th e pattern. If we divide the support of a pattern by the length of the state sequence plus the window width w we obtain the relative frequency p of the pattern : if we randomly select a window position we can observe the pattern with probability p. [Höppner and Klawonn, 2001] Considérons les patterns X, Y et X before Y. Höppner considère la règle dénie de la manière suivante : X =) \XbeforeY 00 . 84 Chapitre 3 : ABSTRACTION DES DONNÉES ET DÉCOUVERTE DE SCÉNARIOS Pour Höppner, une règle lie des patterns avec des relations causales telle que le pattern de la prémisse A soit un sous-pattern de B. X est appelé le pattern-prémisse, Y le pattern-conclusion et X before Y le pattern-règle. Dénition du support par Höppner et al Höppner et al dénissent le support du pattern-règle par l'intersection des supports des patterns-prémisse et pattern-conclusion. Ainsi, le support d'un pattern est le nombre de fenêtres dans lesquelles le pattern est observé et sa probabilité d'observation, son support divisé par la somme de la longueur de la séquence et la longueur de la fenêtre (voir gure 3.17) Fig. 3.17: Illustration de la dénition du support d'Höppner pour le pattern X beforeY. En pointillés, sont représentées plusieurs positions de la fenêtre glissante considérée de taille 5 unités temporelles. 8, card card ( ) = ([3 6 + 5]) = ( ) + ( ) = 3+5 = ( )+ ( ) = 2 + 5 = 7, (\ )= S upp X ( ) = ([7 9 + 5]) = ([7 6 + 5]) = 6 + 5 7 = 4 S upp Y ; long Y card ; long X long f enetre long f enetre S upp X bef oreY 00 ; Cependant, Höppner et al explicitent le besoin de changer la sémantique de la règle. Les auteurs partent de l'observation suivante : si une séquence est elle-même le pattern alors sa conance devrait être de 1, or ce n'est pas nécessairement le cas. Ils expliquent le fait qu'un pattern puisse avoir une conance faible pour deux raisons : une grande longueur du pattern par rapport à la longueur de la fenêtre, un plus grand nombre de prémisses que de patterns (dans l'exemple, plus de A que de A =) B )). ( La sémantique devient : Given a randomly selected sliding window that contains an instance of the premise pattern, then with probability p this window overlaps a sliding window that contains the rule pattern. Le support de la règle est non plus le nombre de fenêtres dans lesquelles est observé le pattern mais le nombre de fenêtres contenant la prémisse et chevauchant la fenêtre contenant le pattern de la règle. Pour rendre compte du caractère informatif de la règle, les auteurs utilisent la J-mesure, avec le support divisé par la longueur totale de la séquence comme probabilité. Mais cette mesure ne permet pas de rendre compte des longueurs des intervalles ni même des délais 85 Chapitre 3 : ABSTRACTION DES DONNÉES ET DÉCOUVERTE DE SCÉNARIOS entre deux intervalles. Höppner et Klawonn proposent donc de rajouter une contrainte sur la prémisse de type ( a< ) avec a attribut supplémentaire et un seuil à calculer an de maximiser la J-mesure correspondante. Les auteurs concluent qu'en utilisant leur sémantique, la J-mesure et leur contrainte supplémentaire, on améliore la qualité des règles extraites. Cependant, ils ont testé leur méthode sur des données simulées ; c'est à dire qu'ils connaissent ce qu'ils cherchent et ces données simulées sont en nombre très important : la séquence est constituée de 2838 états et est générée à partir de 3 états ! Mais leur méthodologie reste très prometteuse. 3.9.4.2 Bellazzi : une autre approche de la découverte de patterns dans des séquences d'intervalles Dans [Bellazzi et al., 2003], Bellazzi et al cherchent des règles multi-paramètriques à partir de données sur des intervalles de temps de longueurs diérentes. A partir de données de patients sous dialyse, ils tentent de découvrir des règles du type : Si tendance du paramètre1 décroît avant que l'état du paramètre2 ne soit haut alors la dialyse est un échec. Dénition du support par Bellazzi et al Bellazzi et al considèrent uniquement les co-occurrences d'états et dénissent le support d'un pattern comme l'intersection des supports de la prémisse et de la conclusion ; ceux-ci correspondent aux longueurs de chaque état considéré (voir gure 3.18). La mesure de conance standard est utilisée et d'après les auteurs, elle ne semble pas optimale. En s'inspirant des travaux de Hoppner [Höppner and Klawonn, 2001] et de l'algorithme PRISM [Witten and Frank, 2000], les auteurs écrivent un algorithme permettant de trouver des règles avec des prémisses comportant plusieurs propriétés correspondant à plusieurs paramètres. Fig. 3.18: Illustration de la Supp(X; Y ) = Supp(X ) \ Supp(Y ). dénition du support utilisée par Bellazzi. Dans [Bellazzi et al., 2005], les auteurs élargissent leur recherche à des règles comprenant des états se précédant et non plus uniquement des co-occurrences (voir gure 3.19). 86 Chapitre 3 : ABSTRACTION DES DONNÉES ET DÉCOUVERTE DE SCÉNARIOS Fig. 3.19: L'opérateur precedes à partir des relations d'Allen repris de [Bellazzi et al., 2005] Le support de la règle est alors proportionnel à l'union des intervalles correspondant à la prémisse et à la conclusion. Cependant, les résultats sont mitigés et la proportion de règles incohérentes est élevée. 3.9.5 Des mesures spéciques aux règles d'association ? 3.9.5.1 Principes à satisfaire pour une mesure d'intérêt Des recherches sont eectuées an de déterminer des principes ou conditions qu'une bonne mesure d'intérêt doit satisfaire. Ceci dit, ils n'expliquent pas vraiment comment sont obtenus ces principes ; d'ailleurs dans les deux exemples cités dans la suite, on remarque que les principes énumérés ont le même objectif mais sont de nature complètement diérentes. En général, cinq mesures sont utilisées pour exprimer l'utilité des règles découvertes. Les mesures des règles d'association comme X ) Y = sont (P correspond à une mesure de probabilité) : supp(X =) Y ) = P (X; Y ) conf (X =) Y ) = P (X; Y )=P (X ) intérêt : intr (X =) Y ) = P (X; Y )=(P (X )P (Y )) conviction : conv (X =) Y ) = P (X )P (:Y )=P (X; :Y ) abilité : fia(X =) Y ) = P (X; Y )=P (X ) P (Y ) support : conance : Cependant, l'association (support, conance) est la plus communément utilisée. Elle ne donne aucune indication sur la relation de dépendance entre X et Y. En particulier, elle ne tient pas compte de la probabilité a priori de Y, c'est à dire du nombre d'occurences de Y ; qu'il soit faible ou pas, le support et la conance sont identiques. Pour cela, d'autres mesures ont été introduites. La mesure d'intérêt a été introduite pour y remédier ; c'est une mesure symétrique. Elle est la même pour les relations X =) Y et Y ) X. = La mesure de conviction tient compte du fait que les relations X =) Y et équivalentes et est donc la même pour les deux. La mesure de abilité reète l'importance de Y par rapport à la relation :Y =) :X sont X )Y = et n'a Chapitre 3 : ABSTRACTION DES DONNÉES ET DÉCOUVERTE DE SCÉNARIOS 87 pas les propriétés des deux précédentes : elle n'est pas symétrique et ne renvoie pas la même valeur pour les deux relations équivalentes logiquement. Des études commencent à voir le jour depuis quelques années an de trouver des mesures ou des associations de mesures plus pertinentes pour relever le degré informatif d'une règle. 3.9.5.2 Des principes spéciques aux mesures des règles d'association Dans [Shi et al., 2002], Shi et al proposent cinq principes pour qu'une mesure reète l'intérêt d'une règle : principes d'implication, de corrélation, de nouveauté, d'utilité et des N premières règles 32 . Chaque principe permet de circonvenir les inconvénients mis en avant par l'association (support, conance). Ainsi, an de rendre compte de l'utilité d'une règle, la mesure doit être croissante en fonction de P(X,Y). Cependant, il semble qu'aucune mesure prise séparément ne soit capable de mettre en relief la pertinence d'une règle comme on peut le voir sur le tableau 3.20 tiré de l'article [Shi et al., 2002]. Fig. 3.20: Les propriétés des mesures d'intérêt selon [Shi et al., 2002]. Les colonnes représentent les cinq mesures et les lignes les quatre principes proposés. Par exemple, on peut lire que le principe d'imlication est respecté par les mesures de conance, de conviction et de abilité. Les quatre principes sont respectés par l'association (support, conance, intérêt). D'après les auteurs, il y a trois alternatives pour mesurer l'intérêt d'une règle : support-conance-intérêt, support-conviction-intérêt, support-abilité-intérêt ; mais la première semble être la plus adaptée, les deux autres étant pertinentes seulement lorsque les règles sont corrélées positivement. 32 )Y )X )Y )Y Principle 1 (implication principle) : If a set of measures is dened to reect the interestingness of an association rule X = )Y mi (X = ) > m i (Y = , then at least one measure mi (X = ) when P (X ) < P (Y ). ) in the set should satisfy the constraint Principle 2 (correlation principle) : If a set of measures is dened to reect the interestingness of an association rule X = , then at least one measure mi in the set should be directly proportional to the covariance of X and Y. Principle 3 (novelty principle) : If a set of measures is dened to reect the interestingness of an association rule, then for a given P(X,Y) , at least one measure mi in the set should reect its novelty. The novelty measure mi should be inversely proportional to p = max(P (X ); P (Y )). Principle 4 (utility principle) : If a set of measures is dened to reect the interestingness of an association rule, then at least one measure mi in the set should reect its utility, i.e., mi is a monotone increasing function with respect to P(X,Y). 88 Chapitre 3 : ABSTRACTION DES DONNÉES ET DÉCOUVERTE DE SCÉNARIOS 3.9.5.3 D'autres mesures proposées tenant compte des caractéristiques des relations An d'aner ces critères, Kodrato propose d'autres mesures [Kodrato, 2000]. X =) Y ) et (:Y =) :X ) sont similaires et les relations des) Y ) et (X =) :Y ) sont opposées. Cet état de fait a poussé Kodrato à Les relations causales ( criptives ( X = introduire les mesures de conance suivantes : conf (X =) Y ) = P (Y=X ) P (:Y=X ) pour une relation descriptive, conf (X =) Y ) = 1=2(P (Y=X ) + P (:X=:Y )) P (:Y=X ) pour une relation causale. Il est à noter qu'un délai temporel éventuel entre les attributs n'est pas pris en compte. Mais ces mesures basées sur des calculs probabilistes et donc fréquentiels posent le problème suivant : les patterns les plus fréquents ne sont pas forcément les plus intéressants. De plus, ces mesures nécessitent une grande quantité de données ce qui n'est pas toujours possible. Cependant, la fréquence et la conance semblent être des mesures non-exhaustives ; elles ne mesurent en aucune manière le degré d'intérêt de ces règles et nous revenons alors au problème énoncé plus haut. Chapitre 3 : ABSTRACTION DES DONNÉES ET DÉCOUVERTE DE SCÉNARIOS 89 Nous avons présenté dans ce chapitre deux étapes de l'extraction de connaisances : l'abstraction des données et la fouille de données. Dans un premier temps, nous avons mis en avant les principes que doit satisfaire une méthodologie d'abstraction. Le principal est qu'elle doit reposer sur un processus de fusion (nous en avons proté pour dénir plusieurs types de fusion), mais un procédé de fusion utilisant plusieurs niveaux d'interprétation et où l'information circule. Selon nous, la fusion d'informations et de connaissances permet de prendre en compte le contexte (fait capital dans un processus d'abstraction), de rendre able et de contrôler l'abstraction. Nous avons répertorié quelques méthodes d'abstraction de données suivant leur utilisation des données, informations et connaissances an de pouvoir les comparer du point de vue de la fusion. Cet état des lieux nous a permis de mettre en exergue quelques points clés : (1) Il n'existe pas à proprement parler de méthodologie dénie clairement. (2) Les systèmes sont fermés : les abstractions obtenues le sont de façon dénitive. (3) Il n'y a pas de communication entre les diérentes étapes d'abstraction. (4) Le comportement du patient exprimé en terme de relations entre états des paramètres est décrit uniquement grâce à la connaissance experte. Ces remarques nous ont poussés à construire une méthodologie d'abstraction dans un contexte plus général, qui est l'extraction de connaissances. L'extraction de connaissances permettrait dans un premier temps, d'extraire des scénarios à partir des données et dans un second, de raner les abstractions. Cette méthodologie repose sur plusieurs principes qui sont : un processus basé sur la fusion, une action incrémentale. Dans un second temps, nous avons présenté l'étape de fouille de données temporelles. Nous avons introduit la technique qui nous semble appropriée dans notre contexte (qui est la découverte de scénarios à partir des données et des connaissances) ; il s'agit de la découverte de règles d'association à partir de données de type état (soit les abstractions). La découverte repose sur les notions de support et les mesures d'intérêt. Nous avons présenté plusieurs mesures d'intérêt suivant les dénitions du support d'une règle considérée. Il en ressort la diculté de trouver une mesure pertinente pour quantier une règle. 90 Chapitre 3 : ABSTRACTION DES DONNÉES ET DÉCOUVERTE DE SCÉNARIOS Chapitre 4 LE RÔLE DE L'INFORMATION ET DE LA CONNAISSANCE DANS LA DÉCOUVERTE DE SCÉNARIOS Comment intégrer ces concepts dans un processus de fusion ? Dans ce chapitre, nous situons précisément l'étape d'abstraction dans le processus global d'extraction de connaissances. Nous clarions les concepts des données, des informations et des connaissances dans le domaine général de surveillance de systèmes dynamiques. Cette clarication nous permet de décrire notre méthode d'abstraction en nous appuyant sur la fusion des informations et connaissance. La description de la méthode reste dans la mesure du possible générique et sera instanciée dans le chapitre Résultats. Il s'agit principalement dans ce chapitre de décrire les éléments nourrissiers de l'abstraction décrite en terme de fusion. Ensuite, nous présentons la technique de découverte de règles d'association que nous avons adoptée. 92 Chapitre 4 : LE RÔLE DE L'INFORMATION ET DE LA CONNAISSANCE DANS LA DÉCOUVERTE DE SCÉNARIOS 4.1 Données, information et connaissance dans l'ECD 4.1.1 L'importance de la transformation des données dans le processus d'extraction de connaissances D'après Fayyad [Fayyad et al., 1996], le processus d'extraction de connaissances via la fouille de données comprend cinq étapes (voir gure 4.21) : sélection, pré-traitement, transformation, fouille de données et interprétation. Ces étapes sont nécessaires pour extraire de la connaissance utile à partir des données. L'étape de sélection permet de se focaliser suivant des critères pré-dénis, sur des données supposées à la fois interprétables et à potentiel informatif. Le pré-traitement concerne le traitement des données bruitées et manquantes. L'étape de transformation sert à dénir des représentations et/ou des abstractions des données adaptées à la tâche d'extraction de connaissances. L'étape de fouille de données permet de trouver des régularités (patterns) et l'étape d'interprétation d'en sélectionner les plus pertinentes et extraire de la connaissance. Le processus global est incrémental. Selon Fayyad, il peut contenir des boucles entre deux étapes et en particulier, l'étape d'interprétation peut guider toutes les autres étapes. Fig. 4.21: Processus d'extraction de connaissances d'après Fayyad [Fayyad et al., 1996] Les trois premières étapes jusqu'à la transformation des données sont primordiales pour détecter de la connaissance utile. Most previous work on KDD has focused on the data mining step. However the other steps are as important (and probably more so) for the successful application of KDD in practice. Dans [Cios et al., 2000], Cios et al vont même jusqu'à dire qu'elles sont l'étape clé du processus d'extraction de connaissances : Preparation of the data is the key step on which the success of the entire knowledge discovery process depends. It usually takes at least half of the entire project Chapitre 4 : LE RÔLE DE L'INFORMATION ET DE LA CONNAISSANCE DANS LA DÉCOUVERTE DE SCÉNARIOS 93 eort. In this step, we decide which data will be used as input for data mining methods. Dans cet article, les auteurs détaillent le processus d'extraction de connaissance via la fouille de données de façon similaire à Fayyad. Le terme de preparation est semblable au terme de transformation donné par Fayyad. Elle procure les données/informations qui vont nourrir l'étape de data mining. Ce processus est ensuite appliqué au problème du diagnostic des perfusions du myocarde. Ainsi l'étape de transformation des données est capitale. Un processus d'ex- traction de connaissance ne peut pas être satisfaisant s'il ne tient pas compte de données préalablement étudiées, modiées de façon à être pertinentes. Nous verrons par la suite notre méthode de transformation de données. Mais auparavant, nous allons dénir les concepts utilisés de façon précise. 4.1.2 Données/informations/connaissances : de quoi parle-t'on ? Dans ce processus, nous accordons un rôle central à la notion d'information que nous allons dénir ainsi que les notions de données et de connaissances. Ces notions sont relativement confuses dans la littérature. 4.1.2.1 Dénitions usuelles Par exemple, considérons les dénitions du petit Larousse 1999 : Donnée : 1) élément fondamental servant de base à un raisonnement, à une recherche. 2) représentation conventionnelle d'une information sous une forme convenant à son traitement par ordinateur. 3) résultats d'observations ou d'expérience. Information : élément de connaissance susceptible d'être codé pour être conservé, traité ou communiqué. Connaissance : faculté de connaître, de se représenter ; manière de comprendre, de percevoir. Ce que l'on a acquis par l'étude ou la pratique. Si la dénition d'une donnée est claire (voir 3), il n'en est pas de même pour celles de l'information et de la connaissance. Une information ne peut-elle s'acquérir par l'étude ou la pratique ? Une connaissance ne peut-elle se coder, se conserver ? 4.1.2.2 Quelques dénitions en intelligence articielle peu satisfaisantes En intelligence articielle, dans [Charlet, 2001], Charlet traite d'ingénierie des connaissances et caractérise la connaissance de deux points de vue : systémique et épistémologique. Du point de vue systémique, il considère qu'il n'y a pas de frontière données/information/processus/connaissance. Pour lui, un processus fait appel à des concepts, qui selon leur niveau d'entrée sont appelés données/information/ connaissance. Il propose plusieurs caractérisations de la connaissance dont : Il y a connaissance quand il y a contexte d'utilisation de l'information. Cela veut dire qu'une information n'a pas de valeur isolément mais en fonction du contexte dans lequel elle est élaborée et interprétée. p238 94 Chapitre 4 : LE RÔLE DE L'INFORMATION ET DE LA CONNAISSANCE DANS LA DÉCOUVERTE DE SCÉNARIOS Du point de vue épistémologique, Charlet considère la connaissance comme caractérisée par l' interprétation du comportement de la machine par les utilisateurs. Si la manipulation de concepts symboliques par des algorithmes est compréhensible et a un sens pour les utilisateurs, on a aaire à de la connaissance et à de la représentation de connaissance. Charlet en vient à dire que la connaissance n'est pas objective, étant liée à un contexte, à une tâche, une action,. . . Peut-on dire, pour rejoindre les deux points de vue, que le contexte d'utilisation dans le point de vue systémique est représenté par les utilisateurs dans le point de vue épistémologiste et donc caractériser la connaissance par de l'information interprétable dans un contexte ou domaine spécique par des utilisateurs du domaine ? Pour Dubois et al [Dubois and Prade, 2001], l'information est un concept assez vague qui permet de désigner autant les données que les connaissances : Le mot information est utilisé de manière générique ; il peut recouvrir aussi bien des connaissances qui par nature s'appliquent à des classes d'objets, que des données qui se rapportent à des cas, des faits, des objets particuliers. On voit que pour ces deux auteurs, la diérentiation entre information et connaissance reste assez vague et dicilement applicable à un domaine particulier. Les deux termes information et connaissance sont liés sans que leur diérence ne soit explicitement décrite. Ainsi, nous préférons les redénir en nous basant sur les dénitions données par Kayser et Pitrat ([Kayser, 1997],[Pitrat, 1990]). 4.1.2.3 Des dénitions plus claires Kayser réfute la diérentiation de l'information et de la connaissance de Jacques Arsac (qui rejoint les dénitions usuelles telles que celles données par le petit Larousse) selon lequel : L'information s'inscrit sur un support matériel et peut faire l'objet d'un traitement formel et la connaissance se place au niveau du sens et ne serait accessible qu'à l'esprit humain. Pour Kayser, ces dénitions ne sont pas satisfaisantes dans la mesure où elles excluent le fait que la représentation de connaissances puisse être incluse en informatique, qui, selon lui, est le traitement des informations (p5). Il dénit les connaissances comme guide des inférences (p9) (inférence : ensemble des mécanismes par lesquels des entrées (perceptives ou non) sont combinées à des connaissances préalables an d'obtenir des comportements élaborés p6). Il dénit les informations et les connaissances suivant leur rôle passif ou actif dans un processus. Tandis que les informations sont exploitées par des processus sans pouvoir modier leur déroulement, les connaissances sont des données qui inuencent le déroulement du processus (p30). Dans [Pitrat, 1990], l'auteur dénit les connaissances comme : les faits qui ne servent pas à décrire la situation et qui n'ont pas été établis par le système pour donner des propriétés de cette situation ; les connaissances servent à élaborer des faits nouveaux ou à déterminer les actions qu'il faut entreprendre ( p23). Chapitre 4 : LE RÔLE DE L'INFORMATION ET DE LA CONNAISSANCE DANS LA DÉCOUVERTE DE SCÉNARIOS 95 Il va même jusqu'à considérer un niveau supérieur. Il dénit aussi les méta-connaissances qui sont les connaissances sur les connaissances ; elles peuvent être des propriétés des connaissances (le théorème de Pythagore est très utile), des connaissances sur un individu ( M. truc ne connaît pas le théorème de Pythagore), des connaissances qui servent à manipuler des connaissances (comment se démontre le théorème de Pythagore). . . Selon Pitrat, pour construire un système d'intelligence articielle performant, il vaudrait mieux lui donner des méta-connaissances an qu'il puisse lui-même trouver et gérer les connaissances que seulement lui fournir à chaque fois les connaissances du domaine (p47). 4.1.2.4 Les dénitions choisies Nous nous baserons à l'avenir sur les dénitions suivantes : les données sont le résultat d'observations d'une expérience ; les informations sont le résultat de l'interprétation de ces données ; les connaissances dénissent la manière dont les données et les informations vont être manipulées. Comme Kayser, nous faisons la diérence entre information et connaissance suivant leur rôle passif ou actif dans le processus et reprenons la déntion donnée des connaissances comme des guides des inférences. Nous nous appuyons aussi sur la description de Pitrat selon lequel la connaissance permet de construire de nouveaux faits ou de déterminer de nouvelles actions à entreprendre et n'a pas simplement un rôle descriptif. Il est remarquable de noter le besoin d'une représentation des connaissances qui soit pertinente. Nous insistons sur la nécessité de connaissances pour interpréter des données et donc créer de l'information qui elle-même dépend du contexte dans lequel elle est interprétée. 4.1.3 L'extraction de connaissances : un processus incrémental ? Nous proposons (voir gure 4.22) une version modiée du processus qui met l'accent sur 1) la notion d'information, 2) le rôle des connaissances dans le processus et son aspect incrémental. L'étape d'abstraction se divise en trois étapes : sélection, description et interprétation qui correspondent aux trois premières de Fayyad. Chaque information produite permet donc de contrôler l'interprétation de la manière suivante. Ce processus est complexe ; la connaissance est nécessaire pour transformer des données en informations et ce, dès les étapes précoces de pré-traitement. De plus, à chaque étape, l'information produite ou la connaissance utilisée peuvent permettre de produire de nouvelles informations et/ou de la connaissance ; les informations et/ou connaissances du système ne sont pas gées. Nous considérons que tout le processus est dynamique, incrémental et repose sur de la fusion. L'étape d'abstraction des données que nous allons décrire par la suite, permet de transformer des données en informations puisqu'elle permet de les résumer et de les interpréter. Ainsi, les données abstraites ou transformées sont appelées informations. Nous allons voir que chaque information produite va permettre l'obtention d'une nouvelle information de plus haut niveau, et ainsi de suite . . . La décision d'arrêter le procédé peut être gérée par la connaissance que nous avons du domaine et/ou la connaissance que nous voulons en extraire ; c'est à dire que ces connaissances vont contrôler ce système. C'est de cette manière 96 Chapitre 4 : LE RÔLE DE L'INFORMATION ET DE LA CONNAISSANCE DANS LA DÉCOUVERTE DE SCÉNARIOS Fig. 4.22: Processus d'extraction de connaissances mettant en exergue l'étape d'abstraction que nous envisageons tout le processus. 4.1.4 Description des éléments An de clarier l'approche proposée, il nous paraît nécessaire de décrire avec soin les concepts manipulés. Nous discernons trois concepts : les données, les informations et les connaissances. 4.1.4.1 Les données Les données sont les valeurs observées des paramètres du système. Nous ne détaillons pas ce concept car nous pourrions développer une nouvelle ontologie. 4.1.4.2 Les informations Les informations (voir gure 4.23) se divisent en informations fournies au système et informations que le système va permettre d'extraire. Pour la surveillance de systèmes, les informations sont essentiellement représentées par des objets temporels comme les états ou les événements [Dojat et al., 1998] : Un événement est classiquement déni comme un changement instantané du système. Dans notre contexte médical, nous appelons événement tout changement ou intervention sur le système ou son environnement. Nous distinguons trois sortes d'événements : les événements internes comme les changements des valeurs des paramètres, les événements externes sont le fruit d'interventions extérieures comme les soins donnés au patient, les alarmes des machines de surveillance correspondant à des dépassements de seuil. Des liens causaux existent entre les événements. Chapitre 4 : LE RÔLE DE L'INFORMATION ET DE LA CONNAISSANCE DANS LA DÉCOUVERTE DE SCÉNARIOS 97 Un état implique une notion de persistance. Il représente une période de temps durant laquelle une information est valide (la fréquence cardiaque est stable pendant cinq minutes par exemple). Les états sont générés par le processus d'abstraction. Les états et les événements sont liés temporellement. Les patterns locaux représentent des régularités extraites des données et/ou des informations. La reconnaissance de patterns locaux peut être utilisée pour la détection d'événements internes spéciques. Les scénarios sont une représentation des liens temporels entre les états et les événements. Ils associent des graphes et des contraintes temporelles [Dojat et al., 1998]. Fig. 4.23: 4.1.4.3 Les informations Les connaissances Comme les informations, la connaissance peut être fournie ou extraite. La connaissance a priori est essentiellement de la connaissance experte fournie sous forme de règles de classication ou de relations causales entre les paramètres et dépendant du contexte (voir gure 4.24). Il s'agit de connaissances a priori sur le domaine, la physiologie, . . . La découverte de patterns spéciques de séquences permet la dénition de scénarios représentatifs de situations à reconnaître. Une fois qu'ils sont validés par les experts médicaux comme représentatifs de situations normales ou anormales, les patterns extraits ou les régularités exprimés sous la forme de règles d'association constituent de nouveaux éléments de connaissance qui peuvent guider les actions à entreprendre. Rappel Dans le cas de la surveillance de patients, on considère des connaissances spéci- ques (voir section 3.2.3) : La connaissance structurelle concerne les propriétés des paramètres comme les unités, . . . 98 Chapitre 4 : LE RÔLE DE L'INFORMATION ET DE LA CONNAISSANCE DANS LA DÉCOUVERTE DE SCÉNARIOS La connaissance sur la classication permet de transformer les valeurs numériques des données en valeurs symboliques par exemple. La connaissance sur la sémantique temporelle permet de concaténer deux intervalles successifs par exemple. La connaissance sur la dynamique temporelle détermine la persistance d'une valeur d'un paramètre, par exemple. Fig. 4.24: La connaissance 4.2 La méthode proposée d'abstraction de données Comme nous l'avons vu au chapitre 3, la fusion de la connaissance et des informations est cruciale dans notre approche. Nous partons du principe que seule une méthode à partir de fusion peut combler les problèmes d'incomplétude, d'incertitude, d'imprécision du domaine. Par fusion, on entend l'intégration de connaissances et d'informations dans le mécanisme. L'intégration de connaissances dépend du mode de leur représentation : sous forme de règles, elles permettent de guider l'inférence. Du fait que les données en USIs sont fortement entachées d'erreurs [Ely, 1996], l'abstraction des données est eectuée seulement sur les domaines de validité d'abstraction . An de garantir au mieux la robustesse du processus, nous avons choisi d'y intégrer des informations déjà extraites par les collaborateurs du projet OSSCAR. Le processus est incrémental : plus le processus est avancé, plus il y a de l'information extraite qui peut permettre à son tour de le guider. La gure 4.25 résume l'idée selon laquelle l'abstraction est un processus évoluant dans un espace à trois dimensions ; celles-ci étant la connaissance, les données et informations 33 , et le temps. Elles peuvent être explorées an d'apporter de nouvelles informations ; chacune 33 puisque les informations sont des données interprétées, elles peuvent être représentées sur le même axe. Cet axe peut être aussi qualié d'axe d'interprétation. Chapitre 4 : LE RÔLE DE L'INFORMATION ET DE LA CONNAISSANCE DANS LA DÉCOUVERTE DE SCÉNARIOS 99 étant le résultat de ce processus. L'abstraction de données est modélisée comme un processus incrémental liant les données brutes, les informations (c'est à dire les données abstraites) et la connaissance. Fig. 4.25: f Ai ti ; di ; ci Le processus d'abstraction vu comme un processus de fusion. Le point g correspond à l'abstraction temporelle d'interprétation et à une connaissance di Ai liant une information temporelle ti , à un niveau ci . Notre méthode repose sur l'introduction d'informations déjà extraites. Ces informations sont capitales. Notre méthode d'abstraction de données divise chaque étape du processus incrémental en quatre sous-étapes, ce qui permet d'aner petit à petit les domaines de validité d'abstraction. Plusieurs étapes sont successivement décrites, lesquelles impliquent la considération de diérents éléments de connaissance et d'informations, comme les tendances, les connaissances physiologiques, cliniques et causales. Nous décrirons les diérents mécanismes de fusion impliqués dans le processus pour chaque étape. A chaque étape, l'information est sauvegardée et accessible ; ceci permet une visualisation des résultats au fur et à mesure. Nous présentons à présent les diérentes sous-étapes présentes pour chaque étape du processus d'abstraction. Supposons que l'étape d'abstraction consiste à transformer le point A i 1 ft 1; d 1; c 1g en le point A ft ; d ; c g dans l'espace de fusion. Les deux premières i i i i i i i sous-étapes de l'abstraction consistent en la description du point A i 1 , de la fonction de transformation et la description des informations et connaissances impliquées dans cette transformation (soit les coordonnées du point A ). Ensuite, les deux dernières sous-étapes i consistent en la description des moyens de validation an de garantir la robustesse du procédé. Sous-étape 1 : description des éléments à abstraire Elle est dédiée à la description des éléments pour lesquels l'abstraction va être opérée et des méthodes employées (calcul de la moyenne, réunion des intervalles temporels, . . .). 100 Chapitre 4 : LE RÔLE DE L'INFORMATION ET DE LA CONNAISSANCE DANS LA DÉCOUVERTE DE SCÉNARIOS Sous-étape 2 : description des éléments impliqués dans la fusion Elle correspond à l'identication de la connaissance a priori et /ou de l'information extraite nécessaires au processus de fusion pour guider l'abstraction. Elle dénit quel type de fusion est employé. Sous-étape 3 : dénition du domaine de validité Elle permet de dénir le domaine où l'abstraction est valide (domaine de validité de l'abstraction), en termes de contraintes opérant sur les données brutes, les données abstraites et la connaissance. Sous-étape 4 : validation Elle correspond au contrôle étape par étape par le clinicien du processus d'abstraction via une interface graphique. Elle permet aussi une interaction avec les experts puisqu'ils peuvent tester de nouveaux seuils pour la construction des abstractions. L'interface leur permet aussi de pouvoir zoomer éventuellement sur des parties qu'ils estiment intéressantes. Il est à noter que l'introduction de nouvelles informations peut aussi contribuer à l'explicitation de l'expertise. 4.2.1 Deux types d'abstraction temporelle de données Nous distinguons les abstractions temporelles simples des abstractions temporelles complexes [Larizza et al., 1995] (voir section 3.1.2) : L'abstraction simple construit un descripteur symbolique sur un intervalle de temps qui caractérise un état (comme stable ou instable), ou une tendance (comme augmenté ou constant). Elle est construite directement à partir des données brutes. L'abstraction complexe essaie d'établir des relations temporelles entre les intervalles construits à partir des abstractions simples ou complexes [Larizza et al., 1995]. De telles relations sont aussi appelées patterns locaux ; ces derniers peuvent être utilisés pour caractériser des événements typiques comme une déconnexion d'un capteur par exemple. 4.2.2 Les abstractions simples pour la construction d'états L'objectif du processus d'abstraction simple est de détecter des états de paramètre comme par exemple Fréquence cardiaque stable pendant 30 minutes dans le but d'être le plus proche possible des discours médicaux. Comme nous l'avons déjà précisé, le changement de granularité ne doit pas être conduit sans un minimum de précautions. En particulier, le processus doit être robuste et s'appuyer sur des valeurs ables des paramètres à abstraire. Dans cet objectif, nous avons restreint le domaine de validité du processus d'abstraction au domaine où le paramètre est considéré comme valide. Les domaines de validité sont basés sur la notion de stabilité : si un paramètre est classé comme instable, nous considérons ses valeurs numériques comme invalides. Plusieurs étapes sont nécessaires pour déterminer le domaine de validité. 4.2.2.1 Détermination de plusieurs domaines de validité Cette étape permet de présenter plusieurs choix de domaines de validité sur lesquels le processus d'abstraction pourra avoir lieu. Le choix de la méthode de détermination se fait Chapitre 4 : LE RÔLE DE L'INFORMATION ET DE LA CONNAISSANCE DANS LA DÉCOUVERTE DE SCÉNARIOS 101 à l'étape suivante lorsque les premiers calculs véritables d'abstraction seront eectués. Ces domaines seront ensuite anés dans les étapes suivantes. Cette étape est primordiale dans notre processus puisqu'elle repose sur l'introduction d'informations. Ce sont des informations déjà extraites (nous utilisons les tendances symboliques de [Calvelo et al., 2000]) ; elles permettent de créer de nouvelles informations (les valeurs labellisées). En outre, an d'optimiser cette intégration, nous utilisons de la connaissance (puisque nous aurons à faire un choix sur le seuil à partir duquel nous considérons une mesure comme stable). Par conséquent, la granularité temporelle évolue et la labellisation est considérée comme valable sur l'intervalle de temps correspondant à la période d'échantillonnage (il s'agit de l'étape d'interpolation temporelle ). Ainsi, si l'on reprend le principe de la gure 4.25, l'étape de labellisation transforme les données brutes en abstractions, ayant un niveau d'interprétation supérieur et correspondant à un certain niveau de connaissance (celle utilisée pour sa construction) (voir gure 4.26). Cette transformation repose sur des opérations de fusion temporelle et de fusion sémantique. Les diérents niveaux d'interprétation combinés sont répertoriés dans le tableau 4.3. Ce sont les tendances symboliques, les échelles caractéristiques et les connaissances de classication. Fig. 4.26: Le point Représentation de l'étape 1 de l'abstraction dans l'espace de fusion. f A0 t0 ; d0 g (représentant les données brutes et donc il n'y pas de connaissance associée, en 1 f 1 1 1 g ; la coordonnée 1 correspond à un niveau d'in- général) est transformé en le point terprétation supérieur à d0 . A t ;d ;c La coordonnée t1 d correspond à l'intervalle temporel correspondant à la période d'échantillonnage. La construction des domaines de validité consiste d'abord en la détermination des tendances de chaque point de mesure 34 (puisque la fenêtre temporelle sur laquelle la tendance est donnée, est glissante) ; puis en la caractérisation des domaines de validité (voir tableau 4.3). Plusieurs caractérisations sont possibles et seront détaillées dans le chapitre 5. 34 Dans un souci de simplication, nous eectuons un abus de langage en parlant de tendance d'un point. Comme nous l'avons vu, il s'agit de la tendance attribuée à la période d'échantillonnage correspondant à chaque point. 102 Chapitre 4 : LE RÔLE DE L'INFORMATION ET DE LA CONNAISSANCE DANS LA DÉCOUVERTE DE SCÉNARIOS Description des Description des élé- Dénition éléments à abs- ments maine de validité traire dans la fusion Éléments : données brutes. impliqués Types de fusion : Fusion temporelle. Fusion sémantique. Informations : Description : données brutes. Opération : comptage du nombre de fenêtres glissantes pour lesquelles la stabilité est estimée pour chaque mesure ; détermination de domaines de validité. Tendances et échelles caractéristiques associées. Seuil de stabilité/instabilité d'un point de mesure ou un ensemble de points. Connaissance de classication : une valeur mesurée (ou un ensemble de points) est considérée comme stable si elle est qualiée plus souvent comme stable qu'instable. Tab. 4.3: du do- Plusieurs dénitions du domaine de validité sont possibles suivant que l'on considère que ces domaines sont de taille xe (ici, on considère que l'ensemble des points doit être plus souvent stable qu'instable) ou de taille variable (ici, on considère la tendance de chaque point). Validation La validation par les experts grâce à une interface graphique se fera lors de l'étape suivante. A chaque choix de dénition du domaine de validité, le calcul des abstractions sera eectué et plus facilement lisible. Formalisation de l'étape 1 de l'abstraction Nous représentons sur la gure 4.27 un exemple de caractérisation de domaines de validité. Par souci de simplication, nous n'avons symbolisé que le cas où la détermination des domaines de validité repose sur la labellisation de chaque point de mesure en termes de augmenté/diminué/presque constant/instable. Les domaines de validité correspondant sont donc les successions de points ayant le même label de stabilité, c'est à dire soit augmenté, soit diminué, soit presque constant. Chapitre 4 : LE RÔLE DE L'INFORMATION ET DE LA CONNAISSANCE DANS LA DÉCOUVERTE DE SCÉNARIOS Fig. 4.27: 103 Première étape du processus d'abstraction. Les données brutes, qui sont des valeurs numériques sont transformées en des points labellisés. Ces derniers sont des données numériques ayant une information symbolique, le label. Les labels représentés sont a pour augmenté, i pour instable et c pour constant. Les points successifs ayant le même label caractérisent les domaines de validité. Nous verrons dans la section 5.3.1.1 les diérentes techniques de labellisation dans notre contexte. 4.2.2.2 L'interpolation temporelle : caractérisation des intervalles de stabilité Le but de cette étape est la caractérisation des intervalles de stabilité. Celle-ci est contrôlée grâce aux tendances par le biais de la labellisation des points. Le processus de fusion repose sur des opérations de fusion temporelle et de fusion sémantique. Cette dernière implique des informations obtenues par l'étape précédente, et des connaissances sur la dynamique temporelle (voir gure 4.28). 104 Chapitre 4 : LE RÔLE DE L'INFORMATION ET DE LA CONNAISSANCE DANS LA DÉCOUVERTE DE SCÉNARIOS Fig. 4.28: point f Représentation de l'étape 2 de l'abstraction dans l'espace de fusion. Le A1 t0 ; d1 ; c1 le point f g (représentant les données abstraites lors de la première étape) est transformé en g ; la coordonnée 2 correspond à un niveau d'interprétation supérieur à 1 . Le A2 t2 ; d2 ; c2 d d nouveau point ou abstraction a une nouvelle dimension temporelle puisque A2 est un segment déni par un intervalle temporel et une valeur numérique. Cette étape est résumée dans le tableau suivant (voir tableau 4.4). Description des Description des élé- Dénition éléments à abs- ments maine de validité traire dans la fusion Éléments : données impliqués Types de fusion : brutes. Fusion temporelle. Fusion sémantique. Description : Informations extraites : données brutes. labels des points et diérentes dénitions des domaines de validité. calculs de la moyenne et de l'écart-type Opération : du do- Le domaine de validité est une succession de points ayant le même label de stabilité, comme augmenté, diminué ou presque constant. Validation Les résultats obtenus sont montrés et validés par les cliniciens. Connaissance sur la dynamique temporelle : l'abstraction est valide lorsque le paramètre reste stable pendant une période temps. Tab. 4.4: Formalisation de l'étape 2 de l'abstraction Le résultat est le calcul d'intervalles temporels appelés segments où la moyenne est calculée pour chaque paramètre considéré (voir gure 4.29). Chapitre 4 : LE RÔLE DE L'INFORMATION ET DE LA CONNAISSANCE DANS LA DÉCOUVERTE DE SCÉNARIOS 105 Deuxième étape du processus d'abstraction : caractérisation des intervalles. Les valeurs labellisées sont transformées en des segments (à condition d'être dans le domaine Fig. 4.29: de validité) liant un intervalle temporel à la moyenne et l'écart-type des mesures correspondant à l'intervalle. 4.2.2.3 Agrégation des segments Cette étape consiste en l'élaboration d'une abstraction temporelle par agrégation des segments précédents. Elle est contrôlée par la connaissance struturelle, la connaissance sur la classication, la sémantique et la dynamique temporelles du paramètre. Le processus de fusion repose sur l'intégration des informations obtenues précédemment, et de la connaissance experte (voir gure 4.30) sous forme d'heuristique concernant les proprietés des intervalles temporels, les variations des valeurs numériques des abstractions précédentes et les variations des données brutes. Un opérateur de fusion temporelle transforme les diérents intervalles en un seul. La fusion sémantique implique les diérents niveaux d'interprétation (connaissance sur les variations des données brutes, échelles caractéristiques,. . . voir tableau 4.5). L'abstraction obtenue est ainsi un ranement de l'abstraction précédente, et dans ce sens, elle est à un niveau d'interprétation supérieur. 106 Chapitre 4 : LE RÔLE DE L'INFORMATION ET DE LA CONNAISSANCE DANS LA DÉCOUVERTE DE SCÉNARIOS Fig. 4.30: point f Représentation de l'étape 3 de l'abstraction dans l'espace de fusion. Le A2 t2 ; d2 ; c2 le point f g (représentant les données abstraites lors de la deuxième étape) est transformé en g ; la coordonnée 3 correspond à un niveau d'interprétation supérieur à 2 . Le A3 t3 ; d3 ; c3 d nouveau point ou abstraction a une nouvelle dimension temporelle puisque par agrégation des intervalles temporels le constituant. Nous présentons les diérentes sous-étapes dans le tableau 4.5. d A3 est un segment déni Chapitre 4 : LE RÔLE DE L'INFORMATION ET DE LA CONNAISSANCE DANS LA DÉCOUVERTE DE SCÉNARIOS Description Description des éléments impli- Dénition du des éléments à qués dans la fusion domaine abstraire Types de fusion : segments (segments temporels où la moyenne et l'écart-type ont été préalablement calculés). Description : valeurs moyennes, écart-types, longueurs des segments et des intervalles temporels entre les segments. concaténation et moyenne. Validation de validité Éléments : Opération : 107 Fusion temporelle. Fusion sémantique. échelles caractéristiques des paramètres, seuils de précision des paramètres. Connaissances : deux sortes Informations : Le domaine de validité correspond aux segments agrégés. d'heuristiques sont utilisées : Des connaissances de classication, sur la sémantique et la dynamique temporelles du paramètre permettent la vérication de la longueur des segments, des intervalles entre les segments, de la diérence entre les moyennes de deux segments consécutifs en considérant les écart-types correspondant. Des connaissances structurelle et sur la sémantique temporelles contrôlent la variation du paramètre par rapport au seuil de précision (de la mesure des valeurs du paramètre). Elle peut être soit au-dessous du seuil ou au-dessus mais à condition que ce soit pour une période courte (pouvant correspondre ainsi à un artefact). Tab. 4.5: Les résultats obtenus sont montrés et validés par les cliniciens. Les seuils de précision xés par les cliniciens peuvent être modiés sur l'interface et les nouveaux résultats directement visibles. Formalisation de l'étape 3 de l'abstraction Cette étape consiste en un ranement des intervalles temporels (c'est à dire un ranement des segments et un ajustement des moyennes des valeurs) (voir gure 4.31). 108 Chapitre 4 : LE RÔLE DE L'INFORMATION ET DE LA CONNAISSANCE DANS LA DÉCOUVERTE DE SCÉNARIOS Fig. 4.31: Troisième étape du processus d'abstraction : agrégation des segments. Les segments obtenus précédemment sont anés. Sous certaines conditions, ils peuvent être agrégés en un segment plus long, liant les intervalles temporels des segments précédents et la moyenne et l'écart-type de tous les points correspondant au nouvel intervalle. 4.2.2.4 Abstraction qualitative : transformation symbolique des segments L'objectif de cette étape est de transformer les valeurs quantitatives des segments en des valeurs qualitatives comme normal, instable, normal mais haut, anormal et haut, normal mais bas et anormal et bas. Toutes ces informations sont liées à des intervalles temporels (voir gure 4.33). Il n'y a pas véritablement de fusion dans cette étape. Seules des connaissances de classication sont nécessaires. Les abstractions construites ne changent pas de granularité temporelle : la fusion temporelle n'a pas été introduite. Chapitre 4 : LE RÔLE DE L'INFORMATION ET DE LA CONNAISSANCE DANS LA DÉCOUVERTE DE SCÉNARIOS Fig. 4.32: Le point f Représentation de l'étape 4 de l'abstraction dans l'espace de fusion. A3 t3 ; d3 ; c3 en le point 109 f g (représentant les données abstraites lors de la troisième étape) est transformé g ; la coordonnée 4 correspond à un niveau d'interprétation supérieur à 3 . A4 t3 ; d4 ; c4 d d Le nouveau point ou abstraction a la même dimension temporelle puisqu'il s'agit, ici, simplement d'une abstraction verticale. Les diérentes sous-étapes sont décrites dans le tableau 4.6. Description des Description des éléments Dénition du éléments à abs- impliqués dans la fusion domaine de traire validité Éléments : Types de fusion : segments agrégés. Connaissances Description : valeurs moyennes, longueurs des segments et des intervalles temporels entre les segments. Opération : interprétation. Validation connaissance de classication : seuils de normalité donnés par les experts. A partir de ces seuils, il est possible de raner la classication en termes de normal mais haut et normal mais bas. Les seuils dénissent une zone de normalité dans laquelle le paramètre est considéré comme normal, . . . Tab. 4.6: Le domaine de validité correspond aux segments agrégés. Les résultats obtenus sont montrés et validés par les cliniciens. Formalisation de l'étape 4 de l'abstraction 110 Chapitre 4 : LE RÔLE DE L'INFORMATION ET DE LA CONNAISSANCE DANS LA DÉCOUVERTE DE SCÉNARIOS Quatrième étape du processus d'abstraction : classication des segments. Les segments liant un intevalle temporel à une moyenne sont transformés en des segments Fig. 4.33: liant le même intervalle temporel à une valeur symbolique ; cette dernière correspondant simplement en un passage numérique/symbolique au dessus ou au dessous d'un seuil de normalité. 4.2.3 Les abstractions complexes ou la construction de patterns locaux pour la reconnaissance d'événements Cette étape permet de franchir un nouveau niveau d'interprétation. L'objectif de la mise au point d'abstractions complexes est de détecter des patterns qui peuvent éventuellement être validés comme étant de vrais événements. Il y a donc deux phases : la reconnaissance de patterns et leur interprétation. Dans un premier temps, un événement interne est reconnu. Puis, dans un second temps, il peut être associé à un événement externe ou non (voir gure 4.34). La fusion réside sur la combinaison de plusieurs types de connaissance (voir tableau 4.7) : elle est sémantique. Un opérateur de fusion temporelle combine les intervalles des abstractions simples. La construction des abstractions complexes consiste en quatre sousétapes (voir tableau 4.7). Chapitre 4 : LE RÔLE DE L'INFORMATION ET DE LA CONNAISSANCE DANS LA DÉCOUVERTE DE SCÉNARIOS 111 L'étape d'abstraction complexe : un nouveau niveau d'interpréation atteint. Le plan dessiné représente le niveau supérieur d'interprétation des données. Le point Fig. 4.34: f A4 t3 ; d4 ; c4 g est transformé en le point f A5 t5 ; d5 ; c5 g. Ce dernier représente les patterns locaux. Après la phase d'interprétation de ces patterns, on peut évoluer dans l'espace (ce qui est symbolisé par la èche) si le pattern représente un événement externe ou autre. 112 Chapitre 4 : LE RÔLE DE L'INFORMATION ET DE LA CONNAISSANCE DANS LA DÉCOUVERTE DE SCÉNARIOS Description des Description des éléments Dénition du éléments à abs- impliqués dans la fusion domaine de traire validité Éléments : Types de fusion : segments (il s'agit de ceux correspondant à la deuxième étape d'abstraction, c'est à dire avant l'étape d'agrégation. Fusion sémantique. Description : valeurs moyennes, longueurs des segments et des intervalles temporels entre les segments. Opération : classication et interprétation. Tab. 4.7: 4.2.3.1 Validation Connaissances connaissance sur la sémantique temporelle : il s'agit de connaissance sur le comportement du paramètre considéré pour les événements choisis. La longueur des segments, des intervalles entre les segments et la diérence entre les moyennes des segments sont contrôlés suivant des modèles de patterns pré-dénis. connaissance de classication : une fois les patterns reconnus, il s'agit de les interpréter et de les relier éventuellement à un événement externe. Le domaine de validité correspond à l'union des intervalles temporels des éléments du pattern (segments et zone instable éventuellement). Les résultats obtenus sont montrés et validés par les cliniciens. Formalisation de l'étape de construction des abstractions complexes Phase de reconnaissance des patterns Il s'agit, ici, de la reconnaissance de patterns locaux (voir section 4.1.4.2). Nous avons étudié deux patterns locaux qui diérent suivant les seuils sur les délais temporels et les variations des moyennes. Un premier pattern est basé sur une zone instable. Lorsque le paramètre est considéré comme instable, nous cherchons des relations entre le temps et les variations des moyennes des zones stables autour de la zone instable. Ce pattern est présenté dans la gure avec du paramètre. Quand D m D t et D m élevés ; ceci correspond à un changement instable est bas, ceci correspond à un artéfact. Un second pattern est construit sans zone instable (voir gure 4.35). Ces patterns permettent de reconnaître des comportements d'un signal temporel. On peut discerner facilement trois sortes de comportement basique d'un signal temporel : Un spike : un changement brusque sur un faible intervalle temporel (sans diérence de valeurs avant et après). Des oscillations : plusieurs changements brusques à la suite (sans diérence de valeur avant et après). Un step ou créneau : un changement de valeurs sur un faible intervalle temporel. La gure 4.36 représente ces comportements avec le pattern suceptible de les reconnaître. Chapitre 4 : LE RÔLE DE L'INFORMATION ET DE LA CONNAISSANCE DANS LA DÉCOUVERTE DE SCÉNARIOS Fig. 4.35: 113 Représentation des deux patterns locaux. On instancie chaque pattern à la situation que l'on veut reconnaître suivant la taille de l'intervalle temporel (intervalle entre deux segments ; c'est à dire la taille de la zone instable) et la diérence de moyennes entre les deux segments : Spike Puisqu'il s'agit d'une variation brusque, il est assimilé à une zone d'instabilité sur un intervalle temporel relativement court et les valeurs du paramètre peuvent être considérées comme similaires d'où une diérence faible des moyennes des segments entourant la zone d'instabilité. Oscillations Les intervalles temporels peuvent être, ici, de taille variable suivant la durée des oscillations. Créneau Le changement de valeurs peut être brusque ou plus lent. Ainsi, il correspondra soit à une zone instable soit à une zone stable. En pratique, ces comportements reètent des événements internes dont certains peuvent être interprétés comme des événements externes (voir ontologie dénie dans la section 4.1.4). 4.2.3.2 Phase d'interprétation pour la détection d'événements externes Nous avons sélectionné plusieurs types d'événement à reconnaître. Les critères pour cette sélection sont : une incidence clinique ou technique importante, un nombre d'occurences conséquent dans la mesure du possible, une reconnaissance simple. Le premier critère a été établi avec les médecins du projet. L'incidence technique signie un problème technique, comme une déconnexion de capteur et l'incidence clinique, la nécessité de l'intervention d'un médecin ou d'un inrmier. Suivant ces critères, nous avons considéré les événements suivants : déconnexion du capteur de SpO2 : événement externe qui induit un événement in- terne, désaturation : événement interne relié à un événement clinique, 114 Chapitre 4 : LE RÔLE DE L'INFORMATION ET DE LA CONNAISSANCE DANS LA DÉCOUVERTE DE SCÉNARIOS Fig. 4.36: Des comportements typiques reconnus grâce aux patterns. Quant à l'événement spike , il est plus dicile de l'interpréter. C'est un événement interne non lié à un événement externe ou événement clinique. Ces trois événements remplissent les critères pré-requis : la désaturation est un phénomène alarmant de premier ordre ; c'est une chute de la SpO2 (sous certaines conditions) qui signie une baisse d'oxygénation du sang. Les déconnexions du capteur de SpO2 35 sont récurrentes (puisqu'il s'agit d'un capteur se trouvant sur le gros pouce du pied ou de la main) et induisent de nombreuses fausses alarmes (le fait que le patient bouge son pied peut changer les valeurs de mesure de la SpO2) ; Ainsi, une déconnexion est un événement externe induisant un événement interne (chute des valeurs de la SpO2). Quant aux spikes, ce sont des événememnts typiquement internes dont le nombre d'occurences est élevé ; ils ne sont pas directement liés à un événement externe ou clinique et par conséquent leur incidence est à étudier. 4.3 La découverte de règles La découverte de règles à partir de données sur des intervalles temporels de type état est complexe puisqu'il faut déterminer : la formalisation des liens temporels à découvrir, la mesure correspondante capable de quantier l'intérêt de la règle. A l'heure actuelle, les recherches de telles règles en sont à leurs balbutiements. Pour diverses raisons, nous n'avons pu approfondir la méthode de découverte de règles. Nous verrons ces points dans le chapitre de discussion. 35 La Saturation pulsée de l'hémoglobine en oxygène, ou SpO2, est appelée la valeur donnée par l'oxymètre de pouls pour la distinguer de la saturation artérielle de l'hémoglobine en O2, mesurée par les gaz du sang (SaO2). http ://www.inweb.org/D/materiels/monitorage/spo2/SpO2.html Chapitre 4 : LE RÔLE DE L'INFORMATION ET DE LA CONNAISSANCE DANS LA DÉCOUVERTE DE SCÉNARIOS 115 Nous cherchons des relations du type : VT normal haut implique fR anormal haut Pour l'aspect temporel, comme Bellazzi et al [Bellazzi et al., 2003], nous considérons les co-occurences d'états. Le support de la règle est déni come l'intersection des intervalles temporels des états et les supports de la prémisse et de la conclusion sont représentés par les longueurs des intervalles de temps des états correspondants. Les probabilités a priori et conditionnelles sont dénies respectivement par le support de la relation correspondante divisé respectivement par la durée totale de l'observation et par le support de la prémisse. Nous considérons deux types de mesures d'intérêt : la mesure standard de conance et la conance causale donnée par Kodrato [Kodrato, 2000]. 116 Chapitre 4 : LE RÔLE DE L'INFORMATION ET DE LA CONNAISSANCE DANS LA DÉCOUVERTE DE SCÉNARIOS Ce chapitre a permis dans un premier temps, la description précise de notre point de vue sur le rôle de l'abstraction dans le processus d'extraction de connaissances. Nous avons déni de manière claire les concepts d'information et de connaissance. Ces concepts ont été ensuite détaillés an de pouvoir décrire explicitement leur rôle dans le processus d'abstraction. L'abstraction des données est constituée de plusieurs étapes : les quatre premières pour les abstractions simples et la dernière pour les abstractions complexes. A chaque étape est présenté le procédé de fusion permettant de combiner les informations et les connaissances. Dans un second temps, nous avons présenté la méthode succincte de découverte de règles d'association à partir de données de type intervalle et symbolique (soit les abstractions du chapitre précédent). Chapitre 5 RÉSULTATS Dans ce chapitre, nous présentons les résultats du système d'abstraction que nous avons construit. Dans une première partie, nous dénissons les éléments pris en compte dans le processus : les données, informations et connaissances choisis. Ensuite, nous décrivons étape par étape l'abstraction elle-même. Nous discernons les deux types d'abstractions simples et complexes et étudions en quoi ils sont complémentaires. Puis, nous décrivons les dicultés de validation du processus dans le problème délicat de la surveillance de patients en USIs. Enn, nous présentons quelques résultats très préliminaires de la découverte de règles. 5.1 Contexte clinique Notre méthode d'abstraction et de fouille de données a été utilisée dans le contexte du sevrage de la ventilation mécanique. Le sevrage est la période durant laquelle le clinicien essaie petit à petit de supprimer l'assistance à la respiration du patient. C'est une période 118 Chapitre 5 : RÉSULTATS cruciale (voir chapitre 1). Les données utilisées dans cette étude ont été acquises grâce à un protocole spécique de sevrage. Ce protocole est divisé en trois parties et permet une acquisition de données de quatre heures. Durant la première heure, le patient est ventilé classiquement. Durant les deux suivantes, il respire par lui-même grâce à une pièce en T, ensuite il est en ventilation spontanée. A chaque instant du protocole pendant les deux dernières périodes, il peut être replacé en ventilation mécanique. Pour chaque étape, les données physiologiques sont enregistrées et un assistant médical annote tous les événements durant les quatre heures. Cette procédure dure quatre heures même en cas d'échec. A la n, le sevrage est considéré comme un succès si le patient peut respirer de façon autonome pendant 24 heures. Ce protocole a été approuvé par le CCPRRB de Lille. Seuls les patients remplissant les critères d'entrée sont inclus dans le protocole (voir gure 5.37). Fig. 5.37: Le protocole de sevrage étudié Initialement, nous devions récolter un chier patient documenté par semaine pendant l'année 2002, une fois le protocole de recueil mis en place (CNIL, protocole déni, choix des événements établi, personne chargée d'annoter les événements au lit du patient, . . .), ce qui nous aurait permis d'avoir à disposition une cinquantaine de chiers. Mais cela n'a pas été possible pour plusieurs raisons. La principale était la diculté de lier la disponibilité de la personne en charge de l'annotation des chiers et la possibilité d'avoir un patient répondant aux critères du protocole. La personne en charge de l'annotation n'était pas présente directement sur place (il n'est possible de recruter et donc de bloquer un membre du personnel soignant pendant quatre heures) ; les médecins devaient penser à la joindre. Ensuite, la personne devait être disponible à ce moment là sachant que la mise en place du protocole dépend de la possibilité du patient à remplir les critères d'entrée 36 . Au nal, nous disposons d'un dizaine de chiers, tous non forcément utilisables (par exemple, un chier dure seulement une heure, le patient devant être tout de suite remis sous ventilation mécanique) ou susament informatifs (des chiers où il n'y pas d'événements signicatifs : le patient réagit bien et le protocole réussit sans encombre, . . .). Le recueil des données s'est fait sur deux lieux : les hôpitaux de Lyon et Lille. Les protocoles de sevrage ne reposaient pas sur les mêmes supports techniques. En particulier durant la période intermédiaire de deux heures, les paramètres de mécanique ventilatoire (fréquence 36 Par exemple, les chiers provenant de Lyon ont été annotés par une personne venant de Grenoble (soit compter une heure de trajet en voiture) Chapitre 5 : RÉSULTATS 119 respiratoire, volume courant et volume minute) n'étaient plus disponibles à Lille ; ce qui veut dire que dans le cas où le protocole de sevrage réussissait à Lille, nous n'avions des données complètes que pour la première heure. Finalement, nous avons travaillé sur huit chiers de données correspondant à huit patients dont trois échecs et cinq succès du protocole. 5.2 Les éléments choisis pour la construction du processus Nous présentons dans cette section, les éléments que nous allons utiliser dans le processus d'abstraction. Outre les données brutes et la connaissance experte communément utilisées dans les processus d'abstraction (voir section 3.3), nous introduisons dans notre système des informations supplémentaires. Ces informations sont des abstractions de bas niveau sur le comportement des données ; ce sont des tendances extraites à partir de traitements proches du traitement du signal (voir section suivante). Elles nous permettent d'enrichir et de contrôler notre processus. Dans cette section, nous décrivons uniquement les éléments dont nous disposons en début de processus. Nous verrons que tout au long du processus d'abstraction, nous obtiendrons de nouvelles informations que nous décrirons plus tard. Ici, il s'agit de décrire les éléments de base. Nous présentons à présent ces éléments. 5.2.1 Données brutes Les données brutes dièrent suivant qu'elles proviennent des hôpitaux de Lyon ou de Lille (voir annexe A). Données de Lyon On acquière les signaux physiologiques (comme l'électrocardiogramme, par exemple) selon une fréquence d'échantillonnage de 100 Hz d'où sont extraits les paramètres o line (comme la fréquence cardiaque à partir de l'électrocardiogramme) par des algorithmes développés par des collaborateurs du projet. Les mesures des paramètres sont échantillonnées à 1 Hz. Le choix d'acquérir les signaux puis d'en extraire les paramètres est justié par la volonté de maîtriser tout le processus de traitement. Nous disposons de plusieurs signaux physiologiques échantillonnés à 100Hz : l'ECG, la fréquence cardiaque machine, la pléthysmographie, l'oxymétrie de pouls, la pression invasive, la pression et le débit aériens insués (voir gure 5.38). Le logiciel AcqKnowledge est utilisé pour l'acquisition des signaux connectés au module Biopac et provenant du moniteur cardiovasculaire et des boîtiers de débit et de pression. 120 Chapitre 5 : RÉSULTATS Fig. 5.38: Les sept signaux physiologiques De ces signaux, nous extrayons une vingtaine de paramètres numériques (voir Annexe C) échantillonnés à 1Hz, à l'aide d'un programme écrit en Matlab par nos collaborateurs du Laboratoire d'Automatique de Grenoble [Becq, 2000]. Ce programme nécessite la connaissance de seuils et plusieurs tests sont souvent nécessaires. En annexe E, sont représentés quelques exemples de relations entre les paramètres et les signaux physiologiques. Données de Lille A Lille, nous étudions directement les paramètres physiologiques calculés par les diérentes machines au lit du patient (voir annexe A). Les mesures des paramètres sont échantillonnées à 0.2 Hz. Le choix de travailler avec les valeurs données par les machines est justié par le fait que ce sont ces valeurs qui vont être utilisées ensuite par ces mêmes machines pour la surveillance ou par le clinicien pour prendre une décision (choix pris par les médecins et les collaborateurs de Lille). Les programmes d'extraction des paramètres à partir des signaux physiologiques ne sont pas disponibles. A partir du moniteur cardio-vasculaire, les paramètres disponibles sont fonction des modules de surveillance activés : le module ECG : fréquence cardiaque, nombre d'anomalies le module pression : pression systolique, diastolique et moyenne le module SpO2 : saturation en oxyhémoglobine, fréquence cardiaque le module de capnographie (optionnel) : PetCO2, fréquence respiratoire A partir du ventilateur, on obtient les valeurs des paramètres mesurées comme la fréquence respiratoire, le volume courant . . . 121 Chapitre 5 : RÉSULTATS Données eectivement traitées Face à la quantité de données disponibles et dans un souci de cohérence, nous avons sélectionné seulement certains de ces paramètres pour nos traitements ultérieurs. Ce choix a été fait par les experts [Biot, 1998] ; il correspond aux paramètres les plus pertinents et les plus usités que ce soit à Lyon ou à Lille. Il s'agit de la fréquence cardiaque machine, la pression artérielle systolique, le volume courant, la ventilation minute, la fréquence respiratoire et la saturation pulsée en oxygène (on rappelle que la fréquence respiratoire, le volume courant et le volume minute ne sont pas disponibles pendant les deux heures intérmédiaires du protocole à Lille et, en cas de réussite du protocole et donc de débranchement du patient, ces paramètres ne le sont pas non plus la dernière heure à Lyon et à Lille). En général, il y a beaucoup de valeurs manquantes et d'imprécision dues au bruit des signaux et la précision des capteurs. L'évolution des paramètres est centrale pour leur interprétation plutôt que leurs valeurs eectives. Toutes ces caractéristiques introduisent des dicultés supplémentaires pour des approches d'apprentissage. Pour chaque paramètre, on distingue plusieurs attributs : Domaine de variation, Modalité de calcul, Fréquence d'obtention, Validité temporelle, ... 5.2.2 Informations extraites An de qualier les variations des paramètres et ainsi de contrôler au mieux le processus d'abstraction, les tendances symboliques sont calculées pour chaque paramètre avec leur échelle caractéristique associée. Ces informations sont fournies par les partenaires du projet (groupe de Lille). L'information de tendances semble pertinente pour le processus pour plusieurs raisons : (1) Elle donne une information sur le comportement dynamique du paramètre. (2) En outre, elle la caractérise en termes de stabilité, instabilité . C'est une notion de plus haut niveau que les caractéristiques classiques de tendances (où la notion d'instabilité n'est pas présente et est généralement de la forme {augmenté, diminué, augmenté, . . .}), (3) Enn, elle procure l'information d'échelle caractéristique ; il s'agit d'un inter- valle temporel calculé par apprentissage pour chaque paramètre et à chaque nouveau traitement. C'est l'intervalle ou l'échelle représentant au mieux la dynamique propre du paramètre : Elle peut être interprétée comme un indicateur de la variabilité locale des données [Calvelo-Aros, 1999] p42. Ces tendances sont très informatives et peuvent enrichir considérablement le processus d'abstraction. Le calcul des tendances se fait de la manière suivante. La tendance est calculée par régression linéaire sur une fenêtre dont la taille est calculée en fonction de la dynamique propre de chaque paramètre et appelée échelle ou temps 122 Chapitre 5 : RÉSULTATS caractéristique. Calculée de cette manière, la tendance est assimilable à une dérivée. Il est alors possible de reconstruire une série de données ltrées par intégration des valeurs de la tendance. La gure 5.39 donne un exemple de la méthode appliquée sur un enregistrement de la SpO2. A l'échelle caractéristique, à chaque instant on dispose de la valeur du paramètre, de sa tendance caractérisée par la pente de la droite de régression ou du coecient de régression qui par dénition a fait l'objet d'une normalisation par rapport à sa plage de variation et à son unité. Le calcul de l'écart-type fournit un indicateur de la stabilité locale du paramètre. C'est à partir du partitionnement du plan tendance vs stabilité (ou plus précisément coecient de régression vs écart-type) que les notions de tendance qualitative (augmentation, diminution) et de stabilité (stable, instable) sont obtenues. Diérentes modalités de partionnement sont envisageables à ce stade pour lesquelles il est dicile de déterminer des critères objectifs de comparaison et de validation (repris du compte-rendu de la réunion d'OSSCAR du 26 10 01) (pour plus de détails, voir [Calvelo et al., 2000]). Fig. 5.39: Application de la méthode de ltrage au signal de Sp02 (fréquence d'échantillonnage 1Hz, temps caractéristique 213 secondes) L'application de la méthode de partitionnement par découpage des distributions en quantiles est illustrée par la gure 5.40. 123 Chapitre 5 : RÉSULTATS Fig. 5.40: Exemple de partitionnement du plan tendance vs stabilité pour le paramètre Sp02. Dans [Calvelo et al., 2000], le partitionnement est fait grâce à des valeurs xées a priori. Cependant, étant donné la particularité du protocole de sevrage et ses diérentes étapes, ce parti pris n'est pas satisfaisant. En eet, suivant le mode de ventilation, le patient ne respire pas de la même façon et donc ses paramètres physiologiques réagissent diéremment. Par exemple, la fréquence respiratoire aura tendance à être beaucoup plus uctuante lorsqu'il est sous pièce en T plutôt qu'en ventilation contrôlée. En gardant comme seuil pour dénir la stabilité le percentile 95, la fréquence respiratoire est considérée comme très instable durant toute la durée de la mise en place de la pièce en T, ce qui n'est pas cliniquement vrai ; le patient s'est simplement adapté au nouveau mode de ventilation. Ainsi, il semble que le choix d'un seuil xe ne soit pas adéquat. C'est pourquoi, après ces observations, son calcul a été modié par les collaborateurs de Lille. A présent, il s'agit toujours du percentile 95 mais c'est le percentile qui est recalculé tous les 900 points. Il s'agit ici d'une fenêtre non glissante. Cette fenêtre de 900 points est le meilleur compromis pour garder les temps caractéristiques et pour laquelle, on a le plus de chance d'avoir une stabilité. Pour les notions augmenté et diminué, le choix des seuils est une valeur xe du coecient de régression : (augmenté/stable = +0 7, diminué/stable = : 0 7). Le seuil de stabilité qu'il soit xe ou pas est important dans nos travaux. Nous avons commencé par travailler avec des tendances ayant un seuil xe de stabilité (les seuls disponibles à l'époque). Ensuite, le calcul des tendances ayant été amélioré, nous avons appliqué le processus d'abstraction en considérant ces nouvelles tendances (voir section 5.4). 5.2.3 Connaissances Nous utilisons plusieurs sortes de connaissance : des connaisances contextuelles et des connaissances a priori. Les secondes sont classiques ; ce sont des connaissances expertes basiques et identiques pour toutes les équipes de recherche s'intéressant à la surveillance de patients en USIs. Nous les détaillons plus loin. Les premières, celles que l'on a qualiées 124 Chapitre 5 : RÉSULTATS de contextuelles, sont très originales. Il s'agit de connaissances sur ce qui se passe dans la chambre du patient pendant l'acquisition des données ; elles concernent autant les soins qu'il peut subir, le comportement des paramètres surveillés, à savoir si une alarme se déclenche par exemple, les réactions du patient comme le fait qu'il tousse par exemple. Elles sont donc un véritable carnet de bord de tous les événements en rapport avec le patient durant l'acquisition des données. Elles permettent de documenter de façon précise les données d'acquisition et ainsi d'aider les cliniciens pour une analyse ultérieure. En cela, elles complètent les connaissances a priori des experts. Nous détaillons à présent ces connaissances. Les connaissances liées au contexte d'acquisition Ce sont des connaissances sur l'occurrence des événements se produisant dans la chambre du patient pendant l'acquisition des données. Au lit du patient un clinicien qualie chaque alarme en termes de fausse positive, fausse négative, vraie positive, fausse positive et marque chaque occurrence d'événement (voir un exemple de chier sur la gure 5.41) : Les alarmes vraies positives (VP) sont les alarmes qui ont été déclenchées alors que la valeur du paramètre est en dehors des seuils xés et suivies d'un geste de soins ou de la résolution d'un problème technique. Dans ce dernier cas l'alarme sera notée VPT. Les alarmes fausses positives (FP) sont déclenchées lorsque la valeur du paramètre est en dehors des seuils xés, qu'elles ne justient d'aucun geste technique ou thérapeutique. Les alarmes fausses négatives (FN) correspondent au fait que la valeur du paramètre est dans la limite des seuils xés alors qu'il y a un problème sur le patient justiant d'un geste de soin. Les seuils de ces alarmes sont xés au préalable par les cliniciens et peuvent être éventuellement changés en cas de nécessité. Ils sont notés dans les chiers événements soit de façon manuelle, soit de façon automatique par le moniteur. Tous les paramètres ne sont pas associés au déclenchement éventuel d'une alarme. Une alarme est donc caractérisée par des seuils numériques ou symboliques suivant le contexte, par le mode d'adaptation de ces seuils selon le patient, par le traitement thérapeutique . . ., par une fréquence d'obtention,. . . Les événements correspondent à plusieurs sortes d'information. Le choix des événements à répertorier et des codes correspondants (pour simplier la lecture des chiers) a été discuté avec les médecins. Sont annotées les modications intervenant sur les drogues, les modications sur le ventilateur, la mise en place et l'arrêt d'un traitement externe, le début et la n d'examen, de prélèvement, de geste, de présence de personnes dans la chambre et enn des modications sur le moniteur cardiovasculaire (voir annexe F). Chapitre 5 : RÉSULTATS Fig. 5.41: 125 Exemple de chier obtenu au lit du patient (KAC0110) à Lyon. Les colonnes correspondent respectivement à la date d'acquisition, à l'heure puis à l'événement et/ou l'alarme produits (l'heure correspondant à l'heure à laquelle le type d'événement est reporté. On peut donc avoir ici un léger décalage entre les heures d'occurrence et de report). Ici, une seule sorte d'alarme a eu lieu VP pour vraie positive, le chire précédant cet acronyme symbolise le paramètre, 3 pour SpO2 par exemple. Plusieurs événements ont eu lieu et ont été rapportés : un réglage sur la FiO2 RESPI FiO2 60 ou le fait que le patient ait toussé Toux. Suivant la provenance (Lyon ou Lille), ces chiers n'ont pas tout à fait la même forme (voir annexe A). A Lyon, tous ces événements et alarmes sont entrés à la main par la personne en charge au lit du patient. A Lille, nous disposons de deux chiers. L'un concerne la saisie manuelle (suivant le même principe qu'à Lyon) des événements préalablement codiés. L'autre est un chier fourni de manière automatique par le moniteur où sont marqués les réglages sur les paramètres, les alarmes correspondant à des dépassements de seuil et autres informations sans aucune interprétation. Par exemple, à Lyon seule la survenue de l'alarme est notée, mais pas sa durée tandis qu'à Lille, un message d'alarme est envoyé tant que dure l'alarme. Il est à noter que bien qu'initialement la personne en charge au lit du patient devait être un expert médical, il n'en a rien été durant le projet. Par manque de disponibilité, il n'a pas été possible de recruter une telle personne avec ces compétences. Par contre, les deux 126 Chapitre 5 : RÉSULTATS personnes recrutées sont des scientiques connaissant bien les problèmes d'anesthésie réanimation et capables d'annoter les événements. Mais, il ne leur était pas possible d'annoter les alarmes (sauf lorsque les FPT, alarmes fausses positives techniques, typiquement lorsqu'un capteur est débranché). Le recrutement d'une telle personne est un réel problème : elle doit être disponible à tout moment (on ne peut pas prévoir qu'un patient peut être sevré ou non des jours à l'avance), les médecins doivent penser à la prévenir (ce qui n'est pas toujours le cas, par oubli plus que par négligence), ensuite elle doit être susamment compétente et motivée. Un autre problème se pose quant au décalage entre les chiers événements et les données brutes. Les alarmes déclenchées par les machines correspondent à des dépassements de seuils des paramètres. Mais, les machines n'utilisent pas les données brutes ; elles contiennent des algorithmes de ltrage des données qui peuvent correspondre à un calcul de moyennes cycle à cycle, par exemple. Nous n'avons pas accès à ces algorithmes et ne connaissons donc pas leurs traitements. Ainsi, les machines peuvent déclencher des alarmes que nous ne retrouvons pas sur les données brutes ou le contraire. Ces connaissances pourront servir à la phase de validation des abstractions obtenues. Les connaissances physiologiques Les connaissances physiologiques (causales) consistent en des relations temporelles ou causales entre les paramètres physiologiques. Malheureusement, les experts ont beaucoup de mal à formaliser ces connaissances qui sont fortement liées au contexte. Ils tiendront compte d'impressions non quantiables comme par exemple, l'apparence du patient. Ils ont du mal à quantier les relations qu'ils connaissent en termes de relation temporelle ou d'impact réel. On peut ainsi discerner plusieurs sortes de connaissances physiologiques : les relations entre paramètres que l'on peut qualier de primaires et qui sont connues a priori : ce sont des relations causales entre paramètres. Le paramètre SpO2 est souvent modié par les autres paramètres. Les paramètres VT, VM et fR sont liés par la relation V T fR = V M . Les relations entre paramètres dépendant du contexte et traduisibles à la lecture du chier a posteriori. Par exemple, à la lecture d'un chier patient a posteriori, les experts peuvent reconnaître une désaturation en considérant les perturbations sur les autres paramètres (HR, RR, VE). Ce genre de connaissances sera donc utilisé principalement pour la validation a posteriori. Les connaissances sur la sémantique et la dynamique temporelles et les connaissances structurelles. Ce sont des connaissances plus spéciques au comportement des paramètres (voir section 3.2.3). Les connaissances cliniques Ce sont des connaisances de classication. Elles sont utilisées pour lier les valeurs numériques et symboliques (valeurs normales ou anormales des paramètres fournies par les Chapitre 5 : RÉSULTATS 127 cliniciens). Elles ont été xées en fonction de données trouvées dans la littérature et après discussion avec les experts du projet (voir annexe H). Les valeurs dites normales sont en fait dépendantes de l'âge, du sexe, de la taille, du poids et de l'origine ethnique. 5.2.4 Spécicité des éléments disponibles Nous disposons ainsi de trois sortes d'élément : données, informations et connaissances. Cette richesse va nous permettre de résoudre au mieux les problèmes d'abstraction de données. Malgré cela, il est clair que nous avons eu aaire à plusieurs dicultés, en particulier de par la manipulation de tels éléments provenant de deux sources diérentes (Lyon et Lille) : La diculté de mettre en place un tel protocole et d'obtenir les informations voulues (prise en main du codage des événements par exemple). La prise en compte des diérences entre les deux sources (diérents codes suivant les sources, . . .). Des connaissances expertes dicilement formalisables. ... 5.3 Application de la méthode d'abstraction des données Dans cette section, nous détaillons notre méthode appliquée aux patients soumis au protocole de sevrage. La construction des abstractions simples se divise en quatre étapes. La première permet l'introduction d'informations déjà extraites ce qui induit un niveau d'interprétation supérieur. On peut dire que toute notre méthode repose quasiment entièrement sur cette introduction pour déterminer les domaines de validité de l'abstraction. C'est précisément ce point qui est à la base de l'originalité de nos travaux : dès le début du processus d'abstraction, l'introduction d'information permet d'assurer la prise de décision. Cette intégration dans le processus caractérise la fusion que nous allons utiliser tout au long du processus : fusion des données, des informations et des connaissances. Le point sur lequel nous insistons est la validation et la robustesse des abstractions que nous obtenons, ainsi il nous semble qu'un processus de fusion et incrémental va dans ce sens. La prise de décision se fait tout au long du processus et repose sur des petites décisions. 5.3.1 Les abstractions simples pour la construction d'états Les données brutes ont été préalablement pré-traitées par l'équipe de Lille. Pour chaque paramètre, des seuils sont xés an de supprimer les valeurs des mesures considérées comme aberrantes. Les valeurs du paramètre dépassant ces seuils sont alors remplacées par des NaNs (Not a Number, code pour Matlab) (voir annexe I). 5.3.1.1 Détermination des domaines de validité Cette étape consiste en la labellisation des points de mesures en termes stable/ instable an de pouvoir déterminer les zones de validité où l'abstraction pourra être eectuée (voir section suivante). Les éléments de base sur lesquels nous travaillons sont les données pré-traitées. Cette étape se divise en deux parties. 128 Chapitre 5 : RÉSULTATS La détermination des tendances de chaque point de mesure 37 Nous avons choisi de nous aider des tendances symboliques pour faire ce passage : les tendances symboliques sont calculées sur une fenêtre glissante dont la taille est calculée par apprentissage (cette taille est appelée échelle ou temps caractéristique) ; nous caractérisons ensuite chaque point en terme de stable, instable, . . . Pour chaque paramètre de chaque chier, une échelle caractéristique est calculée par apprentissage (exemple : suivant le chier étudié, SaO2 a pour temps caractéristique 25, 89 ou 33 en nombre de points de mesure). Une tendance symbolique est calculée sur une fenêtre de temps correspondant à cette échelle caractéristique. Il s'agit d'une fenêtre glissante : les calculs de tendances symboliques ont la même périodicité que les points de mesure. Par exemple, si l'on considère un paramètre avec une échelle caractéristique de trois points, chaque point de mesure aura au plus trois tendances puisqu'il appartiendra à trois fenêtres (voir gure 5.42). Pour éviter les confusions, nous appellerons chaque tendance attribuée à un point, une caractéristique. Un point a alors plusieurs caractéristiques dont le nombre correspond au nombre de fenêtres glissantes dont il fait partie. La notion de tendance ou de caractéristique est valable sur l'intervalle de temps correspondant à la période d'échantillonnage. 37 Voir note 33 page 101 129 Chapitre 5 : RÉSULTATS Fig. 5.42: Exemple de tendances symboliques sur une échelle caractéristique de 3 points. Le graphe du bas représente les valeurs numériques d'un paramètre à une fréquence d'échantillonnage xe ; celui du milieu les tendances symboliques (constant, augmenté et instable) calculées sur les 3 points antérieurs. Le graphe d'en haut représente les diérentes caractéristiques attribuées à chaque point. Par exemple, le point correspondant au temps 1, ne faisant partie que d'une fenêtre glissante, a une seule caractéristique (constant) attribuée grâce à la tendance symbolique e point. Le point correspondant au temps 4, fait partie de 3 fenêtres glissantes et a constant au 4 donc 3 caractéristiques, 2 fois augmenté et 1 fois instable etc . . .. La détermination des zones de validité à partir des labels des points de mesure Les labels de chaque point ou d'un ensemble de mesures correspondent à la notion de tendance (sur l'intervalle d'échantillonnage pour un point et sur l'intervalle temporel déterminé par l'ensemble des points). A partir des caractéristiques de chaque point, on détermine une tendance ; c'est cette notion de tendance que nous appelons label. Remarquons que cette notion de label doit être diérenciée des tendances symboliques calculées sur une fenêtre glissante. Du fait que plusieurs caractéristiques sont attribuées à chaque point de mesure, la détermination de zones stables n'est pas aussi évidente que l'on pourrait le croire. Pour ce faire, nous avons élaboré plusieurs méthodes suivant que l'on considère des zones à taille xe (où l'on considère ainsi l'ensemble des caractéristiques attribuées aux points de cette zone), ou des zones à taille variable (où l'on considère la tendance de chaque point de la zone). Pour faire ce passage, nous considérons la connaissance suivante : une valeur mesurée (ou un ensemble de points) est considérée comme stable si elle (il) est qualiée plus souvent comme stable qu'instable. Un seuil a été nécessaire pour décider qu'un point ou un en- semble de points a un label stable plutôt qu'un label instable. Il a été xé à 1.5, ce qui correspond au fait que pour qu'un point (ou un ensemble de points) ait un label stable, il faut qu'il ait au moins 60% de caractéristiques stable. Soit n et m les nombres des caractérisques stable et instable. La somme de n et de m 130 Chapitre 5 : RÉSULTATS représente la totalité des caractéristiques d'un point (ou d'un ensemble de points) donc (en %) n+m=1 La condition sur s'écrit : n m De ces deux équations, on en déduit : m0 n D'où n (1 D'où la relation 1 n) 0 n (5.1) n Ainsi, si l'on veut que n soit au moins égal à 0.6 ou 60%, doit être égal au moins à 1.5. Nous verrons plus tard que d'autres valeurs de seuils ont été testées mais que celle-ci paraît être la meilleure. Néanmoins, puisqu'il n'est pas pertinent ou du moins infaisable de valider le label de chaque point de mesure pour chaque chier (soit environ 14000 points par chier), la détermination du seuil se fera lors de l'étape suivante où l'on étudiera plusieurs dénitions de zones de validité. Plusieurs méthodes de détermination des zones stables peuvent être envisagées : Zone dénie sur un nombre xe de points : Ce nombre correspond à l'échelle caractéristique calculée par apprentissage lors du calcul de tendances. Où il sut qu'une tendance stable soit détectée . . . Dès qu'une tendance stable (constant ou diminué ou augmenté) est détectée, la zone correspondant aux tc points antérieurs est considérée comme stable et donc valide (voir 1) dans la gure 5.43). Où il sut qu'une tendance stable soit détectée et que l'ensemble des points de la zone soit considéré comme stable. Dès qu'une tendance stable (constant ou diminué ou augmenté) est détectée, si l'ensemble des tc points antérieurs est plus stable (constant ou diminué ou augmenté) qu'instable suivant le seuil , la zone déterminée par ces points est considérée comme stable et donc valide (voir 2) dans la gure 5.43). Où il sut que l'ensemble de tc points soit considéré comme stable. Le principe est le même que précédemment mais on considère tous les ensembles de tc points (voir 3) dans la gure 5.43). Zone dénie sur un nombre variable de points : Où l'on ne diérencie pas les diérentes tendances stables. Pour chaque point de mesure, sont comptés les nombres de caractéristique stable, de caractéristique instable . . .. Si le label attribué au point est stable (constant ou diminué ou augmenté), la zone déterminée par ces points est considérée comme stable et donc valide (voir 4) dans la gure 5.43). Chapitre 5 : RÉSULTATS 131 Où l'on diérencie les diérentes tendances dites stables. Le principe est le même que précédemment mais on diérencie stable/constant de diminué et augmenté. Les points déterminant la zone de stabilité ont donc globalement la même tendance symbolique (voir 5) dans la gure 5.43). Comparaison On voit que pour les trois premières, on a une succession de zones `stables qui se chevauchent ; cela provient du fait que l'on tient compte de l'ensemble des points et donc que la caractéristique de la fenêtre glissante est conservée. Pour les deux autres, les zones stables sont xées puisque on a qualié chaque point de mesure en termes de stabilité/ instabilité dénitivement. La dernière méthode 5) est simplement un ranement e qui ne caractérise seulement les zones en stable ou instable. Ici, chaque zone de la 4 correspond à des points ayant globalement la même tendance ; en trait plein augmenté et en traits d'union constant. Nous verrons dans la section suivante une comparaison de ces zones une fois leur caractérisation eectuée. 5.3.1.2 Caractérisation des intervalles de stabilité A partir des données pré-traitées et des dénitions des diérents domaines de validité, on caractérise chaque intervalle (correspondant à un domaine de validité) par la moyenne et l'écart-type des points correspondants. Suivant les domaines de validité déterminés précédemment, on obtient des segments diérents 38 38 (voir gure 5.44). On appelle segment l'intervalle ou zone de stabilité sur lequel vont être calculés la moyenne et l'écart-type des points constituant la zone. 132 Fig. 5.43: Chapitre 5 : RÉSULTATS Les diérentes façons de dénir des zones stables . Les 3 graphes du bas sont repris de la gure précédente. 1), 2), 3), 4) et 5) correspondent respectivement à la première, deuxième, . . . cinquième méthode de détermination des zones stables. Pour la méthode 1), on prend en exemple le point 6 ; étant donné qu'il correspond à une tendance stable (augmenté), les 3 points antérieurs correspondent à une zone stable (en gras). Pour la méthode 2), on prend toujours en exemple le point 6 ; étant donné qu'il correspond à une tendance stable (augmenté) et que l'ensemble des 3 points antérieurs ont une tendance globale stable (6 caractéristiques stable (1 constant et 5 augmenté contre 3 instable), ces 3 points correspondent à une zone stable (en gras). Par contre, pour le point 13, l'ensemble des points est plus instable (6 contre 3) donc la zone déterminée par les 3 points antérieurs n'est pas considérée comme stable. Pour la méthode 3), l'ensemble des points 2, 3, 4 a un label stable (5 fois augmenté + 1 fois constant contre 3 fois instable) et donc correspondent à une zone stable (en gras). Pour la méthode 4), les points 1, 2, 3, 4 et 5 ont chacun un label instable donc la zone déterminée par ces points est considérée comme stable (en gras). On ne diérencie par les diérents labels. Pour la méthode 5), on discerne les labels de chaque point. Les points 1 et 2 ont un label constant et donc le label de la zone déterminée par ces 2 points est rané en constant (en trait plein et gras) tandis que celui déterminé par les points 3, 4 et 5 en augmenté (traits d'union et gras). Chapitre 5 : RÉSULTATS Fig. 5.44: 133 Les abstractions calculées sur des zones stables déterminées de façons diérentes. On a repris la gure 5.43 sur laquelle sont représentées les valeurs aectées à chaque point (les petits ronds) après calcul des moyennes sur les zones stables. A présent, nous allons présenter des exemples de calculs de moyennes pour chaque méthode de détermination des zones stables. Zone dénie sur un nombre xe de points : Nous présentons sur la gure 5.45, un exemple de calculs de la caractérisation des intervalles de stabilité à partir des trois premières méthodes de dénition de zones de validité (sur un nomre xe de points). Il comprend cinq graphes : celui du haut représente les données pré-traitées, celui en dessous les tendances fournies. Ensuite, les graphes correspondent respectivement à la première, deuxième et troisième méthode. Où il sut qu'une tendance stable soit détectée . . . Les petites zones instables au milieu de zones stables sont ltrées et par contre, les petites zones stables au milieu de zones instables sont mises en avant puisque l'on privilégie les tendances stables. Dans l'exemple présenté sur la gure 5.45 (voir graphe 3 à partir du haut), il n'y aucune zone d'invalidité (puisque les tendances stables sont privilégiées). Le signal complet a pu 134 Chapitre 5 : RÉSULTATS être caractérisé. Où il sut qu'une tendance stable soit détectée et que l'ensemble des points de la zone soit considéré comme stable. Comme précédemment, les petites zones instables (respectivement stables mais dans une moindre mesure) au milieu de plus grandes zones stables (respectivement instables) sont ltrées. Cependant, le fait de rajouter une condition sur l'ensemble des points, diminue le nombre de zones stables. Dans l'exemple présenté sur la gure 5.45 (voir graphe 4 à partir du haut), des zones d'invalidité apparaissent (au niveau du point 4000 par exemple). Où il sut que l'ensemble de tc points soit considéré comme stable. Les petites zones stables/instables au milieu de plus grandes zones instables/stables sont ltrées. Dans l'exemple présenté sur la gure 5.45 (voir graphe du bas), des zones d'invalidité/instabilité supplémentaires apparaîssent (au niveau des points 5000, 7000, par exemple). Le fait de calculer la moyenne sur tc points ne paraît pas susant pour l'abstraction et l'on se retrouve à calculer des moyennes avec des points instables (ces points se trouvant dans un ensemble de points globalement plus stable). Zone dénie sur un nombre variable de points : Nous présentons sur la gure 5.46, un exemple de calculs de la caractérisation des intervalles de stabilité à partir des deux dernières méthodes de dénition de zones de validité (sur un nomre variable de points). Il comprend cinq graphes : celui du haut représente les données pré-traitées, celui en dessous les tendances fournies. Ensuite, les graphes correspondent respectivement à la quatrième, cinquième méthode avec un vote de 1.5. Le graphe du bas correspond à la cinquième méthode avec un vote de 4. La caractérisation des intervalles par ces deux méthodes aboutit à des calculs de moyennes et d'écart-types sur des segments de droite (voir paragraphe Comparaison de la section 5.3.1.1). Où l'on ne diérencie pas les diérentes tendances stables. Dans l'exemple présenté sur la gure 5.46 (voir graphe 3 à partir du haut), plusieurs zones d'invalidité/instabilité sont présentes (vers les points 4000, 5000, etc). Où l'on diérencie les diérentes tendances dites stables. Le principe est le même que précédemment mais on diérencie stable/constant de diminué et augmenté. On calcule la moyenne sur les points qui ont majoritairement la même tendance symbolique. Le ltrage est le même que précédemment mais le fait de tenir compte des valeurs des tendances symboliques stables permet un calcul de moyenne sur moins de points. Chaque ensemble de points ayant la même moyenne a aussi globalement la même Chapitre 5 : RÉSULTATS Fig. 5.45: 135 Illustration sur la fréquence respiratoire (chier 1804CHA1-ssNaN) des données moyennées sur les zones déterminées comme stables par les 3 premières méthodes. L'axe des abscisses représente les points de mesure, une par seconde ; en tout, il y a un peu moins de 4 heures (11513 points). tc est l'échelle ou temps caractéristique, ici de 188 points de mesure ou secondes ; il a servi à calculer les tendances. Les lignes en trait d'union reportées sur les deux graphes excentrés symbolisent les seuils de normalité donnés par les experts. Ainsi, à l'intérieur, les valeurs du paramètre sont considérées comme normales. Le graphe du haut représente les données pré-traitées, celui du milieu les tendances symboliques et les derniers les moyennes et écart-type calculés sur les zones stables respectivement par les 3 méthodes (avec un vote de 1,5). Les zones où il n'y a rien correspondent à des zones instables. La case à droite et en bas de chaque graphe signie que l'on peut choisir une autre valeur du vote. La case pts en bas à gauche signie que l'on peut choisir les parties du signal que l'on veut zoomer. La case plot permet de visualiser les nouveaux résultats. 136 Chapitre 5 : RÉSULTATS tendance symbolique. Sur la gure 5.46, le quatrième graphe représente la caractérisation des intervalles de stabilité dénis par la dernière méthode de détermination des zones stables où sont diérenciées les diérents symboles de stabilité, avec un vote de 1.5. Par rapport à la méthode précédente (voir graphe au dessus), chaque zone de validité regroupe des points ayant globalement la même valeur symbolique de tendances. Par exemple, le créneau juste avant le point 8000 correspond à la tendance diminué qui n'était pas diérenciée avec la méthode précédente. Sur la gure 5.46, le graphe du bas représente la caractérisation des intervalles de stabilité dénis par la dernière méthode de détermination des zones stables où sont diérenciées les diérents symboles de stabilité avec un vote de 4. Le choix s'est porté sur la dernière méthode avec un vote de 1.5 (ce qui correspond au fait que les points doivent être au moins stable pour 60%). Ce dernier a été pris en concertation avec les experts. Néanmoins, nous présentons sur la gure 5.46 (graphe du bas), le même calcul mais avec un vote de 4 (ce qui représente un pourcentage de 80%). Il n'y a pas de diérence signicative. D'autres seuils ont été testés (9, 99, etc). Quant au choix de la méthode elle-même, les raisons en ont été : Aucun point instable/invalide n'est considéré. Une plus grande nesse dans l'interprétation puisque tous les points successifs ayant la même moyenne ont aussi la même tendance, et la diversité des symboles est préservée. Le choix de la caractérisation des intervalles se porte donc sur la cinquième mé- thode de détermination des zones de stabilité avec un seuil 5.3.1.3 de 1.5. Agrégation des segments Cette étape constitue un ranement des segments dénis dans l'étape précédente. Pour dénir les mécanismes d'agrégation, nous aurons besoin : Des données pré-traitées Nous tiendrons compte des variations brusques du paramètre. Des informations extraites lors de l'étape précédente On considére ainsi les seg- ments précédents comprenant des informations temporelles (longueurs des segments et entre les segments), et des informations numériques (moyennes et écart-types des points constituant les segments). Des connaissances sur la sémantique et la dynamique temporelles Deux sortes d'heuristiques sont utilisées. La première (une heuristique classique) vérie la longueur des segments, des intervalles entre les segments, la diérence entre les moyennes de deux segments consécutifs en considérant les écart-types correspondant. La seconde contrôle que la variation du paramètre soit au-dessous d'un seuil ou au-dessus mais à condition que ce soit pour un temps limité correspondant à l'échelle caractéristique [Calvelo et al., 2000]. Les seuils pour ces règles sont xés par les cliniciens et dépendent de la précision des données mesurées. Les heuristiques portent sur les longueurs des diérents segments et intervalles, les moyennes et écart-types correspondant aux segments et les variations des données pré-traitées (avant le processus d'abstraction). Le principe est de tenir compte des spécicités des données déjà abstraites tout en tenant compte aussi de celles des données brutes (ou pré-traitées). Ainsi, 137 Chapitre 5 : RÉSULTATS la règle énoncée plus bas, permet de mettre en exergue des conditions sur les abstractions déjà construites que l'on a appellées segments (conditions temporelles et numériques grâce à la prise en compte de leurs longueurs et les moyennes et écat-types qui leur ont été attribuées) et sur les variations des données brutes durant la phase d'instabilité (où les segments ne sont pas représentés). La construction de cette règle est simple et relève de connaissances a priori que l'on peut qualiées de primaires : le seuil de variation des données signicatif pour chaque paramètre, un intervalle d'instabilité entre deux segments plus longs peut être ltré, . . . l la longueur de l'intervalle entre deux segments S1 et S2 , de longeurs respectives l1 1 et 2 , et d'écart-types respectifs 1 et 2 . Soit la variation entre les valeurs des moyennes des segments (soit 1 2 ). Les heuristiques s'écrivent de la manière suivante (avec l3 , 3 et 3 , la longueur, la moyenne et l'écart-type du nouveau l Soit et 2 , de moyennes respectives segment) : l l1 et l l2 ) ET (1 1 \ 2 2 6= ) ET ( OU (( > ) et (l tc))) SI ( ALORS l3 = l + l1 + l2 ET 3 = fensemble des points sur lg ET 3 = fensemble des points sur lg La prémisse de cette règle contient trois conditions : 1. Si la longueur de l'intervalle est inférieure aux longeurs des deux segments l'entourant, 2. si les bandes de valeurs des moyennes plus ou moins les écart-types des segments ne se chevauchent pas, 3. si la variation des valeurs brutes (ou tout du moins pré-traitées) du paramètre durant la phase d'instabilité est inférieure à un seuil 39 Si toutes ces conditions sont respectées alors, les segments sont agrégés (et la phase d'instabilité ltrée), la longueur du segment devient donc la longueur des deux segments précédents plus celle de la période d'instabilité et lui sont attribués la moyenne et l'écart-type de tous les points correspondants à la longueur 39 40 du nouveau segment. est donné par les médecins pour chaque paramètre. On considère la fraction de la variation entre le point de début de zone d'instabilité et la valeur la plus haute ou la plus basse sur la variation entre les deux optimaux du signal. Il s'agit de comparer la variation dans la zone d'instabilité à la variation globale du paramètre. On la confronte ensuite à ce seuil. Si elle est inférieure, la condition pour l'agrégation est remplie. Si elle est supérieure mais durant un temps court (correspondant à l'échelle caractéristisque donnée par le calcul des tendances symboliques ([Calvelo et al., 2000]). 40 Les seuils ont été fournis par les médecins, plusieurs autres valeurs ont été testées mais il n'a pas été révélé de diérence signicative (nous verrons que ces valeurs peuvent être changées sur l'interface et on peut alors directement visualiser les résultats obtenus avec de nouveaux seuils). 138 Fig. 5.46: Chapitre 5 : RÉSULTATS Illustration sur la fréquence respiratoire (chier 1804CHA1-ssNaN) des données moyennées sur les zones déterminées comme stables par les deux dernières méthodes. L'axe des abscisses représente les points de mesure, une par seconde ; en tout, il y a un peu moins de 4 heures (11513 points). tc est l'échelle ou temps caractéristique, ici de 188 points de mesure ou secondes ; il a servi à calculer les tendances. Les lignes en trait d'union reportées sur les deux graphes excentrés symbolisent les seuils de normalité donnés par les experts. Ainsi, à l'intérieur, les valeurs du paramètre sont considérées comme normales. Le graphe du haut représente les données pré-traitées, celui du milieu les tendances symboliques et les suivants les moyennes et écart-type calculés sur les zones stables respectivement par la quatrième et cinqième méthode avec deux valeurs de votes diérents (1.5 et 4). Les zones où il n'y a rien correspondent à des zones instables. La case à droite et en bas de chaque graphe signie que l'on peut choisir une autre valeur du vote. La case pts en bas à gauche signie que l'on peut choisir les parties du signal que l'on veut zoomer. La case plot permet de visualiser les nouveaux résultats. 139 Chapitre 5 : RÉSULTATS Fig. 5.47: Illustration sur la fréquence respiratoire (chier 0808TRA-AIM) des segments agrégés. Les trois premiers graphes correspondent aux données pré-traitées, aux tendances symboliques et aux données moyennées sur les zones stables. Celui du bas représente les segments agregés suivant les heuristiques présentées. Les cases en bas à gauche permettent respectivement de zoomer sur des parties du signal et de tester une autre valeur de seuil de précision. La case plot permet de visualiser les nouveaux résultats. On voit ici que les petites zones instables présentes entre les points 7500 et 10000 ont été ltrées et la moyenne et l'écart-type ont donc été calculés sur l'ensemble des points (voir graphes 3 et 4). 5.3.1.4 Abstraction qualitative L'objectif de cette étape est de transformer les valeurs quantitatives des segments en des valeurs qualitatives comme normal, instable, normal mais haut, anormal et haut, normal mais bas et anormal et bas. Toutes ces informations sont liées à des intervalles temporels. Pour cette étape, on considère : Les informations extraites lors de la phase précédente La connaissance a priori de classication Les seuils donnés par les cliniciens dénissent une zone de normalité dans laquelle le paramètre est considéré comme normal. A partir de ces seuils (a, seuil haut et b seuil bas), nous avons rané la classication en termes de normal mais haut ( ) et normal mais bas ( ). Ces seuils sont respectivement la moyenne entre la valeur supérieure (respectivement la valeur inférieure) de la valeur 140 Chapitre 5 : RÉSULTATS normale et la moyenne entre les deux seuils donnés par les cliniciens ( et = b+ ( a +b ) 2 = a+ ( =2). a +b ) 2 =2 Le domaine de validité est le même que précédemment. Il s'agit ici uniquement d'une abstraction qualitative. L'abstraction qualitative consiste en la classication des segments suivant les seuils déterminés par les experts. On présente un exemple de résultats d'abstractions simples sur la gure 5.48. Fig. 5.48: Illustration de l'abstraction qualitative sur la fréquence respiratoire du chier 0808TRA-AIM. Le graphe du haut représente l'étape 3 de l'abstraction, c'est à dire les résultats après agrégation ; les lignes en tirets représentent les seuils de normalité donnés par les experts (ici, 5 et 35 comme valeurs extrêmes de normalité). Le graphe du bas est la transformation en valeurs symboliques. L'axe des abscisses représente le temps en secondes, ce qui correspond ici à la totalité du chier soit à peu près 4 heures. Les bandes bleues correspondent à l'abstraction normal, rouges à instable, vertes foncées anormal haut, vertes normal haut. Synthèse Les abstractions simples ont été construites paramètre par paramètre. Pour chaque paramètre, la méthode a été appliquée. Elle consiste en un processus basé sur la fusion des informations et connaissances disponibles ; le processus est incrémental. Chaque étape est visualisable et validable par les médecins. On peut même dire que la méthode repose aussi sur la visualisation des résultats. Ce parti pris est volontaire et repose sur l'idée que le travail abstractif est dédié aux médecins pour faciliter la tâche de surveillance et qu'il est donc tout à fait impératif de les faire participer et donc de leur montrer de façon pertinente notre travail. Sur le graphe présenté aux médecins, il est ainsi possible de tester plusieurs méthodes (voir étape 1 pour la labellisation des points de mesure) et de tester plusieurs valeurs de seuil (en particulier pour le seuil de variation pour l'agrégation). Ces interfaces donnent la possibilité de zoomer une partie intéressante du signal et des abstractions correspondantes. Sur la gure 5.49 sont représentées toutes les abstractions simples calculées pour les six paramètres choisis d'un chier de sevrage sur la durée totale du chier (soit environ quatre heures). Elles ont été calculées indépendamment les unes des autres et représentées Chapitre 5 : RÉSULTATS 141 ensemble. Ce graphe représente alors le chier abstrait du patient choisi. Il permet de donner un résumé de l'état du patient. Fig. 5.49: Illustration des abstractions simples sur tous les paramètres du chier 0808TRA-AIM. En ordonnées sont représentées les abstractions simples calculées pour les paramètres (du haut vers le bas) : fc, la fréquence cardiaque ; fR, la fréquence respiratoire ; VT, le volume courant ; VM le volume minute ; SpO2 la saturation pulsée en oxygène et Pas la pression artérielle systolique. L'axe des abscisses représente le temps en secondes, ce qui correspond ici à la totalité du chier soit à peu près 4 heures. Les bandes bleues correspondent à l'abstraction normal, rouges à instable, vertes foncées anormal haut, vertes normal haut, oranges anormal bas et jaunes normal bas. Sur cette gure (gure 5.49), est résumé le comportement de plusieurs paramètres du patient considéré, soit l'état du patient. Ainsi, jusqu'au point 7000 environ, le patient est à peu près stabilisé (la fréquence cardiaque, la pression artérielle et le volume courant sont normaux mis à part quelques instabilités). On note cependant une fréquence respiratoire, un volume minute (mais celui-ci est calculé grâce à la fréquence respiratoire) et une saturation hautes. Ensuite, la saturation devient anormal bas ce qui est concomittent à une instabilité globale sur les autres paramètres. Cette analyse correspond globalement à l'interprétation des médecins. En eet, vers le point 7000, le patient désature, et est donc replacé en ventilation mécanique d'où une instabilité sur les paramètres respiratoires expliquée par la ré-adaptation du patient au ventilateur et la nécessité de nouveaux réglages. Cependant, il n'est pas toujours possible 142 Chapitre 5 : RÉSULTATS d'interpréter les faibles variations de comportements des paramètres. Nous verrons dans la partie suivante, le problème de l'interprétation de ces zones. 5.3.2 Les abstractions complexes pour la reconnaissance d'événements 5.3.2.1 Deux phases dans la reconnaissance d'événements Phase de reconnaissance Il s'agit de reconnaître ces patterns locaux. La phase de reconnaissance (par le biais des patterns locaux) s'attache à détecter trois types de comportement : spike, oscillations et créneau (voir section 4.2.3.1 page 112). Suivant le type d'événement que l'on souhaite détecter, les patterns sont instanciés (voir section suivante). On reprend la gure 4.36. Fig. 5.50: Des comportements typiques reconnus grâce aux patterns. Phase d'interprétation Les patterns appliqués au paramètre de saturation pulsée en oxygène (SpO2) peuvent être utilisés pour reconnaître une désaturation puisque un tel événement implique une importante chute de la SpO2 qui peut être instable (premier pattern avec ou stable (second pattern). Le premier pattern avec un D m D t et D m élevés) bas appliqué à ce paramètre peut être utilisé pour reconnaître une déconnexion de capteur. Ceci correspond à une chute brutale bien que les valeurs du paramètre avant et après la déconnexion ne changent pas. Ce pattern appliqué à d'autres paramètres peut être employé pour détecter des spikes. Par exemple, l'événement déconnexion de capteur est un événement externe qui peut être détecté par un changement des valeurs du paramètre considéré. Cet événement est une importante cause d'alarmes fausses positives. Un important événement interne à détecter précocement est la désaturation qui induit une forte diminution de la saturation pulsée en oxygène (SpO2). Ces événements ont été choisis à cause de leur impact clinique, de leur fréquence d'occurrences et de la abilité du diagnostic. Un autre événement a été étudié que 143 Chapitre 5 : RÉSULTATS nous appelons spike. Il s'agit d'une importante variation des valeurs brutes du paramètre sur un court intervalle de temps. C'est un simple événement interne qui n'est pas lié à un événement externe ou événement clinique. En pratique, les phases de reconnaissance et d'interprétation sont imbriquées. La détermination des seuils sur les patterns pré-dénis se fait en fonction des événements que l'on cherche. De cette façon, la phase d'interprétation est déjà présente dans celle de reconnaissance. Mais, ce choix pose quelques dicultés, en particulier pour la validation où il serait juste de diérencier la reconnaissance de l'interprétation. La reconnaissance peut être validée mais l'interprétation correspondant à l'événement reconnu, fausse. Nous considérons les éléments suivants : Les informations extraites Les segments correspondant aux abstractions avant l'étape d'agrégation. La connaissance a priori sur la sémantique et la dynamique temporelles Il s'agit de connaissance sur le comportement du paramètre considéré pour les événements choisis. La longueur des segments, des intervalles entre les segments et la diérence entre les moyennes des segments sont contrôlés suivant des modèles de patterns pré-dénis. Remarquons que l'on considère ici, pour construire les abstractions complexes, les abstractions simples avant l'étape d'agrégation. En eet, cette étape permet de ltrer les petites zones instables. Or, typiquement un spike ou une déconnexion correspond à des petites zones instables qui sont suceptibles d'être ltrées durant la phase d'agrégation (puisque ces événements peuvent être considérés comme des artéfacts par le procédé). Nous allons à présent détailler chaque méthode pour reconnaître les événements répertoriés. 5.3.2.2 Trois événements à reconnaître Reconnaître une désaturation La désaturation correspond à une chute des valeurs du paramètre SpO2. Cette chute peut être d'une durée variable, soit brusque soit plus lente. On dit classiquement qu'il y a une désaturation lorsque le paramètre subit une baisse et atteint la valeur de 90%. Plusieurs types de désaturation existent suivant qu'elles nécessitent ou pas une action thérapeutique. Les désaturations nécéssitant une action thérapeutique sont qualiées de vraies désaturations ou de désaturations alarmantes. On discutera plus tard du fait que cette dénition n'est pas exhaustive puisqu'une déconnexion du capteur est aussi une chute du paramètre de SpO2. Au vu de la construction des abstractions, on considère qu'une chute supérieure ou égale à 2% est signicative. De plus, on considère une durée maximale de durée d'une désaturation qui est de 20 minutes (voir gure 5.51). Ces seuils nous ont été donnés par les médecins. Le seuil de durée est justié par le fait qu'une désaturation est un phénomène pathologique très important et est symptomatique d'un patient mal ventilé ; le personnel soignant réagit ainsi au plus vite (voir gure 5.51). Le choix des deux seuils sur l'amplitude de la chute et la durée de l'épisode repose sur des considérations médicales. Puisque la valeur de précision de la mesure de SpO2 est de 2%, on considère qu'une modication supérieure à 2% est signicative. Le seuil de durée de l'épisode de désaturation de 20 minutes a été choisi après concertation avec les médecins ; 144 Chapitre 5 : RÉSULTATS il correspond au temps maximal de réaction du personnel soignant sachant qu'une vraie désaturation doit être traitée rapidement. En outre, nous avons construit notre système de reconnaissance pour repérer le début d'une désaturation. Fig. 5.51: Deux patterns pour reconnaître une désaturation Nous présentons ci-après deux exemples de reconnaissance de désaturation sur deux chiers diérents. Nous avons mis en exergue les patterns permettant leur découverte (voir gures 5.52 et 5.53) Fig. 5.52: Exemple de reconnaissance d'une désaturation stable. La désaturation est reconnue sur l'intervalle [3952, 7564]. 145 Chapitre 5 : RÉSULTATS Fig. 5.53: Exemple de reconnaissance de deux désaturations, l'une stable et l'autre instable Résultats de la reconnaissance des désaturations Les résultats ainsi obtenus donnent (étude sur huit chiers-patient) : nombre de vraies désaturations expertisées : 4 nombre de vraies désaturations détectées à raison : 4 (mais deux désaturations détectées correspondent à une seule vraie. Celle-ci comprend deux chutes brutales qui ont été reconnues chacune comme une désaturation) nombre de désaturations détectées à tort : 3 (mais une correspond à une transitoire, qui est une chute signicative mais qui n'est pas une désaturation) La reconnaissance doit être anée an de diérencier les transitoires des désaturations (et des déconnexions de capteur, comme nous le verrons plus tard). Etant donné le faible nombre de vrais événements, la détermination plus ne de seuils est délicate. Reconnaître une déconnexion du capteur de la SpO2 Une déconnexion du capteur de la SpO2 se traduit par une chute brutale des valeurs numériques du paramètre. En général, un membre du personnel soignant replace rapidement le capteur ; la durée de cet événement reste courte et après la remise en place du capteur, les valeurs numériques du paramètre reprennent le niveau antérieur à la déconnexion. Par conséquent, les moyennes des valeurs numériques n'ont pas de diérence signicative, mise à part l'imprécision de la mesure qui est de 2% pour la SpO2. En cas contraire, le capteur restant déconnecté un certain temps, la valeur de la SpO2 reste constante à un niveau bas d'où une valeur de tendance stable et un écart-type correspondant nul. Après la remise en 146 Chapitre 5 : RÉSULTATS place, les valeurs numériques de la SpO2 ne sont pas forcément les mêmes d'où la prise en compte d'une diérence supérieure au seuil d'imprécision de la SpO2 au niveau des moyennes (voir gure 5.54). Fig. 5.54: Deux patterns pour reconnaître une déconnexion du capteur de SpO2. Nous présentons à présent un exemple de reconnaissances d'une déconnexion de l'oxymètre de pouls (voir gure 5.55). Nous verrons plus tard l'interprétation des médecins. Fig. 5.55: Exemple de reconnaissance de plusieurs déconnexions. En tout, sont re- connues quatre déconnexions, trois avec le premier pattern (rectangles noirs) et une avec le second (rectangle blanc). Résultats de la reconnaissance des déconnexions de l'oxymètre de pouls l'ensemble des chiers, les résultats donnent (étude sur huit chiers-patient) : nombre de déconnexions de l'oxymètre de pouls expertisées : 11 nombre de déconnexions détectées à raison : 7 Sur 147 Chapitre 5 : RÉSULTATS nombre de déconnexions détectées à tort : 7 (mais trois correspondent à une transitoire et à deux désaturations non alarmantes) Les mêmes remarques que pour la reconnaissance de désaturations sont valables. On remarque que trois événements sont reconnus mais mal interprétés. Reconnaître un spike Un spike se caractérise par un changement brusque de valeur ; il est reconnu donc par une zone instable de courte durée entourée par deux zones stables de moyennes équivalentes avant et après. Étant donné que l'on considère les moyennes, on prend comme durée courte une durée de 600 secondes ou 10 minutes (voir gure 5.56). Fig. 5.56: Un pattern pour reconnaître un spike Dans la gure ci-après (voir gure 5.57), nous présentons un exemple de reconnaissance de spike sur le paramètre fréquence respiratoire. 148 Chapitre 5 : RÉSULTATS Fig. 5.57: Exemple de reconnaissance de plusieurs spikes. En tout, sont reconnus trois spikes. Nous n'avons pas pu quantier les résultats de la reconnaissance de spikes puisqu'ils ne correspondent pas à un événement externe. Ceci dit, une étude approfondie pourrait permettre une correspondance entre plusieurs spikes et des événements externes (voir section 5.4.2.2). Choix des seuils sur les patterns ? Les diérents seuils sur les patterns ont été fournis grâce à la connaissance experte. Néanmoins, d'autres valeurs de seuil ont été testées an d'évaluer la robustesse du choix proposé. Pour la reconnaissance de l'événement désaturation, il en ressort que : Si l'on prend un seuil inférieur à 2, l'algorithme reconnaît une désaturation là où il s'agit plutôt d'un spike (voir chier 1804CHA1-ssNaN), ce qui est tout à fait explicable puisque'il s'agit d'un chute brusque avec une diérence de moyennes entre les deux zones stables faible (elle est inférieure au seuil de précision de 2%). Par contre, plus on considère un seuil haut, moins l'algorithme reconnaît des désaturations, ce qui est logique. Ainsi, au vu de ces résultats et d'après l'avis des experts, le choix du seuil à 2% nous paraissait pertinent. Les mêmes remarques sont valables pour les seuils sur les patterns pour les autres événements. Le choix des diérents seuils semble alors approprié même si l'on ne peut faire d'étude statistique. Néamoins, un anement de ces seuils permettrait éventuellement de Chapitre 5 : RÉSULTATS 149 discriminer certains événements. Synthèse Les abstractions complexes ont elles aussi été construites paramètre par paramètre. Pour chaque paramètre, la méthode a été appliquée. Elle consiste en un processus basé sur la fusion des informations et connaissances disponibles ; le processus est incrémental. Les résultats sont visualisables sur une interface graphique. Ces abstractions complexes permettent de reconnaître des événements internes. Cependant, elles ne sont pas toutes interprétables ; par exemple, les spikes ne correspondent pas à des événements externes ou cliniques même si il semble que lorsque le patient tousse ou est aspiré, il y a une co-occurence de spikes sur les paramètres respiratoires. On voit ici la limite d'une analyse mono-paramétrique ; il est nécessaire de passer à une analyse multi-paramétrique. 5.3.3 Représentation des abstractions simples et complexes Nous reprenons la gure 5.49 de la page 141 sur laquelle sont représentées les abstractions simples et nous rajoutons les événements détectés grâce aux abstractions complexes (voir gure 5.58). Ces dernières permettent d'aner la description de l'état du patient. Par exemple, on peut voir la survenue de la désaturation. Elle a engendré des modications de comportements des autres paramètres (les bandes ont changé de couleur) et des spikes sont apparus sur les paramètres ventilatoires et la pression, ce qui semble correspondre à une mauvaise adaptation du patient au mode ventilatoire. Par contre, la survenue de la désaturation ne peut être expliquée au vu de ce graphe. 150 Chapitre 5 : RÉSULTATS Fig. 5.58: Illustration des abstractions simples et complexes sur un chier entier de sevrage. Les bandes de couleur représentent les abstractions simples pour les 6 paramètres (HR, la fréquence cardiaque ; RR, la fréquence respiratoire ; TV, le volume courant ; MV le volume minute ; SpO2 la saturation pulsée en oxygène et SAP la pression artérielle systolique) calculées sur la totalité du chier soit à peu près 4 heures. Les bandes bleues correspondent à l'abstraction normal, rouges à instable, vertes foncées anormal haut, vertes normal haut, oranges anormal bas et jaunes normal bas. Les événements détectés par les abstractions complexes sont représentés en noir. Les rectangles en trait plein (vers les points 2000, 8500, 10500 et 11000) sur la SpO2 représentent les déconnexions du capteur. Ceux en étoiles (points 6500 à 7500 à peu près) sur la SpO2 représentent un épisode de désaturation. Enn, les rectangles en pointillés sur les autres paramètres symbolisent des spikes. 5.4 Validation des abstractions La validation des abstractions, qu'elles soient simples ou complexes, repose principalement sur l'interprétation des médecins grâce à une interface graphique . Actuellement, il est très dicile de faire une validation objective car : Peu de données sont disponibles. Par conséquent, peu d'événements spéciques sont référencés dans les chiers disponibles. L'interprétation des experts n'est pas objective et non susamment formalisable pour 151 Chapitre 5 : RÉSULTATS pouvoir qualier les événements détectés ou à détecter. Dans la littérature, il n'y a quasiment pas de système objectif de validation des abstractions. Dans le système VIE-VENT (voir section 3.3.2.3), les auteurs construisent le procédé d'abstraction en parallèle du système de validation [Horn et al., 1997]. Mais il s'agit de la validation des données utilisées lors du processus d'abstraction et non pas de validation du système d'abstraction. Puisque la validation des abstractions est délicate, elle a été envisagée dès le début du processus d'abstraction selon deux types de contrôle. Un contrôle a priori a été eectué grâce à la détermination de domaines de validité. Un contrôle a posteriori a permis de valider chaque étape de l'abstraction et les résultats du processus global d'abstraction des données. Celui-ci a été assuré par visualisation. Nous allons étudier la validation sur les deux types d'abstraction : les abstractions simples et les abstractions complexes. 5.4.1 5.4.1.1 La validation des abstractions simples Contrôle a priori des abstractions simples Le contrôle a priori a consisté à ne prendre en compte que des données considérées comme valides. Cette notion de validité est basée sur la manipulation de diérents éléments, données, informations et connaissances. Par ailleurs, elle est assurée par le choix des tendances que nous avons eectué. Nous proposons ci-après une comparaison des résultats des abstractions obtenus avec un autre mode de calcul de tendances (eectué dans le cadre du projet OSSCAR). Il consiste en une méthode de segmentation [Becq, 2000]. Les tendances obtenues n'ont pas la notion de stabilité/instabilité. Il s'agit uniquement d'informations typiques de tendances : diminué, augmenté et constant qui sont calculées sur des fenêtres xes dont la longueur dépend de la dynamique du paramètre. Comparaison des abstractions simples suivant la nature des tendances Nous avons testé notre méthode d'abstraction avec ces tendances. La gure 5.59 présente les résultats des deux méthodes d'extraction de tendances et les abstractions correspondantes. 152 Chapitre 5 : RÉSULTATS Fig. 5.59: Illustration et comparaison de l'abstraction sur la SpO2. Le graphe du haut représente les données brutes. Les deuxième et troisième (en partant du haut) représentent les données ltrées par les méthodes de segmentation et de calcul de l'échelle caractéristique. Les quatrième et cinquième correspondent aux tendances calculées par les deux méthodes. Sur l'axe des ordonnées de ces deux graphes, 0 représente diminue, 1 pour constant, 2 pour augmenté et 3 pour instable. La première n'a pas de calcul de tendances instables. Les sixième et septième correspondent aux abstractions calculées pour chaque méthode. Les bandes bleues correspondent à l'abstraction normal, rouges à instable, vertes foncées anormal haut, vertes normal haut, oranges anormal bas et jaunes normal bas. La méthode de segmentation n'aboutissant pas à la notion d'instabilité, les abstractions que nous avons calculées à partir de ces tendances, n'apportent pas cette information d'où l'absence de zones d'instabilité (il n'y a pas de zones rouges voir graphe 6 en partant du haut de la gure 5.59). A la lecture du signal brut, on voit ainsi que les zones où il a l'air de se passer quelque chose sont ltrées (voir par exemple au niveau du point 2000 où le signal brut chute brusquement, ce qui est totalement ltré par les abstractions obtenues à partir de la méthode de segmentation). Les abstractions obtenues à partir de la méthode du calcul de l'échelle caractéristique semblent plus informatives. Pour une comparaison de ces deux méthodes de calcul de tendances (ce qui n'est pas notre sujet) et leur utilisation dans le processus d'abstraction présenté dans ce travail de thèse, on peut se référer au papier [Chambrin et al., 2003] 41 41 Pour les abstractions complexes, on peut noter dès à présent que l'utilisation des tendances calculées par la méthode de segmentation dans le processus d'abstraction ne permet de reconnaître que les désaturations. 153 Chapitre 5 : RÉSULTATS Les abstractions simples obtenues avec l'aide des tendances symboliques ayant un seuil de stabilité/instabilité xe L'extraction de tendances symboliques reposait initialement sur un seuil xe (pendant toute la durée d'acquisition des données) pour qualier les notions de stablité/instabilité (voir section 5.2.2). Un exemple de résultats des abstractions obtenus est donné sur la gure 5.60. Fig. 5.60: Ilustration des abstractions calculées à partir des tendances ayant un seuil xe de stabilité/instablité sur le chier 0808TRA. A première vue, on peut remarquer que les zones instables (en rouge) sont nombreuses. Si l'on compare avec les résultats des abstractions calculées à partir de tendances ayant un seuil variable (voir gure 5.58 de la page 150), il est clair que ces zones instables ne sont pas signicatives. Les abstractions obtenues sont nettement moins pertinentes puisqu'elles impliquent des informations non signicatives. Le calcul de seuils de stabilité/instabilité non xes (comme il est pratiqué à présent dans la méthode d'extraction de tendances 42 ) est une amélioration dans la construction des abstractions. 5.4.1.2 Contrôle a posteriori des abstractions simples Le contrôle a posteriori est assuré par le fait que chaque étape est validé par les experts avant son utilisation dans l'étape suivante. La validation des abstractions est basée sur la connaissance experte, et se fait grâce à l'interface graphique qui est présentée aux experts. Elle a été envisagée tout au long du processus incrémental d'abstraction. Toutes les étapes de l'abstraction ont été validées de cette manière. En eet, ces tendances ne donnant pas la notion d'instabilité, les patterns ou abstractions complexes ne peuvent être reconnus sauf un. Il s'agit du pattern qui permet la reconnaissance d'un créneau sans zone instable qui peut être interprété comme une désaturation (voir [Chambrin et al., 2003]). 42 Nous tenons à diérencier ici ces seuils de ceux utilisés dans la transformation numérique/symbolique lors de l'abstraction qualitative qui sont xés pour toute la durée du protocole (voir chapitre 5.3.1.4). Ces seuils sont xes car même si le paramètre considéré change de comportement, il reste dans une bande de valeurs similaires. 154 Chapitre 5 : RÉSULTATS Les résultats naux sont donnés sous la forme d'un graphe synthétique et lisible facilement. Il permet la visualisation des abstractions calculées sur tous les paramètres. Une bande de couleurs caractérise chaque paramètre sur la durée totale du chier. Chaque bande est constituée de plusieurs parties de couleur diérente. La couleur correspond au symbole de l'abstraction (normal, normal mais haut). La longueur de chaque partie correspond à l'intervalle temporel sur lequel l'abstraction repose (voir gure 5.49 page 141). Globalement, le système a été validé par les experts comme un bon moyen de résumer des données. 5.4.2 La validation des abstractions complexes Le problème est ici particulièrement délicat. De manière à mettre en évidence ce problème, nous détaillons la façon dont on peut valider les résultats avec les experts chier par chier. Puis, nous tenterons d'en tirer, grâce à l'étude de l'ensemble des chiers, des considérations générales et d'en dégager les dicultés propres à la validation des abstractions dans ce domaine. 5.4.2.1 Contrôle a priori des abstractions complexes Les abstractions complexes sont construites à partir des abstractions simples qui ont été validées au préalable par les experts. Il n'y a pas à proprement parler de contrôle a priori spécique aux abstractions complexes. Ici, seul le contrôle a posteriori est considéré. Il consiste comme précédemment à la visualisation des résultats. 5.4.2.2 Contrôle a posteriori des abstractions complexes Nous nous appuyons sur l'exemple du chier présenté précédemment. Nous rappellerons les événements détectés. Le contrôle a posteriori repose sur la visualisation des résultats par les experts. Il est remarquable de noter ici, le besoin des experts de se rapporter au chier événements an de compléter et d'aner leur interprétation (voir par exemple l'illustration de la gure 5.61). Nous terminerons cette section par une discussion sur la reconnaissance d'événements spéciques. Rappel Le processus d'abstraction que nous avons élaboré détecte une désaturation vers 7000. Quatre épisodes de déconnexion du capteur de SpO2 sont détectés (vers les points 2000, 8300, 10600 et 11200 ) (voir gure 5.61). Plusieurs spikes sont détectés sur les autres paramètres. Validation de la reconnaissance des événements externes Nous allons tout d'abord étudier la validation des résultats de reconnaissance des désaturations et des déconnexions. Chapitre 5 : RÉSULTATS 155 Trois médecins ont relu les signaux par périodes successives de 30 minutes. Pour la SpO2 : au temps 2080 secondes, il y a une modication transitoire qui peut être dûe à une aspiration. Le même épisode est présent au temps 7000 mais il dure un peu plus longtemps que le premier puis il est suivi par un vrai épisode de désaturation qui commence en 7500 et se termine en 9000. La méthode d'abstraction a permis la détection de la désaturation. Cependant la déconnexion au point 7000 n'est pas identiée, elle est agrégée avec le début de la désaturation. La n de la désaturation est détectée comme une déconnexion (point 8500 environ). Validation de la reconnaissance de l'événement spike L'événement spike correspond à une variation brusque sur un temps court du paramètre considéré. Pour cela, il nous a paru pertinent de le comparer aux événements de toux et d'aspiration du patient qui peuvent induire des comportements similaires aux spikes sur les paramètres de mécanique ventilatoire. Nous avons sélectionné ainsi quelques événements intéressants présents dans le chierévénements (et donc annotés pendant l'acquisition des données) que l'on a mis en correspondance avec les abstractions (voir gure 5.61). Ces événements annotés et placés sur le graphe sont : Sur la ligne suctionning sont représentés le début et la n du protocole de sevrage. T signie la mise en pièce en T du patient et F l'échec du protocole. Le patient est alors remis sous ventilation mécanique. Sur la ligne TFP on SpO2 sont représentées les occurences des alarmes techniques de SpO2 ; elles sont généralement liées à des déconnexions du capteur. Sur la ligne cough, sont représentées les occurences de toux du patient. Sur la ligne suctionning, sont notées les aspirations qu'a subies le patient. Rappelons que ces événements ont été notés par un observateur au lit du patient et qu'ils ont été repris tels quels ; il peut donc y avoir des problèmes de décalage des chiers, des oublis ou même des erreurs. 156 Chapitre 5 : RÉSULTATS Fig. 5.61: Illustration des abstractions simples et complexes sur un chier entier de sevrage et représentation de quelques événements tirés du chierévénements. Sur la ligne suctioning, T signie la mise en place de la pièce en T et F l'échec du protocole et donc la remise en place de la ventilation mécanique contrôlée. Nous remarquons que les spikes sur les paramètres respiratoires (RR, TV et MV) peuvent eectivement correspondre à des aspirations mais une étude plus précise mériterait d'être faite. Dans le cas des désaturations, nous avons clairement opté pour la reconnaissance des vraies désaturations. Cet exemple nous a permis de mettre en avant quelques points intéressants et en particulier la diculté d'une validation pertinente dans le sens objectif du terme. 5.4.2.3 Discussion sur la reconnaissance d'événements spéciques Les résultats présentés dans la section 5.3.2.2 sont mitigés : 1. La reconnaissance des déconnexions n'est pas très performante (7/14). 2. L'interprétation des événements n'est pas toujours très pertinente (3/7 événements détectés comme des déconnexions sont d'autres événements interprétables). Nous devons faire face à plusieurs dicultés : Deux événements cliniques peuvent être détectés comme un seul événement. 157 Chapitre 5 : RÉSULTATS Un événement clinique peut être détecté comme plusieurs événements. Comment diérencier les événements alarmants des non alarmants (un événement non alarmant est plus dicile à détecter car il n'est pas ou moins persistent) ? ... Comment valider les résultats alors que l'interprétation n'est pas objective ? Nous devons discerner les vraies désaturations, c'est à dire celles qui impliquent un geste thérapeutique de la part du médecin et qui sont donc révélatrices d'un véritable problème au niveau du patient (elles sont synonymes d'un échec du protocole de sevrage) de celles qui correspondent simplement à une baisse du paramètre mais qui ne sont pas qualiées d'alarmantes. Notre système permet de reconnaître les premières mais a des dicultés pour les secondes qui peuvent être confondues avec des déconnexions ou pas du tout reconnues. On voit bien ici qu'il y a deux sortes de problème : 1. reconnaître des événements, 2. les interpréter de façon juste. Le second point est très délicat et nécessite bien souvent une analyse multi-paramétrique. D'ailleurs lorsque les médecins relisent les signaux, s'ils détectent un événement sur un signal, ils vont se reporter sur les autres. Suivant l'analyse des autres signaux, ils pourront alors qualier et interpréter l'événement. 5.5 Des résultats très préliminaires de la découverte de règles Nous nous sommes inspirés des travaux de Bellazzi et al [Bellazzi et al., 2003] (voir section 3.9.4.2 de la page 85). Nous considérons uniquement les co-occurrences d'états et dénissons le support d'un pattern comme l'intersection des supports de la prémisse et de la conclusion ; ceux-ci correspondant aux longueurs de chaque état considéré. Quelques résultats sont présentés sur la gure 5.62. Fig. 5.62: Exemples RR anormal bas ) ) S pO2 normal haut de règles S pO2 instable. RR instable. extraites Règle 2 : avec RR normal deux ) mesures. S pO2 normal haut. Règle 1 : Règle 3 : La mesure de conance est comprise entre 0 et 1 contrairement à la conance causale qui est comprise entre -1 et 1 [Kodrato, 2000]. 158 Chapitre 5 : RÉSULTATS Après discussion avec les experts, il apparaît que seule la première règle est correcte, la deuxième n'a pas d'intérêt clinique et la troisième est fausse. La mesure de conance causale permet de rejeter la troisième règle mais échoue à séparer les deux premières. La recherche de règles d'association à partir d'intervalles est un problème NP-complet [Bellazzi et al., 2003]. L'étude des co-occurrences d'états peut être une alternative implémentable facilement et rapidement. Néanmoins, la dimension temporelle n'est pas prise en considération de façon pertinente dans notre contexte. En particulier, la durée de la conclusion de la règle n'est pas prise en compte dans le calcul des probabilités. Nous avons utilisé les mesures de conance standard et causale pour mesurer l'intérêt des règles. Les résultats mitigés que nous obtenons indiquent que les dénitions des mesures et du support ne sont pas appropriées. L'utilisation de dénitions adéquates pour le support et les mesures d'intérêt des règles temporelles devraient être introduites. En outre, les situations cliniques sont caractérisées par un ensemble de paramètres, rarement par un seul. Une conjonction de conditions devrait apparaître dans la prémisse des règles d'association. Seules les relations entre les abstractions simples ont été étudiées. Mais, des relations entre les abstractions simples et les événements détectés ou même entre les événements euxmêmes (par exemple, les spikes non reliés à un événement externe) pourraient être étudiées. Chapitre 5 : RÉSULTATS 159 Dans ce chapitre, nous avons présenté dans un premier temps, les éléments choisis pour la construction du processus. Ensuite, les résultats obtenus pour l'abstraction de données et la découverte de règles. Pour l'abstraction de données, chaque étape a été détaillée : Pour les abstractions simples : la détermination des domaines de validité, la caractérisation des intervalles de stabilité, l'agrégation des segments et l'abstraction qualitative avec à chaque fois un support graphique pour la validation par les experts. Pour les abstractions complexes : deux phases dans la reconnaissance d'événements ont été présentées, la reconnaissance et l'interprétation. Ensuite, les modèles de patterns ont été instanciés an de reconnaître trois événements. Les résultats des abstractions simples sont prometteurs. Quant aux résultats des abstractions complexes, ils sont plus mitigés, en particulier à cause de la diculté d'interprétation des résultats de la reconnaissance des événements. Pour la découverte de règles, les résultats sont faibles. Ceci est dû principalement à une méthode peu développée. 160 Chapitre 5 : RÉSULTATS DISCUSSION Nous avons présenté une méthode générale d'extraction de connaissances, en l'occurrence de scénarios décrivant le comportement de patients en USIs. Cette méthode repose sur un processus de fusion. Nous avons distingué deux étapes : abstraction des données et fouille de données. Cette dernière permet, une fois que les caractéristiques extraites sont validées/interprétées, d'extraire de la connaissance. LA MÉTHODOLOGIE GLOBALE D'EXTRACTION DE CONNAISSANCE Particularités de la surveillance en USIs Le travail de cette thèse se situe dans le cadre général d'aide à la surveillance de patients en USIs. Ce domaine est tout fait particulier et comporte de nombreuses dicultés : 1. Des données complexes par nature : haute dimension, ambiguïté, imprécision et incertitude. 2. Des données rares : obtenir des données de patients en USIs en grande quantité et dans un contexte bien déni est un enjeu important mais très dicilement réalisable. 3. Des connaissances dicilement formalisables. Ces caractéristiques poussent à développer des systèmes de surveillance originaux, pertinents et adaptés à de telles contraintes. L'informatisation de protocoles et la construction de scénarios vont dans ce sens. Il n'y a pas de méthode bien dénie pour leur réalisation. Un des objectifs de cette thèse est de clarier chaque étape qui mène à la construction de scénario et de faciliter la mise en place de protocoles informatisés. Extraction de connaissances et fusion ? Le travail de cette thèse s'est focalisé sur la construction d'abstraction de données an de les transformer en termes proches des discours médicaux. L'objectif était d'impliquer les médecins tout au long du processus, de pouvoir les aider à expliciter leurs connaissances au travers des abstractions, de dégager des connaissances directemement lisibles, compréhensibles par eux. La représentation de connaissances sous forme de règles entre dans un tel 162 DISCUSSION ET PERSPECTIVES cadre. La complexité des données et l'incomplétude des connaissances nous ont poussés à développer un système incrémental et basé sur la fusion combinant les données, les informations et les connaissances. Nous avons déni plusieurs types de fusion : les fusions temporelle, sémantique et multi-sources. Ils permettent de contrôler les diérents niveaux du processus d'extraction de connaissances. Nous avons dégagé deux principales étapes : l'abstraction et la fouille des données. L'abstraction de données est dénie comme un processus incrémental, combinant don- nées, informations et connaissances de diérentes manières. La robustesse de l'abstraction est renforcée par l'interaction avec les experts pour contrôler chaque étape de l'abstraction. Dans la littérature, l'abstraction des données temporelles repose sur la fusion temporelle. Nous avons mis en exergue le fait qu'elle doit être multi-niveaux et basée aussi sur de la fusion sémantique. La découverte de règles semble un moyen rapide et ecace d'obtenir des relations entre intervalles décrivant le comportement dynamique du patient ou du moins celui d'un ensemble de paramètres (voir par exemple [Bellazzi et al., 2005]). La découverte de règles à partir de données temporelles repose sur de la fusion temporelle, de la fusion multi-sources. Elle peut aussi être envisagée selon un procédé de fusion sémantique. Cette dernière n'a pas été envisagée dans ce travail de thèse. La recherche de règles s'est focalisée sur la recherche de liens entre des informations de mêmes niveaux d'interprétation (les états correspondant aux abstractions simples). Ceci dit, la découverte de règles n'a pas été étudiée en profondeur. Il en est ressorti, tout de même plusieurs points : (1) La diculté de la prise en compte du temps avec des données intervalles. (2) La nécessité de dénir le support pertinent. La formalisation de la fusion (dénie dans ce travail) nécessiterait d'être approfon- die. En particulier, les quatre étapes de modélisation, estimation, combinaison et décision devraient être étudiées. La découverte de connaissances pour aner les abstractions Nous pouvons comparer l'extraction de connaissances à un cercle vertueux : La connaissance découverte ane l'abstraction des données, celle-ci permettant de rendre les données plus informatives, ce qui peut améliorer à son tour la connaissance découverte, etc. Pour ce faire, nous avons tenté de disséquer le processus an d'en dégager tous les aspects. L'intérêt d'une telle approche est de poser clairement (ou de s'y approcher) les problématiques associées : (1) Dénir les concepts manipulés : données, informations, connaissances. (2) Déterminer le rôle de ces concepts dans le processus. DISCUSSION ET PERSPECTIVES 163 PROBLÉMATIQUE DE LA VALIDATION Une interprétation subjective Une validation objective des résultats semble peu réalisable. Elle dépend essentiellement des experts et de leur interprétation qui est dicilement formalisable. La validation ne peut qu'être subjective et sujette à quelques approximations. Mais cela est-il forcément préjudiciable ? Est-il capital de savoir que la zone de normalité d'un paramètre quelconque s'arrête à tel instant avec une précision de la seconde ? Il y a là un véritable problème de dénition du niveau d'interprétation. Dans ce contexte là, une méthode incrémentale avec discussion avec les experts à chaque étape peut permettre de trouver non pas le bon niveau d'interprétation mais celui estimé comme étant susamment informatif. Les résultats des abstractions simples sont satisfaisants mais ceux des abstractions complexes sont mitigés. La validation de la reconnaissance d'événements propre (voir la discussion de la section 5.4.2.3 de la page 156) met en évidence deux sortes de problème : La reconnaissance de comportements. Leur interprétation qui permet éventuellement de les qualier d'événements signicatifs d'un point de vue clinique. On rejoint ici les problèmes d'une validation subjective. En outre, la faible quantité d'événements dans les chiers patients à disposition met à mal toute validation. Dépendance vis-à-vis des informations La méthode que nous avons proposée repose sur la combinaison d'informations, et de connaissances, en particulier sur l'obtention de tendances spéciques. L'abstraction des données repose sur la conception de domaines de validité basée sur les notions de stabilité/instabilité des tendances. Il en ressort une critique de la méthodologie : sa dépendance à une méthode d'extraction de tendances. Par ailleurs, la méthode envisagée n'est pas forcément validée ou validable. Un moyen de validation serait la construction complète du processus d'extraction de scénarios et de considérer que la validation des scénarios découverts permet la validation du système complet et donc des abstractions (états et événements) et tendances associées. PERSPECTIVES Plusieurs axes de recherche découlent de ce travail. Poursuivre dans cette voie Les résultats de l'abstraction semblent prometteurs. Néanmoins, il reste quelques points à éclaircir : (1) Tester la méthode sur plus de données, (2) Développer, approfondir la détection de patterns et leur interprétation. 164 DISCUSSION ET PERSPECTIVES Ce n'est pas tant le nombre de données qui compte que le nombre d'événements ou de scènes typiques qui est important. Un nombre accru de cas typiques de situations à reconnaître permettrait dans un premier temps d'étudier plus en profondeur la méthode proposée dans cette thèse. Pour cela, une masse de données susante doit être disponible et obtenue dans des conditions bien dénies et maîtrisées. Extraire des scénarios par fusion oblique La fusion oblique est une combinaison des trois types de fusion cités précédemment. Elle a pour principe de combiner plusieurs niveaux d'interprétation de plusieurs données, à plusieurs instants an d'améliorer le processus de décision. On peut envisager ce procédé de deux manières : (1) Soit comme nous espérions le faire grâce au procédé d'extraction de connaissances globalement incrémental, dit du cercle vertueux. Les connaissances découvertes permettraient d'aner l'abstraction, d'où une étape nouvelle dans l'espace de fusion au niveau de l'interprétation des données. Cependant, on est très vite limité par la représentation des données adoptée lors de la transformation. Les méthodes de fouille doivent s'adapter à cette représentation qui est préjudiciable comme nous l'avons vu au cours de ce travail de thèse. (2) Soit directement en envisageant la fusion oblique dès le début du processus. Ce dernier type d'approche est envisagé dans les travaux de Thomas Guyet qui commence une thèse au sein de notre équipe [Guyet, 2004]. Développer les aspects visualisation Les aspects visualisation de l'abstraction de données et de la fouille ont été évoqués sans rentrer dans les détails. Cet aspect dans notre méthode d'abstraction a été pris en compte dans la présentation des résultats pour faciliter leur validation par les experts. Ceci dit, il n'a pas été développé à un niveau supérieur. La visualisation des abstractions est pertinente pour deux points : Une représentation lisible des abstractions par les médecins qui permet une validation éventuelle. L'obtention de connaissances expertes pour la construction de patterns ou scénarios par la connaissance experte. ANNEXES 43 43 Les annexes A à I sont reprises des compte-rendus des réunions du sous-projet qui ont été rédigés par Marie-Christine Chambrin. Annexe A Protocole de recueil des données Protocole Le recueil s'eectue en continu et en temps réel au lit du patient sans interférer avec les protocoles de soins. A l'hôpital de Lille (CHRU), le recueil des paramètres physiologiques s'eectue à partir du moniteur cardio-vasculaire et du ventilateur connectés à un micro ordinateur par liaison RS232. Sur le même micro-ordinateur, la personne en charge du protocole documente les données à partir d'une interface conçue pour entrer les informations. A l'hôpital de Lyon (CHU Lyon Sud, Hospices Civils de Lyon), le recueil des signaux physiologiques s'eectue à partir du moniteur cardio-vasculaire et d'un boîtier de capteurs de pression et de débit connectés au système Biopac MP1000. Le logiciel AcqKnowledge est utilisé pour l'acquisition et le stockage des signaux. Les données sont documentées à l'aide de ce même logiciel (journal de bord). Les patients Tout patient éligible pour la période de sevrage ou d'arrêt de sédation. A Lille, un nom de chier unique est généré par le système en fonction des 3 premières lettres du nom et de la date du jour. Le procédé utilisé pour la génération du nom de chier n'est pas réversible : il n'est pas possible de retrouver le nom du patient ou la date à partir du nom du chier. A Lyon, le nom du chier est constitué de quatre chires correspondant au jour et au mois du recueil et des trois premières lettres du nom du patient JJMMNNN.* (* prend la valeur acq pour les données et txt pour les commentaires) Durée de l'acquisition Les données sont acquises le matin dès que la décision de mettre en place une procédure de sevrage ou d'arrêt de la sédation est prise. Les données sont acquises et documentées une heure avant la mise en place eective de la procédure de sevrage ou d'arrêt de la sédation. Les données sont acquises et documentées au moins trois heures après la mise en place eective de la procédure considérée. En résumé, le déroulement du recueil s'eectue selon le schéma ci dessous : Sauvegarde des données Les données sont archivées sur le poste de recueil des données. Elles sont ensuite dupliquées sur un serveur de données. 168 Annexe A : Protocole de recueil des données Fig. 63: Le protocole de recueil de données Critères d'inclusion Tout patient ventilé pour lequel une décision relative à l'une des phases suivantes a été établie : sevrage (période d'extubation) ou arrêt de la sédation. Matériels et Méthodes de mesure La nature des informations recueillies est la même pour les deux services, bien que les moniteurs disponibles et les moyens de recueil soient diérents. Une feuille de recueil sera établie pour chaque observation selon le modèle joint en annexe B. La liste des paramètres qui seront conservés dans la base de données est fournie en annexe C. Une description des matériels disponibles et des moyens de recueil est présentée ci dessous pour chacun des services. Descriptif des moyens mis en oeuvre à Lille Moniteur cardio-vasculaire de type SpaceLabs UCW Les données prises en compte sont celles délivrées sur le port de sortie pour l'imprimante. Il s'agit d'une liaison de type RS232, délivrant les données à une période réglable par l'utilisateur. Les caractéristiques techniques sont fournies en annexe D. Les données sont de deux types : les valeurs des paramètres physiologiques et les messages d'alarme. Les paramètres disponibles sont fonction des modules de surveillance activés : le module ECG : fréquence cardiaque, nombre d'anomalies le module pression : pression systolique, diastolique et moyenne le module SpO2 : saturation en oxyhémoglobine, fréquence cardiaque le module de capnographie (optionnel) : PetCO2, fréquence respiratoire Ventilateur de type Dräger (Lubeck, Allemagne) : Evita, Evita2, Evita4 Les données prises en compte sont celles fournies sur la sortie RS232 et utilisant le protocole LUST. Les principales caractéristiques sont reprises en annexe E. Les données fournies sont de plusieurs types : les valeurs des paramètres, les paramètres de réglage et les messages d'alarme. Plate-forme d'acquisition Il s'agit d'un logiciel conçu à Lille [Jaborska, 2000] fonctionnant sur tout type de PC sous Linux. 169 Annexe A : Protocole de recueil des données Principales fonctionnalités du logiciel Au lancement l'application détecte la présence du matériel connecté au travers des liaisons de type RS232C. L'acquisition des données s'eectue dès que l'appareil a été détecté, sur la base d'une acquisition toutes les 5 secondes. L'opérateur dispose de trois modules principaux : un module de visualisation des données un module permettant d'entrer les modications intervenant dans l'environnement du patient (voir annexe F) un module permettant la sauvegarde des données sur disquette sous un format compressé an de pouvoir les transférer sur une autre machine en vue de leur traitement hors ligne. Description du matériel Conguration minimum : Système Linux 2.2, Processeur Pen- tium 133 Mhz, 32 Mo RAM, 1,2 Go de disque dur, utilisation des ports séries intégrés (2), moniteur de bureau 14 ou 15 pouces, Pointage par souris Descriptif des moyens mis en oeuvre à Lyon Moniteur cardio-vasculaire de type Datex 1606 Les signaux correspondant à l'électrocardiogramme (ECG), à la pression artérielle invasive (PA), à la pléthysmographie de pouls SpO2, ainsi que des signaux analogiques correspondant à la valeur du rythme cardiaque et de la saturation en oxygène de l'oxyhémoglobine sont disponibles sur un connecteur 48 broches situé en face arrière du moniteur (digital and analog I/O connector sur la partie UPI X2). Ce connecteur est relié par un câble au système d'acquisition MP100 de Biopac. Ventilateur de type Dräger (Lubeck, Allemagne) : Evita2, Evita4 et ventilateur Horus (TAEMA, Antony, France) Un capteur de débit (Hamilton Medical) est mis en place sur le circuit patient au niveau de la pièce en Y. Ce capteur est relié à un boîtier contenant un capteur piézo-électrique de pression diérentielle (type Honewel Microswitch). Une prise de pression est également assurée au niveau de la pièce en Y : la tubulure est reliée à un boîtier contenant un capteur de pression diérentielle. Chacun de ces boîtiers est relié par un câble à une entrée du système MP100 de Biopac Plate-forme d'acquisition L'unité d'acquisition Biopac est relié à un PC portable. Le logiciel AcqKnowledge est utilisé pour l'acquisition des signaux connectés au module Biopac et provenant du moniteur cardio-vasculaire et des boîtiers de débit et de pression. La fréquence d'acquisition est xée à 100Hz. Une calibration est eectuée avant chaque enregistrement. Durant l'enregistrement, l'observateur médical saisit sur le journal de bord d'AcqKnowlegde : * la source de l'alarme et sa qualication selon le code de qualication suivant * les observations cliniques au fur et à mesure des événements, selon ceux décrits dans l'annexe E. 170 Annexe A : Protocole de recueil des données Fig. 64: Les codes des alarmes En n d'enregistrement, le chier est sauvegardé sur le disque dur, dans le répertoire OSSCAR 2001. Le nom du chier est du type jour-mois-3 premières lettres du nom (jour et mois en numérique). Par exemple 0305CAR.acq. En n de recueil, les chiers AcqKnowledge sont copiés sur un zip de transfert. Les chiers de données sont traités an d'extraire en cycle par cycle les paramètres physiologiques décrits en annexe B. Inconvénients et risques Il n'existe aucun risque du au recueil. Le seul inconvénient est la mise en place durant le protocole d'un micro-ordinateur dont l'emplacement est choisi de façon à ne pas gêner l'accès au patient et branché sur un réseau électrique indépendant du circuit protégé par un onduleur alimentant le ventilateur et le moniteur. Une indication portée sur le tableau de la chambre indiquera qu'un protocole de recueil est en cours. Une information sur le nature du recueil sera donnée à la famille. Coûts Le recueil est réalisé au sein du service et n'entraîne aucun coût supplémentaire. Le recueil, devant être documenté, il est réalisé en journée, pendant les heures normales de travail par une personne appartenant au groupe de recherche. Conclusion Cette étude doit nous permettre de disposer d'une base de données documentées, mise à la disposition de plusieurs équipes de recherche dans le cadre du projet OSSCAR, an de tester diérentes approches de traitement des données sur une base de données communes. Annexe B Feuille de recueil (OSSCAR) 172 Annexe B : Feuille de recueil (OSSCAR) Annexe C Récapitulatif des informations disponibles sur les systèmes utilisés Signaux analogiques Les signaux analogiques sont des signaux physiologiques permettant de caractériser : d'une part la fonction cardio-vasculaire : électrocardiogramme et pression artérielle d'autre part la fonction respiratoire : débit et pression des voies aériennes. Le signal de volume courant peut être obtenu par intégration du signal de débit. De façon optionnelle, on peut disposer du signal de capnographie. Le signal de photopléthysmographie de pouls est également disponible. Valeurs numériques La plupart des valeurs numériques disponibles sont issues du traitement des signaux physiologiques mentionnés précédemment. Les informations caractéristiques extraites de ces signaux et appelées paramètres physiologiques sont les suivantes : à partir de l'électrocardiogramme : la fréquence cardiaque fC à partir de la pression artérielle : la pression artérielle systolique (Psys correspondant à la valeur maximum), la pression artérielle diastolique (Pdia correspondant à la valeur minimum), la pression artérielle moyenne (Pmoy correspondant à la valeur moyenne). Un calcul de fréquence cardiaque peut également être réalisé à partir de ce signal. à partir du débit des voies aériennes : il sert de référence pour la détermination des phases inspiratoire et expiratoire des signaux de la fonction respiratoire (voir gure 65). Fig. 65: Les paramètres obtenus à partir du signal de débit à partir de la pression des voies aériennes (voir gure 66) 174 Annexe C : Récapitulatif des informations disponibles sur les systèmes utilisés Fig. 66: Les paramètres obtenus à partir du signal de pression à partir du capnogramme : la concentration ou pression partielle du CO2 de n d'expiration (ETCO2) et la fréquence respiratoire. à partir de la photopléthysmographie de pouls : la fréquence cardiaque. Le moniteur de SpO2 fournit également la saturation de l'hémoglobine en oxygène calculée à partir d'une technique de spectrophotométrie d'absorption. La combinaison de ces diérents signaux, par exemple volume = f(pression) ou CO2 = f(Volume) permet le calcul de paramètres supplémentaires tels que travail ventilatoire ou quantité de CO2 expiré respectivement. Le calcul des valeurs de résistance et d'élastance sont fournies à partir du traitement des signaux de débit et de pression. Ces paramètres sont délivrés par les systèmes de surveillance et les ventilateurs. Ils peuvent également être déterminés à partir du traitement des signaux physiologiques disponibles sur les systèmes de surveillance et le ventilateur ou par l'ajout de capteurs spéciques. Valeurs symboliques Les messages d'alarme des systèmes de surveillance et des ventilateurs ainsi que les valeurs de réglage de la ventilation sont disponibles en sortie sur certains ventilateurs. Annexe D Moniteur cardio-vasculaire Spacelabs Une description de l'interface RS232 est fournie dans le manuel de fonctionnement en ce qui concerne le moniteur de chevet portable 90308 (annexe A) ou PC Express Spacelabs. 9600,N,8,1- data logger ON Les données sont envoyées suivant la fréquence dénie sur le moniteur dans un intervalle compris entre 5 secondes et 60 minutes. Cette sortie a été conçue pour connecter une imprimante 132 caractères. Une ligne de données contient un maximum de 132 caractères et l'ordre des paramètres est fonction des modules connectés. Deux types d'information sont transmis : des entêtes de page et des lignes de données. Les entêtes de page apparaissent dans les situations suivantes : * 50 lignes ont été transmises * les paramètres surveillés changent * le nom du patient ou le numéro de lit changent * la date actuelle change L'entête contient les champs suivants : Nom du patient : 40 caractères Nom du lit : 5 caractères Date : 7 caractères Les lignes de données débutent par l'heure de transmission des données (8 caractères) et la valeur des paramètres surveillés. Leur ordre dépend du type des modules mis en place. Les données continues qui peuvent s'acher sont répertoriés dans la gure 67. Des données épisodiques peuvent également s'acher (voir gure 68). Les symboles suivant peuvent apparaître sur la sortie : ? ? ? valeur non dénie +++ valeur supérieure à l'intervalle valeur inférieure à l'intervalle *** dicultés de découverte de la valeur (peu importe la raison) Pour l'ECG, il existe un temps de récupération de 30s et un temps de réponse de 3s (alarme 3s, suspension son 3min). Pour les pressions temps de réponse 3s (alarme 3s, suspension son 3min). Pour la fR mesurée par impédance temps de réponse 3s (alarme 10s, suspension son 3min). Pour la température temps de réponse 3s (alarme 10s, suspension son 3min). Pour la SpO2 temps de réponse 3s (alarme selectionnable par menu 2,4,8 s). Exemples de sortie avec les moniteurs de chambre UCW (voir gure 69). SortieJ8 : DB9broches male (voir schéma de connexion, tous les pins sont connectés) 176 Annexe D : Moniteur cardio-vasculaire Spacelabs Fig. 67: Fig. 68: Les données continues Des données épisodiques Annexe D : Moniteur cardio-vasculaire Spacelabs Fig. 69: 177 Exemples de sorties du moniteur Etude des messages d'alarmes : Lorsque des moniteurs externes sont connectés via le export et que des seuils d'alarme sont dénis sur les paramètres transmis, en cas d'alarme, il existe un message sur la sortie imprimante. 178 Annexe D : Moniteur cardio-vasculaire Spacelabs Annexe E Ventilateurs Evita-Dräger En ce qui concerne les Evita 2, une description complète de l'interface RS232 est fournie dans la notice EvitaLink RS232 Serial Interfaces for Evita 2 instructions for use d'octobre 1993. Le choix du protocole de transmission se fait par menu. Pour rester compatible avec les autres respirateurs de la gamme eectuer le réglage suivant : LUST protocol et 1200 bauds. La récupération des données se fait sur le port B. 1200,E,7,2 9 broches male (2-RD, 3-TD, 5-GND) En ce qui concerne l'Evita4, une description complète de l'interface RS232 est fournie dans la notice Evita 4 Link Interface Card Supplement to instructions for Use Evita 4 de juin 1996. La récupération des données se fait sur le port COM2 ou COM3. Evita 2 : n° d'identication software version 1.00 >040 software version 2.00 >041 Evita 4 : >050. La liste des paramètres fournis par le ventilateur est répertoriée dans la gure 70. Fig. 70: Les paramètres récupérés sur le ventilateur Toute modication de réglage ou de message d'alarme apparait à la suite des valeurs des paramètres obtenues sur requête. Ci-dessous un exemple de récupération des données. 180 Annexe E : Ventilateurs Evita - Dräger Fig. 71: Exemple de récupération des données Annexe F Codication des événements extérieurs Les codications adoptées sont : A=Ajout ; S=Suppression ; H=Haut, augmentation ; B=Bas,diminution ; D=divers ; C=changement de pousse seringue ; F=n 182 Annexe F : Codication des événements extérieurs Annexe F : Codication des événements extérieurs 183 Codication des alarmes Dénition des Vrai Positif (VP), FP (Faux Positif ) et FN (Faux Négatif ) : VP : ce sont les alarmes qui ont été déclenchées alors que la valeur du paramètre est en dehors des seuils xés et suivies d'un geste de soins ou de la résolution d'un problème technique. Dans ce dernier cas l'alarme sera notée VPT. FP : valeur du paramètre en dehors des seuils xés, mais alarme ne justiant d'aucun geste technique ou thérapeutique. FN : valeur du paramètre dans la limite des seuils xés et problème sur patient justiant d'un geste de soin. 184 Annexe F : Codication des événements extérieurs Annexe G Exemples de paramètres tirés des signaux On appelle ventilation minute (VE) le produit du volume courant par la fréquence respiratoire. Fig. 72: Exemple de signaux en ventilation spontanée de repos 186 Annexe G : Exemples de paramètres tirés des signaux Annexe G : Exemples de paramètres tirés des signaux Fig. 73: 187 Courbes caractéristiques de ventilation en Aide Inspiratoire (donc en pression contrôlée) La Paw est de forme carrée avec un niveau d'aide xé (Pref ). Le débit est décroissant, il est fonction de Paw et des propriétés mécaniques du système thoraco-pulmonaire. La Pes est très nettement négative à l'inspiration. Noter ici le décalage entre le début de l'eort d'inspiration et l'obtention de l'aide inspiratoire. 188 Annexe G : Exemples de paramètres tirés des signaux Annexe H Les valeurs normales Les valeurs dites normales sont en fait dépendantes de l'âge, du sexe, de la taille, du poids et de l'origine ethnique. Elles ont été xées en fonction de données trouvées dans la littérature. Les valeurs dites réa sont des valeurs pouvant être observées chez des patients de réanimation sous assistance ventilatoire. Les valeurs observées au delà de ces limites peuvent être considérées comme critiques. Ces limites sont à redénir par les cliniciens participant au projet (voir gure 74). 190 Fig. 74: Annexe H : Les valeurs normales Dénitions et abréviations correspondant aux paramètres disponibles Annexe I Pré-traitement des signaux Il consiste à éliminer des valeurs aberrantes selon les modalités suivantes : (1) Sur les chiers de Lyon : toute valeur de la fréquence cardiaque calculée en dehors de [20-200] est remplacée par un NaN, ainsi que les valeurs de PA systolique, diastolique et moyenne correspondantes. (2) Sur les chiers de Lille et Lyon, un traitement similaire est eectué à partir de la valeur de la fréquence cardiaque délivrée par le moniteur. (3) De même toute valeur de la fréquence respiratoire calculée en dehors [2 80] est remplacée par NaN ainsi que les valeurs de VT, débits, VM, Paw,E et R correspondantes. (4) Un traitement supplémentaire est réalisé sur E et R pour éliminer les valeurs négatives et supérieures à 100. 192 Annexe I : Pré-traitement des signaux Annexe J Références Journaux internationaux Silvent A.-S., Dojat M. et Garbay C. (2004). Multi-level temporal abstraction for medical scenario construction. Special Issue of the International Journal of Signal Processing and Adaptive Control. A paraître Workshops internationaux Silvent A.-S., Garbay C, Carry P et Dojat M.(2003). Data, information and knowledge for medical scenario construction. In Proceedings on Intelligent Data Analysis in Medicine and Pharmacology, AIME 2003, Cyprus. Chambrin M.-C., Bijaoui E., Carry P.-Y., Charbonnier S., Dojat M., Garbay C., Mangalaboyi J., Perdrix J.-P., Ravaux P., Sharshar S., Silvent A.-S., Vilhelm V. (2003) OSSCAR : A Collaborative Project for Intelligent Patient Monitoring in Intensive Care and Anesthesia. In Proceedings on Intelligent Data Analysis in Medicine and Pharmacology, AIME 2003, Cyprus. Silvent A.-S., Garbay C, Carry P and Dojat M. (2002). Data abstraction for medical construction scenario. In Knowledge Data from Temporal and Spatial Data (TASDA'02), Lyon, France, pages 72-77. Conférences nationales avec publication dans un livre Silvent A.-S., Garbay C, Carry P et Dojat M. (2003) Abstraction de données pour la construction de scénarios médicaux. In Extraction et Gestion des Connaissances (EGC'2003), (M. Hacid, Y. Kodrato and D. Boulanger, Eds.), Hermès-Lavoisier, Lyon, Fr (22-24 Jan), pages 207-212. 194 Annexe J : Références Bibliographie [Allen, 1983] Allen, J. (1983). Maintaing knowledge about temporal intervals. Comm. ACM, 26(11) :832843. [Allen, 1984] Allen, J. (1984). Towards a general theory of action and time. Articial Intelligence, 23 :123154. [Bauer et al., 1998] Bauer, M., Gather, U., and Imho, M. (1998). Analysis of high dimensional data from intensive care medicine. In Proceedings in Computational Statistics, (R. Payne, Eds), Berlin :Springer-Verlag, pages 185190. [Becq, 2000] Becq, G. (2000). Gestion des alarmes d'oxymétrie de pouls en unités de soins intensifs :une analyse multiparamétrée. Rapport de DEA Modèles et Instruments en médecine et biologie Université Joseph Fourier Grenoble. [Bellazzi et al., 2002] Bellazzi, R., Larizza, C., Magni, P., and Bellazzi, R. (2002). Quality assessment od dialysis services through intelligent data analysis and temporal data mining. Working notes workshop on Knowledge Discovery on Temporal and Spatial data, ECAI 2002, pages 3-9. [Bellazzi et al., 2005] Bellazzi, R., Larizza, C., Magni, P., and Bellazzi, R. (2005). Temporal data mining for the quality assessment of hemodialysis services. Articial Intelligence in Medicine, à paraître. [Bellazzi et al., 2003] Bellazzi, R., Larizza, C., Magni, P., and Bellazzi, R. (october 2003). Quality assessment of hemodyalisis services through temporal data mining. In 9 th confe- rence on Articial Intelligence in Medicine in Europe, AIME2003, (M. Dojat, E. Keravnou and P. Barahona, Eds), LNCS 2780, Springer : Berlin, pages 1120. [Bellazzi et al., 1998] Bellazzi, R., Magni, P., Larizza, C., Nicolao, G. D., Riva, A., and Stefanelli, M. (1998). Mining biomedical time series by combinig structural analysis and temporal abstractions. Journal of American medical informatics association, 5 :160164. [Biot, 1998] Biot, L. (1998). Evaluation d'un monitorage de la mécanique respiratoire en réanimation adulte. Thèse de médecine, Université Claude Bernard Lyon I, Faculté de médecine Lyon Nord. [Biot et al., 2000] Biot, L., Carry, P.-Y., Perdrix, J.-P., Eberhard, A., and Baconnier, P. (2000). Clinical evaluation of alarm eciency in intensive care. Ann. Fr. Anesth. Reanim, 19(6) :45966. [Bloch, 2003] Bloch, I. (2003). Fusion d'informations en traitement du signal et des images. Traité IC2. Hermès-Lavoisier. [Bloch and Hunter, 2001] Bloch, I. and Hunter, A. (2001). Fusion : General concepts and characteristics. International Journal of Intelligent Systems, 16(10) :11071134. 195 196 BIBLIOGRAPHIE [Bloch and Maître, 1994] Bloch, I. and Maître, H. (1994). Fusion de données en traitement d'images : modèles d'informations et décisions. Traitement du Signal, 11(6) :435446. [Burns et al., 2003] Burns, S., Earven, S., Fisher, C., Lewis, R., Merrell, P., Schubart, J., Truwit, J., and Bleck, T. (2003). Implementation of an institutional program to improve clinical and nancial outcomes of mechanically ventilated patients : One-year outcomes and lessons learned. Critical Care Medicine, 31(12) :27522763. [Calvelo et al., 2000] Calvelo, D., Chambrin, M.-C., Pomorski, D., and Ravaux, P. (2000). Towards symbolisation using data-driven extraction of local trends for icu monitoring. Articial Intelligence in Medicine, 19(3) :203223. [Calvelo-Aros, 1999] Calvelo-Aros, D. (1999). Apprentissage de modèles de la dynamique pour l'aide à la décision en monitorage clinique. Thèse de doctorat, Université des sciences et technologies de Lille. [Carrault et al., 1999] Carrault, G., Cordier, M.-O., Quiniou, R., Garreau, M., Bellanger, J.-J., and Bardou, A. (1999). A model-based approach for learning to identify cardiac arrhythmias. In AIMDM'99, volume 1620 of LNAI, Springer Verlag, pages 165174. [Carrault et al., 2003] Carrault, G., Cordier, M.-O., Quiniou, R., and Wang, F. (2003). Temporal abstraction and inductive logic programming for arrhythmia recognition from electrocardiograms. Articial Intelligence in Medicine, 28(3) :231263. [Chambrin et al., 2003] Chambrin, M.-C., Bijaoui, E., Carry, P.-Y., Charbonnier, S., Dojat, M., Garbay, C., Mangalaboyi, J., Perdrix, J.-P., Ravaux, P., Sharshar, S., Silvent, A.-S., and Vilhelm, C. (2003). Osscar : A collaborative project for intelligent patient monitoring in intensive care and anesthesia. In Proceedings on Intelligent Data Analysis in Medicine and Pharmacology, AIME 2003. [Chambrin et al., 1999] Chambrin, M.-C., Ravaux, P., Calvelo-Aros, D., Jaborska, A., Chopin, C., and Boniface, B. (1999). Multicentric study of monitoring alarms in the adult intensice care unit (icu) : a descriptive analysis. Intensive care medicine, 25(12) :1360 1366. [Charlet, 2001] Charlet, J. (2001). L'ingénierie des connaissances : une science, un enseignement ? In Ingénierie des connaissances, plate-forme AFIA, pages 233252. [Chiu et al., 2003] Chiu, B., Keogh, E., and Lonardi, S. (2003). of time series motifs. Probabilistic discovery th ACM SIGKDD International Conference on Knowledge In 9 Discovery and Data Mining, pages 493498. [Cios and Moore, 2002] Cios, K. and Moore, G. (2002). Uniqueness of medical data mining. Articial Intelligence in Medicine, 26(12) :124. [Cios et al., 2000] Cios, K., Teresinska, A., Konieczna, S., Potocka, J., and Sharma, S. (2000). A knowledge discovery approach to diagnosing myocardial perfusion. IEEE En- gineering in medicine and biology, 19(4) :1725. [Clancey, 1985] Clancey, W. (1985). Heuristic classication. Articial Intelligence, 27 :289 350. [Clerq et al., 2004] Clerq, P. D., Blom, J., Korsten, H., and Hasman, A. (2004). Approaches for creating computer-interpretable guidelines that facilitate decision support. Articial Intelligence in Medicine, 31 :127. 197 BIBLIOGRAPHIE [Collective Task, 2002] Collective Task (2002). Evidence-based guidelines for weaning and discontinuing support. Respiratory Care, 47(1) :6990. A Collective Task Force Facilitated by the American College of Chest Physicians, the American Association for Respiratory Care, and the American College of Critical Care Medicine. [Cortés et al., 2002] Cortés, U., Rodriguez-Roda, I., Sànchez-Marrè, M., Comas, J., Cortés, C., and Poch, M. (july 2002). Dai-depur : an environmenttal decision support system th European for control and supervision of municipal waste water treatment plants. In 15 Conference on Articial Intelligence (ECAI02), (F. van Harmelen, Eds), IOS Press, pages 603607. [DeCoste, 1991] DeCoste, D. (1991). Dynamic across-time measurements interpretation. Articial Intelligence, 51(1,2,3) :273341. [Dojat, 1994] Dojat, M. (1994). Contribution à la représentation d'expertises médicales dynamiques : application en réanimation médicale. Thèse de doctorat, Université de technologie de Compiègne. [Dojat and Brochard, 2001] Dojat, M. and Brochard, L. (2001). Knowledge-based systems Respiratory Care Clinics of North America. for automatic ventilatory management. Closed-Loop Control Mechanical Ventilation. W.B. Saunders Co., Philadelphia,, pages 379396. [Dojat et al., 2000] Dojat, M., Harf, A., Touchard, D., Lemaire, F., and Brochard, L. (2000). Clinical evaluation of a computer-controlled pressure support mode. Am J Respir Crit Care Med, 161 :11611166. [Dojat et al., 1997] Dojat, M., Pachet, F., and Guessoum, Z. (1997). Neoganesh : A working system for the automated control of assisted ventilation in icus. Articial Intelligence in Medicine, 11 :97117. [Dojat et al., 1998] Dojat, M., Ramaux, N., and Fontaine, D. (1998). Scenario recognition for temporal reasoning in medical domains. Articial Intelligence in Medicine, 14(1- 2) :139155. [Dousson, 2002] Dousson, C. (2002). Extending and unifying chronicle representation with event counters. th europen conference on articial intelligence In Proceedings of the 15 (ECAI02), (F. van harmelen, Eds), pages 257261. [Dousson and Duong, 1999] Dousson, C. and Duong, T. V. (1999). Découverte de chro- niques avec contraintes temporelles à partir de journaux d'alarmes pour la supervision de réseaux de télécommunications. In Actes de la première conférence d'apprentissage (CAP'99), pages 1724. [Dubois and Prade, 2001] Dubois, D. and Prade, H. (2001). La problématique scientique du traitement de l'information. Information-Interaction-Intelligence, 1(2). [Duftshmid and Miksch, 2001] Duftshmid, G. and Miksch, S. (2001). Knowledged-based verication of clinical guidelines by detection of anomalies. Articial Intelligence in Me- dicine, 22 :2341. [Ely, 1996] Ely, E. (1996). Eect on the duration of mechanical ventilation of the identifying patients capable of breathing spontaneously. The New England Journal of Medicine, 335 :18641869. [Ely et al., 1999] Ely, E., Baker, A., Evans, G., and Haponik, E. (1999). The prognostic signicance of passing a daily screen of weaning parameters. Intensive Care Med, 25 :581 587. 198 BIBLIOGRAPHIE [Esteban and Alia, 1998] Esteban, A. and Alia, I. (1998). Clinical management of weaning from mechanical ventilation. Intensive Care Med, 24(10) :9991008. [Fayyad et al., 1996] Fayyad, U., Piatetsky-Shapiro, G., and Smyth, P. (1996). From data mining to knowledge discovery in databases. Artical Intelligence magazine, 7(3) :3754. [Fildier, 2001] Fildier, C. (2001). Apprentissage et reconnaissance de scénarios à partir d'ecg multivoies. Mémoire de DEA, Université de Lyon II. [Fried et al., 2002] Fried, R., Gather, U., and Imho, M. (2002). intensive care online monitoring, Chapter 6. Pattern recognition in In Computional intelligence techniques in medical diagnosis and prognosis, (M. Schmitt, H.-N. Teodorescu, A. Jain, A. Jain, S. Jain and L.C. Jain, Eds), Springer-Verlag, pages 129165. [Friesdorf et al., 1999] Friesdorf, W., Buss, B., and Göbel, M. (1999). Monitoring alarms the key to patient's safety in the icu ? Intensive care medicine, 25(12) :13501352. [Fromont et al., 2004] Fromont, E., Cordier, M.-O., and Quiniou, R. (2004). Extraction de connaissances provenant de données multisources pour la caractérisation d'arythmies cardiaques. In Extraction et Gestion des Connaissances (EGC 2004), Clermont-Ferrand, France. [Gather et al., 2001] Gather, U., Fried, R., and Lanius, V. (2001). Online monitoring of high dimensional physiological time series - a case study. Estadistica, 53 :259298. [Guyet, 2004] Guyet, T. (2004). Extraction d'informations en anesthésie-réanimation. apprentissage de scénarios dans des series multivariées. Mémoire de DEA, Université Joseph Fourier, Grenoble. [Haimowitz and Kohane, 1996] Haimowitz, I. and Kohane, I. (1996). Managing temporal worlds for medical trend diagnosis. Articial Intelligence in Medicine, 8(3) :299321. [Hiderman and Hamilton, 1999] Hiderman, R. and Hamilton, H. (1999). Knowledge discovery and interestingness measures : a survey. Technical report, Department of computer science, University of Regina. [Hilderman and Hamilton, 2000] Hilderman, R. and Hamilton, H. (2000). mining summaries using objectives measures of interestingness. Principles for In Proceedings of the twelfth IEEE International Conference on Tools with Articial Intelligence (ICTAI'00), pages 7281, Vancouver, Canada. [Horn et al., 1997] Horn, W., Miksch, S., and Egghart, G. (1997). Eective data validation of high-frequency data : time-point, time-interval, and trend-based methods. Computer in Biology and Medicine, Special Issue : Time-Oriented Systems in Medicine, 27(5) :389409. [Höppner, 2002] Höppner, F. (2002). Why temporal kdd ? (open discussion). Compte-rendu du workshop TASDA, ECAI, Lyon. http ://tasda.elibel.tm.fr/discussion/why.mhtml. [Höppner and Klawonn, 2001] Höppner, F. and Klawonn, F. (2001). Finding informative rules in interval sequences. In Advances in Intelligent Data Analysis, LNCS 2189, Springer : Berlin, pages 123132. [Imho et al., 1997] Imho, M., Bauer, M., Gather, U., and Löhlein, D. (1997). Time series analysis in intensive care medicine. Applied cardiopulmonary pathophysiology, 6 :203281. [Jaborska, 2000] Jaborska, A. (2000). Conception et réalisation d'une plate-forme d'aquisition et de traitement des données médicales : application au problème des alarmes en unités de soins intensifs. Thèse de l'université de Compiègne. 199 BIBLIOGRAPHIE [Kayser, 1997] Kayser, D. (1997). La représentation des connaissances. Hermes. [Keogh et al., 2002] Keogh, E., Lonardi, S., and Chiu, B. (2002). Finding surprising patterns in a time series database in linear time and space. In SIGKDD'02. [Kodrato, 2000] Kodrato, Y. (2000). Comparing Machine Learning and Knowledge Dis- covery in DataBases : An Application to Knowledge Discovery in Texts, pages 121. Springer. [Kohonen, 1997] Kohonen, T. (1997). Exploration on very large databases by self-organizing maps. In ICNN'97, International Conference on Neural Networks, IEEE service center, pages PL1PL6. [Larizza et al., 1995] Larizza, C., Bernuzzi, G., and Stefanelli, M. (1995). A general framework for building patient monitoring systems. Articial Intelligence in Medicine, 5 :91 102. [Lavrac, 1998] Lavrac, N. (1998). Computational logic and machine learning : a roadmap for inductive logic programming. Technical report, J. Stefan Institute, Ljubljana, Slovenia. [Lavrac et al., 2000] Lavrac, N., Keravnou, E., and Zupan, B. (2000). Intelligent data analysis in medicine. Encyclopedia of computer science and technology, vol 42, pages 113-157. [Lerner et al., 2002] Lerner, U., Moses, B., Scott, M., McIlraith, S., and Koller, D. (2002). Monitoring a complex physical system using hybrid dynamic bayes net. In 18 th annual conference on Uncertainty in Articial Intelligence (UAI02), Edmonton, Canada. [Lin et al., 2003] Lin, J., Keogh, E., Lonardi, S., and Chiu, B. (2003). A symbolic representation of time series, with implications for streaming algorithms. In 8 th ACM SIGMOD workshop on Research Issues in Data Mining and Knowledge Discovery, pages 211, SanDiego, CA. [Mannila et al., 1997] Mannila, H., Toivonen, H., and Verkamo, A. I. (1997). Discovery of frequent episodes in event sequences. series of publications C report C-1997-15, Departement of computer science, University of Helsinki, Finland. [McDermott, 1982] McDermott, D. (1982). A temporal logic for reasoning about processes and plans. Cognitive science, 6 :101155. [Mersmann and Dojat, 2004] Mersmann, S. and Dojat, M. (2004). Smartcare - automated th European Conference on Articial clinical guidelines in critical care. In Proceedings of 16 Intelligence (ECAI'04), (R. Lopez de Mantara and L. Saitta, Eds.), IOS press, pages 745 749, Valencia (ES). [Miksch et al., 1996] Miksch, S., Horn, W., Popow, C., and Paky, F. (1996). Utilising temporal data abstraction for data validation and therapy planning for articially ventilated newborn infants. Articial Intelligence in Medicine, 8(6) :543576. [Miksch et al., 1999] Miksch, S., Seyfang, A., Horn, W., and Popow, C. (1999). Abstracting In Articial steady qualitative descriptions over time from noisy, high-frequency data. Intelligence in Medicine. Proceedings of the joint European Conference on Articial Intelligence in Medicine and Medical Decision Making, AIMDM99, (W. Horn, Y. Shahar, G. Lindberg, S. Andreassen and J. Wyatt, Eds), number 1620 in Springer's lecture notes in computer science, Berlin : Springer, pages 281290. [Miksch et al., 1997] Miksch, S., Shahar, Y., and Johnson, P. (1997). Asbru : A task-specic, th Workshop intention-based, and time-oriented language for representing skeletal plans. 7 200 BIBLIOGRAPHIE on Knowledge Engineering : Methods & Languages (KEML-97), (E. Motta, F. v. Harmelen, C. Pierret-Golbreich, I. Filby and N. Wijngaards, Eds), Milton Keynes, UK. [Miller, 1956] Miller, G. (1956). The marginal number seven, plus or minus two : some limits to our capacity for processing information. Psychol. Rev., 63 :8197. [Morik, 2000] Morik, K. (2000). The representation race - preprocessing for handling time phenomena. In 11 th European Conference on Machine Learning (ECML 2000), pages 419, Barcelona, Spain. [Morik et al., 1999] Morik, K., Brockhausen, P., and Joachims, T. (1999). Combining statistical learning with a knowledge-based approach. a case study in intensive care monitoring. In 16 th Int'1 Conference on Machine Learning (ICML 99), pages 268277. [Morik et al., 2000] Morik, K., Imho, M., Brockhausen, T., and Gather, U. (2000). Knowledge discovery and knowledge validation in intensive care. Articial Intelligence in Me- dicine, 19(3) :225250. [Morris, 1999] Morris, A. (1999). Computerized protocols and bedside decision support. Crit Care Clin, 15(3) :523545. [Morris, 2001] Morris, A. (2001). Rational use of computerized protocols in the intensive care unit. Critical Care, 5 :249254. [Morris, 2002] Morris, A. (2002). Decision support and safety of clinical environments. Qual Saf Health Care, 11 :6975. [Peleg et al., 2000] Peleg, M., Boxwala, A., Ogunyemi, O., Ogunyemi, O., Zeng, Q., Tu, S., Lacson, R., Bernstam, E., Ash, N., Mork, P., Ohno-Machado, L., and Shortlie, E. (2000). Glif3 : the evolution of a guideline representation format. In Proceedings of the American Medical Informatics Association (AMIA) Annual Symposium, pages 645649, Los Angeles, CA. [Peleg et al., 2003] Peleg, M., Tu, S., Bury, J., Ciccarese, P., Fox, J., Greenes, R., Hall, R., Johnson, P., Jones, N., Kumar, A., Miksch, S., Quaglini, S., Seyfang, A., Shortlie, E., and M.Stefanelli (2003). Comparing computer-interpretable guideline models : A case-study approach. Journal of the American Medical Informatics Association, 10(1) :5268. [Pitrat, 1990] Pitrat, J. (1990). Métaconnaissance. Futur de l'intelligence articielle. Hermès : Paris. [Quaglini et al., 2001] Quaglini, S., Stefanelli, M., Lanzola, G., Caporusso, V., and Panzarasa, S. (2001). Flexible guideline-based patient careow systems. Articial Intelligence in Medicine, 22 :6580. [Ramaux, 1998] Ramaux, N. (1998). Supervision de systèmes dynamiques par reconnaissance de scénarios. Thèse de doctorat, Université de technologie de Compiègne. [Richard et al., 2001] Richard, C., Beydon, L., Cantagrel, S., Cuvelier, A., Fauroux, B., and Garo, B. (2001). Sevrage de la ventilation mécanique (à l'exclusion du nouveau-né et du réveil d'anesthésie. Réanimation, 10 :697705. [Roddick and Spiliopoulou, 2002] Roddick, J. and Spiliopoulou, M. (2002). A survey of temporal knowledge discovery paradigms and methods. IEEE Transactions on knowledge and data engineering, 14(4) :750767. [Rodriguez-Roda et al., 2002] Rodriguez-Roda, I., Sànchez-Marrè, M., Comas, J., Baeza, J., Colprim, J., Lafuente, J., Cortès, U., and Poch, M. (2002). A hybrid supervisory 201 BIBLIOGRAPHIE system to support wwtp operation : implementation and validation. Water science and technology, 45(4-5) :289297. [Russ, 1995] Russ, T. (1995). Use of data abstraction methods to simplify monitoring. Articial Intelligence in Medicine, 7(6) :497514. [Seyfang et al., 2002] Seyfang, A., Miksch, S., and Marcos, M. (2002). Combining diagnosis and treatment using asbru. International Journal of Medical Informatic, 68(13) :4957. [Shahar, 1994] Shahar, Y. (1994). A knowledge-based method for temporal abstraction of clinical data. PhD Thesis, Université de Stanford. [Shahar, 1997] Shahar, Y. (1997). A framework for knowledge-based temporal abstraction. Articial Intelligence, 90(12) :79133. [Shahar and Cheng, 1999] Shahar, Y. and Cheng, C. (1999). Intelligent visualisation and exploration of time-oriented clinical data. In Annual Hawaii International Conference on System Sciences (HICSS-32), IEEE Computer Society, Maui, Hawaii. [Shahar et al., 1998] Shahar, Y., Miksch, S., and Johnson, P. (1998). The asgaard pro- ject : a task-specic framework for the application and critiquing of time-oriented clinical guidelines. Articial Intelligence in Medicine, 14 :2951. [Shi et al., 2002] Shi, V., Duanmu, S., and Perrizo, W. (2002). Principles for measuring association rules. submitted to ILP journal, ? : ? [Shoham, 1987] Shoham, Y. (1987). Temporal logics in ai : semantical and ontological considerations. Articial Intelligence, 33 :89104. [Steimann, 1995] Steimann, F. (1995). Diagnostic monitoring of clinical time series. PhD Thesis, Université de Vienne, Autriche. [Steimann, 1996] Steimann, F. (1996). The interpretation of time-varying data with diamon1. Articial Intelligence in Medicine, 8(4) :343357. [Szolovits, 1995] Szolovits, P. (1995). Uncertainty and decisions in medical informatics. Methods of Information in Medicine, 34 :111121. [Travé-Massuyès and Milne, 1997] Travé-Massuyès, L. and Milne, R. (1997). Gas-turbine condition monitoring using qualitative model-based diagnosis. IEEE Expert : Intelligent systems and their applications, 12(3) :2231. [Tsien, 2000] Tsien, C. (2000). Trendnder : Automated detection of alarmable trends. PhD, Massachusetts institute of technology, USA. [Tsien et al., 2000] Tsien, C., Kohane, I., and McIntosh, N. (2000). Multiple signal inte- gration by decision tree induction to detect artifacts in the neonatal intensive care unit. Articial Intelligence in Medicine, 19(3) :189202. [Tu and Musen, 1999] Tu, S. and Musen, M. (1999). A exible approach to guideline modeling. In Proceedings of the AMIA Symp., pages 420424. [Unwin, 2002] Unwin, A. (2002). If you can't see the pattern, is it there ? In Exploratory worshop on pattern detection and discovery in data mining, (D.J. Hand, N.M. Adams and R.J. Botton, Eds), LNCS 2447 , pages 6376, Imperial college, London. [Wachowicz, 2001] Wachowicz, M. (2001). Space-time reasoning in data fusion and data mining. Conférence Data fusion and separation meeting, projet européen reviGIS, Carnuntum, Autriche. http ://www.geoinfo.tuwien.ac.at/projects/revigis/. 202 BIBLIOGRAPHIE [Weavind et al., 2000] Weavind, L., Shaw, A., and Feeley, T. (2000). Monitoring ventilator weaningpredictors of success. Journal of Clinical Monitoring and Computing, 16 :409 146. [Witten and Frank, 2000] Witten, I. and Frank, E. (2000). Data mining. Academic press. [Yu et al., 2001] Yu, J., Hunter, J., Reiter, E., and Sripada, S. (2001). An approach to generating summaries of time series data in the gas turbine domain. In Proceedings of ICII2001, (Beijing), IEEE Press, pages 4451. [Yu et al., 2002] Yu, J., Hunter, J., Reiter, E., and Sripada, S. (2002). Recognising visual patterns to communicate gas turbine time-series data. In Applications And Innovations in Intelligent Systems X, (A.L. Macintosh, R. Ellis and F. Coenen, Eds), Springer, London, pages 105118, Cambridge, U.K. [Yu et al., 2003] Yu, J., Hunter, J., Reiter, E., and Sripada, S. (2003). Sumtime-turbine : a knowledge-based system to communicate gas turbine time-series data. In Proceedings of 16 th International conference on industrial & engineering applications of AI and expert systems, pages 379384, Loughborough UK. Résumé La reconnaissance automatique de scénarios est cruciale pour l'aide à la supervision de systèmes dynamiques. Cependant, la construction de tels scénarios représentatifs de situations de bon ou de mauvais fonctionnement n'est pas réalisable en pratique directement à partir de la connaissance experte. Notre objectif est donc d'extraire, à partir des données et des informations disponibles, des séquences abstraites d'événements pertinents et ensuite de construire des scénarios validés par les experts comme représentatifs d'une classe de situations à reconnaître. Le travail de cette thèse présente une méthodologie pour la découverte de scénarios médicaux, en particulier l'abstraction graduelle des données est détaillée. La découverte de scénarios relève de l'extraction de connaissances et comprend, entre autres, les étapes de transformation des données et de fouille de données. Cette méthodologie s'appuie sur un processus incrémental de manipulation des informations et des connaissances basé sur une clarication de ces concepts. Elle est appliquée à la surveillance de patients hospitalisés en unités de soins intensifs. Mots clés : abstraction, raisonnement temporel, scénarios, monitoring. Abstract The automatic recognition of typical pattern sequences (scenarios), as they are developing, is of crucial importance for computer-aided patient supervision. However, the construction of such scenarios directly from medical expertise is unrealistic in practice. In this thesis, we present a methodology for data abstraction and for the extraction of specic events (data mining) to eventually construct such scenarios. Data abstraction and data mining are based on the management of three key concepts, data, information and knowledge, which are instantiated via an clarication specic of our medical domain application. After a detailed description of the proposed methodology, we apply it to the supervision of patients hospitalized in intensive care units. We report the results obtained for the extraction of typical abstracted pattern sequences during the process of weaning from mechanical ventilation. Keywords : data abstraction, temporal reasoning, scenarios, monitoring.
© Copyright 2021 DropDoc