Le 20 décembre 2018, Thibaut Eude a soutenu sa thèse intitulée » Forage des données et formalisations des connaissances sur un accident : le cas Deepwater Horizon ». Il nous livre ci-après le résumé de cette dernière.
Cette thèse s’attaque de front à la connaissance qu’il est possible de produire à la suite d’un accident industriel en proposant une méthode originale de forage de données construite sur les ontologies. La démarche d’expert guide la réflexion et l’appui théorique apporté par le cadre conceptuel de l’ingénierie en situation extrême permet de dépasser l’approche strictement technique et d’aller explorer « hors des sentiers battus » ce cas d’accident. L’accident de la plateforme de forage Deepwater Horizon, opérée pour le compte de BP dans le Golfe du Mexique et victime d’un blowout le 20 avril 2010, sera notre étude de cas pour la mise en place de notre preuve de concept de forage de données.
L’accident est le résultat d’un décalage inédit entre l’état de l’art des ingénieurs de forage, et celui des ingénieurs antipollution qui n’a pas évolué depuis le naufrage de l’Exxon Valdez, en 1989. La perte de contrôle du puits MC 252-1 est une faillite d’ingénierie et il faudra quatre-vingt-sept jours à l’équipe d’intervention pour reprendre le contrôle du puits devenu sauvage et stopper la pollution. Deepwater Horizon est en ce sens un cas d’ingénierie en situation extrême, tel que défini par Guarnieri et Travadel.
Le forage de données, méthode amenée par cette thèse, redéfinit le processus d’extraction de données et de formalisation de la connaissance pour un retour d’expérience augmenté de l’élucidation d’évènements qui n’ont pas ou peu été documentés. Le matériau de recherche pour la preuve méthodologique est le rapport d’enquête, ou plutôt la vingtaine de rapports d’enquêtes du cas Deepwater Horizon, à partir desquels ces travaux vont faire émerger d’abord des connaissances originales, mais surtout une compréhension nouvelle de l’accident. Les étapes de la méthode de forage des données sont définies à la suite.
La revue de littérature, dans la détermination du matériau de recherche ou de l’état de l’art scientifique doit être systématiquement appuyée par une assistance informatique (algorithmique) pour traiter les données, compte tenu du volume disponible, de l’hétérogénéité des sources et des impératifs d’exigences de qualité et de pertinence. Une analyse algorithmique, par un logiciel existant de fouille de texte, a permis ici de traiter plus de huit cent cinquante articles de science, en exhaustivité, et de montrer la pertinence de cette approche par la mise en lumière des limites de l’utilisation des modèles d’accidents face à un cas comme Deepwater Horizon et de l’impérieuse nécessité de rechercher un moyen de formalisation de la connaissance adéquat.
L’utilisation des ontologies de haut niveau doit être encouragée. L’ontologie DOLCE a montré son grand intérêt dans la formalisation des connaissances à propos de cet accident et a permis, par le biais de graphes ontologiques originaux, d’élucider très précisément une prise de décision à un moment critique de l’intervention (le maintien fermé du puits) et de faire apparaître le mode de raisonnement qui a entraîné la prise de décision. Cette thèse a aussi montré les limites de conceptualisation des ontologies et la nécessité de réfléchir à leur amélioration en matière d’expressivité, notamment la causalité. De la même manière, la visualisation d’une population des ontologies est également un problème connexe qui a émergé de ces travaux.
Le processus de population doit être automatisé. La population est le cœur de l’exploitation de l’ontologie et son principal intérêt. Mais le processus de population, largement manuel pour le moment, est le frein principal à l’exploitation à grande échelle des ontologies. Cette thèse s’emploie à proposer une réponse partielle à ce problème par une proposition d’algorithmes d’apprentissage automatique pour la population à partir de documents écrits. Pour cela, elle exploite les avancées en Machine Learning et Question Answering et particulièrement les outils Natural Language Processing, qui, couplées d’une manière originale à une ontologie, amènent la possibilité de peupler cette ontologie et de formaliser le cheminement causal exprimé dans le document.
Cette thèse est un travail d’assembleur, d’architecte, qui, en sus de porter un regard premier sur le cas Deepwater Horizon et de formaliser ontologiquement la connaissance ainsi créée, propose une méthode originale pour aborder un évènement, au-delà de l’accident, et d’y forer ses données pour y déceler des éléments susceptibles d’apporter des réponses à des questionnements qui échappent pourtant à la compréhension en première instance.