Une thèse sur l’accident de Deep Water Horizon

Le 20 décembre 2018, Thibaut Eude a soutenu sa thèse intitulée  » Forage des données et formalisations des connaissances sur un accident : le cas Deepwater Horizon ». Il nous livre ci-après le résumé de cette dernière.

Cette thèse s’attaque de front à la connaissance qu’il est possible de  produire à la suite d’un accident industriel en proposant une méthode  originale de forage de données construite sur les ontologies. La  démarche d’expert guide la réflexion et l’appui théorique apporté par le  cadre conceptuel de l’ingénierie en situation extrême permet de dépasser  l’approche strictement technique et d’aller explorer « hors des sentiers  battus » ce cas d’accident. L’accident de la plateforme de forage  Deepwater Horizon, opérée pour le compte de BP dans le Golfe du Mexique  et victime d’un blowout le 20 avril 2010, sera notre étude de cas pour  la mise en place de notre preuve de concept de forage de données.
L’accident est le résultat d’un décalage inédit entre l’état de l’art  des ingénieurs de forage, et celui des ingénieurs antipollution qui n’a  pas évolué depuis le naufrage de l’Exxon Valdez, en 1989. La perte de  contrôle du puits MC 252-1 est une faillite d’ingénierie et il faudra  quatre-vingt-sept jours à l’équipe d’intervention pour reprendre le  contrôle du puits devenu sauvage et stopper la pollution. Deepwater  Horizon est en ce sens un cas d’ingénierie en situation extrême, tel que  défini par Guarnieri et Travadel.
Le forage de données, méthode amenée par cette thèse, redéfinit le  processus d’extraction de données et de formalisation de la connaissance  pour un retour d’expérience augmenté de l’élucidation d’évènements qui  n’ont pas ou peu été documentés. Le matériau de recherche pour la preuve  méthodologique est le rapport d’enquête, ou plutôt la vingtaine de rapports d’enquêtes du cas Deepwater Horizon, à partir desquels ces  travaux vont faire émerger d’abord des connaissances originales, mais  surtout une compréhension nouvelle de l’accident. Les étapes de la  méthode de forage des données sont définies à la suite.
La revue de littérature, dans la détermination du matériau de recherche  ou de l’état de l’art scientifique doit être systématiquement appuyée  par une assistance informatique (algorithmique) pour traiter les  données, compte tenu du volume disponible, de l’hétérogénéité des  sources et des impératifs d’exigences de qualité et de pertinence. Une  analyse algorithmique, par un logiciel existant de fouille de texte, a  permis ici de traiter plus de huit cent cinquante articles de science,  en exhaustivité, et de montrer la pertinence de cette approche par la  mise en lumière des limites de l’utilisation des modèles d’accidents  face à un cas comme Deepwater Horizon et de l’impérieuse nécessité de  rechercher un moyen de formalisation de la connaissance adéquat.
L’utilisation des ontologies de haut niveau doit être encouragée.  L’ontologie DOLCE a montré son grand intérêt dans la formalisation des  connaissances à propos de cet accident et a permis, par le biais de  graphes ontologiques originaux, d’élucider très précisément une prise de  décision à un moment critique de l’intervention (le maintien fermé du  puits) et de faire apparaître le mode de raisonnement qui a entraîné la  prise de décision. Cette thèse a aussi montré les limites de  conceptualisation des ontologies et la nécessité de réfléchir à leur  amélioration en matière d’expressivité, notamment la causalité. De la  même manière, la visualisation d’une population des ontologies est  également un problème connexe qui a émergé de ces travaux.
Le processus de population doit être automatisé. La population est le  cœur de l’exploitation de l’ontologie et son principal intérêt. Mais le  processus de population, largement manuel pour le moment, est le frein  principal à l’exploitation à grande échelle des ontologies. Cette thèse  s’emploie à proposer une réponse partielle à ce problème par une  proposition d’algorithmes d’apprentissage automatique pour la population  à partir de documents écrits. Pour cela, elle exploite les avancées en  Machine Learning et Question Answering et particulièrement les outils  Natural Language Processing, qui, couplées d’une manière originale à une  ontologie, amènent la possibilité de peupler cette ontologie et de  formaliser le cheminement causal exprimé dans le document.
Cette thèse est un travail d’assembleur, d’architecte, qui, en sus de  porter un regard premier sur le cas Deepwater Horizon et de formaliser  ontologiquement la connaissance ainsi créée, propose une méthode  originale pour aborder un évènement, au-delà de l’accident, et d’y forer  ses données pour y déceler des éléments susceptibles d’apporter des  réponses à des questionnements qui échappent pourtant à la compréhension  en première instance.