Votre fenêtre n'est pas assez large pour un affichage optimal de notre site.

Agrandir

Nous vous conseillons d'agrandir la taille de votre fenêtre pour une meilleure expérience de navigation.

Continuer sans changement
Observatoire Observatoire de l'innovation maritime

Utiliser l'intelligence artificielle pour assurer la sécurité de l'industrie pétrolière et gazière

3 octobre 2018
Utiliser l'intelligence artificielle pour assurer la sécurité de l'industrie pétrolière et gazière
Credit: DNV GL

Alors que les systèmes d'intelligence artificielle (IA) commencent à contrôler les infrastructures critiques pour la sécurité dans un nombre croissant d'industries, DNV GL a publié un document de synthèse sur l'utilisation responsable de l'IA. Le document affirme que les modèles fondés uniquement sur les données peuvent ne pas être suffisants pour assurer la sécurité et nécessitent une combinaison de données et de modèles causaux pour atténuer les risques. Intitulé AI + Safety, le document détaille les progrès de l'IA et explique comment ces systèmes autonomes et d'auto-apprentissage deviennent de plus en plus responsables des décisions critiques pour la sécurité.

Le document indique qu'au fur et à mesure que la complexité des systèmes d'ingénierie augmente et que de plus en plus de systèmes sont interconnectés et contrôlés par des ordinateurs, les esprits humains ont du mal à comprendre la complexité énorme et dynamique associée. «En fait, il semble probable que nous ne serons pas en mesure d’appliquer la supervision humaine à nombre de ces systèmes dans les délais requis pour garantir la sécurité des opérations. Les machines doivent donc prendre des décisions critiques en temps réel, et nous, l'industrie, avons la responsabilité ultime de concevoir des systèmes artificiellement intelligents et sûrs!

Le fonctionnement de nombreux systèmes critiques pour la sécurité a traditionnellement été automatisé par le biais de la théorie du contrôle en prenant des décisions basées sur un ensemble prédéfini de règles et l'état actuel du système. À l'inverse, l'IA essaie d'apprendre automatiquement des règles raisonnables basées sur l'expérience précédente. Étant donné que les incidents majeurs dans l'industrie du pétrole et du gaz sont rares, de tels scénarios ne sont pas bien pris en compte par les modèles basés sur les données, car il n'y a pas suffisamment de données sur les défaillances pour prendre de telles décisions critiques. Les algorithmes d’apprentissage artificiel et d’apprentissage automatique, qui reposent actuellement sur des modèles basés sur des données pour prévoir et agir sur des scénarios futurs, peuvent ne pas être suffisants pour assurer des opérations sûres et protéger des vies. Le document souligne que si l’industrie peut compléter ces modèles basés sur les données en générant des données occasionnelles basées sur la physique, elle sera beaucoup plus proche de la mise en œuvre sûre de l’IA dans les systèmes critiques pour la sécurité.

 

L'exemple de SpaceX qui a lancé avec succès la plus grande fusée du monde, Falcon Heavy, en février 2018 est cité. Les deux boosters latéraux du premier étage ont atterri en toute sécurité sur la rampe de lancement en position verticale - prêts pour la remise à neuf et les nouveaux vols. Aucun test complet du système n’était possible avant le lancement et l’équipe d’ingénieurs s’est appuyée sur des modèles informatiques et sur l’expérience de systèmes similaires et de modèles avancés d’apprentissage automatique pour simuler le déroulement du lancement et déterminer comment contrôler le lancement..

"C’est un exemple parfait de ce qui peut être réalisé grâce à l’utilisation extensive de modèles basés à la fois sur des connaissances causales et des méthodes basées sur des données, en effectuant des ajustements autonomes en temps réel. Cependant, l'atterrissage en toute sécurité des premières étapes n'a pas été réalisé dès la première tentative. Le propulseur à noyau lourd Falcon était censé se redresser sur un drone dans l'Atlantique, mais il a raté de 90 mètres et s'est écrasé dans l'océan."

Ceci illustre deux aspects importants, dit DNV GL. Premièrement, même lorsque nous avons conçu et testé quelque chose de manière approfondie et extrêmement détaillée, il existe toujours un élément de variation stochastique difficile à prévoir. Six jours après le lancement, Musk a tweeté "Pas assez de liquide d’allumage pour allumer les deux moteurs extérieurs après trois reprises de moteur. Le correctif est assez évident."Il y a plusieurs raisons possibles pour lesquelles le booster de noyau avait trop peu de liquide d'allumage. Il pourrait être du côté de l'approvisionnement - ne pas remplir les réservoirs de carburant suffisamment avant le lancement; ou il pourrait être lié à des charges environnementales - peut-être que les vents ont fait en sorte que les commandes utilisent plus de carburant que prévu; ou cela pourrait une multitude de raisons. Cela sous-tend cela: Il est "facile" de faire fonctionner quelque chose, mais il peut être presque impossible de s'assurer que cela ne va pas échouer!

 

DNV GL s’est associé aux plus grandes universités et sociétés norvégiennes, dont Equinor, Kongsberg Group et Telenor, pour créer une «centrale» norvégienne d’IA. Le laboratoire norvégien Open AI vise à améliorer la qualité et la capacité de recherche, d’éducation et d’innovation en IA, en apprentissage automatique et en mégadonnées.

Version 3.0.0 - © MaritimUp - 2016