L’intelligence artificielle et la prévention des risques naturels

PDF

L’intelligence artificielle représente une profonde révolution pour Sapiens, du même ordre que la découverte de l’agriculture il y a 8500 ans. Mais qu’est-ce-que l’intelligence artificielle ? Comment fonctionne-t-elle ? En quoi représente-t-elle une telle révolution ? Comment se positionne-t-elle dans l’évolution de l’humanité ? Pourquoi les algorithmes d’intelligence artificielle (IA) – tout comme notre cerveau – fonctionnent-ils aussi bien ? L’IA est-elle créative ? Et comment certaines formes de conscience apparaissent-elles en IA ? Que sont les Large Language Models (LLM) ou « Grands Modèles de Langage » et les Foundation Models  ou « Modèles Fondamentaux » ? Ce sont quelques questions auxquelles nous répondrons dans cet article en évoquant également un champ d’applications en plein développement : les risques naturels, et en particulier ceux d’origine gravitaire (glissements de terrains, boues torrentielles, éboulements rocheux, avalanches).

1. Qu’est-ce-que l’intelligence artificielle ?

1.1 Le réseau de neurones

Figure 1. Schéma d’un neurone biologique présentant les dendrites apportant l’information définie par les « données d’entrée », synthétisées au niveau du noyau (le péricaryon) puis transmises à l’axone associé à la « sortie ». La sortie est elle-même reliée à d’autres neurones, en tant que nouvelle entrée [Source INDURA, cluster régional AURA, avec nos remerciements].
Le point de départ de l’IA dans les années cinquante fut l’idée de reproduire les neurones biologiques de notre cerveau ainsi que leurs interactions par des algorithmes numériques. Notre cerveau contient une centaine de milliards de neurones, constitués chacun de dendrites (un millier) convergeant vers un noyau dont repart une seule fibre : l’axone (Figure 1). Dendrites et axones transportent des micro-signaux électriques, porteurs d’information. Cette information transmise est synthétisée par le noyau en une nouvelle information unique, portée par l’axone. Tous les noyaux sont reliés entre eux dans le volume de notre cerveau, tout en appartenant à différentes aires cérébrales et centres nerveux. Différentes sources extérieures d’information (images, sons, odeurs, toucher, gout) parviennent au cerveau, elles y sont synthétisées et convergent vers une réponse unique, éventuellement complexe (« je sens des gouttes de pluie, donc je dois ouvrir mon parapluie »).

1.2. L’apprentissage et les data centers

Mais notre cerveau ne serait rien sans l’éducation et l’apprentissage, qui lui ont permis d’accumuler de l’expérience, de la structurer et de pouvoir répondre avec pertinence aux questions qu’il rencontre – au moins dans le champ de son expérience (« j’ai appris l’anglais, mais je ne saurais pas comprendre un document rédigé en allemand »).

Figure 2. Schéma de la géométrie d’un réseau neuronal artificiel. Les nœuds, où s’effectuent la synthèse des données d’entrée, sont représentés en couches verticales. Ces nœuds sont reliés par des liens, auxquels sont attachés des poids, déterminés par apprentissage. Plus le poids d’un lien est important, plus l’information portée par ce lien sera jugée importante dans la relation reliant les entrées à la sortie [Source INDURA, cluster régional AURA, avec nos remerciements].
L’IA imite par des algorithmes ces deux éléments clés de notre cerveau : un réseau défini topologiquement (géométriquement) avec des entrées et une sortie, qui peut apprendre à partir d’un corpus de données associées à des réponses connues. La figure 2 en donne une schématisation géométrique avec des nœuds, configurés en couches, reliés par des liens. Les nœuds d’entrée recueillent l’information de l’extérieur (les données ou « big data ») et un nœud de sortie fournit la réponse à la question posée à l’entrée, une fois l’apprentissage terminé. Ceci constitue la représentation topologique du réseau neuronal artificiel, traduite par des algorithmes.

Mais, comment le réseau apprend-t-il ? Essentiellement par des poids associés aux liens reliant les nœuds. Plus le parcours d’un lien est important par rapport à l’élaboration de la réponse, plus ce lien sera doté d’un poids important.

Comment fait-on pour déterminer ces poids ? Le bébé/l’enfant/l’adolescent apprennent à partir d’un certain nombre de situations qui leur sont fournies par l’expérience ou les études, … ainsi que par la bonne réponse à apporter à ces situations par essais et erreurs (« pour résoudre un puzzle, j’ai appris qu’il fallait faire en sorte que les pièces du puzzle s’emboitent parfaitement et que je peux m’aider en prenant en compte l’image décrite in fine »). De la même manière, le réseau neuronal apprendra à partir d’un jeu de données qu’on lui fournira avec les réponses associées connues, également fournies. L’ensemble données-sorties constitue les big data, répertoriés dans les data centers  ou « centres de données ». Évidemment, plus la base de données est importante, plus l’IA aura appris de manière pertinente : d’où la course en avant dans des data centers de plus en plus gigantesques pour recueillir les centaines de milliards de données nécessaires à la pertinence « générative » (créative, prédictive) des IA. Notons que ces centres de données consomment une énergie électrique démesurée et dégagent une chaleur également démesurée, mais sont incontournables pour les grands champs d’application de l’IA …

1.3. Comment détermine-t-on les poids attachés aux liens?

Essentiellement par des méthodes numériques (c’est-à-dire composées d’algorithmes – un algorithme étant constitué par une suite d’instructions rédigées de manière à être compréhensibles par un ordinateur) dites de « rétro-gradient ». Le gradient d’une fonction est une dérivée généralisée qui, en géométrie, représente la pente de la courbe traduisant la fonction. Connaissant les entrées et la sortie pour un grand nombre de cas, on part de la sortie et on tente de retrouver les entrées en mettant des poids sur les liens. Quand, pour tous les cas « entrées + sortie » connus issus de la base de données, le numéricien considère que la précision calculée est suffisante (par comparaison entre les données recalculées et les données fournies), il considère que le code a appris : c’est le learning ou « apprentissage ». Alors, il peut entrer dans le code d’IA de nouvelles données, et la sortie fournie par le code sera remarquable (en général bien meilleure que ne l’aurait formulé le cerveau de Sapiens) – dans la mesure où la base de données était suffisamment large et correcte (non biaisée) et où le nombre de nœuds avait été suffisamment dimensionné. Réseau + apprentissage doivent donc être tous les deux pertinents.

2. Comment l’IA fonctionne-t-elle ?

Dans les premières années de développement de l’IA (jusqu’aux années 90), peu de nœuds (une dizaine) et peu de liens étaient mis en œuvre et les techniques de l’IA sont apparues décevantes : elles représentaient une méthode d’interpolation parmi d’autres. On entre des données et si, on pose une question au milieu des données, on obtient une bonne réponse. Rien de très nouveau dans le champ mathématique des méthodes d’interpolation.

2.1. Le deep learning

Tout a changé quand on est passé à plusieurs millions de liens (c’est ce que l’on appelle le deep learning ou « apprentissage profond »). Aujourd’hui ChatGPT travaille avec 1000 milliards de liens, parait-il … Tout a changé, car on a vu apparaitre en IA une remarquable capacité du cerveau humain : la créativité. L’expérience qui a mis cela en évidence pour la première fois devant la communauté scientifique internationale a été … le jeu de GO. Chacun se souvient que l’ordinateur a battu les champions du monde du jeu d’échecs, simplement par une capacité de mémoire bien supérieure à celle du cerveau humain. Le jeu de GO est d’une autre nature, puisque ce jeu nécessite de définir une stratégie. Ce n’est plus une simple question de mémoire, car le nombre de coups possibles au jeu de GO est de l’ordre de grandeur du nombre d’atomes dans notre univers (1080 ou 1 suivi de 80 zéros). Le code ALPHAGO, mis au point par Deep Mind (Google), avait été enseigné par la plupart des situations de jeu connues et il avait joué des centaines de milliers de parties contre lui-même. Quand ALPHAGO a été mis face au champion du monde de GO, à la surprise générale, on s’est rendu compte que ce code développait lui-même ses propres stratégies qui jamais ne lui avaient été enseignées et étaient inconnues de Sapiens. C’est le succès du deep learning, c’est à dire du passage au très grand nombre de nœuds. Aujourd’hui l’IA générative montre chaque jour qu’elle peut créer des textes, des poèmes, des peintures, de la musique, …, démontrer des théorèmes mathématiques, etc …

2.2. Le machine learning

Figure 3. L’IA contient, parmi d’autres méthodes, les réseaux neuronaux. Si ces réseaux sont constitués d’un très grand nombre de nœuds, ils feront l’objet d’un apprentissage profond, qui pourra être rendu automatique par apprentissage automatique. [Source schéma EEnv].
Par ailleurs, dans les premiers développements de l’IA, il était nécessaire de rentrer manuellement les entrées et leurs sorties, contenues dans des bases de données connues. Évidemment tout cela était extrêmement long et fastidieux. Un progrès décisif fut franchi quand les codes d’IA ont pu eux-mêmes définir leurs propres bases de données soit en allant les chercher dans les bases de connaissance existantes (encyclopédies, dictionnaires, internet, …) soit en menant les calculs numériques nécessaires pour les constituer. C’est ce que l’on appelle le machine learning ou « apprentissage automatique ». Évidemment, il y a là la possibilité d’introduire des biais terrifiants dans leurs conséquences. Un apprentissage sur une base de données raciste, sexiste, … produira un code dont les réponses seront de nature raciste, sexiste, … Mais le même type de biais existe dans l’éducation des enfants de Sapiens (voir les écoles hitlériennes) ou dans le formatage de notre cerveau d’adulte, par exemple par les « théories » complotistes.

Retenons que l’IA repose sur la définition topologique d’un réseau, dont les liens sont dotés de poids, définis par apprentissage à partir d’une base de données constituée d’un ensemble d’entrées-sorties, aussi large que possible (d’un millier de cas à plusieurs millions) et protégé de biais autant que faire se peut. La méthode ne permet cependant pas de connaitre « comment » la réponse a été obtenue : c’est une « boite noire » par construction – comme notre cerveau (Figure 3).

3. Pourquoi l’IA fonctionne-t-elle aussi bien ?

Cette question se pose pour l’IA dans les mêmes termes qu’elle se pose pour notre cerveau. Il y a là à l’évidence une profonde inconnue sur laquelle travaillent nos plus brillants mathématiciens. Deux pistes sont souvent évoquées.

3.1. La géométrie multi-échelles du réseau neuronal

La Nature telle que nous la percevons autour de nous est de fait toujours de nature multi-échelles. Prenons l’exemple du sable (Figure 4). Le grain de sable est très généralement constitué de silice, assemblage polycristallin à l’échelle nanoscopique. Le grain de sable lui-même représente l’échelle microscopique. Une dizaine de grains de sable s’organise sous forme de chaines ou de cycles de grains à l’échelle mésoscopique. Puis un milliard de ces grains peuvent former un tas de sable à l’échelle macroscopique, enfin une plage de sable représentera l’échelle mégascopique. Et une propriété fondamentale de cette structure multi-échelles est le fait que les caractéristiques du tas de sable sont parfaitement décorrélées de celles du grain. C’est l’une des propriétés les plus fondamentales de la Nature : l’émergence de nouvelles caractéristiques par changement d’échelles.

Figure 4. Exemple de la structure multi-échelles de la Nature. Ici, dans le cas du sable, on distingue 4 échelles successives depuis le grain de sable (échelle microscopique), quelques grains organisés (méso), le tas de sable (macro) et la dune (méga) [Source schéma EEnv].
Or, dans la structure géométrique d’un réseau neuronal, les entrées sont constituées d’un grand nombre de données, associées à un espace de très grande dimension et à une échelle très importante. Au fur et à mesure que nous descendons dans le réseau, ce nombre de dimensions et cette échelle diminuent jusqu’à atteindre le neurone de sortie de dimension 1 et d’échelle 1. Il semble donc que la topologie (la géométrie) d’un réseau neuronal biologique ou artificiel reprenne l’une des propriétés majeures de la Nature : son aspect multi-échelles.

3.2. Les propriétés d’invariance décrites par le réseau

Une deuxième caractéristique des réseaux neuronaux est leur capacité à décrire des invariances, c’est-à-dire des propriétés d’un système qui ne changent pas dans les représentations/descriptions de ce système.

Prenons l’exemple de la table (Figure 5). Nous présentons des milliers de tables au réseau et, ensuite, si nous lui proposons une nouvelle table, il saura la reconnaitre – et ceci quelle que soit la position de la table dans l’espace. Effectivement une table est invariante par translation et rotation (c’est-à-dire quand on bouge la table dans l’espace). Le réseau, peut-être par des poids négligeables associés à certains liens (qui pourraient être supprimés), réussit à prendre en compte cette invariance et à reconnaitre une table indépendamment de sa position dans l’espace. Mais les mathématiques nous apprennent que toute invariance est liée à un groupe de symétries. Quand nous nous regardons dans un miroir, notre visage reste invariant mais l’image que nous voyons est la symétrique de notre visage réel par rapport au miroir. Or, les particules élémentaires du monde quantique sont largement déterminées par des groupes de symétries. Par exemple, la théorie des « super-cordes » (toute particule correspondrait aux vibrations d’une nano-corde dans un espace à 13 dimensions) respecte des « super-symétries ». Ainsi, il semble qu’un réseau neuronal soit capable de prendre en compte des groupes de symétries à la manière du monde réel.

Figure 5. L’IA apprend sur un très grand nombre d’images de table ce qu’est cet objet, par ailleurs invariant dans l’espace. Puis, si on présente une image de table inconnue du code IA, le code sera capable de reconnaitre une table [Source schéma EEnv].
A travers ces deux perspectives, nous voyons apparaitre le fait qu’un réseau neuronal semble reprendre deux caractéristiques majeures de la Nature : son aspect multi-échelles et le fait qu’elle soit régie par des groupes de symétrie. Cela pourrait-il expliquer la formidable capacité cognitive des réseaux neuronaux dans leurs interactions avec la Nature qui nous entoure dans cet univers ?

4. Une perspective historique

Une autre question vient naturellement à l’esprit : pourquoi l’IA représente-t-elle un tel bouleversement pour l’humanité – comparable à la découverte du feu ou de l’agriculture ?

4.1. L’Ère des solutions analytiques ou numériques

Figure 6. A, Archimède, savant grec, travaille ici avec les premiers instruments de mesure et exprime sa pensée par les premiers écrits scientifiques (merci à INDURA, cluster régional AURA). [Source Domaine public, via Wikimedia Commons] ; B. Premiers accomplissements majeurs de la pensée scientifique à la Renaissance Italienne, où la méthode scientifique reposant sur l’expérimentation et la formulation mathématique des phénomènes naturels a été découverte par des précurseurs comme Léonard de Vinci, Galilée, … Ici Léonard de Vinci en auto-portrait. [Source Domaine public, via Wikimedia Commons]
Pour y répondre, regardons l’évolution des sciences depuis l’origine de la pensée scientifique chez les Pharaons et les Grecs (Figure 6A).

Depuis cette origine et jusqu’aux années soixante, une lente évolution à travers en particulier la Renaissance Italienne (Figure 6B) a fait émerger une physique dite « linéaire » où les phénomènes sont décrits par des équations assez simples, qui peuvent être résolues analytiquement par des fonctions (1). Ces fonctions décrivent les phénomènes naturels avec une approximation importante. Très peu d’équations décrivant le monde réel peuvent être résolues sous cette forme explicite. Mais ce corpus scientifique simpliste a malgré tout débouché sur une formidable révolution pour l’humanité : la révolution industrielle de la fin du XIXe siècle. Les constructions et les machines se sont alors multipliées. Probablement, l’enseignement majeur de ces siècles de tâtonnement scientifique est-il le fait que la Nature a un langage et que ce langage est constitué par les Mathématiques qui nous sont intelligibles.

Figure 7. Calcul par la méthode numérique dite « des Éléments Finis » de structures mécaniques. Le calcul fournit en tout point de la structure les forces qui s’exercent sur la matière (ici métallique) et la manière dont elle se déforme. Ainsi le dimensionnement de la pièce métallique peut-il se faire de manière extrêmement précise, y compris jusqu’à la rupture de la pièce pour des efforts ultimes qui seront calculés [Source INDURA, cluster régional AURA, avec nos remerciements].
A partir des années soixante, l’apparition des ordinateurs et la mise au point des méthodes numériques ont représenté une étape remarquable dans le développement de la pensée scientifique. Aujourd’hui on peut dire que n’importe quel système d’équations mathématiques « bien posées » peut être résolu numériquement. La révolution numérique a ainsi induit des avancées considérables en ce sens que la physique « non-linéaire » [1] pouvait être appréhendée. Des constructions infiniment plus hardies (l’Arche de la Défense construite sur un réseau de routes, d’autoroutes et de voies ferrées, …)  et des machines d’une complexité redoutable (l’Airbus, …) (Figure 7) ont pu voir le jour et ont transformé notre vie quotidienne.

4.2. Comment faire sans équations ?

Mais la plupart des problèmes que nous rencontrons ne se formalisent pas sous une expression mathématique par un système d’équations. Prenons un exemple simple en hydrologie. Nous mesurons la pluviométrie sur tout le bassin versant de la rivière Drac [2] par une centaine de capteurs (des pluviomètres) et nous voulons connaitre la hauteur de l’eau du Drac sous le pont dit de « Catane » à l’entrée de Grenoble (Figure 8). Il n’est pas possible d’imaginer formuler un système d’équations reliant les mesures des 100 pluviomètres à la hauteur de l’eau sous le pont de Catane. Au contraire, pour l’IA, ce problème est particulièrement simple à résoudre. Alimentons un réseau neuronal avec les 100 valeurs des capteurs en entrée associées à la hauteur de l’eau mesurée sous le pont de Catane pendant 30 ans. Le réseau caractérisera la relation liant ces entrées-sorties par le calcul des poids associés à ses liens. Et, aujourd’hui, connaissant les valeurs actuelles des pluviomètres, l’IA nous fournira avec une excellente précision la hauteur de l’eau sous le pont.

Figure 8. Exemple, en hydrologie, de la solution par IA d’un problème non-modélisé par un système d’équations : connaissant les niveaux pluviométriques sur un bassin versant, déterminer la hauteur d’eau en un point de la rivière en sortie du bassin versant (application à la prévision quantitative des inondations) [Source schéma EEnv].
Retenons que l’IA se passe d’équations (mais, si nécessaire, elle résout tout système d’équations de manière remarquable) et qu’elle peut s’appliquer à tout problème qui peut faire l’objet d’un apprentissage – c’est à dire in fine à tout problème qui se pose à Sapiens. Effectivement depuis que l’aventure humaine a commencé sur notre planète, c’est par l’expérience et l’expérimentation (modélisée mathématiquement) que s’est bâti tout notre savoir, aujourd’hui enseigné de manière très sophistiquée. Le champ d’application des techniques d’IA est donc immense : tout le spectre des activités humaines est désormais concerné. On peut citer comme exemples actuellement en cours: la voiture autonome, le diagnostic médical, la reconnaissance visuelle et faciale, la traduction automatique, les analyses ADN… De manière plus générale, la bibliothèque universelle (comme Google) est actuellement en passe d’être supplantée par l’expertise universelle portée par les grands modèles de langage (les « LLM » comme ChatGPT, Gemini, Claude, …) et l’IA dite « générative », au sens où elle peut être présente avec sa propre créativité dans à peu près tous les domaines où l’esprit humain a produit des œuvres littéraires, artistiques, scientifiques, techniques, … et même mathématiques puisque l’IA démontre aujourd’hui des théorèmes …

5. Limitations de l’IA

Les capacités de l’IA sont absolument remarquables, mais elles ont cependant leurs limites dans deux perspectives, que nous allons évoquer ici.

5.1. La capacité à comprimer des données

La première touche aux problèmes faiblement structurés dont la base de données associée se présente de manière « lâche », sans qu’il puisse être possible de la comprimer. La « compression » de données au sens mathématique du terme est l’opération qui consiste à remplacer un grand nombre de données par un petit nombre sans perte significative d’informations. Quand on  suit le réseau neuronal vers sa sortie, on comprime progressivement les données jusqu’à aboutir à la solution. C’est, par exemple, une opération que notre cerveau effectue quand on lit un texte : on ne lit pas dans le détail les lettres de chaque mot, pour comprendre une phrase. Quelques lettres, jugées significatives, par mot sont suffisantes (et quelques fois conduisent à des erreurs qui nous obligent à revenir en arrière dans notre lecture !). Si des données ne peuvent pas être comprimées, elles ne pourront pas être apprises. Un récent théorème mathématique démontre en fait l’équivalence entre compressibility (capacité à comprimer) et learnability  (capacité à apprendre).

Retenons que les données doivent pouvoir être comprimées du fait de leur structure interne pour pouvoir servir de base d’apprentissage. Notre cerveau connait en fait cette même limitation : nous ne pouvons pas apprendre un corpus de connaissances qui ne soit pas ordonné. Nos manuels et les notes que nous prenons en cours sont ordonnés en chapitres, sections, paragraphes, etc … Sinon, nous ne retenons rien, du fait que notre cerveau n’a pas pu comprimer ces données, donc n’a pas pu apprendre.

5.2. La sensibilité aux conditions initiales

Figure 9. Les boules de billard créent en s’entrechoquant une situation chaotique, sans solution asymptotique déterministe, par sensibilité aux conditions initiales [Source Chaos 1 Mouvement et déterminisme : Panta Rhein, https://www.chaos-math.org/fr.html ; licence Creative Commons].
La deuxième limitation touche aux problèmes dits « sensibles aux conditions initiales ». C’est « l’effet papillon » : le battement d’ailes d’un papillon au Brésil provoquerait un orage sur Grenoble au sens strict de cette proposition. En fait, la nature nous fournit beaucoup d’exemples de tels systèmes dont il n’existe pas de solution asymptotique (valable pour une grande échelle de temps). Un autre exemple, plus concret, est constitué par la trajectoire d’une boule de billard (Figure 9). Une déviation, aussi faible soit-elle, de l’angle initial du tir de la boule produira au bout d’un certain nombre de rebonds (éventuellement grand) sur les côtés de la table un changement de côté, ce qui changera de manière définitive l’histoire de trajectoire de la boule. Pour cette classe de problèmes, pour lesquels les mathématiques sont impuissantes à prouver l’existence d’une solution asymptotique unique (qui n’existe d’ailleurs pas), l’IA pourra fournir tout au plus des solutions probabilistes.  Ainsi la météo ne sera jamais une science prédictive sur le long terme : on dit que la limite de prédiction déterministe est une dizaine de jours (Lire Introduction à la prévision météorologique). Mais l’IA pourra fournir des indications probabilistes au-delà (Lire L’intelligence artificielle pour la prévision du temps).

Ainsi pour les problèmes dont l’analyse mathématique montre qu’il n’existe pas de solution unique au-delà d’une certaine échelle de temps, l’IA ne pourra fournir qu’une solution probabiliste.

6. Vers l’inanimé conscient ?

C’est une question qui se pose aujourd’hui avec acuité : va-t-on voir apparaitre des robots conscients parmi le milliard de robots qui sont attendus d’ici la fin du siècle ? Pour y répondre clairement, il faudrait disposer d’une définition de la conscience qui fasse consensus, et ce n’est pas le cas.

Figure 10. Exemple de robot conscient de son environnement: il range une bobine de 130 kg dans son casier en la faisant rouler sur le sol. [Source © Chappellet et al. – Humanoid Loco-Manipulations using Combined Fast Dense 3D Tracking and SLAM with Wide-Angle Depth-Images. IEEE Transactions on Automation Science and Engineering, 2024].
Disons que beaucoup sont d’accord pour distinguer trois niveaux de conscience. Le premier niveau est celui de la conscience, dite élémentaire, qui correspond à la reportabilité, c’est-à-dire la capacité à rapporter. Par exemple, je suis dans une salle de conférences. On dira que je suis conscient de la présence du conférencier et de son exposé, si, une fois rentré à la maison, je suis capable de décrire la conférence que j’ai suivie. Ce niveau de conscience est d’ores et déjà acquis pour des robots existants, qui sont parfaitement capables de résumer une conférence, de rapporter les questions posées et d’en poser eux-même d’ailleurs (Figure 10).

Le deuxième niveau, que l’on pourrait qualifier de conscience globale, est celui qui permet de synthétiser différents stimuli qui proviennent de sources variées. Notre cerveau possède effectivement un tel « capitaine » qui a une vue globale sur les différents réseaux neuronaux associés aux différents stimuli et qui peut privilégier telle ou telle entrée. Ainsi, si, dans la salle de conférence évoquée plus haut, j’entends un grand bruit extérieur, je ne vais plus écouter le conférencier mais tenter de déchiffrer l’origine et le sens de ce bruit. Ce niveau de conscience est probablement acquis aujourd’hui dans des laboratoires non-académiques.

Enfin, le troisième niveau est celui de la conscience phénoménale. C’est celui qui est lié à la conscience subjective, à la perception intime émotionnelle que nous avons des évènements et phénomènes qui nous touchent. Il est vraisemblable que ce niveau soit actuellement hors de portée, mais beaucoup de chercheurs considèrent que nous côtoierons des robots pleinement conscients dans la décennie qui vient. Dès maintenant, le visage des robots peut exprimer des sentiments subjectifs variés et déchiffrer sur le visage des humains des ressentis éventuellement complexes.

Evidemment, les perspectives de ces évolutions sont à la fois très séduisantes (les enfants japonais à l’hôpital adorent leurs robots, qui seront aussi probablement les bienvenus auprès des personnes âgées) et terrifiantes par l’intelligence bien supérieure à la nôtre (d’après les critères et examens usuels de mesure d’intelligence) dont les robots seront dotés. Les Sapiens vont-ils devenir des ectoplasmes, déléguant aux robots par exemple la maintenance, l’évolution, … de leur cadre de vie ?

7. Les deux classes d’IA et leurs applications

On distingue classiquement deux grandes classes d’IA : l’IA dite « supervisée » et celle appelée « non-supervisée ». Ces deux classes sont associées à deux grands champs d’applications des techniques de l’IA, que nous distinguons maintenant.

Figure 11. Par apprentissage supervisé (figure de gauche), l’IA sera capable de définir une hyper-surface moyenne entre des valeurs données (Régression) ou de déterminer l’hyper-surface séparant deux classes distinctes d’objets bleus et rouges (Classification). Par apprentissage non-supervisé (figure de droite), l’IA trouvera une anomalie rouge inconnue dans un ensemble d’objets bleus (Intrus) ou fera émerger une structuration inconnue dans un ensemble de données (Clustering). [Source schéma EEnv].
Les IA supervisées (Figure 11) correspondent à des recherches de réponses à l’intérieur d’un cadre connu et bien décrit en termes de données. Par exemple, la voiture autonome (Figure 12) se déplace sur un ensemble de routes, d’autoroutes, de chemins dont les tracés sont parfaitement connus et avec des règles rigoureusement définies par le code de la route.  On peut citer aussi la reconnaissance faciale au passage des frontières, la découverte de nouvelles molécules, etc … Tous les robots (voir Figure 11), machines et outils intelligents appartiennent à cette classe comme également les grands modèles de langage (les LLM comme ChatGPT, Gemini, Claude, …). Autre exemple : les foundation models ou modèles fondamentaux, qui rassemblent toute la connaissance humaine dans un domaine donné, sont actuellement en plein développement à coups de centaines de milliards de dollars d’investissement.

Figure 12. Exemple d’IA supervisée : voiture autonome de Google sans volant et sans pédale. La voiture s’adapte en temps réel à un environnement routier sans cesse nouveau pour elle (image libre de droits)

Les IA non-supervisées (Figure 11) sont, elles, associées à des recherches dont la caractérisation n’est pas définie a priori. Par exemple, rechercher la présence éventuelle de cellules cancéreuses sur une image obtenue par SCAN ou IRM. Les IA non-supervisées concernent essentiellement le traitement et la valorisation des grandes bases de données. Les capteurs mécaniques ou physico-chimiques sont aujourd’hui utilisés en très grand nombre car robustes, peu couteux et économes en énergie. Ils fournissent des millions de données du fait de leur nombre mais aussi parce que, généralement, ils restent en place sur des temps longs. Un logiciel d’IA sera capable de détecter l’existence de structures internes dans ce corpus de données ou de points critiques (comme l’apparition d’une fissure dans un ouvrage, fissure éventuellement non-visible par l’œil humain). Là aussi, certaines applications sont parfaitement les bienvenues comme la lutte contre la corruption ou les trafics en tous genres, tandis que d’autres sont plus discutables si l’on pense au marketing personnalisé.

8. Les risques naturels

Figure 13. Un éboulement rocheux spectaculaire aux Pénitents des Mées (région Provence Alpes Côte d’Azur dans le sud-est de la France) en décembre 2019 [crédits ONF-RTM, DR].
Les risques naturels gravitaires comme les glissements de terrain (Lire Les glissements de terrain), les boues torrentielles, les éboulements rocheux (Lire Glissements et éboulements rocheux, une fatalité ?), les avalanches (Lire Les avalanches de neige) apparaissent comme des problèmes difficiles pour leur analyse, leur prédiction et leur prévention, essentiellement du fait de la complexité des matériaux impliqués. Sols, roches, neiges sont le plus souvent constitués de plusieurs phases (grains ou blocs solides, eau, air) en interaction complexe entre eux. Les grains ou particules de sols, les blocs rocheux (voir un exemple en figure 13 d’éboulement rocheux et en figure 14 de glissement de terrain) et les flocons de neige ont des formes contournées, variables dans le temps. Le sable peut s’écouler entre les doigts comme un fluide et se comporter comme un solide sur la plage où l’on peut déambuler sans difficulté – sauf en cas de sables mouvants !  Ces difficultés irréductibles ont poussé au développement de modélisations numériques de plus en plus performantes et à la mise en œuvre de ce qui est appelé « le jumeau numérique » de la pente de sol, de la falaise, etc …,qui doit être alimenté en continu par des mesures réalisées in-situ.

Figure 14. Glissement de terrain au-dessus du lac du barrage du Chambon (Isère). Le glissement est actif depuis avril 2015 et concerne 800000 m3 de schistes friables [d’après Les glissements de terrains, EEnv]
La révolution métrologique a fait émerger de nouvelles familles de capteurs peu coûteux, résistants dans le temps, peu gourmands en énergie, qui peuvent être disposés en grand nombre dans les terrains à surveiller (glissements de terrains, falaises rocheuses instables, …) ou dans les ouvrages dont le comportement doit être contrôlé (barrages, digues, centrales nucléaires, grands ouvrages d’art, …). Ces capteurs peuvent mesurer des variations de longueurs (l’extensométrie), des variations d’angles (l’inclinométrie), des pressions d’eau (la piézométrie), des déplacements locaux (par le global positionning system  ou GPS) ou globaux (par photogrammétrie) ; ils peuvent aussi utiliser des techniques de scanner laser en surface (par le light detection and ranging  ou LIDAR) ou de radar (par le interferometric synthetic aperture radar ou InSAR). Pour les grands linéaires tels que les digues, les fibres optiques sont mises en œuvre.

On obtient alors de très grandes bases de données, issues de séries temporelles et/ou spatiales. Et il devient nécessaire de valoriser ces bases par des techniques intelligentes qui permettent de détecter les points critiques de fissure/rupture/tassement/fuite d’eau, de fournir une analyse des mécanismes de ruine potentiels et même – à terme – de recommander les mesures de confortement ou autres à prendre. En fait, le seul point délicat aujourd’hui est la phase d’apprentissage automatique (le machine learning) qui ne peut pas s’appuyer uniquement sur les cas de glissements ou d’éboulements, qui se sont effectivement produits en ayant été instrumentés.

On est donc amené à compléter ces bases de données par du calcul numérique mené par le jumeau numérique évoqué plus haut. Les résultats de ce jumeau numérique, soigneusement calibré tout au long de la vie de la structure naturelle (pente, falaise, …), pourront être comparés par IA avec les mesures données par les capteurs, fournissant alors une information précise, quantifiée et riche en contenu pour l’analyse du comportement du système naturel. On aboutit alors à une « maintenance intelligente » (smart maintenance) des constructions ou à un « suivi intelligent » des structures naturelles.

9. Messages à retenir

  • L’intelligence artificielle repose sur deux piliers : (1) la définition d’un réseau neuronal artificiel et (2) un apprentissage de ce réseau par des cas connus, définis par des entrées-sorties regroupées en bases de données.
  • L’IA est alors en mesure de résoudre tout problème, qui peut faire l’objet d’un apprentissage, dans le champ de la base de données.
  • Les limitations de l’IA portent d’une part sur les bases de données floues non-compressibles et d’autre part sur les problèmes sans solution asymptotique.
  • On distingue les IA supervisées (les robots, …) des IA non-supervisées (la recherche de valeurs critiques dans un ensemble de données, …).
  • La question de l’inanimé conscient ouvre aujourd’hui des perspectives à la fois fascinantes et terrifiantes.
  • Les risques naturels, par exemple, correspondent à un champ d’applications bien adapté aux techniques algorithmiques de l’IA.

Notes et références

Image de couverture. [Robot blanc, création © Alex Knight, sous License CC0, via Pexel]

[1] La résolution explicite des équations est souvent limitée aux équations linéaires pour lesquelles des méthodes mathématiques existent.  Seules quelques équations non-linéaires ont pu faire l’objet de résolutions analytiques.

[2] Le Drac rejoint l’Isère aux environs de Grenoble et l’isère rejoint le Rhône plus à l’aval, aux environs de Valence.


L’Encyclopédie de l’environnement est publiée par l’Association des Encyclopédies de l’Environnement et de l’Énergie (www.a3e.fr), contractuellement liée à l’université Grenoble Alpes et à Grenoble INP, et parrainée par l’Académie des sciences.

Pour citer cet article : DARVE Félix (28 février 2026), L’intelligence artificielle et la prévention des risques naturels, Encyclopédie de l’Environnement. Consulté le 28 février 2026 [en ligne ISSN 2555-0950] url : https://www.encyclopedie-environnement.org/sol/intelligence-artificielle-prevention-risques-naturels/.

Les articles de l’Encyclopédie de l'environnement sont mis à disposition selon les termes de la licence Creative Commons BY-NC-SA qui autorise la reproduction sous réserve de : citer la source, ne pas en faire une utilisation commerciale, partager des conditions initiales à l’identique, reproduire à chaque réutilisation ou distribution la mention de cette licence Creative Commons BY-NC-SA.