L’intelligence artificielle et la prévention des risques naturels
PDF
L’intelligence artificielle représente une profonde révolution pour Sapiens, du même ordre que la découverte de l’agriculture il y a 8500 ans. Mais qu’est-ce-que l’intelligence artificielle ? Comment fonctionne-t-elle ? En quoi représente-t-elle une telle révolution ? Comment se positionne-t-elle dans l’évolution de l’humanité ? Pourquoi les algorithmes d’intelligence artificielle (IA) – tout comme notre cerveau – fonctionnent-ils aussi bien ? L’IA est-elle créative ? Et comment certaines formes de conscience apparaissent-elles en IA ? Que sont les Large Language Models (LLM) ou « Grands Modèles de Langage » et les Foundation Models ou « Modèles Fondamentaux » ? Ce sont quelques questions auxquelles nous répondrons dans cet article en évoquant également un champ d’applications en plein développement : les risques naturels, et en particulier ceux d’origine gravitaire (glissements de terrains, boues torrentielles, éboulements rocheux, avalanches).
1. Qu’est-ce-que l’intelligence artificielle ?
1.1 Le réseau de neurones

1.2. L’apprentissage et les data centers
Mais notre cerveau ne serait rien sans l’éducation et l’apprentissage, qui lui ont permis d’accumuler de l’expérience, de la structurer et de pouvoir répondre avec pertinence aux questions qu’il rencontre – au moins dans le champ de son expérience (« j’ai appris l’anglais, mais je ne saurais pas comprendre un document rédigé en allemand »).

Mais, comment le réseau apprend-t-il ? Essentiellement par des poids associés aux liens reliant les nœuds. Plus le parcours d’un lien est important par rapport à l’élaboration de la réponse, plus ce lien sera doté d’un poids important.
Comment fait-on pour déterminer ces poids ? Le bébé/l’enfant/l’adolescent apprennent à partir d’un certain nombre de situations qui leur sont fournies par l’expérience ou les études, … ainsi que par la bonne réponse à apporter à ces situations par essais et erreurs (« pour résoudre un puzzle, j’ai appris qu’il fallait faire en sorte que les pièces du puzzle s’emboitent parfaitement et que je peux m’aider en prenant en compte l’image décrite in fine »). De la même manière, le réseau neuronal apprendra à partir d’un jeu de données qu’on lui fournira avec les réponses associées connues, également fournies. L’ensemble données-sorties constitue les big data, répertoriés dans les data centers ou « centres de données ». Évidemment, plus la base de données est importante, plus l’IA aura appris de manière pertinente : d’où la course en avant dans des data centers de plus en plus gigantesques pour recueillir les centaines de milliards de données nécessaires à la pertinence « générative » (créative, prédictive) des IA. Notons que ces centres de données consomment une énergie électrique démesurée et dégagent une chaleur également démesurée, mais sont incontournables pour les grands champs d’application de l’IA …
1.3. Comment détermine-t-on les poids attachés aux liens?
Essentiellement par des méthodes numériques (c’est-à-dire composées d’algorithmes – un algorithme étant constitué par une suite d’instructions rédigées de manière à être compréhensibles par un ordinateur) dites de « rétro-gradient ». Le gradient d’une fonction est une dérivée généralisée qui, en géométrie, représente la pente de la courbe traduisant la fonction. Connaissant les entrées et la sortie pour un grand nombre de cas, on part de la sortie et on tente de retrouver les entrées en mettant des poids sur les liens. Quand, pour tous les cas « entrées + sortie » connus issus de la base de données, le numéricien considère que la précision calculée est suffisante (par comparaison entre les données recalculées et les données fournies), il considère que le code a appris : c’est le learning ou « apprentissage ». Alors, il peut entrer dans le code d’IA de nouvelles données, et la sortie fournie par le code sera remarquable (en général bien meilleure que ne l’aurait formulé le cerveau de Sapiens) – dans la mesure où la base de données était suffisamment large et correcte (non biaisée) et où le nombre de nœuds avait été suffisamment dimensionné. Réseau + apprentissage doivent donc être tous les deux pertinents.
2. Comment l’IA fonctionne-t-elle ?
Dans les premières années de développement de l’IA (jusqu’aux années 90), peu de nœuds (une dizaine) et peu de liens étaient mis en œuvre et les techniques de l’IA sont apparues décevantes : elles représentaient une méthode d’interpolation parmi d’autres. On entre des données et si, on pose une question au milieu des données, on obtient une bonne réponse. Rien de très nouveau dans le champ mathématique des méthodes d’interpolation.
2.1. Le deep learning
Tout a changé quand on est passé à plusieurs millions de liens (c’est ce que l’on appelle le deep learning ou « apprentissage profond »). Aujourd’hui ChatGPT travaille avec 1000 milliards de liens, parait-il … Tout a changé, car on a vu apparaitre en IA une remarquable capacité du cerveau humain : la créativité. L’expérience qui a mis cela en évidence pour la première fois devant la communauté scientifique internationale a été … le jeu de GO. Chacun se souvient que l’ordinateur a battu les champions du monde du jeu d’échecs, simplement par une capacité de mémoire bien supérieure à celle du cerveau humain. Le jeu de GO est d’une autre nature, puisque ce jeu nécessite de définir une stratégie. Ce n’est plus une simple question de mémoire, car le nombre de coups possibles au jeu de GO est de l’ordre de grandeur du nombre d’atomes dans notre univers (1080 ou 1 suivi de 80 zéros). Le code ALPHAGO, mis au point par Deep Mind (Google), avait été enseigné par la plupart des situations de jeu connues et il avait joué des centaines de milliers de parties contre lui-même. Quand ALPHAGO a été mis face au champion du monde de GO, à la surprise générale, on s’est rendu compte que ce code développait lui-même ses propres stratégies qui jamais ne lui avaient été enseignées et étaient inconnues de Sapiens. C’est le succès du deep learning, c’est à dire du passage au très grand nombre de nœuds. Aujourd’hui l’IA générative montre chaque jour qu’elle peut créer des textes, des poèmes, des peintures, de la musique, …, démontrer des théorèmes mathématiques, etc …
2.2. Le machine learning

Retenons que l’IA repose sur la définition topologique d’un réseau, dont les liens sont dotés de poids, définis par apprentissage à partir d’une base de données constituée d’un ensemble d’entrées-sorties, aussi large que possible (d’un millier de cas à plusieurs millions) et protégé de biais autant que faire se peut. La méthode ne permet cependant pas de connaitre « comment » la réponse a été obtenue : c’est une « boite noire » par construction – comme notre cerveau (Figure 3).
3. Pourquoi l’IA fonctionne-t-elle aussi bien ?
Cette question se pose pour l’IA dans les mêmes termes qu’elle se pose pour notre cerveau. Il y a là à l’évidence une profonde inconnue sur laquelle travaillent nos plus brillants mathématiciens. Deux pistes sont souvent évoquées.
3.1. La géométrie multi-échelles du réseau neuronal
La Nature telle que nous la percevons autour de nous est de fait toujours de nature multi-échelles. Prenons l’exemple du sable (Figure 4). Le grain de sable est très généralement constitué de silice, assemblage polycristallin à l’échelle nanoscopique. Le grain de sable lui-même représente l’échelle microscopique. Une dizaine de grains de sable s’organise sous forme de chaines ou de cycles de grains à l’échelle mésoscopique. Puis un milliard de ces grains peuvent former un tas de sable à l’échelle macroscopique, enfin une plage de sable représentera l’échelle mégascopique. Et une propriété fondamentale de cette structure multi-échelles est le fait que les caractéristiques du tas de sable sont parfaitement décorrélées de celles du grain. C’est l’une des propriétés les plus fondamentales de la Nature : l’émergence de nouvelles caractéristiques par changement d’échelles.

3.2. Les propriétés d’invariance décrites par le réseau
Une deuxième caractéristique des réseaux neuronaux est leur capacité à décrire des invariances, c’est-à-dire des propriétés d’un système qui ne changent pas dans les représentations/descriptions de ce système.
Prenons l’exemple de la table (Figure 5). Nous présentons des milliers de tables au réseau et, ensuite, si nous lui proposons une nouvelle table, il saura la reconnaitre – et ceci quelle que soit la position de la table dans l’espace. Effectivement une table est invariante par translation et rotation (c’est-à-dire quand on bouge la table dans l’espace). Le réseau, peut-être par des poids négligeables associés à certains liens (qui pourraient être supprimés), réussit à prendre en compte cette invariance et à reconnaitre une table indépendamment de sa position dans l’espace. Mais les mathématiques nous apprennent que toute invariance est liée à un groupe de symétries. Quand nous nous regardons dans un miroir, notre visage reste invariant mais l’image que nous voyons est la symétrique de notre visage réel par rapport au miroir. Or, les particules élémentaires du monde quantique sont largement déterminées par des groupes de symétries. Par exemple, la théorie des « super-cordes » (toute particule correspondrait aux vibrations d’une nano-corde dans un espace à 13 dimensions) respecte des « super-symétries ». Ainsi, il semble qu’un réseau neuronal soit capable de prendre en compte des groupes de symétries à la manière du monde réel.

4. Une perspective historique
Une autre question vient naturellement à l’esprit : pourquoi l’IA représente-t-elle un tel bouleversement pour l’humanité – comparable à la découverte du feu ou de l’agriculture ?
4.1. L’Ère des solutions analytiques ou numériques

Depuis cette origine et jusqu’aux années soixante, une lente évolution à travers en particulier la Renaissance Italienne (Figure 6B) a fait émerger une physique dite « linéaire » où les phénomènes sont décrits par des équations assez simples, qui peuvent être résolues analytiquement par des fonctions (1). Ces fonctions décrivent les phénomènes naturels avec une approximation importante. Très peu d’équations décrivant le monde réel peuvent être résolues sous cette forme explicite. Mais ce corpus scientifique simpliste a malgré tout débouché sur une formidable révolution pour l’humanité : la révolution industrielle de la fin du XIXe siècle. Les constructions et les machines se sont alors multipliées. Probablement, l’enseignement majeur de ces siècles de tâtonnement scientifique est-il le fait que la Nature a un langage et que ce langage est constitué par les Mathématiques qui nous sont intelligibles.

4.2. Comment faire sans équations ?
Mais la plupart des problèmes que nous rencontrons ne se formalisent pas sous une expression mathématique par un système d’équations. Prenons un exemple simple en hydrologie. Nous mesurons la pluviométrie sur tout le bassin versant de la rivière Drac [2] par une centaine de capteurs (des pluviomètres) et nous voulons connaitre la hauteur de l’eau du Drac sous le pont dit de « Catane » à l’entrée de Grenoble (Figure 8). Il n’est pas possible d’imaginer formuler un système d’équations reliant les mesures des 100 pluviomètres à la hauteur de l’eau sous le pont de Catane. Au contraire, pour l’IA, ce problème est particulièrement simple à résoudre. Alimentons un réseau neuronal avec les 100 valeurs des capteurs en entrée associées à la hauteur de l’eau mesurée sous le pont de Catane pendant 30 ans. Le réseau caractérisera la relation liant ces entrées-sorties par le calcul des poids associés à ses liens. Et, aujourd’hui, connaissant les valeurs actuelles des pluviomètres, l’IA nous fournira avec une excellente précision la hauteur de l’eau sous le pont.

5. Limitations de l’IA
Les capacités de l’IA sont absolument remarquables, mais elles ont cependant leurs limites dans deux perspectives, que nous allons évoquer ici.
5.1. La capacité à comprimer des données
La première touche aux problèmes faiblement structurés dont la base de données associée se présente de manière « lâche », sans qu’il puisse être possible de la comprimer. La « compression » de données au sens mathématique du terme est l’opération qui consiste à remplacer un grand nombre de données par un petit nombre sans perte significative d’informations. Quand on suit le réseau neuronal vers sa sortie, on comprime progressivement les données jusqu’à aboutir à la solution. C’est, par exemple, une opération que notre cerveau effectue quand on lit un texte : on ne lit pas dans le détail les lettres de chaque mot, pour comprendre une phrase. Quelques lettres, jugées significatives, par mot sont suffisantes (et quelques fois conduisent à des erreurs qui nous obligent à revenir en arrière dans notre lecture !). Si des données ne peuvent pas être comprimées, elles ne pourront pas être apprises. Un récent théorème mathématique démontre en fait l’équivalence entre compressibility (capacité à comprimer) et learnability (capacité à apprendre).
Retenons que les données doivent pouvoir être comprimées du fait de leur structure interne pour pouvoir servir de base d’apprentissage. Notre cerveau connait en fait cette même limitation : nous ne pouvons pas apprendre un corpus de connaissances qui ne soit pas ordonné. Nos manuels et les notes que nous prenons en cours sont ordonnés en chapitres, sections, paragraphes, etc … Sinon, nous ne retenons rien, du fait que notre cerveau n’a pas pu comprimer ces données, donc n’a pas pu apprendre.
5.2. La sensibilité aux conditions initiales

Ainsi pour les problèmes dont l’analyse mathématique montre qu’il n’existe pas de solution unique au-delà d’une certaine échelle de temps, l’IA ne pourra fournir qu’une solution probabiliste.
6. Vers l’inanimé conscient ?
C’est une question qui se pose aujourd’hui avec acuité : va-t-on voir apparaitre des robots conscients parmi le milliard de robots qui sont attendus d’ici la fin du siècle ? Pour y répondre clairement, il faudrait disposer d’une définition de la conscience qui fasse consensus, et ce n’est pas le cas.

Le deuxième niveau, que l’on pourrait qualifier de conscience globale, est celui qui permet de synthétiser différents stimuli qui proviennent de sources variées. Notre cerveau possède effectivement un tel « capitaine » qui a une vue globale sur les différents réseaux neuronaux associés aux différents stimuli et qui peut privilégier telle ou telle entrée. Ainsi, si, dans la salle de conférence évoquée plus haut, j’entends un grand bruit extérieur, je ne vais plus écouter le conférencier mais tenter de déchiffrer l’origine et le sens de ce bruit. Ce niveau de conscience est probablement acquis aujourd’hui dans des laboratoires non-académiques.
Enfin, le troisième niveau est celui de la conscience phénoménale. C’est celui qui est lié à la conscience subjective, à la perception intime émotionnelle que nous avons des évènements et phénomènes qui nous touchent. Il est vraisemblable que ce niveau soit actuellement hors de portée, mais beaucoup de chercheurs considèrent que nous côtoierons des robots pleinement conscients dans la décennie qui vient. Dès maintenant, le visage des robots peut exprimer des sentiments subjectifs variés et déchiffrer sur le visage des humains des ressentis éventuellement complexes.
Evidemment, les perspectives de ces évolutions sont à la fois très séduisantes (les enfants japonais à l’hôpital adorent leurs robots, qui seront aussi probablement les bienvenus auprès des personnes âgées) et terrifiantes par l’intelligence bien supérieure à la nôtre (d’après les critères et examens usuels de mesure d’intelligence) dont les robots seront dotés. Les Sapiens vont-ils devenir des ectoplasmes, déléguant aux robots par exemple la maintenance, l’évolution, … de leur cadre de vie ?
7. Les deux classes d’IA et leurs applications
On distingue classiquement deux grandes classes d’IA : l’IA dite « supervisée » et celle appelée « non-supervisée ». Ces deux classes sont associées à deux grands champs d’applications des techniques de l’IA, que nous distinguons maintenant.


Les IA non-supervisées (Figure 11) sont, elles, associées à des recherches dont la caractérisation n’est pas définie a priori. Par exemple, rechercher la présence éventuelle de cellules cancéreuses sur une image obtenue par SCAN ou IRM. Les IA non-supervisées concernent essentiellement le traitement et la valorisation des grandes bases de données. Les capteurs mécaniques ou physico-chimiques sont aujourd’hui utilisés en très grand nombre car robustes, peu couteux et économes en énergie. Ils fournissent des millions de données du fait de leur nombre mais aussi parce que, généralement, ils restent en place sur des temps longs. Un logiciel d’IA sera capable de détecter l’existence de structures internes dans ce corpus de données ou de points critiques (comme l’apparition d’une fissure dans un ouvrage, fissure éventuellement non-visible par l’œil humain). Là aussi, certaines applications sont parfaitement les bienvenues comme la lutte contre la corruption ou les trafics en tous genres, tandis que d’autres sont plus discutables si l’on pense au marketing personnalisé.
8. Les risques naturels


On obtient alors de très grandes bases de données, issues de séries temporelles et/ou spatiales. Et il devient nécessaire de valoriser ces bases par des techniques intelligentes qui permettent de détecter les points critiques de fissure/rupture/tassement/fuite d’eau, de fournir une analyse des mécanismes de ruine potentiels et même – à terme – de recommander les mesures de confortement ou autres à prendre. En fait, le seul point délicat aujourd’hui est la phase d’apprentissage automatique (le machine learning) qui ne peut pas s’appuyer uniquement sur les cas de glissements ou d’éboulements, qui se sont effectivement produits en ayant été instrumentés.
On est donc amené à compléter ces bases de données par du calcul numérique mené par le jumeau numérique évoqué plus haut. Les résultats de ce jumeau numérique, soigneusement calibré tout au long de la vie de la structure naturelle (pente, falaise, …), pourront être comparés par IA avec les mesures données par les capteurs, fournissant alors une information précise, quantifiée et riche en contenu pour l’analyse du comportement du système naturel. On aboutit alors à une « maintenance intelligente » (smart maintenance) des constructions ou à un « suivi intelligent » des structures naturelles.
9. Messages à retenir
- L’intelligence artificielle repose sur deux piliers : (1) la définition d’un réseau neuronal artificiel et (2) un apprentissage de ce réseau par des cas connus, définis par des entrées-sorties regroupées en bases de données.
- L’IA est alors en mesure de résoudre tout problème, qui peut faire l’objet d’un apprentissage, dans le champ de la base de données.
- Les limitations de l’IA portent d’une part sur les bases de données floues non-compressibles et d’autre part sur les problèmes sans solution asymptotique.
- On distingue les IA supervisées (les robots, …) des IA non-supervisées (la recherche de valeurs critiques dans un ensemble de données, …).
- La question de l’inanimé conscient ouvre aujourd’hui des perspectives à la fois fascinantes et terrifiantes.
- Les risques naturels, par exemple, correspondent à un champ d’applications bien adapté aux techniques algorithmiques de l’IA.
Notes et références
Image de couverture. [Robot blanc, création © Alex Knight, sous License CC0, via Pexel]
[1] La résolution explicite des équations est souvent limitée aux équations linéaires pour lesquelles des méthodes mathématiques existent. Seules quelques équations non-linéaires ont pu faire l’objet de résolutions analytiques.
[2] Le Drac rejoint l’Isère aux environs de Grenoble et l’isère rejoint le Rhône plus à l’aval, aux environs de Valence.
L’Encyclopédie de l’environnement est publiée par l’Association des Encyclopédies de l’Environnement et de l’Énergie (www.a3e.fr), contractuellement liée à l’université Grenoble Alpes et à Grenoble INP, et parrainée par l’Académie des sciences.
Pour citer cet article : DARVE Félix (28 février 2026), L’intelligence artificielle et la prévention des risques naturels, Encyclopédie de l’Environnement. Consulté le 28 février 2026 [en ligne ISSN 2555-0950] url : https://www.encyclopedie-environnement.org/sol/intelligence-artificielle-prevention-risques-naturels/.
Les articles de l’Encyclopédie de l'environnement sont mis à disposition selon les termes de la licence Creative Commons BY-NC-SA qui autorise la reproduction sous réserve de : citer la source, ne pas en faire une utilisation commerciale, partager des conditions initiales à l’identique, reproduire à chaque réutilisation ou distribution la mention de cette licence Creative Commons BY-NC-SA.




