A l'écoute

Dans les Bouches-du-Rhône, 35 pays participent à la construction du tokamak ITER, la machine expérimentale qui doit exploiter l’énergie de la fusion nucléaire. Celle-ci présente l’avantage de rejeter moins de déchets radioactifs que lors du processus de fission, tout en libérant une quantité d’énergie bien supérieure à ce que délivrent les centrales nucléaires actuelles. Mais générer cette réaction physique n’est pas une mince affaire. La fusion nucléaire se produit ainsi lorsqu’un gaz est porté à très haute température.Les noyaux et les électrons des atomes se séparent, le gaz se transforme alors en plasma, l’état de matière dans lequel les noyaux peuvent fusionner. Pour éviter que le plasma ne touche et ne détruise ce qui l’entoure, le tokamak génère un champ magnétique qui confine la matière en fusion. Et puisqu’il s’agit de reproduire artificiellement les réactions se produisant au cœur du Soleil, une maîtrise complète du processus est impérative. Ce qui, là encore, est loin d’être évident.

« Modéliser l’évolution temporelle de la vitesse et de la température du plasma représente un temps de calcul de l’ordre de plusieurs jours à plusieurs semaines », explique Emmanuel Franck, chercheur chez Inria (Institut national de recherche en sciences et technologies du numérique) et membre du projet de recherche Malesi (Machine Learning for Simulation). « Dans le cadre de Malesi, nous testons une approche de la fusion nucléaire basée sur l’intelligence artificielle qui permet de corriger les erreurs des modèles algorithmiques classiques. » L’équipe travaille sur des modèles réduits d’ITER, beaucoup plus simples à expérimenter. Selon lui, le couplage entre l’IA et les recherches sur la fusion nucléaire est encore balbutiant mais pourrait bien trouver des débouchés industriels d’ici une dizaine d’années.

Des données toujours plus nombreuses

Des lois de Kepler à la théorie de la relativité d’Einstein, les équations et la modélisation ont été pendant des siècles le moteur de la physique. « Désormais les données sont tellement nombreuses qu’on y lit des choses avant même de mettre en équation un phénomène », décrypte Jacques Sainte-Marie, chercheur et directeur scientifique adjoint de chez Inria, en charge de l’environnement. Grâce à l’intelligence artificielle, il devient plus facile de faire tourner des modèles prédictifs qui ingèrent d’énormes bases de données et permettent de mieux comprendre et contrôler certains phénomènes physiques.

C’est ce qu’a fait le projet d’analyse des données de vol d’avion « Perf-AI », mené par la start-up Safety Line et une équipe de chez Inria, avec notamment Vincent Vandewalle, maître de conférences à l’Université de Lille. Leur but ? « Utiliser au maximum les données de vol pour prédire de façon plus fine la consommation instantanée d’un avion », détaille le chercheur. Le procédé consiste à récupérer toutes les données de consommation passées, de les croiser avec d’autres variables comme l’altitude, la vitesse ou l’angle de l’avion, puis à en tirer un algorithme prédictif qui aide le·la pilote à adapter sa trajectoire de vol. À terme, ce « Waze » de l’aviation devrait permettre d’automatiser presque intégralement les manœuvres de décollage, qui sont les plus polluantes.

Mais l’IA ne résout pas tous les problèmes des scientifiques. Elle a même tendance à leur en créer de nouveaux. « L’IA fonctionne comme une boîte noire : on ne sait pas comment elle parvient à ses résultats. Pour élaborer des preuves et des démonstrations, le raisonnement humain reste irremplaçable », juge Jacques Sainte-Marie. Un constat partagé par Emmanuel Franck, pour qui « l’IA ne sera jamais au cœur des prédictions physiques » car ses algorithmes « comportent toujours un risque d’échec ». On imagine en effet assez mal laisser à l’IA le soin d’édicter les nouvelles lois physiques décrivant la portance d’un avion ou une réaction nucléaire.

Décarboner la production d’énergie

Avec ou sans IA, Inria s’est engagée dans de nombreux projets de décarbonation de la production d’énergie. C’est le cas du projet PIXIL, qui cartographie le sous-sol des Pyrénées afin d’y accélérer l’exploitation de l’énergie géothermique. Naturelle et non émettrice de CO2, cette énergie qui provient de la chaleur dégagée par les entrailles de la Terre a la vertu d’être quasiment inépuisable. Une manne pour la transition énergétique, à laquelle les chercheur·ses de chez Inria apportent leurs compétences en mathématiques appliquées. À leurs côtés travaillent des entreprises spécialisées dans le traitement des données de géosciences et dans l’industrie du sous-sol. Pour Pixil, iels développent ensemble des modèles chargés de simuler la propagation d’ondes sonores dans le sol pour en déduire une image 3D la plus précise possible.

Notre projet n'a pas vocation à faire baisser le niveau global d'énergie consommée, mais à récupérer l'énergie gratuite qui se trouve partout autour de nous.

« Chez Inria, 80 % des projets de recherche sont menés par des équipes qui mêlent chercheurs, industriels et établissements publics. L’intérêt, c’est de définir un projet scientifique avec une dotation fournie par chacun des partenaires et de travailler avec des points de vue différents sur un même sujet », précise Jacques Sainte-Marie. Les chercheur·ses de Inria mettent ainsi leurs compétences en informatique, calculs haute performance et sciences des données au service de l’amélioration des connaissances géophysiques et de la réduction de l’empreinte environnementale du numérique. Car, comme le rappelle le directeur scientifique adjoint de l’Inria, « la voie entre le développement du numérique et ses impacts, notamment sur l’environnement, est encore à construire ».

Vibrations, ondes, température : des sources d’énergie ambiantes et gratuites

Pour minimiser les impacts négatifs du numérique, l’équipe du projet ZEP (Zero-Power Computing Systems) a travaillé sur des systèmes informatiques capables de fonctionner uniquement grâce à la récupération de l’énergie ambiante. De petits objets connectés tels que des capteurs, des caméras ou des montres peuvent fonctionner avec quelques microwatts. Cette puissance électrique peut être fournie par des panneaux solaires et éoliennes de la taille d’un porte-clefs, ou des capteurs qui créent de l’électricité à partir de la différence de température (entre la peau et l’air par exemple), des vibrations, ou encore des ondes électromagnétiques (radio, wifi). « Le problème de ces sources d’énergie, c’est qu’elles sont intermittentes. Nous essayons donc de trouver des moyens de gérer cette intermittence en nous basant sur les technologies de mémoire non volatiles (par exemple mémoire magnétique), qui permettent de sauvegarder l’état du système à un moment donné pour un coût énergétique très faible. Cela évite d’avoir à reprendre à zéro la tâche qui était en train d’être effectuée », développe Olivier Sentieys, membre du projet et professeur à l’Université de Rennes 1.

L’émergence des mémoires non volatiles ouvre la voie à une plus grande autonomie énergétique des objets connectés. Exit, donc, les batteries et leur cortège de pollution ? Non, car certaines applications critiques nécessitent une continuité de service et donc une alimentation continue. « Notre projet n’a pas vocation à faire baisser le niveau global d’énergie consommée, mais à récupérer l’énergie gratuite qui se trouve partout autour de nous », remarque Olivier Sentieys. Paradoxalement, concevoir un numérique plus frugal pourrait permettre d’accroître les connaissances scientifiques. Par exemple en mettant en place un réseau de capteurs environnementaux, disséminés dans les milieux naturels inhospitaliers, qui remonteraient en continu des données normalement peu accessibles.