Alors que l'intelligence artificielle continue de transformer la recherche et les découvertes, l'Union européenne s'engage à définir une voie européenne unique pour l'IA dans le domaine scientifique. Lors du deuxième atelier AI4Science, organisé le 12 juin 2025 à Séville, la Commission européenne a réuni chercheurs, décideurs politiques et innovateurs pour co-construire cette vision.

Organisé par le Centre commun de recherche (CCR) et la Direction générale de la recherche et de l'innovation (DG RTD), l'événement est allé au-delà d'un échange d'opinions : il a marqué une étape importante vers l'élaboration d'un cadre politique qui combine l'excellence scientifique et la responsabilité éthique.

Suite aux récentes consultations publiques en ligne, qui ont recueilli près de 600 réponses et 166 avis écrits de toute l'Europe, l'atelier a proposé une analyse approfondie et centrée sur l'humain des prochaines étapes. Les résultats alimenteront un document stratégique que la Commission publiera avant fin 2025.

Un double objectif : l’IA dans la science et l’IA pour la science

Au cœur de cette stratégie se trouve le concept d' IA scientifique , expliqué par Lars de Nul de la DG RTD. Il s'agit de deux choses : utiliser l'IA comme un puissant outil de recherche et stimuler le développement de l'IA elle-même grâce à la science.

Cela signifie que l'Europe ne cherche pas seulement à concurrencer les États-Unis ou la Chine en termes de rapidité et d'échelle. Elle vise plutôt à devenir un leader de l'innovation responsable , où l'IA est au service de la société, soutient les chercheurs et ne compromet jamais la confiance du public dans la science.

Les participants à l'atelier ont souligné que la véritable force de l'Europe réside dans sa capacité à créer un écosystème d'IA intelligent, centré sur l'humain et fondé sur des valeurs partagées, et pas seulement dans le développement des outils les plus rapides.

Ne laissez pas le talent s'échapper

L'un des sujets les plus brûlants ? Les personnes. De nombreux experts ont averti que l'Europe risquait de perdre des esprits brillants au profit de pays offrant des perspectives académiques plus attractives, notamment les États-Unis et la Chine. Pour inverser cette tendance, l'Europe a besoin de :

  • Des institutions de recherche plus fortes,
  • Parcours de carrière interdisciplinaires,
  • Des programmes de formation de haute qualité.

Une autre préoccupation concernait le flot incessant de supports pédagogiques non vérifiés et de mauvaise qualité sur l'IA. Des normes claires et des références fiables sont essentielles pour aider les jeunes chercheurs à accéder à des connaissances fiables et à éviter la désinformation.

L’infrastructure de données : un obstacle ou une rampe de lancement ?

« Pas d'IA sans données. » Cette phrase a été répétée tout au long de l'atelier de Séville. Les participants ont fortement soutenu l'augmentation du financement des ensembles de données créés spécifiquement à des fins scientifiques. Ils ont également appelé à de meilleures normes de métadonnées, à la compatibilité des systèmes et à des outils permettant de suivre l'origine des données.

Mais intégrer toutes ces données dans les infrastructures existantes – comme les « usines à IA » européennes ou la plateforme EuroHPC – n'est pas chose aisée. Les obstacles techniques et la fragmentation des systèmes empêchent encore l'Europe de tirer pleinement parti de ses ressources scientifiques.

La solution ? Une meilleure coordination et un système où la puissance de calcul et les données de haute qualité sont partagées de manière plus ouverte et plus efficace.

Confiance, éthique et risque d'une « mauvaise IA »

L'éthique et la confiance reviennent sans cesse sur le tapis. Sans garanties solides, avertissent les experts, les outils d'IA, notamment génératifs, pourraient nuire à la crédibilité de la science. Parmi les risques figurent les faux contenus, le plagiat et l'utilisation abusive des résultats de la recherche.

Des lignes directrices éthiques claires à l'échelle de l'UE sont essentielles, non seulement sous forme de belles déclarations, mais aussi de règles concrètes appliquées à la recherche au quotidien. La transparence, l'explicabilité, la confidentialité et la durabilité ont été désignées comme les quatre piliers d'une IA scientifique fiable.

La diversité c'est bien, la coordination c'est mieux

Les stratégies nationales européennes en matière d'IA et la diversité des communautés de recherche constituent un atout, mais seulement si elles fonctionnent ensemble. À Séville, de nombreuses voix se sont élevées pour affirmer que l'UE a besoin de plus de cohérence : moins de duplication des efforts, davantage de collaboration transfrontalière et des politiques nationales harmonisées.

Des institutions comme le CCR pourraient jouer un rôle clé dans la coordination d'une approche paneuropéenne de l'IA dans le domaine scientifique. En résumé ? Si l'Europe veut être leader en matière d'IA de confiance, elle doit parler d'une seule voix, dans le respect de la diversité, mais unie par des objectifs communs.

Montrer l'exemple, pas seulement rivaliser

L'atelier AI4Science l'a clairement montré : l'Europe ne souhaite pas seulement rattraper son retard dans la course mondiale à l'IA. Elle veut prendre la tête, selon ses propres conditions.

Non pas en poursuivant des brevets ou une puissance de calcul brute, mais en établissant des normes mondiales pour une IA éthique, centrée sur l’humain et socialement responsable.

Dans un monde où la confiance dans la science et la technologie devient de plus en plus difficile à maintenir, cela pourrait bien être l’atout le plus puissant de l’Europe.

Les idées rassemblées à Séville façonneront directement la future stratégie de l'UE en matière d'IA dans le domaine scientifique. Cette stratégie sera déterminante non seulement pour la place de l'Europe dans les classements mondiaux de la recherche, mais aussi pour le type d'avenir que les jeunes de tout le continent contribueront à façonner.

Rédigé par

Façonner la conversation

Avez-vous quelque chose à ajouter à cette histoire ? Des idées d'interviews ou d'angles à explorer ? Faites-nous savoir si vous souhaitez écrire une suite, un contrepoint ou partager une histoire similaire.