May 2, 2024

Pour une IA française tournée vers l'avenir

Le 13 mars, la Commission de l'intelligence artificielle dirigée par Anne Bouverot et Philippe Aghion a rendu son premier rapport intitulé “IA : notre ambition pour la France” au Président. Dans la démarche de dialogue sociétal autour de l’IA que ce rapport veut initier, nous avons tenu à y apporter notre contribution.

En premier lieu, nous saluons cet effort pour sa vision et son ambition, il souligne justement le potentiel colossal de l'IA et la nécessité pour la France et l'Europe d'investir dans une innovation responsable.

Plus particulièrement, nous souhaitons mettre en avant trois points :

  1. Concentrer l’investissement sur certains segments de la chaîne de valeur. Il ne s’agit pas de courir derrière les avancées des géants américains, mais d’exploiter nos avantages comparatifs.
  2. La proposition d’Organisation Mondiale de l’IA, pour définir des normes harmonisées à l’échelle mondiale et des organes d’évaluations indépendants.
  3. Préparer la société à la vague de l’IA générative à travers un plan de sensibilisation et de formation de la nation, pour former les futurs talents du développement en IA et préparer la société aux nouveaux usages.

Le rapport dresse un état des lieux pertinent et détaillé en se concentrant principalement sur les paradigmes actuels de l'IA générative et spécialisée. L'analyse de l'impact sociétal et économique des systèmes d'IA actuels est essentielle pour comprendre les enjeux du présent et du futur proche. Cependant, pour avoir une vision plus complète, nous proposons de renforcer cette étude en étendant l’analyse aux innovations qui se présentent à l’horizon, comme les systèmes à haut niveau d’autonomie. 

Les outils d’IA générative actuels tels que Stable Diffusion ou ChatGPT se contentent de générer du contenu, du texte ou des images, en réponse à une requête de l’utilisateur. Or ce paradigme est en train de changer. Nous assistons à l’émergence d’IAs caractérisées par une plus grande autonomie, qui à partir d’un objectif sont capables d'exécuter de longue séries d’actions avec très peu de supervision humaine. Pour ce faire, ces systèmes décomposent une tâche en sous-objectifs, observent les effets de leurs actions et s'adaptent en continu. 

Ces systèmes, dont les premières générations sont illustrées par des projets tels qu'AutoGPT ou Devin, se distinguent des simples outils par leur capacité à agir de manière autonome pour atteindre un objectif donné. Ils soulèvent des questions d’ordre sociétal, et des risques qualitativement différents des outils d’IA générative tels que ceux "liés aux modèles capables de se répliquer ou d'entraîner d'autres modèles", mentionnés dans le AI Act européen. Ne reproduisons pas avec l'IA l'erreur commise avec la question climatique : ne laissons pas la perspective de gains immédiats occulter l'importance de se préparer aux défis futurs, même incertains. 

L'avenir de l'IA est incertain; il est essentiel d'explorer l'étendue des ruptures technologiques possibles afin d'anticiper les impacts systémiques.

Pour compléter le rapport d’une approche proactive quant aux développements technologiques futurs, nous formulons quatre recommandations:

  1. Un travail prospectif sur les avancées technologiques en IA à un horizon de 5 ans. Le but de ce rapport serait d'explorer un large éventail de scénarios plausibles et d'en évaluer les impacts sociétaux, en accordant une attention particulière à l'analyse des risques émergents (comme illustré dans le diagramme ci-dessus).
  2. Investir dans l'évaluation des systèmes d’IA. Le rapport prévoit seulement 0.05% du budget d’investissement total pour créer un écosystème d'évaluation français, insuffisant face à l'importance de l'évaluation des modèles, aux défis des risques émergents, et au potentiel économique du secteur qui pourrait devenir un de nos avantages comparatifs pour l’Europe.
  3. Orienter les efforts de recherche et de développement vers les technologies d'IA spécialisées et à fort impact positif comme la création de nouveaux matériaux ou le diagnostic médical.
  4. Investir dans la recherche et le développement de contre-mesures techniques face aux risques liés à l'IA tels la cyberdéfense, la protection contre les deep fakes, ou la supervision d’IAs autonomes.

Pour découvrir notre analyse complète et nos recommandations détaillées, téléchargez notre note de réponse au rapport "IA : notre ambition pour la France" en cliquant sur le lien ci-dessous.

Lire notre noteLire notre note
S'inscrire à notre newsletter