3/7/2025

Arthur Grimonpont

Le CeSIA demande à la Commission européenne de tenir le cap sur l'AI Act : « L'incertitude est technologique, pas réglementaire »

Le CeSIA rejoint une coalition d'organisations et d’experts internationaux pour exiger, dans une lettre ouverte adressée à Ursula von der Leyen, que la Commission résiste aux pressions de l’industrie technologique visant à affaiblir la législation européenne sur l'IA. Les signataires demandent à l’exécutif européen de renforcer les mesures de sécurité applicables aux modèles d’IA à usage général et d’augmenter les moyens du bureau européen de l'IA.

Le CeSIA unit sa voix à celle d’une quinzaine d’organisations de la société civile et d’une trentaine d’experts internationaux, dont les lauréats du prix Nobel Daron Acemoglu et Geoffrey Hinton, pour appeler la Commission européenne à faire prévaloir la sécurité des citoyens sur les intérêts commerciaux des entreprises technologiques.

« Les lobbys de l’industrie technologique se plaignent d’une prétendue ‘incertitude réglementaire’ pour tenter d'affaiblir le règlement européen sur l’IA. Mais la première source d’incertitude n’est évidemment pas réglementaire : elle est technologique. Des systèmes d’IA avancés soumis à moins de normes techniques qu’un grille-pain sont actuellement déployés sans aucune supervision externe auprès de centaines de millions d’utilisateurs. L'AI Act et son Code de bonnes pratiques, en corrigeant cette situation dangereuse et en harmonisant les règles au sein des États membres, offrent non seulement de la certitude réglementaire, mais surtout une protection urgente et indispensable aux citoyens européens. »Charbel Raphaël Segerie, directeur exécutif du Centre pour la Sécurité de l’IA (CeSIA).

La lettre ouverte formule trois requêtes principales à l'intention de la Commission européenne :

  1. Soumettre les modèles d’IA à usage général à une obligation d'évaluation indépendante afin de garantir leur sécurité avant leur mise sur le marché.
  2. Permettre des révisions régulières du Code de bonnes pratiques pour qu'il s'adapte à l'évolution rapide des technologies et des risques associés.
  3. Doubler les effectifs du Bureau de l’IA (AI Office) et s'assurer qu’il dispose des moyens financiers et des compétences techniques nécessaires pour faire appliquer la réglementation de manière effective.

La publication de cette ouverte intervient dans un contexte de pressions intenses de la part de plusieurs lobbys de l'industrie technologique, dont certains ont publiquement appelé à suspendre l'application du règlement en activant une clause dite « stop-the-clock », arguant que les directives d'application n'étaient pas prêtes.

Les progrès exponentiels de l’IA s’accompagnent pourtant de risques croissants. Des entreprises développant des modèles d'IA de pointe, comme OpenAI, Anthropic et Google, ont elles-mêmes reconnu que leurs nouvelles générations de modèles posaient des menaces croissantes, en particulier dans le domaine critique des risques cybernétiques, biologiques, radiologiques et nucléaires (CBRN).

Lire la lettre ouverteLire la lettre ouverte
S'inscrire à notre newsletter