Arthur Grimonpont
Le CeSIA rejoint une coalition d'organisations et d’experts internationaux pour exiger, dans une lettre ouverte adressée à Ursula von der Leyen, que la Commission résiste aux pressions de l’industrie technologique visant à affaiblir la législation européenne sur l'IA. Les signataires demandent à l’exécutif européen de renforcer les mesures de sécurité applicables aux modèles d’IA à usage général et d’augmenter les moyens du bureau européen de l'IA.
Le CeSIA unit sa voix à celle d’une quinzaine d’organisations de la société civile et d’une trentaine d’experts internationaux, dont les lauréats du prix Nobel Daron Acemoglu et Geoffrey Hinton, pour appeler la Commission européenne à faire prévaloir la sécurité des citoyens sur les intérêts commerciaux des entreprises technologiques.
« Les lobbys de l’industrie technologique se plaignent d’une prétendue ‘incertitude réglementaire’ pour tenter d'affaiblir le règlement européen sur l’IA. Mais la première source d’incertitude n’est évidemment pas réglementaire : elle est technologique. Des systèmes d’IA avancés soumis à moins de normes techniques qu’un grille-pain sont actuellement déployés sans aucune supervision externe auprès de centaines de millions d’utilisateurs. L'AI Act et son Code de bonnes pratiques, en corrigeant cette situation dangereuse et en harmonisant les règles au sein des États membres, offrent non seulement de la certitude réglementaire, mais surtout une protection urgente et indispensable aux citoyens européens. »Charbel Raphaël Segerie, directeur exécutif du Centre pour la Sécurité de l’IA (CeSIA).
La lettre ouverte formule trois requêtes principales à l'intention de la Commission européenne :
La publication de cette ouverte intervient dans un contexte de pressions intenses de la part de plusieurs lobbys de l'industrie technologique, dont certains ont publiquement appelé à suspendre l'application du règlement en activant une clause dite « stop-the-clock », arguant que les directives d'application n'étaient pas prêtes.
Les progrès exponentiels de l’IA s’accompagnent pourtant de risques croissants. Des entreprises développant des modèles d'IA de pointe, comme OpenAI, Anthropic et Google, ont elles-mêmes reconnu que leurs nouvelles générations de modèles posaient des menaces croissantes, en particulier dans le domaine critique des risques cybernétiques, biologiques, radiologiques et nucléaires (CBRN).