Notre mission
Le Centre pour la Sécurité de l'IA (CeSIA) est une organisation à but non lucratif qui œuvre à la réduction des risques liés à l'intelligence artificielle. Notre mission est de bâtir une culture de la sécurité de l'IA en France et en Europe, en proposant des solutions techniques, politiques et réglementaires adaptées aux défis majeurs que pose cette technologie.
Basés à Paris, nous concentrons nos efforts sur la France et l'Europe, régions déterminantes dans les discussions mondiales sur le futur de l'IA.
Notre stratégie
Notre stratégie s'appuie sur quatre piliers :
- Formation académique : Nous dispensons la première formation universitaire d'Europe sur la sécurité de l'IA à l'ENS Ulm et à l'Université Paris-Saclay. Nous animons également les bootcamps internationaux ML4Good en partenariat avec Erasmus+ et développons un MOOC avec l'ENS Paris-Saclay.
- Recherche et développement : Nous éditons le AI Safety Atlas, un manuel en ligne de référence sur la sécurité de l'IA. Nous développons un outil d'évaluation (benchmark BELLS) pour tester la robustesse des systèmes de sécurité des IA et nous contribuons au cadrage théorique des systèmes d'alerte (théorie des warning shots).
- Plaidoyer institutionnel : Nous collaborons avec des institutions clés comme l'UE et l'OCDE, des initiatives de gouvernance internationale (PMIA), les organismes réglementaires français (ANSSI, LNE) et des entreprises technologiques (Mozilla, MistralAI) pour favoriser la prise en compte des risques de l'IA dans la réglementation et les politiques publiques.
- Sensibilisation du public : Nous organisons des symposiums avec des experts de renommée mondiale, publions des tribunes, collaborons avec des Youtubeurs (atteignant jusqu'à 4 millions de vues), organisons des démonstrations interactives des risques (AI capabilities and risks demo-jam) et animons la Fresque de la sécurité de l’IA.
Notre modèle économique
Nous sommes une organisation à but non lucratif soutenue par des organisations philanthropiques et des particuliers européens et britanniques. Nous ne recevons aucun financement provenant d'entreprises privées d'IA afin de nous prémunir de tout conflit d'intérêt.
Nous avons reçu des subventions généreuses de la part des bailleurs de fonds suivants, que nous remercions chaleureusement :
- Effektiv Spenden
- Fonds d'opportunités tactiques pour la sécurité de l'IA (AISTOF)
- Longview Philanthropy
- Une fondation suédoise récemment créée
- Survival and Flourishing Fund
Certains bootcamps ML4Good ont été financés par Erasmus+, un programme d'éducation en partie financée par la Commission européenne.
L'Atlas de la sécurité de l'IA a pour principal financeur Ryan Kidd, codirecteur du programme Machine Learning Alignment & Theory Scholars (MATS) à l'Université Berkeley, via la plateforme Manifund.