Publication date: July 18th 2025
Application deadline: 3rd of August, 11:59 p.m. CET
Location: Remote, or in our Paris offices
Annual salary: €60,000 to €90,000 plus benefits, depending on experience, place of residence, and type of contract.
Mission: Translating technical AI safety insights into actionable policy & global awareness
To apply, fill out this form.
CeSIA is at the forefront of the global effort to mitigate catastrophic risks from advanced AI. We are a technical policy think tank, uniquely positioned to influence AI governance in France, across Europe, and on the world stage. In just over a year, we have established ourselves as a key partner for policymakers, shaping the EU AI Act, advising the French government and its new AI Safety Institute (INESIA), and briefing and advising the OECD and other institutions on AI safety.
We are looking for an exceptional leader to build and direct our research division. This is an opportunity to define a research agenda that directly informs policy, bridges the gap between technical AI safety and real-world governance, and helps steer humanity's most transformative technology away from catastrophe.
As the Head of Research, you will be the intellectual engine of CeSIA's technical work. You will provide the technical evidence and frameworks that ground our policy advocacy. Your primary responsibility is to develop and execute high-impact research that is both technically rigorous and directly applicable to the urgent governance challenges we face.
You will lead initiatives core to our mission, such as:
You will work with the leadership and policy teams to refine the research agenda and identify the intersection between ecosystem needs and scientific feasibility.
You will build and mentor a small research team (contingent on future funding), and have the opportunity to present your research during academic seminars and courses taught by CeSIA at ENS Ulm and ENS Paris-Saclay.
Finally, you will represent CeSIA in key technical forums and forge collaborations with leading academic institutions and AI labs.
We are seeking a candidate who combines deep technical expertise with a passion for policy and a strategic mindset.
Please submit your application here.
If you have questions or suggestions, please contact us at florent@securite-ia.fr
Annonce publiée le : 18 juillet 2025
Date limite pour postuler : 11 août 2025, 23h59 CET
Localisation : Paris
Type de contrat : CDI
Salaire annuel : entre 45 000 € et 65 000 € brut plus avantages, négociable pour les profils très expérimentés.
Pour postuler, remplissez ce formulaire.
Comment s'assurer que l’intelligence artificielle bénéficie à l'humanité sans l’exposer à des risques catastrophiques ?
Le Centre pour la Sécurité de l’IA (CeSIA) a été créé pour répondre à cette question. Nous sommes un think tank technique et politique, indépendant et à but non lucratif, dont la mission est de prévenir les risques majeurs liés au développement de l'IA. Nous conseillons les gouvernements, menons des activités de recherche et sensibilisons le grand public et les décideurs à ces enjeux fondamentaux.
En à peine plus d'un an, nous sommes devenus un acteur incontournable de l'écosystème en France et en Europe. Notre voulons faire de la sécurité de l'IA un sujet de premier plan et positionner la France et l'Europe comme des leaders d'une gouvernance responsable de l'IA.
Nos succès incluent :
La France se trouve à un moment décisif pour la gouvernance de l'IA. Alors que l'Europe se dote du règlement le plus avancé au monde avec l'AI Act, et que la France s'apprête à prendre la présidence du G7 en 2026, une fenêtre d'opportunité unique s'ouvre pour faire de notre pays un leader mondial de la sécurité de l'IA.
Cependant, un défi majeur subsiste : transformer les institutions françaises en véritables championnes de la sécurité à long terme. L'INESIA doit encore définir ses doctrines d'évaluation et affirmer son rôle. Les décideurs politiques français ont besoin d'être convaincus que la sécurité de l'IA n'est pas un frein à l'innovation, mais une priorité stratégique.
En tant que responsable des relations institutionnelles - France, votre mission sera de faire de la France une force positive pour la sécurité de l'IA, en travaillant directement avec les plus hauts niveaux de l'administration française. Vous développerez des relations de confiance avec l'INESIA, les conseillers ministériels, hauts fonctionnaires, et parlementaires pertinents pour s'assurer que la France devienne un modèle pour une gouvernance responsable de l'IA.
Plaidoyer et engagement politique (70% du temps)
Analyse et recherche (30% du temps)
Pour postuler, merci de remplir ce formulaire, en incluant votre CV et/ou profil LinkedIn.
Si vous avez des questions ou des préoccupations, n'hésitez pas à nous contacter à l’adresse suivante : florent@securite-ia.fr