À propos du CeSIA
Le Centre pour la Sécurité de l'IA (CeSIA) est un think tank technique, indépendant et à but non lucratif, spécialisé dans l'analyse et la prévention des risques liés au développement de l'intelligence artificielle. Notre organisation conseille les institutions publiques, mène des travaux de recherche appliquée et développe l'expertise française et européenne sur les enjeux de gouvernance de l'IA.
Le CeSIA travaille en étroite collaboration avec des institutions de référence telles que l'OCDE et l'INESIA (Institut national pour la sécurité de l'IA) et conseille diverses autorités publiques nationales et européennes.
Nos domaines d'expertise :
- Conseil institutionnel : Accompagnement des décideurs publics dans l'élaboration de stratégies de gouvernance de l'IA
- Recherche appliquée : Production d'analyses techniques sur les risques émergents
- Formation et sensibilisation : Développement de programmes pédagogiques, notamment à travers notre manuel de référence sur la sécurité de l'IA et nos cours dispensés dans des établissements tels que l'ENS Paris
- Communication : Interface avec les médias et le grand public sur les enjeux de sécurité de l'IA
Le rôle
La France se trouve à un moment décisif pour la gouvernance de l'IA. Alors que l'Europe se dote du règlement le plus avancé au monde avec l'AI Act, et que la France s'apprête à prendre la présidence du G7 en 2026, une fenêtre d'opportunité unique s'ouvre pour faire de notre pays un leader mondial de la sécurité de l'IA.
Cependant, un défi majeur subsiste : transformer les institutions françaises en véritables championnes de la sécurité à long terme. L'INESIA doit encore définir ses doctrines d'évaluation et affirmer son rôle. Les décideurs politiques doivent réaliser que la sécurité de l'IA est moins un obstacle qu'un prérequis à l'innovation.
En tant que responsable des relations institutionnelles - France, votre mission sera de faire de la France une force positive pour la sécurité de l'IA en défendant les priorités du CeSIA avec et auprès d'institutions publiques.
Responsabilités clés
Plaidoyer et engagement politique (70% du temps)
- Développer et maintenir des relations de confiance avec les hauts fonctionnaires, conseillers ministériels, parlementaires, et organisations internationales (comme l’OCDE) pertinentes
- Organiser et participer à des réunions de haut niveau et se coordonner avec d’autres organisations de la société civile pour défendre nos recommandations sur la sécurité de l'IA
- Conseiller l’Institut National pour l'Évaluation et la Sécurité de l’IA sur le développement de ses doctrines d'évaluation et s'assurer qu'elle devienne une institution robuste axée sur la sécurité
- Contribuer à la stratégie française pour la présidence du G7 en intégrant les préoccupations de sécurité à long terme
Analyse et recherche (30% du temps)
- Mener des analyses approfondies des politiques publiques françaises liées à la gouvernance et à la sécurité de l'IA
- Cartographier et analyser les parties prenantes clés du paysage politique français en matière d'IA
- Préparer des briefings stratégiques, des notes de position et des présentations pour les décideurs
Qualifications requises
- Diplôme dans un domaine pertinent tel que les politiques publiques, les relations internationales, le droit ou sciences politiques
- 5-10 ans d'expérience en plaidoyer, relations institutionnelles ou analyse des politiques publiques, de préférence dans des domaines liés à la technologie ou à l'IA
- Solides compétences analytiques et de recherche, et capacité de synthétiser de façon claire des informations complexes
- Intérêt démontré pour les questions d'éthique, de sécurité et de gouvernance de l'IA
- Compétences en français (parlé et écrit) obligatoires
Qualifications souhaitables
- Réseau établi dans l'administration française (hauts fonctionnaires, conseillers ministériels, etc)
- Connaissance du système politique et administratif français
- Connaissance des normes de gestion des risques de l'IA et d'évaluation des modèles
- Familiarité avec les principales initiatives françaises et européennes en matière d'IA
- Expérience de travail dans ou avec des ONG, des think tanks ou des institutions gouvernementales
Ce que nous offrons
- L'opportunité de transformer la position française sur la sécurité de l'IA avec un impact mondial
- Un rôle central dans le soutien aux décideurs politiques pendant une période critique pour la gouvernance de l'IA
- Un environnement de travail collaboratif et intellectuellement stimulant
- Flexibilité pour travailler à distance avec des déplacements occasionnels pour des réunions de haut niveau
- Salaire : 45 000€ à 65 000€ brut annuel plus avantages, selon l'expérience et le type de contrat
- Opportunités de développement professionnel et exposition aux réseaux internationaux dans la politique de l'IA
Comment candidater
Pour postuler, merci de remplir ce formulaire, en incluant votre CV et/ou profil LinkedIn.
Processus d'évaluation
- Candidature
- Court test de travail (500 mots lié à la gouvernance de l'IA en France)
- Entretien avec le directeur des opérations et le responsable des affaires publiques
- Entretien avec le directeur exécutif et un membre de notre conseil d'administration
Si vous avez des questions ou des préoccupations, n'hésitez pas à nous contacter à l’adresse suivante : florent@securite-ia.fr
Parrainage
Vous connaissez la personne idéale pour ce poste ? Nous offrons la somme de 1000€ pour toute recommandation qui aboutit à une embauche. Pour cela, le/la candidat(e) que vous recommandez doit simplement cocher la case "J'ai été coopté(e)" et indiquer votre nom complet lors de sa candidature sur notre formulaire Airtable. Le bonus est versé après la validation de la période d'essai (90 jours) du candidat embauché. L'offre est valable pour les candidats n'ayant pas postulé au CeSIA depuis 6 mois.