Annonce publiée le 19 juillet 2024.
Localisation : Paris
Type de contrat : CDD de 12 mois, possibilité de CDI
Salaire annuel : entre 40 000 € et 55 000 € brut selon expérience
BELLS (Benchmarks for the Evaluation of LLM Safeguards) est un projet visant à évaluer la fiabilité et la généralité des systèmes de supervision (input-output safeguard en anglais) pour les grands modèles de langage (LLMs). Ces systèmes sont chargés d’analyser les entrées et sorties de LLM en opération pour détecter des comportements critiques : hallucinations dans la réponse, tentative de jailbreak de l’utilisateur, ou encore mobilisation de capacité dangereuse (hacking, etc.).
De nombreux produits sont disponibles pour remplir certains de ces besoins, mais il n’existe pas encore de méthodologie pour les évaluer.
Le projet BELLS vise à établir un système d’évaluation indépendant, pour répondre à trois besoins critiques :
Nous collaborons avec une diversité d’acteurs pour assurer une pertinence industrielle et académique de nos travaux. Nous travaillons actuellement avec Vincent Corruble, maître de conférences à Sorbonne Université, et Giskard, une startup spécialisée dans les tests d’applications IA.
Pour plus de détails, vous pouvez consulter :
1. Contribuer au développement du projet BELLS :
2. Assurer l’implémentation opérationnelle du projet BELLS
3. Éventuellement soutenir ponctuellement les autres projets techniques du CeSIA, notamment sur des démonstrations et prototypes.
Compétences techniques :
Qualités :
Le CeSIA est une initiative lancée et incubée par EffiSciences, qui vise à promouvoir un développement responsable de l'IA à travers des actions de sensibilisation, de la R&D, et du soutien aux acteurs de l’écosystème de l’IA.
Échantillon de notre track-record :
- Notre première publication sur le projet BELLS a été acceptée au workshop NextGen AI Safety de ICML 2024. Nous avons aussi présenté le projet lors de la conférence AI_Dev organisée par la Linux Foundation.
- Plus de 1000 étudiants ont participé à nos événements et formations, dont plus de 30 ont ensuite dirigé leur carrière vers la sécurité de l’IA.
- Enseignement de 4 cours accrédités à l’ENS : deux programmes sur la sécurité de l'IA ; un programme sur la biosécurité ; un programme sur la recherche impliquée.
Pour postuler, merci de remplir ce formulaire avant le 11 août au soir.
Nous évaluerons les candidatures au fur et à mesure. L'étape suivante consistera en un entretien de 30 minutes.
Si vous avez des questions ou des préoccupations, n'hésitez pas à nous contacter à florent@securite-ia.fr