Jan Leike

chercheur en sécurité de l'IA

Jan Leike est un chercheur en alignement des intelligences artificielles qui a travaillé chez DeepMind et OpenAI. Il rejoint Anthropic en mai 2024.

Jan Leike
une illustration sous licence libre serait bienvenue
Biographie
Activité
Autres informations
A travaillé pour
Site web

Éducation

modifier

Jan Leike obtient son diplôme de premier cycle à l'université de Fribourg-en-Brisgau, en Allemagne. Après avoir obtenu une maîtrise en informatique, il obtient un doctorat en apprentissage automatique à l'université nationale australienne sous la direction de Marcus Hutter[1].

Carrière

modifier

Jan Leike effectue un stage postdoctoral de six mois au Future of Humanity Institute avant de rejoindre DeepMind pour se concentrer sur la recherche empirique en sûreté des intelligences artificielles[1], où il collabore avec Shane Legg[2].

En 2021, Leike rejoint OpenAI[2]. En juin 2023, lui et Ilya Sutskever deviennent co-dirigeants du nouveau projet de « superalignement », qui vise à déterminer comment aligner les futures superintelligences artificielles en quatre ans afin d'assurer leur sécurité. Ce projet implique l'automatisation de la recherche sur l'alignement de l'IA en utilisant des systèmes d'IA relativement avancés. Sutskever est le scientifique en chef d'OpenAI, et Leike le responsable de l'alignement[3],[2]. Leike figure dans le Time 100/AI 2023, une liste des 100 personnalités les plus influentes du domaine de l'intelligence artificielle[2]. En mai 2024, Leike annonce sa démission d'OpenAI, suite au départ d'Ilya Sutskever, Daniel Kokotajlo et de plusieurs autres employés d'OpenAI en sûreté de l'IA. Leike écrit que « Ces dernières années, la culture et les processus de sécurité ont été relégués au second plan au profit de produits brillants », et qu'il avait « progressivement perdu confiance » dans l'équipe de direction d'OpenAI[4],[5],[6].

En mai 2024, Leike rejoint Anthropic, une entreprise d'IA fondée par d'anciens employés d'OpenAI[7].

Références

modifier
  1. a et b (en) « An AI safety researcher on how to become an AI safety researcher », sur 80,000 Hours (consulté le )
  2. a b c et d (en) « TIME100 AI 2023: Jan Leike », sur Time, (consulté le )
  3. (en) Jan Leike et Ilya Sutskever, « Introducing Superalignment », sur OpenAI,
  4. (en) Sigal Samuel, « "I lost trust": Why the OpenAI team in charge of safeguarding humanity imploded », sur Vox, (consulté le )
  5. (en) Matthias Bastian, « OpenAI's AI safety teams lost at least seven researchers in recent months », sur the decoder, (consulté le )
  6. (en) Dan Milmo et Dan Milmo, « OpenAI putting ‘shiny products’ above safety, says departing researcher », The Guardian,‎ (ISSN 0029-7712, lire en ligne, consulté le )
  7. (en) Kylie Robison, « OpenAI researcher who resigned over safety concerns joins Anthropic », sur The Verge,

Liens externes

modifier