Yann Le Cun

chercheur français en informatique From Wikipedia, the free encyclopedia

Yann Le Cun [ləkœ̃][1], né le à Soisy-sous-Montmorency[2], est l'ancien directeur scientifique de l'IA de Meta[3], et chercheur en intelligence artificielle et vision artificielle (robotique) franco-américain.

Faits en bref Naissance, Nom de naissance ...
Yann Le Cun
Yann Le Cun en 2025.
Biographie
Naissance
Nom de naissance
Yann Le CunVoir et modifier les données sur Wikidata
Nationalités
Formation
Activités
Autres informations
A travaillé pour
Membre de
Directeur de thèse
Maurice Milgram (d)Voir et modifier les données sur Wikidata
Site web
Distinctions
Fermer

Il est considéré comme l'un des inventeurs de l'apprentissage profond[4]. Il reçoit le prix Turing 2018, le , partagé avec Yoshua Bengio et Geoffrey Hinton.

Il estime que les LLM (de l'anglais Large Language Model) actuels sont limités car ne « comprenant » pas réellement le monde ; il juge les architectures JEPA plus prometteuses, car capables de construire des représentations internes du monde et de prédire ses évolutions.

En novembre 2025, des médias annoncent son départ de Meta, pour créer sa propre start-up, baptisée AMI (pour Advanced Machine Intelligence ou AMI Labs), axée sur la compréhension et la prédiction du monde réel[5].

Biographie

Jeunesse et études

Fils d'un ingénieur en aéronautique, Yann Le Cun est diplômé de l'ESIEE Paris en 1983. Il obtient ensuite, à l'université Pierre-et-Marie-Curie, un DEA puis un doctorat en 1987[6],[7].

Il s'oriente rapidement vers la recherche sur l'apprentissage automatique, proposant pendant sa thèse une variante de l'algorithme de rétropropagation du gradient, qui permet depuis le début des années 1980 l'apprentissage des réseaux de neurones. Il réalise son post-doctorat au sein de l'équipe de Geoffrey Hinton.

Parcours professionnel

Il travaille depuis les années 1980 sur l'apprentissage automatique (machine learning) et l'apprentissage profond (deep learning), c'est-à-dire la capacité d'un ordinateur à reconnaître des représentations (images, textes, vidéos, sons) à force de les lui montrer, de très nombreuses fois.

En 1987, il rejoint l'université de Toronto et, en 1988, les laboratoires AT&T, pour lesquels il développe des méthodes d'apprentissage supervisé[8].

Il s'intéresse ensuite à la conception des algorithmes de compression du format d'archivage DjVu[9] puis la reconnaissance automatique de chèques bancaires[8].

Il est professeur à l'université de New York où il a créé le Center for Data Sciences[10],[11]. Il travaille notamment au développement technologique des voitures autonomes[12].

Le , il est invité par Mark Zuckerberg à rejoindre Facebook pour créer et diriger le laboratoire d'intelligence artificielle FAIR (Facebook Artificial Intelligence Research) à New York, Menlo Park et, depuis 2015, à Paris, notamment pour travailler sur la reconnaissance d'images et de vidéos[10],[11]. Il avait précédemment refusé une proposition similaire de la part de Google[12].

Lors d'une conférence à l'École polytechnique en .

En 2016, il est le titulaire pour l'année de la chaire « Informatique et sciences numériques » du Collège de France[11].

En , il quitte son poste de chef de division en recherche sur l'intelligence artificielle, au profit de Jérôme Pesenti, pour devenir scientifique en chef de l'IA, toujours chez Facebook[13].

En avril 2021, il est élu à l'Académie nationale des sciences des États-Unis[14].

En 2023, il rejoint le groupe de recherche Kyutai[15],[16] créé par Xavier Niel, Rodolphe Saadé et Eric Schmidt, en tant que conseiller scientifique[17],[18].

Le 19 novembre 2025, il annonce sur Facebook son départ de Meta[19], après dix années à la tête de la recherche en intelligence artificielle du groupe, afin de fonder sa propre société consacrée à ses travaux sur les modèles du monde et une IA plus proche de l'intelligence humaine[20],[21].

Vie privée

Il a trois fils, et son frère est employé chez Google. Il a acquis la nationalité américaine[22].

Décoration

Travaux

Yann Le Cun a publié plus de 130 documents et articles, qui portaient sur la vision artificielle, les réseaux de neurones artificiels et la reconnaissance d'images (domaine dans lequel il est considéré comme un des pionniers)[24]. Il dit avoir notamment été inspiré par Jean Piaget et la théorie du constructivisme[8]. Son rôle dans la popularisation de l'apprentissage profond ne lui est pas contesté, mais il lui est reproché par quelques auteurs d'avoir soit ignoré, soit passé sous silence dans ses publications les travaux de quelques-uns de ses prédécesseurs[25].

Dans les années 1990, il a contribué à développer les réseaux neuronaux convolutifs pour la reconnaissance d'image, technologie mise en application rapidement par le Crédit mutuel de Bretagne pour la lecture optique de chèques[11].

En 2015, il estime que pour développer l'intelligence artificielle, il vaut mieux comprendre l'apprentissage profond, pour l'intégrer aux systèmes de raisonnement et de planification. Il faut aussi unifier l'apprentissage supervisé et non supervisé, à travers une règle unique d'apprentissage, inspirée du fonctionnement du cerveau où on ne distingue pas apprentissage « supervisé » ou « non supervisé » et où les réseaux de neurones naturels adaptent leurs connexions via des mécanismes relativement universels ; dans un débat avec Gary Marcus (université de New York), publié par IEEE Spectrum[26], il déclare : « ce qui manque, c'est un principe qui permettrait à nos machines d'apprendre comment fonctionne le monde par observation et interaction [...] », ajoutant qu'il espère qu'on pourra développer un principe unique d'apprentissage — ou un petit ensemble de principes — qui fonctionnerait sans avoir besoin d'une structure cognitive préprogrammée. Il faut aussi trouver une méthode plus efficace d'apprentissage non supervisé[8] ; l'intelligence artificielle n'est cependant, pour lui, pas vraiment comparable à un cerveau humain, car leurs caractéristiques diffèrent fondamentalement[27].

Depuis 2019, il consacre l'essentiel de sa recherche à l'apprentissage auto-supervisé[28]. Depuis 2022, il développe le concept d'« IA orientée objectifs » en open source[29] utilisant le modèle de prédiction I-JEPA qu'il a présenté en 2022[30] (JEPA pour Joint Embedding Predictive Architecture), concept qu'il a développé au sein de Meta, visant à améliorer la compréhension, multilingue, du monde et de ses valeurs, par des machines rendues capables d'observer directement le monde, un peu comme le font les jeunes enfants. L'intelligence artificielle construit dans ce cas des représentations internes, abstraites, des éléments essentiels des scènes qu'elle « observe », pour simuler et prédire des événements futurs, sans se soucier de détails tels que la couleur, la forme ou la position des objets s'ils apparaissent secondaires ou superficiels. Cette approche implique la construction au sein de l'intelligence artificielle d'un modèle interne décrivant le fonctionnement du monde. Ce modèle lui permettant ensuite d'apprendre, planifier et accomplir des tâches complexes plus rapidement et de s'adapter plus facilement à des changements de contextes voire à des situations inconnues, ou incertaines ou instables ou rapidement changeante. Cette approche pourrait modifier certaines applications de l'intelligence artificielle, par exemple pour la conduite autonome[31].

Chez Facebook, il travaille sur un assistant personnel intelligent pouvant lire, traduire, effectuer des réservations… de manière autonome[12].

Il a souvent réfuté les discours qu'il juge alarmistes quant à une IA superintelligente menaçant l'humanité, qu'il juge fantaisistes ou relevant de la science-fiction. En particulier, il a ouvertement critiqué Sam Altman (OpenAI), Demis Hassabis (Google DeepMind), et Dario Amodei (Anthropic), qui, selon lui, entretiennent volontairement un climat de peur dans l'opinion publique à propos de scénarios catastrophes liés à l'IA. Considérant que les systèmes actuels sont loin d'égaler l'intelligence humaine ou même animale, il insiste sur le fait que l'IA est un outil, non une entité autonome dotée de volonté.

Il milite néanmoins pour l'existence, à l'instar de Linux, d'une infrastructure ouverte d'intelligence artificielle, laquelle pourrait être promue par les gouvernements qui assureraient la fiabilité des produits dérivés[32]. Il est opposé à toute régulation de l'intelligence artificielle qu'il qualifie d'anachronisme[29] pour éviter leur concentration entre les mains de quelques grandes entreprises[32].

En 2024, il continue à plaider pour que les modèles fondamentaux soient open source, pour qu'une coopération internationale débouche sur des modèles universels comprenant toutes les langues et cultures de la Terre. En octobre de cette année, à l'université de Genève[33], il liste les défis à relever pour qu'une IA atteigne un niveau humain : entraînement massif de modèles du monde, développement d'algorithmes de planification et amélioration des architectures JEPA avec variables latentes. Il insiste sur l'importance d'affiner les bases mathématiques de l'apprentissage par l'énergie, de concevoir des systèmes de planification en contexte incertain et de bâtir des mémoires associatives à grande échelle. Il pense qu'il faut désormais abandonner les modèles génératifs au profit d'architectures intégrant perceptions et actions ; remplacer les modèles probabilistes par des modèles à base d’énergie, adaptés à l'apprentissage auto-supervisé[34] ; délaisser les méthodes contrastives pour des méthodes régularisées ; limiter l'apprentissage par renforcement au seul ajustement des modèles du monde. « Si vous vous intéressez à l'IA de niveau humain, ne travaillez pas sur les LLM », affirme-t-il, ajoutant que les JEPA sont une voie plus prometteuse[33]. Chacun disposera bientôt d'un assistant plus intelligent que lui dans certains domaines.

Opposé à une régulation qu'il juge anachronique[29], il défend devant le Conseil de sécurité de l'ONU, en décembre 2024, le principe d'une gouvernance inclusive et transparente de l'IA, rappelant que les discours catastrophistes risquent surtout de freiner l'innovation au profit de quelques acteurs dominants[33]. Il y affirme que, pour de nombreux gouvernements, il est inacceptable que le « régime numérique » de leurs citoyens soit contrôlé par une poignée d'entreprises, mais critique aussi les tentatives de régulation trop centralisées ou alarmistes, affirmant que les discours catastrophistes sur l'IA superintelligente sont infondés et risquent de freiner l'innovation au profit de quelques grandes entreprises ou États. Il insiste sur le fait que les systèmes actuels d'IA sont des outils qui n'ont ni conscience, ni volonté, ni compréhension du monde.

En 2026, avec sa start-up AMI (Advanced Machine Intelligence) ou AMI Labs, Yann Le Cun souhaite développer une « troisième révolution de l'IA » axée sur la compréhension du monde physique grâce aux « modèles du monde » - des représentations abstraites du monde, permettant aux IA de comprendre leur environnement et de prédire les conséquences de leurs actions dans le monde physique[35]. Il prévoit des applications concrètes dans l'industrie, puis des systèmes plus universels pour les robots et voitures autonomes[36].

Prises de position

Sur l'encadrement de la recherche en IA

Le 22 mars 2023, le Future of Life Institute publie une lettre ouverte signée par plus d'un millier d'experts[37],[38], appelant les principaux développeurs d'IA à s'entendre sur une pause de six mois concernant l'entraînement de tout système « plus puissant que GPT-4 » et à utiliser ce temps pour développer des protocoles de sécurité[39].

Yann Le Cun y réagit dans un entretien donné à France Inter le 12 avril 2023. Interrogé sur sa comparaison des signataires de la lettre à l'Église catholique du XVe siècle, il répond en comparant les progrès actuels de la recherche en IA à l'invention de l'imprimerie qui, comme celle-ci, pourraient apporter une « nouvelle renaissance, une nouvelle phase de développement humain. » D'après lui, les sociétés prennent « un énorme risque à limiter l'utilisation de ces technologies », ce qui pourrait les mener au déclin, et elles devraient plutôt accélérer la recherche en IA[40],[41].

« Maintenant, est-ce qu'il faut aussi limiter la recherche et le développement ? C'est là que je suis en désaccord avec les signataires de cette lettre, de ce moratoire de six mois. D'abord, parce que je pense que c'est une très mauvaise idée, une espèce de nouvel obscurantisme. En fait, il faut plutôt accélérer les recherches scientifiques, si on veut pouvoir construire des systèmes d'IA bénéfiques pour l'Humanité en général[40]. »

Sur les risques et dangers liés aux IA

Le 14 juin 2023, le journal Les Échos retranscrit un débat entre Yann Le Cun et le chercheur Yoshua Bengio[42], spécialiste en intelligence artificielle et fondateur de Mila.

Concernant les risques affectant les démocraties, dont le danger de manipulation de l'opinion par des IA inquiète Yoshua Bengio, Le Cun affirme que « les tentatives de corrompre les processus démocratiques, d'influencer l'opinion ou de faire de la désinformation ne sont pas des problèmes nouveaux. » Selon lui, les intelligences artificielles n'amplifieraient pas ces problèmes, mais en seraient des solutions[42] :

« Des systèmes de protection ont été mis en place depuis les tentatives de dévoiement de l'élection présidentielle américaine par les Russes en 2016. Aujourd'hui, il y a des équipes de chercheurs qui travaillent sur ces dispositifs, en particulier chez Meta, Google ou YouTube, pour limiter la création de faux comptes et la diffusion de désinformations ou de messages haineux. On dispose de contre-mesures, qui précisément sont basées sur l'IA[42]. »

Dans une interview donnée au magazine Wired, le 22 décembre 2023, il affirme que les intelligences artificielles apporteront de nombreux bénéfices dans le monde, mais que certaines personnes s'emploient à exploiter la peur du public envers ces technologies[43] :

« Certains cherchent à attirer l'attention, d'autres sont naïfs sur ce qui se passe réellement aujourd'hui. Ils ne réalisent pas que l'IA atténue les dangers tels que les discours haineux, la désinformation, les tentatives des propagandistes de corrompre le système électoral. Chez Meta, nous avons fait d'énormes progrès en utilisant l'IA pour ce genre de choses. Il y a cinq ans, sur l'ensemble des discours haineux que Facebook supprimait de sa plateforme, environ 20 à 25 % étaient supprimés de manière préventive par des systèmes d'IA avant que quiconque ne les voie. L'année dernière, ce pourcentage était de 95 %[44]. »

 "How Not to Be Stupid About AI"[43]

Distinctions

Prix et récompenses

Académies, institutions

Doctorats honoris causa

Hommages

Publications

Notes et références

Annexes

Related Articles

Wikiwand AI