Perroquet stochastique

From Wikipedia, the free encyclopedia

Dans le domaine de l'apprentissage automatique (ou machine learning), le terme perroquet stochastique est une métaphore, introduite par Emily Bender et ses collègues dans un article de 2021, qui présente les grands modèles linguistiques comme des systèmes qui assemblent de manière aléatoire des formes linguistiques à partir d’un vaste corpus d’entraînement, sans modélisation explicite du sens ou de l’intention[1],[2].

Licenciement de Gebru par Google

Le terme a été utilisé pour la première fois dans l'article « On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? » de Bender, Timnit Gebru, Angelina McMillan-Major et Margaret Mitchell (sous le pseudonyme « Shmargaret Shmitchell »)[1],[2]. Les autrices y soutiennent que les grands modèles de langage (LLM) présentent des dangers tels que des coûts environnementaux et financiers élevés, et une opacité qui rend difficiles à détecter leurs biais potentiellement dangereux. Elles affirment également que ces modèles sont incapables de comprendre les concepts sous-jacents à ce qu’ils apprennent[3].

Le mot « stochastique »  du grec ancien "στοχαστικός" ( stokhastikos, "basé sur des suppositions")  est un terme issu de la théorie des probabilités signifiant « déterminé aléatoirement »[2]. Le mot « perroquet » fait référence à la capacité des perroquets à imiter le langage humain, sans en comprendre le sens[2].

Dans leur article, Bender et al. soutiennent que les LLM relient de manière probabiliste des mots et des phrases sans tenir compte du sens. Par conséquent, ils sont qualifiés de simples « perroquets stochastiques »[1]. Selon les spécialistes de l'apprentissage automatique Lindholm, Wahlström, Lindsten et Schön, cette analogie met en évidence deux limites essentielles[4],[5] :

  • Les grands modèles de langage (LLMs) sont limités par les données sur lesquelles ils ont été entraînés et se contentent de répéter de manière stochastique le contenu de ces corpus.
  • Comme ils génèrent des sorties à partir de leurs données d’entraînement, les grands modèles de langage (LLMs) ne savent pas s’ils produisent des contenus incorrects ou inappropriés.

Lindholm et al. ont souligné que, lorsqu’un système d’apprentissage est entraîné sur des jeux de données de mauvaise qualité ou confronté à d’autres limitations, il peut produire des résultats « dangereusement erronés »[4].

À la suite d'une revue interne, Google a demandé à Timnit Gebru de retirer l’article ou d’en supprimer les noms des employés de l’entreprise. En réponse, Gebru a formulé des exigences, parmi lesquelles la divulgation des commentaires des évaluateurs internes, faute de quoi elle quitterait l'entreprise. Google a décliné. Peu après, elle a reçu un email indiquant que l’entreprise « acceptait sa démission », bien qu’elle n’ait pas officiellement démissionné. Cet événement a provoqué une vague de protestation parmi les employés de Google, qui y ont vu une tentative de censure des travaux critiques sur l’IA[6].

Usage

Notes et références

Voir aussi

Related Articles

Wikiwand AI