Eliezer Yudkowsky

From Wikipedia, the free encyclopedia

Naissance
Nom de naissance
Eliezer Shlomo YudkowskyVoir et modifier les données sur Wikidata
Nationalité
Eliezer Yudkowsky
Eliezer Yudkowsky au Singularity Summit (en) de Stanford en 2006.
Biographie
Naissance
Nom de naissance
Eliezer Shlomo YudkowskyVoir et modifier les données sur Wikidata
Nationalité
Activités
Autres informations
A travaillé pour
Mouvement
Influencé par
Site web
Œuvres principales

Eliezer Shlomo Yudkowsky (né le ) est un blogueur et écrivain américain, créateur et promoteur du concept d'intelligence artificielle « amicale »[1].

Il doit en partie sa notoriété au succès de sa fanfiction Harry Potter et les Méthodes de la rationalité, inspirée de l'univers de Harry Potter, qui illustre des concepts venus des sciences cognitives et des théories de la rationalité.

Eliezer Yudkowsky est né en 1979 dans une famille juive orthodoxe. Il ne va pas au lycée et se forme en autodidacte[2]. Il a obtenu un score parfait de 1600 au SAT[3], l'examen standardisé utilisé pour l'admission aux universités des États-Unis, étant ainsi l'un des 300 étudiants avec un score parfait sur les 1,7 million qui passent l'examen chaque année. Il choisit ensuite de créer le Singularity Institute for Artificial Intelligence (aujourd'hui Machine Intelligence Research Institute) et de commencer directement ses recherches en intelligence artificielle sans étudier à l'université.

Il habite près de Berkeley, dans la région de la baie de San Francisco (San Francisco Bay Area).

Travaux

Yudkowsky se concentre sur la rationalité et l'intelligence artificielle[1], abordant des sujets tels que l'amélioration récursive (en), la théorie de la décision appliquée à des structures de motivation stables, et l'intelligence artificielle amicale[4]:420. Ses travaux les plus récents portent sur les applications au paradoxe de Newcomb et à des problèmes analogues.

Yudkowsky a été, avec Robin Hanson, l'un des principaux contributeurs du blog Overcoming Bias[5], lequel a reçu le parrainage du Future of Humanity Institute de l'université d'Oxford. En , il a aidé à fonder LessWrong[6], un « blog collectif dédié à l'amélioration des outils de la rationalité »[2]:37. LessWrong a reçu une critique détaillée dans Business Insider[7], et les concepts centraux en ont été analysés dans des articles du Guardian[8],[9]. D'autre part, LessWrong a été mentionné dans des articles traitant de la singularité technologique et des travaux du Machine Intelligence Research Institute[10], ainsi que dans des articles sur des mouvements monarchistes et néo-réactionnaires en ligne[11].

Yudkowsky contribue à deux chapitres[12] de Global Catastrophic Risks, un ouvrage publié par Nick Bostrom (philosophe à l'université d'Oxford) et Milan Ćirković[13].

Fanfiction

Yudkowsky a aussi écrit plusieurs ouvrages de science-fiction ainsi que des textes moins classables[14]. Sa vaste fanfiction, Harry Potter et les Méthodes de la rationalité, illustre des concepts venus des sciences cognitives et des théories de la rationalité[2]:37,[15],[16],[17],[18],[19],[20],[21] ; The New Yorker l'a décrite comme « une réécriture de l'histoire originale montrant Harry cherchant à expliquer la sorcellerie à l'aide de la méthode scientifique »[22].

Interventions publiques

En , Eliezer Yudkowsky signe une tribune dans le Time dans laquelle il appelle à la fermeture définitive des fermes d’élevage où les intelligences artificielles sont cultivées et entraînées[23],[24].

Le , interrogé par le Gardian qui le présente comme un « néo-luddite », Yudkowsky témoigne de son inquiétude que les développements de l'intelligence artificielle provoquent à très court terme la disparition de l'humanité, « Cela pourrait mettre deux ans, cela pourrait en mettre dix » affirme-t-il[23],[25].

Notes et références

Publications

Voir aussi

Références

Liens externes

Related Articles

Wikiwand AI