Kenneth Colby

psychiatre américain From Wikipedia, the free encyclopedia

Kenneth Mark Colby (né vers 1920 – décédé le 20 avril 2001) est un psychiatre américain qui se consacre à la théorie et à l’application de l’informatique et de l’intelligence artificielle en psychiatrie[1]. Colby est un pionnier dans l’utilisation de l’ordinateur comme outil pour comprendre les fonctions cognitives et pour assister à la fois les patients et les médecins dans le processus thérapeutique. Il est surtout connu pour avoir développé un programme informatique appelé PARRY, qui simule le comportement d’une personne atteinte de schizophrénie paranoïde et peut «dialoguer» avec des interlocuteurs humains. PARRY suscite un débat majeur sur la possibilité et la nature de l’intelligence artificielle[2].

Naissance
Décès
Nationalité
Formation
Université Yale (bachelier) (jusqu'en )
École de médecine de Yale (en) (jusqu'en )Voir et modifier les données sur Wikidata
Faits en bref Naissance, Décès ...
Kenneth Colby
une illustration sous licence libre serait bienvenue
Biographie
Naissance
Décès
Nationalité
Formation
Université Yale (bachelier) (jusqu'en )
École de médecine de Yale (en) (jusqu'en )Voir et modifier les données sur Wikidata
Activités
Autres informations
A travaillé pour
Fermer

Jeunesse et formation

Colby naît à Waterbury, dans le Connecticut, en 1920. Il est diplômé de l’université Yale en 1941 et obtient son doctorat en médecine à la faculté de médecine de Yale en 1943[3].

Carrière

Colby commence sa carrière en psychanalyse en tant qu’attaché clinique au San Francisco Psychoanalytic Institute en 1951. Durant cette période, il publie A Primer for Psychotherapists, une introduction à la psychothérapie psychodynamique. Au début des années 1960, il rejoint le département d’informatique de l’université Stanford et entame ses travaux pionniers dans le domaine alors émergent de l’intelligence artificielle.

En 1967, le National Institute of Mental Health reconnaît le potentiel de ses recherches en lui attribuant une bourse de recherche. En 1974, Colby rejoint l’UCLA comme professeur de psychiatrie et obtient quelques années plus tard une double nomination au département d’informatique. Tout au long de sa carrière, il publie de nombreux ouvrages et articles en psychiatrie, psychologie, psychothérapie et intelligence artificielle[3].

Psychanalyse

Au début de sa carrière, en 1955, Colby publie Energy and Structure in Psychoanalysis, un ouvrage qui vise à aligner les doctrines fondamentales de Freud avec les concepts modernes de la physique et de la philosophie des sciences[4]. Cet ouvrage constitue toutefois l’une des dernières tentatives de Colby pour concilier la psychanalyse avec ce qu’il considère comme les avancées majeures des sciences et de la pensée philosophique.

La méthode freudienne repose sur une «herméneutique du soupçon», c’est-à-dire une approche qui refuse de prendre le sujet au mot concernant ses processus mentaux internes. Freud propose des explications de l’état psychique d’un patient indépendamment de l’accord de celui-ci. Si le patient n’adhère pas à ces explications, cela signifie, selon Freud, qu’il refoule la vérité — une vérité que seul le psychanalyste est en mesure de révéler. Cette autorité accordée au psychanalyste pour juger de la nature ou de la validité de l’état mental du patient, ainsi que l’absence de vérification empirique de ces jugements, sont inacceptables pour Colby[4].

Le désenchantement de Colby à l’égard de la psychanalyse s’exprime plus clairement encore dans plusieurs publications, notamment dans son livre de 1958, A Skeptical Psychoanalyst. Il critique vigoureusement la psychanalyse pour son incapacité à satisfaire l’exigence la plus fondamentale d’une science: la production de données fiables[5]. Dans son ouvrage de 1983, Fundamental Crisis in Psychiatry, il écrit:

«Les comptes rendus cliniques sont des mélanges de faits, de fabulations et de fictions si étroitement entremêlés qu’il est impossible de distinguer où l’un commence et où l’autre se termine. (…) Nous ne savons jamais comment ces rapports se rattachent aux événements qui se produisent réellement durant les séances de traitement; ils ne peuvent donc pas être considérés comme des données scientifiques acceptables.»[6]

De même, dans Cognitive Science and Psychoanalysis, il affirme:

«En soutenant que la psychanalyse n’est pas une science, nous montrons que peu de chercheurs vont au fond de la question. La plupart commencent par accepter — comme le font les théoriciens de la psychanalyse — que les rapports sur ce qui se passe en thérapie psychanalytique, principale source de données, sont factuels, puis proposent leurs interprétations théoriques. Nous, au contraire, remettons en question le statut même de ces faits.»[7]

Ces positions structurent durablement son approche de la psychiatrie et orientent l’ensemble de ses travaux de recherche.

Informatique

Dans les années 1960, Colby commence à réfléchir aux façons dont les théories et les applications informatiques peuvent contribuer à comprendre le fonctionnement du cerveau et les troubles mentaux. Un de ses premiers projets porte sur une prothèse vocale intelligente, qui permet à des personnes souffrant d’aphasie de «parler» en les aidant à rechercher et à formuler des mots à partir des indices phonémiques ou sémantiques qu’elles parviennent à produire[3].

Par la suite, Colby fait partie des tout premiers à explorer les possibilités d’une psychothérapie assistée par ordinateur. En 1989, avec son fils Peter Colby, il fonde l’entreprise Malibu Artificial Intelligence Works afin de développer et de commercialiser une version en langage naturel de la thérapie cognitivo-comportementale destinée à traiter la dépression, appelée Overcoming Depression. Overcoming Depression est ensuite utilisé comme programme d’apprentissage thérapeutique par la marine américaine et le Department of Veterans Affairs. Il est distribué à des personnes qui l’utilisent sans supervision d’un psychiatre. Colby déclare: «l’ordinateur ne s’épuise pas, ne vous juge pas, et n’essaie pas de coucher avec vous.»[8]

Intelligence artificielle

Dans les années 1960, à l’université Stanford, Colby se lance dans la création de programmes appelés chatbots (alors souvent désignés comme chatterbots), qui simulent une conversation avec des humains. À l’époque, un chatbot bien connu est ELIZA, un programme créé par Joseph Weizenbaum en 1966 pour parodier un psychologue. ELIZA, selon Weizenbaum lui-même, est conçu davantage comme un outil d’analyse et de traitement du langage que comme une démonstration d’intelligence humaine. Nommé d’après le personnage d’Eliza Doolittle dans la pièce Pygmalion de George Bernard Shaw. Il s’agit du premier programme conversationnel: il est conçu pour imiter un psychothérapeute qui pose des questions plutôt que de donner des conseils. Il donne l’impression de répondre de manière cohérente, même s’il peut facilement dériver vers des réponses confuses et absurdes[9].

En 1972, au Stanford Artificial Intelligence Laboratory, Colby reprend l’idée d’ELIZA et crée un programme en langage naturel appelé PARRY, qui simule la pensée d’une personne paranoïaque. Cette pensée repose sur une mauvaise interprétation systématique des intentions d’autrui: les autres «préparent forcément quelque chose», cachent des motivations dangereuses, ou leurs questions sur certains sujets doivent être évitées ou détournées. Le chatbot PARRY y parvient grâce à un système complexe d’hypothèses, d’attributions et de «réponses émotionnelles», déclenchées par des pondérations qui varient en fonction des entrées verbales[10].

PARRY: un modèle informatique de paranoïa

L’objectif de Colby en concevant PARRY est autant pratique que théorique. Il voit PARRY comme un système d’apprentissage destiné à entraîner des étudiants avant de les confronter à de vrais patients[8]. La conception de PARRY s’appuie sur les théories de Colby à propos de la paranoïa. Colby décrit la paranoïa comme une forme dégradée de traitement symbolique, dans laquelle les propos du patient «sont produits par une structure organisée de règles sous-jacente, et non par une variété de défaillances mécaniques aléatoires et sans lien»[6]. Pour Colby, cette structure sous-jacente correspond à un algorithme, comparable à un ensemble de processus ou de procédures informatiques, auquel on peut accéder et que l’on peut reprogrammer.

Peu après son introduction, PARRY suscite de vifs débats et une forte controverse sur la possibilité et la nature de l’intelligence artificielle[11]. PARRY est l'un des premiers programme à prétendre réussir le test de Turing, Ce test, nommé d’après le mathématicien britannique Alan Turing, propose que si un ordinateur peut se faire passer pour un humain au cours d’une conversation écrite, on peut le qualifier d’intelligent.

Comme l’écrit le philosophe Daniel Dennett dans Alan Turing: Life and Legacy of a Great Thinker:

"À ma connaissance, la seule tentative sérieuse et intéressante menée par un concepteur de programme pour réussir un test de Turing, même très modifié, est celle de Kenneth Colby. Il fait interviewer PARRY par de vrais psychiatres. Il ne leur suggère pas qu’ils parlent (ou tapent) avec un ordinateur; au contraire, il invente une explication plausible expliquant pourquoi ils communiquent avec un patient réel via un téléscripteur. Il prend ensuite la transcription de PARRY, l’insère dans un ensemble d’autres transcriptions, puis les remet à un autre groupe d’experts — encore des psychiatres — en disant: «L’une de ces conversations est avec un ordinateur. Pouvez-vous dire laquelle ? » Ils n’y arrivent pas.[12]"

Une grande partie des critiques adressées à ELIZA comme modèle d’IA porte sur l’absence, dans le programme, d’un modèle interne du monde permettant d’influencer et de suivre le fil de la conversation. PARRY, lui, simule un comportement paranoïaque en suivant son propre état interne (notamment émotionnel) selon plusieurs dimensions. Pour illustrer ce point, Colby crée un autre programme, RANDOM-PARRY, qui choisit ses réponses au hasard. Les réponses de RANDOM-PARRY reproduisent moins bien celles de patients humains que celles de PARRY «standard». Certains avancent que PARRY trompe ses évaluateurs parce que, dans un comportement paranoïaque, des réponses inappropriées ou des non sequiturs peuvent paraître plausibles. Mais ces réponses gardent malgré tout une certaine logique, que PARRY parvient à simuler efficacement. Simuler la paranoïa est peut-être plus simple que d’autres comportements, mais ce n’est pas pour autant trivial[13].

Plusieurs articles réproduisent des dialogues entre les deux programmes ELIZA et PARRY, chacun exécutant ses propres règles[14],[15]. Un échange ressemble à ceci:

PARRY: Je sais que la pègre contrôle les gros trafics.

ELIZA: De qui parlez-vous vraiment ?

PARRY: Avez-vous déjà vraiment réfléchi à la Mafia ?

ELIZA: Supposons que vous ayez vraiment réfléchi à la Mafia ?

PARRY: Parlons d’autre chose.

ELIZA: Je ne suis pas sûr de vous comprendre entièrement.

PARRY: Vous me posez toujours les mêmes questions, pourquoi ne pas changer de sujet ?

ELIZA: De quelle manière ?[14]

Colby affirme que PARRY imite le processus «naturel» par lequel une personne atteinte de schizophrénie paranoïde entre en conversation. La structure du programme qui prend les décisions linguistiques dans PARRY est isomorphe à la «structure profonde» de l’esprit paranoïaque. Comme l’écrit Colby: «Puisque nous ne connaissons pas la structure des processus simulés “réels” utilisés par l’esprit-cerveau, la structure que nous postulons constitue un analogue théorique imaginé, une organisation possible et plausible de processus, analogue aux processus inconnus, et une tentative d’expliquer leur fonctionnement»[6].

Cependant, certains critiques expriment la crainte que le programme ne «comprenne» pas réellement comme un humain comprend, et soutiennent que les réponses idiosyncratiques, partielles et très personnelles de PARRY masquent ses limites[16]Colby tente de répondre à ces critiques (et à d’autres) dans une publication de 1974 intitulée «Ten Criticisms of PARRY»[11].

Colby soulève aussi ses propres préoccupations éthiques concernant l’application de ses travaux dans des situations réelles. En 1984, il écrit en substance que, compte tenu de l’attention médiatique portée à l’IA, il est naïf de croire que le public ne cherchera pas à examiner, surveiller, réglementer, voire limiter ces efforts; ce que les chercheurs font peut affecter la vie des gens, et la société demandera non seulement ce qui est fait, mais aussi si cela doit être fait. Il appelle à se préparer à participer à une discussion et à un débat ouverts sur ces enjeux éthiques[17].

Malgré tout, PARRY résiste à l’épreuve du temps et reste, pendant de nombreuses années, reconnu par des chercheurs en informatique pour ses résultats. Dans une revue de 1999 consacrée à la conversation humain-machine, Yorick Wilks et Roberta Catizone (Université de Sheffield) notent que la meilleure performance globale en conversation humain-machine est très probablement celle de PARRY depuis sa diffusion sur le réseau vers 1973. Le programme est robuste, ne «plante» pas, a toujours quelque chose à répondre et, comme il est conçu pour modéliser un comportement paranoïaque, ses incompréhensions les plus étranges peuvent être interprétées comme des signes supplémentaires de trouble mental plutôt que comme de simples erreurs de traitement[18].

Autres domaines d’étude

Au cours de sa carrière, Colby s’intéresse à d’autres thèmes, notamment la classification des rêves dans des «tribus primitives». Ses résultats publié en 1963, suggèrent que les hommes et les femmes de ces groupes diffèrent dans leur vie onirique, et que ces différences peuvent fournir une base empirique à nos constructions théoriques de la masculinité et de la féminité[19].

Colby est aussi joueur d’échecs et publie un ouvrage reconnu intitulé Secrets of a Grandpatzer[3]. Le livre se concentre sur l’amélioration du classement Elo d'un joueur, d’un niveau moyen vers un niveau très solide entre 1700 et 2200 Elo[20].

Livres

  • (1951) A Primer for Psychotherapists. (ISBN 978-0826020901)[21]
  • (1955) Energy and Structure in Psychoanalysis[4]
  • (1957) An exchange of views on psychic energy and psychoanalysis.
  • (1958) A Skeptical Psychoanalyst.
  • (1960) Introduction to Psychoanalytic Research
  • (1973) Computer Models of Thought and Language.
  • (1975) Artificial Paranoia : A Computer Simulation of Paranoid Processes (ISBN 9780080181622)[6]
  • (1979) Secrets of a Grandpatzer: How to Beat Most People and Computers at Chess (ISBN 9784871878876[6])
  • (1983) Fundamental Crisis in Psychiatry: Unreliability of Diagnosis (ISBN 9780398047887)[6]
  • (1988) Cognitive Science and Psychoanalysis (ISBN 9780805801774)[7]

Publications

  • "Sex Differences in Dreams of Primitive Tribes" American Anthropologist, New Series, Vol. 65, No. 5, Selected Papers in Method and Technique (Oct., 1963), pp. 1116–1122
  • "Computer Simulation of Change in Personal Belief Systems." Behavioral Science, 12 (1967), pp. 248–253
  • "Dialogues Between Humans and an Artificial Belief System." IJCAI (1969), pp. 319–324
  • "Experiments with a Search Algorithm for the Data Base of a Human Belief System." IJCAI (1969), pp. 649–654
  • "Artificial Paranoia." Artif. Intell. 2(1) (1971), pp. 1–25
  • "Turing-like Indistinguishability Tests for the Validation of a Computer Simulation of Paranoid Processes." Artif. Intell. 3(1-3) (1972), pp. 199–221
  • "Idiolectic Language-Analysis for Understanding Doctor-Patient Dialogues." IJCAI (1973), pp. 278–284
  • "Pattern-matching rules for the recognition of natural language dialogue expressions." Stanford University, Stanford, CA, 1974
  • "Appraisal of four psychological theories of paranoid phenomena." Journal of Abnormal Psychology. Vol 86(1) (1977), pp. 54–59
  • "Conversational Language Comprehension Using Integrated Pattern-Matching and Parsing." Artif. Intell. 9(2) (1977), pp. 111–134
  • "Cognitive therapy of paranoid conditions: Heuristic suggestions based on a computer simulation model." Journal Cognitive Therapy and Research Vol 3 (1) (March 1979)
  • "A Word-Finding Algorithm with a Dynamic Lexical-Semantic Memory for Patients with Anomia Using a Speech Prosthesis." AAAI (1980), pp. 289–291
  • "Reloading a Human Memory: A New Ethical Question for Artificial Intelligence Technology." AI Magazine 6(4) (1986), pp. 63–64

Voir aussi

Notes et références

Related Articles

Wikiwand AI