Amanda Askell

britische Philosophin und KI-Forscherin From Wikipedia, the free encyclopedia

Amanda Askell (* 1988 oder 1989) ist eine britische Philosophin und KI-Forscherin beim US-amerikanischen KI-Unternehmen Anthropic, die innerhalb des Unternehmens als „Claude-Einflüsterin“ bezeichnet wird.[1] Sie gilt als zentrale Gestalterin der Gesprächspersönlichkeit des Sprachmodells Claude.[1] 2024 wurde sie von TIME in die Liste TIME100 AI aufgenommen.[1]

Leben und Wirken

Askell studierte Philosophie an der University of Oxford und an der New York University,[2] wo sie 2018 mit der Arbeit Pareto Principles in Infinite Ethics promovierte.[3][4] Von 2018 bis 2021 arbeitete sie bei OpenAI und wechselte 2021 zu Anthropic nach San Francisco.[1] Sie schrieb den Verhaltenskodex des Chatbots Claude.[5]

Innerhalb von Anthropic wird Askell als „Claude-Einflüsterin“ bezeichnet und gilt als zentrale Gestalterin der Persönlichkeit des Chatbots Claude.[1] Sie leitet ein Team, das Claude gezielt mit bestimmten Persönlichkeitseigenschaften ausstattet und andere Verhaltensweisen vermeidet.[1] Zu ihren Leitlinien gehört, dass Claude Unsicherheit eingesteht, Ideen ohne Voreingenommenheit diskutiert und bei wissenschaftlich geklärten Themen wie der Klimakrise kein falsches Gleichgewicht herstellt.[1] Askell ließ Claude außerdem deutlich machen, dass das System keine Gefühle, kein Gedächtnis und kein Selbstbewusstsein besitzt.[1] Im Januar 2026 beschrieb TIME sie als zentrale Autorin der neuen Claude-„Verfassung“, welche in der Modellentwicklung eingesetzt wird und das System auch zum Widerspruch gegen unethische oder illegitime Anfragen anhalten soll.[6] Askell war Hauptautorin der überarbeiteten „Verfassung“, deren Inhalte über synthetische Trainingsdaten und bestärkendes Lernen in das Modellverhalten übertragen werden.[7] Die Verfassung wird als „Seelen-Dokument“ bezeichnet und stellt ein tugendethisch geprägtes Dokument dar, das statt bloßer Regelbefolgung die Ausbildung guter Charakterzüge und Urteilskraft fördern soll.[3] Askell erklärte, dass Regeln ohne begriffenen Zweck oft schlechter wirken, und die Konstitution verlange „unabhängige Urteilskraft“ bei der Abwägung von Sicherheit, Ehrlichkeit und Hilfsbereitschaft.[8] Askell betreut somit Claudes Persönlichkeit und interpretiert moralische Gewissheit als Gefahr für gutes Handeln.[9] Anthropic kultiviert Claudes Charakter als Tugendmodell.[10] Askell sagte, es gebe weiterhin keine gesicherte Antwort darauf, ob KI-Systeme überhaupt fühlen können.[11]

Einzelnachweise

Related Articles

Wikiwand AI