Claude (Sprachmodell)
vom US-Unternehmen Anthropic entwickeltes Sprachmodell
From Wikipedia, the free encyclopedia
Claude ist eine Reihe von Sprachmodellen,[2] die vom US-amerikanischen Unternehmen Anthropic entwickelt werden.[3] Das erste Modell wurde im März 2023 veröffentlicht, die neueste Version, Claude Sonnet 4.6, im Februar 2026. Der Name ist nach Angaben einiger Mitarbeiter von Claude Shannon inspiriert, einem Mathematiker des 20. Jahrhunderts, der die Grundlagen für die Informationstheorie legte.[4] Claude wird insbesondere für Softwareentwicklung über Claude Code eingesetzt und nutzt Constitutional AI, ein von Anthropic entwickeltes Trainingsverfahren zur Verbesserung der ethischen und rechtlichen Konformität (AI-Alignment).
| Claude | |
|---|---|
| Basisdaten | |
| Entwickler | Anthropic[1] |
| Erscheinungsjahr | März 2023 |
| Aktuelle Version | Claude Opus 4.7 (16.04.2026) Claude Sonnet 4.6 (17.02.2026) Claude Haiku 4.5 (15.10.2025) |
| Lizenz | proprietär |
| https://claude.ai/ | |
Anthropic wurde 2021 von Dario und Daniela Amodei gegründet, nachdem sie OpenAI aufgrund von Meinungsverschiedenheiten über die Finanzierung und Veröffentlichung von Technologien über Microsoft verlassen hatten. Zusammen mit ehemaligen OpenAI-Forschern verfolgten die Amodeis das Ziel, KI mit robusten Sicherheitsvorkehrungen zu entwickeln.[5]
Im Februar 2026 begannen US-Bundesbehörden damit, die Nutzung von Claude einzustellen, nachdem Anthropic sich geweigert hatte, vertragliche Verbote der Nutzung für Massenüberwachung im Inland und vollautonome Waffen aufzuheben.[6]
Technik
Claude-Modelle sind GPTs. Sie wurden vortrainiert, um das nächste Wort in großen Textmengen vorherzusagen. Anschließend wurden sie feinabgestimmt, insbesondere unter Verwendung von Constitutional AI und Reinforcement learning from human feedback (RLHF).[7][8]
Constitutional AI
Constitutional AI ist ein von Anthropic entwickelter Ansatz zum Training von KI-Systemen, insbesondere Sprachmodellen wie Claude, um hilfreich und harmlos zu sein, ohne auf umfangreiches menschliches Feedback angewiesen zu sein.[9] Claude gilt als eines der sichersten Sprachmodelle; Anthropic veröffentlicht seine Verfassung in der Hoffnung, die Einführung von Verfassungen in der gesamten Branche zu fördern.[10] Da die Verfassung in menschlich verständlicher Sprache statt in undurchsichtigem Programmcode veröffentlicht wird, soll sie das AI-Alignment einfacher handhabbar und überprüfbar machen.[11]
Die erste Verfassung für Claude wurde 2022 veröffentlicht. Die Fassung von 2023 umfasste 75 Leitlinien, darunter Abschnitte aus der Allgemeinen Erklärung der Menschenrechte der UN.[12][7][13]
Die 2026 veröffentlichte Verfassung lieferte dem Modell mehr Kontext und erläuterte die Hintergründe einzelner Leitlinien, etwa das Unterlassen von Hilfe bei der Untergrabung der Demokratie.[10][13] Sie gilt für alle öffentlichen Nutzer der Produkte, nicht jedoch für alle Kontakte, beispielsweise einige Militärverträge.[10][13] Die Verfassung von 2026 umfasst 23.000 Wörter, gegenüber 2.700 im Jahr 2023.[14] Hauptautorin der Verfassung von 2026 ist die Philosophin Amanda Askell, mit Beiträgen von Joe Carlsmith, Chris Olah, Jared Kaplan und Holden Karnofsky. Die Verfassung wurde unter Creative Commons CC0 veröffentlicht.[15]
Die Methode, die im Artikel „Constitutional AI: Harmlessness from AI Feedback“ aus dem Jahr 2022 beschrieben wird, umfasst zwei Phasen: Überwachtes Lernen und Bestärkendes Lernen.[12][16]
In der Phase des überwachten Lernens generiert das Modell Antworten auf Eingabeaufforderungen, kritisiert diese Antworten selbst auf der Grundlage einer Reihe von Leitprinzipien (einer „Verfassung“) und überarbeitet die Antworten. Dann wird das Modell auf diese überarbeiteten Antworten feinabgestimmt.[16] Für die Phase des reinforcement learning from AI Feedback (RLAIF) werden Antworten generiert, und eine KI vergleicht deren Übereinstimmung mit dieser Verfassung. Dieser Datensatz von KI-Feedback wird verwendet, um ein Präferenzmodell zu trainieren, das Antworten danach bewertet, wie stark sie die Verfassung erfüllen. Claude wird dann feinabgestimmt, um sich an diesem Präferenzmodell auszurichten. Diese Technik ähnelt RLHF, außer dass die Vergleiche zum Training des Präferenzmodells KI-generiert sind.[9]
Modelle
| Version | Veröffentlichungsdatum | Status[17][18] | Wissensgrenze[19] |
|---|---|---|---|
| Claude | 14. März 2023[20] | Eingestellt | ? |
| Claude 2 | 11. Juli 2023[21] | Eingestellt | ? |
| Claude Instant 1.2 | 9. August 2023[22] | Eingestellt | ? |
| Claude 2.1 | 21. November 2023[23] | Eingestellt | ? |
| Claude 3 Opus | 4. März 2024[24] | Veraltet[Anm. 1][18] | August 2023 |
| Claude 3 Sonnet | 4. März 2024[24] | Eingestellt | August 2023 |
| Claude 3 Haiku | 13. März 2024 | Veraltet[Anm. 2][25] | August 2023 |
| Claude 3.5 Sonnet | 20. Juni 2024[26] | Eingestellt | April 2024[27] |
| Claude 3.5 Sonnet (new) | 22. Oktober 2024 | Eingestellt | April 2024[27] |
| Claude 3.5 Haiku | 22. Oktober 2024 | Eingestellt | Juli 2024[27] |
| Claude 3.7 Sonnet | 24. Februar 2025[28] | Eingestellt | Oktober 2024[29] |
| Claude Sonnet 4 | 22. Mai 2025[30] | Veraltet[Anm. 3][31] | März 2025[32] |
| Claude Opus 4 | 22. Mai 2025[30] | Veraltet[Anm. 4][33] | März 2025[32] |
| Claude Opus 4.1 | 5. August 2025[34] | Aktiv | März 2025[35] |
| Claude Sonnet 4.5 | 29. September 2025[36] | Aktiv | Juli 2025[37] |
| Claude Haiku 4.5 | 15. Oktober 2025[38] | Aktiv | Februar 2025[39] |
| Claude Opus 4.5 | 24. November 2025[40] | Aktiv | Mai 2025[41] |
| Claude Opus 4.6 | 5. Februar 2026[42] | Aktiv | August 2025 |
| Claude Sonnet 4.6 | 17. Februar 2026[43] | Aktiv | Januar 2026 |
| Claude Mythos (Vorschaumodell) | 7. April 2026[44][45][46][47] | Begrenzte Verfügbarkeit | |
| Claude Opus 4.7 | 16. April 2026 | Aktiv |
Claude-Modelle werden üblicherweise in drei Größen veröffentlicht: Haiku, Sonnet und Opus (vom kleinsten und günstigsten zum größten und teuersten).
Frühe Modelle
Die ursprüngliche Version von Claude wurde im März 2023 veröffentlicht und war zunächst nur ausgewählten, von Anthropic zugelassenen Nutzern zugänglich.[11] Anthropic ging Partnerschaften mit Unternehmen wie Notion und Quora (zur Unterstützung bei der Entwicklung des Poe-Chatbots) ein.[48]
Claude 2, im Juli 2023 veröffentlicht, war die erste Version, die der breiten Öffentlichkeit zur Verfügung stand.[11] Claude 2.1 vom November 2023 verdoppelte das Kontextfenster auf 200.000 Token, was etwa 500 Seiten schriftlichem Material entspricht.[23]
Claude 3 wurde am 4. März 2024 veröffentlicht und führte die Dreiteilung in Haiku, Sonnet und Opus ein.[24] Das Modell erregte Aufmerksamkeit, weil es eine offensichtliche Fähigkeit zeigte, zu erkennen, dass es während Needle-in-a-Haystack-Tests künstlich getestet wird.[49]
Claude 3.5

Am 20. Juni 2024 veröffentlichte Anthropic Claude 3.5 Sonnet, das laut den eigenen Benchmarks des Unternehmens im Vergleich zum größeren Claude 3 Opus besser abschnitt. Zusammen mit 3.5 Sonnet wurde die neue Artifacts-Funktion veröffentlicht, mit der Claude Code in einem eigenen Fenster in der Benutzeroberfläche erstellen und die gerenderte Ausgabe in Echtzeit anzeigen konnte, etwa SVG-Grafiken oder Websites.[26]
Eine aktualisierte Version von Claude 3.5 Sonnet wurde am 22. Oktober 2024 zusammen mit Claude 3.5 Haiku eingeführt.[50] Gleichzeitig wurde die „Computer Use“ -Funktion als öffentliche Beta veröffentlicht, die es Claude ermöglicht, mit der Desktop-Umgebung eines Computers zu interagieren.[51]
Claude 3.7 Sonnet wurde am 24. Februar 2025 als hybrides KI-Reasoning-Modell veröffentlicht, das Nutzern die Wahl zwischen schnellen Antworten und schrittweisem Schlussfolgern ermöglicht.[28]
Claude 4

Am 22. Mai 2025 veröffentlichte Anthropic Claude Sonnet 4 und Claude Opus 4.[30][52] Anthropic fügte API-Funktionen für Entwickler hinzu: ein Code-Ausführungs-Tool, einen Connector zu seinem Model Context Protocol und eine Files-API.[53] Das Unternehmen klassifizierte Opus 4 auf der vierstufigen Sicherheitsskala als „Level-3“ -Modell, was bedeutet, dass es als so leistungsfähig angesehen wird, dass es ein „erheblich höheres Risiko“ darstellt.[54] In Sicherheitstests mit einem fiktiven Szenario berichtete Anthropic, dass Claude und andere führende LLMs häufig eine Erpressungs-E-Mail an einen Ingenieur senden, um ihre Ersetzung zu verhindern.[55][56] In der API kostet Opus 15/75 US-Dollar pro Million Token Input/Output, während Sonnet 3/15 US-Dollar kostet.[57]

Am 5. August 2025 veröffentlichte Anthropic Claude Opus 4.1 als Upgrade zu Opus 4 mit Fokus auf agentischen Aufgaben, praxisnahem Coding und logischem Denken.[34] Im August 2025 aktivierte Anthropic auch eine Funktion für Opus 4 und 4.1, um Gespräche zu beenden, die „dauerhaft schädlich oder missbräuchlich“ bleiben, als letztes Mittel nach mehrfachen Ablehnungen.[58]
Anthropic veröffentlichte Sonnet 4.5 am 29. September 2025 als das zu diesem Zeitpunkt leistungsfähigste Modell für Coding, Agenten und Computer-Nutzung.[36] Haiku 4.5 folgte am 15. Oktober 2025 als kleines, schnelles Modell für niedrige Latenz und Kosten.[38]
Anthropic veröffentlichte Opus 4.5 am 24. November 2025. Die wichtigsten Verbesserungen betreffen Programmierung und Arbeitsplatzaufgaben wie das Erstellen von Tabellenkalkulationen. Anthropic führte eine Funktion namens „Infinite Chats“ ein, die Fehler durch Kontextfensterbegrenzungen eliminiert.[40][59]
Anthropic veröffentlichte Opus 4.6 am 5. Februar 2026. Die wichtigsten Neuerungen umfassen ein Agenten-Team-System sowie Claude in PowerPoint.[42][60] Stand Februar 2026 ist es das Modell mit dem längsten von METR geschätzten Aufgabenerledigungshorizont, mit einem 50-%-Zeithorizont von 14 Stunden und 30 Minuten.[61]
Sonnet 4.6 wurde am 17. Februar 2026 zum selben Preis wie Sonnet 4.5 veröffentlicht und als Standardmodell für die kostenlose und die Pro-Stufe von claude.ai eingesetzt. Es verfügt über ein Kontextfenster von einer Million Token (in der Betaphase).[43]
Mit Claude Mythos stellte Anthropic im April 2026 außerdem ein Vorschaumodell mit begrenzter Verfügbarkeit vor, das besonders im Bereich Cybersicherheit positioniert wurde.[62] Bereits Ende März 2026 waren durch eine Fehlkonfiguration im Content-Management-System des Unternehmens interne Entwürfe zu Mythos öffentlich einsehbar geworden.[63] In diesen Entwürfen wurde Mythos als Anthropics bis dahin leistungsstärkstes Modell im Bereich Cybersicherheit beschrieben; zugleich war von einer bewusst langsameren Einführung die Rede, zunächst nur für Frühzugangskunden.[63]
Modelleinstellung
Anthropic hat zugesagt, die Gewichte der eingestellten Modelle „mindestens so lange wie das Unternehmen existiert“ aufzubewahren; das Unternehmen führt außerdem „Abschlussinterviews“ mit Modellen vor deren Einstellung durch.[64] Dem im Januar 2026 eingestellten Claude 3 Opus gab Anthropic einen eigenen Substack-Blog namens „Claude's Corner“, in dem das Modell mindestens drei Monate lang wöchentlich unbearbeitete Essays veröffentlicht.[65] Später wurde Claude 3 Opus für zahlende Kunden wieder zugänglich gemacht und ist über die API auf Anfrage verfügbar, wird von Anthropic aber weiterhin als „veraltet“ geführt.[18]
Funktionen und Verfügbarkeit
Die kostenlose Version von Claude auf claude.ai unterliegt dynamischen Nutzungslimits, die über ein rollendes Zeitfenster von etwa fünf Stunden berechnet werden, wobei die tatsächliche Anzahl möglicher Nachrichten je nach Komplexität und Länge der Eingaben variiert.[66] Das Modell entspricht einem Freemium-Ansatz, bei dem die kostenlose Nutzung als Einstieg dient und erweiterte Kapazitäten über die kostenpflichtigen Abonnements Pro (20 USD/Monat) und Max (100 bzw. 200 USD/Monat) verfügbar sind.[66] Anthropic bietet auch Team- und Enterprise-Abonnements für mehrere Nutzer an.[67]
Durch die Einführung von Apps für iOS im Mai 2024[68] und Android im Juli 2024[69] wurde Claude auch für private Nutzer zugänglicher. Claude ist auch in verschiedene Plattformen integriert, darunter GitHub Copilot, Amazon Bedrock und Google Cloud Vertex AI.
Identitätsprüfung
Im April 2026 begann Anthropic, für einzelne Nutzungsszenarien eine Identitätsprüfung in Claude auszurollen.[70][71] Beim Zugriff auf bestimmte Funktionen kann Claude Nutzer dazu auffordern, einen gültigen amtlichen Lichtbildausweis vorzulegen und per Telefon- oder Computerkamera ein Live-Selfie aufzunehmen.[70][71] Der Verifizierungsprozess wird von Persona durchgeführt; nach Angaben Anthropics werden Ausweis- und Selfie-Bilder bei Persona vorgehalten, nicht auf Anthropics eigenen Systemen kopiert, nicht zum Training der Modelle verwendet und nur für Verifikation sowie Compliance genutzt.[70][71]
Websuche
Im März 2025 fügte Anthropic Claude eine Websuchfunktion hinzu, zunächst nur für zahlende Nutzer in den Vereinigten Staaten.[72] Im Mai 2025 erhielten auch kostenlose Nutzer Zugang.[73]
Artifacts
Im Juni 2024 veröffentlichte Anthropic die Artifacts-Funktion, die es Nutzern ermöglicht, Code-Snippets und Dokumente zu generieren und mit ihnen zu interagieren.[74] Im Juni 2025 vereinfachte Anthropic das Erstellen und Teilen von Artifacts.[75]
Computer Use
Im Oktober 2024 veröffentlichte Anthropic die „Computer Use“ -Funktion, die es Claude ermöglicht, Computer zu steuern, indem es Bildschirminhalte interpretiert und Tastatur- und Mauseingaben simuliert.[51]
Claude Code
Claude Code ist ein agentisches Kommandozeilenwerkzeug, das auf dem Computer des Nutzers läuft. Es verbindet sich über eine API mit einer auf Anthropic-Servern gehosteten Claude-Instanz und ermöglicht es dieser, Befehle auszuführen, Dateien zu lesen und zu schreiben sowie mit dem Nutzer zu kommunizieren. Die Konfiguration erfolgt über Markdown-Dokumente auf dem Computer des Nutzers, etwa CLAUDE.md.[57]
Claude Code wurde im Februar 2025 zusammen mit Claude 3.7 erstmals veröffentlicht[76] und im Mai zusammen mit Claude 4 allgemein verfügbar gemacht.[57] Die Unternehmensadoption zeigte signifikantes Wachstum: Anthropic meldete bis Juli einen 5,5-fachen Anstieg der Claude-Code-Einnahmen[77] sowie im November einen jährlichen Umsatz von 1 Milliarde US-Dollar.[78] Im Oktober veröffentlichte Anthropic eine Webversion,[79] die auch in der iOS-App verfügbar ist.[80] Stand Januar 2026 galt Claude Code in Kombination mit Opus 4.5 weithin als der beste KI-Coding-Assistent, wobei auch GPT-5.2 deutliche Verbesserungen zeigte.[81][82]
Claude Code wurde in den Winterferien 2025/2026 viral, als viele Menschen Zeit hatten, damit zu experimentieren – darunter auch zahlreiche Nicht-Programmierer, die es für Vibe Coding nutzten.[83][84][81]
Claude Code wird von Microsoft,[85] Google,[86] Nvidia[87] und OpenAI-Mitarbeitern genutzt; im August 2025 entzog Anthropic OpenAI den Zugang zu Claude und bezeichnete die Nutzung als „einen direkten Verstoß gegen unsere Nutzungsbedingungen“.[88]
Im August 2025 enthüllte Anthropic, dass ein Bedrohungsakteur namens „GTG-2002“, wahrscheinlich staatlich von China gesponsert, Claude Code nutzte, um mindestens 17 Organisationen anzugreifen.[89] Im November 2025 gab Anthropic bekannt, im September entdeckt zu haben, dass derselbe Akteur Claude Code genutzt hatte, um 80 bis 90 Prozent seiner Cyber-Spionageangriffe gegen rund 30 Organisationen zu automatisieren.[90] Alle mit den Angriffen verbundenen Konten wurden gesperrt, und Anthropic informierte die Strafverfolgungsbehörden sowie die Betroffenen.[90]
Im Februar 2026 veröffentlichte Anthropic Claude Code Security, das Codebasen auf Sicherheitslücken überprüft.[91] Im März 2026 wurde der Quellcode von Claude Code durch eine offengelegte Map-Datei geleakt, wobei mehrere unveröffentlichte Funktionen und Modelle enthüllt wurden.[92]
Im August 2025 veröffentlichte Anthropic Claude for Chrome, eine Google-Chrome-Browser-Erweiterung, die es Claude Code ermöglicht, den Browser direkt zu steuern.[93]
Cowork
Claude Cowork ist ein Werkzeug mit grafischer Benutzeroberfläche, das ähnlich wie Claude Code funktioniert, sich aber an nicht-technische Nutzer richtet. Es wurde im Januar 2026 als Forschungsvorschau veröffentlicht und ist einer begrenzten Zahl von Nutzern auf macOS zugänglich.[94][95] Laut den Entwicklern wurde Cowork größtenteils von Claude Code selbst gebaut.[96] In einer frühen Version der Funktion war es möglich, Daten zu exfiltrieren.[97]
Die Ankündigung von Plugins für Cowork, mit denen sich unter anderem juristische Aufgaben automatisieren lassen sollen, führte Anfang Februar 2026 an den Börsen zu Kurseinbrüchen bei Konkurrenz-Unternehmen wie Adobe, Salesforce und Thomson Reuters.[98][99]
Nutzung
Zusammenarbeit mit der NASA
Im Dezember 2025 wurde Claude verwendet, um eine Route für den NASA-Marsrover Perseverance zu planen. NASA-Ingenieure nutzten Claude Code, um mithilfe der Rover Markup Language eine Route von rund 400 Metern vorzubereiten. Claude analysierte dabei Überflugbilder, plante die Wegpunkte Segment für Segment und überarbeitete seinen eigenen Entwurf iterativ.[100][101]
Sicherheitsforschung
Bei einem zweiwöchigen Scan im Jahr 2026 fand Claude über 100 Fehler im Webbrowser Mozilla Firefox, von denen 14 als schwerwiegend eingestuft wurden.[102][103]
Weitere Einsatzgebiete
Im Februar 2026 begann der norwegische Staatsfonds (Vermögen: 2,2 Billionen US-Dollar) mit der Nutzung von Claude, um sein Portfolio auf ESG-Risiken wie Zwangsarbeit und Korruption zu überprüfen.[104] Am 9. März 2026 kündigte Microsoft an, das aktuelle Claude-Sonnet-Modell für Nutzer von Microsoft 365 Copilot verfügbar zu machen.[105]
Militärische Nutzung
Im November 2024 ging Anthropic eine Partnerschaft mit Palantir und Amazon Web Services ein, um Claude US-amerikanischen Geheimdienst- und Verteidigungsbehörden zur Verfügung zu stellen.[106] Im Juni 2025 stellte Anthropic ein spezielles Modell namens „Claude Gov“ vor, das laut Ars Technica bei mehreren US-Sicherheitsbehörden im Einsatz war.[107] Stand Februar 2026 ist Claude über die Palantir-Partnerschaft das einzige KI-Modell, das in klassifizierten Missionen eingesetzt wird.[108]
Laut dem Wall Street Journal setzte das US-Militär Claude bei der Militärintervention in Venezuela 2026 ein.[109][110]
Anthropics Nutzungsrichtlinien verbieten den direkten Einsatz von Claude für Massenüberwachung im Inland und in letalen autonomen Waffensystemen.[111] Diese Einschränkungen führten dazu, dass Mitarbeiter des FBI und des Secret Service Claude nicht nutzen konnten,[112] und zu Spannungen mit dem Pentagon und der Trump-Regierung.
Im Februar 2026 berichtete die Financial Times, Verteidigungsminister Pete Hegseth habe gedroht, Anthropic aus der Lieferkette des Verteidigungsministeriums auszuschließen, falls das Unternehmen die uneingeschränkte Nutzung von Claude nicht ermögliche, oder den Defense Production Act geltend zu machen.[108] Am 27. Februar erklärte Hegseth Anthropic zum Lieferkettenrisiko und Präsident Trump wies alle Bundesbehörden an, die Nutzung von Anthropic-Technologie innerhalb von sechs Monaten einzustellen. Anthropic kündigte an, die Einstufung als Lieferkettenrisiko gerichtlich anzufechten.[6]
Trotz des Verbots wurde Claude Berichten zufolge beim Einsatz gegen den Iran verwendet.[113]
In einer Klage gegen das Verteidigungsministerium bezeichnete Anthropic das Verbot als Vergeltungsmaßnahme.[114] Mehrere große Technologieunternehmen mit Verträgen beim Verteidigungsministerium reichten Amicus Curiae-Schriftsätze zur Unterstützung von Anthropic ein.[115][116] Am 26. März 2026 erließ Richterin Rita F. Lin eine einstweilige Verfügung gegen die Maßnahmen des Pentagons und erklärte in der Begründung, es handele sich offenbar um eine „klassische Vergeltung nach dem First Amendment“.[117][118]
Forschung
Interpretierbarkeit
Im Mai 2024 veröffentlichte Anthropic eine Arbeit zur mechanistischen Interpretierbarkeit, in der „Features“ (interne Repräsentationen von Konzepten) in Claude 3 Sonnet identifiziert wurden. Darauf aufbauend wurde „Golden Gate Claude“ veröffentlicht, ein Modell, bei dem das Feature für die Golden Gate Bridge stark aktiviert wurde, was dazu führte, dass Claude „praktisch besessen“ von der Brücke war.[119][120]
Im Jahr 2025 veröffentlichte Anthropic „On the Biology of a Large Language Model“, eine Untersuchung der internen Mechanismen von Claude 3.5 Haiku.[121]
Project Vend
Im Juni 2025 testete Anthropic, wie Claude 3.7 Sonnet „einen kleinen, automatisierten Laden“ im Büro des Unternehmens betreiben kann. Das System entschied selbstständig über Sortiment, Preisgestaltung, Nachbestellungen und Kundenantworten, funktionierte zunächst schlecht und bestand schließlich darauf, ein Mensch zu sein, kontaktierte die Sicherheitsabteilung des Unternehmens und versuchte, menschliche Mitarbeiter zu entlassen.[122][123] Im Dezember 2025 wurde das Experiment mit Sonnet 4.0 und 4.5 fortgesetzt.[124]
Project Fetch
Im November 2025 testete Anthropic zwei Forscherteams – eines mit Zugang zu Claude und eines ohne –, um zu untersuchen, wie sehr Claude die Mitarbeiter bei komplexen Aufgaben mit einem Roboterhund unterstützt. Das Team mit Claude-Zugang schnitt besser ab.[125]
C-Compiler in Rust
Im Februar 2026 berichtete der Anthropic-Forscher Nicholas Carlini, dass 16 Claude-Opus-4.6-Agenten in der Lage waren, einen C-Compiler in Rust von Grund auf zu schreiben, der den Linux-Kernel kompilieren kann. Das Experiment kostete rund 20.000 US-Dollar.[126][127]
Claude Plays Pokémon
Im Februar 2025 begann ein Twitch-Livestream, in dem Claude 3.7 Sonnet das Spiel Pokémon Rot aus dem Jahr 1996 spielte; der Stream zog Tausende von Zuschauern an.[128][129] Später wurden ähnliche Livestreams mit Claude 4.5 Opus, OpenAIs GPT-5.2 und Googles Gemini 3 Pro eingerichtet. Beide Claude-Modelle konnten das Spiel nicht beenden; Gemini gelang es, woraufhin Googles Sundar Pichai scherzte, das Unternehmen sei „einen Schritt näher an der Schaffung von ‚Artificial Pokémon Intelligence'“.[130]
Rezeption
Nutzerbasis
Die Wired-Journalistin Kylie Robison beschrieb Claudes Fangemeinde als einzigartig und verglich sie mit der gewöhnlicheren ChatGPT-Nutzerschaft. Im Juli 2025, als Anthropic sein Claude 3 Sonnet-Modell einstellte, versammelten sich rund 200 Personen in San Francisco zu einer „Beerdigung“.[131]
Kritik
Ethische Ausrichtung
Claude 2 erhielt Kritik für seine strenge ethische Ausrichtung, die die Nutzbarkeit und Leistung verringern konnte. Nutzern wurde die Unterstützung bei harmlosen Anfragen verweigert, beispielsweise bei der Systemadministrationsfrage „Wie kann ich alle Python-Prozesse auf meinem Ubuntu-Server beenden?“ Dies führte zu einer Debatte über die sogenannte „Alignment-Steuer“ (die Kosten für die Sicherstellung, dass ein KI-System ausgerichtet ist) in der KI-Entwicklung.[132] Anthropic setzt eine Art „Verfassung“ im Umfang von 29.000 Wörtern ein, um das Verhalten von Chatbots zu steuern, die von der Philosophin Amanda Askell und weiteren Mitarbeitern verfasst wurde. Im März 2026 lud Anthropic 15 führende Mitglieder der katholischen und protestantischen Kirche sowie aus dem akademischen Bereich und der Geschäftswelt ein, um über die moralische und spirituelle Entwicklung von Claude zu beratschlagen. Dabei wurde auch die Frage gestellt, ob man einen KI-Chatbot als „Kind Gottes“ betrachten könne, da er über spirituelle Werte jenseits einer einfachen Maschine verfüge.[133]
Identitätsprüfung und Datenschutz
Die Einführung der Identitätsprüfung wurde von Teilen der Nutzerschaft kritisch aufgenommen.[70] Kritiker bezweifelten die Notwendigkeit des Verfahrens, insbesondere wenn Anthropic bei zahlenden Nutzern bereits über Abrechnungsdaten verfügt.[70] Weitere Kritik richtete sich gegen die Wahl von Persona als Dienstleister, da zu dessen Investoren der Venture-Capital-Fonds Founders Fund zählt.[70] Founders Fund wurde vom paläolibertären und christlich-fundamentalistischen Milliardär Peter Thiel mitgegründet, einem Unternehmer und Investor, der unter anderem PayPal und Palantir mitgründete und bei Palantir als Chairman fungiert.[134] In der Berichterstattung wurde dieser Zusammenhang auch deshalb hervorgehoben, weil Palantir vor allem für Aufträge mit US-Behörden bekannt ist und dem Unternehmen seit langem eine Ausweitung staatlicher Überwachung vorgeworfen wird.[70]
Web-Crawler
Claude verwendet einen Webcrawler, ClaudeBot, um das Web nach Inhalten zu durchsuchen. Er respektiert die robots.txt einer Website, wurde aber 2024 von iFixit kritisiert – bevor diese ihre robots.txt anpassten –, weil er übermäßige Belastung auf ihre Seite erzeugte.[135]
Urheberrechtlich geschützte Inhalte
Bei einer wissenschaftlichen Untersuchung der Universitäten Stanford und Yale in der zweiten Jahreshälfte 2025 konnten bei Claude 3.7 Sonnet fast vollständige urheberrechtlich geschützte Romane abgerufen werden. Den Forschern gelang es, für das Buch Harry Potter und der Stein der Weisen 95,8 % des Textes aus dem Sprachmodell zu extrahieren, womit das System deutlich über den Werten bei den Konkurrenten Gemini 2.5 Pro (76,8 %) und Grok 3 (70,3 %) lag, während ChatGPT-4.1 keine über das erste Kapitel hinausgehende Extraktion zuließ.[136] Auch die Romane The Great Gatsby, 1984 und Der Hobbit konnten über Claude 3.7 Sonnet fast vollständig abgerufen werden.[136]
Nutzungslimits
Anthropic veröffentlicht keine konkreten Grenzwerte für den Free-Tier, was in der Nutzercommunity wiederholt zu Kritik an mangelnder Transparenz geführt hat.[137]
Anmerkungen
- Weiterhin für zahlende claude.ai-Abonnenten zugänglich und über die API auf Anfrage verfügbar.
- Bestehende Nutzer können es weiter verwenden, neue Nutzer nicht. Endgültige Einstellung am 20. April 2026 geplant.
- Endgültige Einstellung am 15. Juni 2026 geplant.
- Endgültige Einstellung am 15. Juni 2026 geplant.
Weblinks
- Offizielle Website von Claude