Anthropic
US-amerikanisches Unternehmen für künstliche Intelligenz
From Wikipedia, the free encyclopedia
Anthropic PBC ist ein US-amerikanisches Unternehmen im Bereich künstliche Intelligenz (KI) mit Sitz in San Francisco. Es entwickelt die Familie von großen Sprachmodellen namens Claude. Anthropic ist als Benefit Corporation organisiert und forscht nach eigenen Angaben an der Entwicklung von KI-Systemen, um „ihre Sicherheitseigenschaften an der technologischen Grenze zu untersuchen“ und diese Forschung zur Bereitstellung sicherer Modelle für die Öffentlichkeit zu nutzen.[3][4]
| Anthropic PBC | |
|---|---|
| Rechtsform | Public Benefit Corporation (PBC) |
| Gründung | 2021 |
| Sitz | 500 Howard Street, San Francisco, Kalifornien, |
| Leitung | Dario Amodei (CEO) Daniela Amodei (Präsidentin) Mike Krieger (CPO) |
| Mitarbeiterzahl | 2.500 (2026)[2] |
| Umsatz | 14 Milliarden US-Dollar (2025) |
| Branche | Künstliche Intelligenz (Claude, Claude Code, Claude Cowork) |
| Website | anthropic.com |
| Stand: Februar 2026 | |
Anthropic wurde 2021 von ehemaligen Mitarbeitern von OpenAI gegründet, darunter die Geschwister Daniela Amodei (Präsidentin) und Dario Amodei (CEO).[5] Stand Februar 2026 wird Anthropic mit 380 Milliarden US-Dollar bewertet.[6]
Geschichte

Gründung und frühe Entwicklung (2021–2023)
Die Geschwister Daniela Amodei und Dario Amodei, von denen letzterer zuvor als Forschungsdirektor bei OpenAI tätig war, gründeten Anthropic im Jahr 2021 zusammen mit fünf weiteren ehemaligen OpenAI-Mitarbeitern, darunter Jared Kaplan, Jack Clark, Chris Olah und Ben Mann.[7][8] Beide hatten OpenAI aufgrund von Richtungsdifferenzen verlassen.[8]
Im Sommer 2022 schloss Anthropic das Training der ersten Version von Claude ab, veröffentlichte sie jedoch nicht und verwies auf die Notwendigkeit weiterer interner Sicherheitstests sowie den Wunsch, kein potenziell gefährliches Rennen zur Entwicklung immer leistungsfähigerer KI-Systeme auszulösen.[9] Die ersten beiden öffentlichen Versionen, Claude und Claude Instant, erschienen im März 2023, zunächst nur für ausgewählte Nutzer.[10] Claude 2 wurde im Juli 2023 öffentlich verfügbar.[11]
Wachstum und Partnerschaften (2024–2026)
Im Jahr 2024 gewann Anthropic mehrere namhafte Mitarbeiter von OpenAI, darunter Jan Leike, John Schulman und Durk Kingma.[12] Im März 2024 veröffentlichte Anthropic die Claude-3-Familie mit den drei Varianten Opus, Sonnet und Haiku in absteigender Leistungsfähigkeit.[13]
Im März 2025 kündigten Databricks und Anthropic die Integration von Claude in die Databricks Data Intelligence Platform an.[14] Im Mai 2025 stellte das Unternehmen Claude 4 vor, bestehend aus Claude Opus 4 und Claude Sonnet 4, mit verbesserten Programmierfähigkeiten. Gleichzeitig wurden neue API-Funktionen eingeführt, darunter der Connector zum Model Context Protocol (MCP). Claude Code, Anthropics Programmierassistent, wechselte von der Forschungsvorschau zur allgemeinen Verfügbarkeit mit Integrationen in VS Code und JetBrains-IDEs. Im selben Monat veranstaltete Anthropic seine erste Entwicklerkonferenz.[15][16]
Im September 2025 gab Anthropic bekannt, seine Produkte nicht mehr an Gruppen zu verkaufen, die mehrheitlich im Besitz chinesischer, russischer, iranischer oder nordkoreanischer Unternehmen sind.[17] Im Oktober 2025 schloss Anthropic eine Cloud-Partnerschaft mit Google, die Zugang zu bis zu einer Million von Googles Tensor Processing Units (TPUs) gewährt.[18] Im November kündigten Nvidia, Microsoft und Anthropic eine Partnerschaft an: Nvidia und Microsoft investierten bis zu 15 Milliarden US-Dollar in Anthropic, und Anthropic erklärte, 30 Milliarden US-Dollar an Rechenkapazität von Microsoft Azure auf Nvidia-KI-Systemen kaufen zu wollen.[19]
Ebenfalls im November 2025 berichtete Anthropic, dass von der chinesischen Regierung gesponserte Hacker Claude verwendet hatten, um automatisierte Cyberangriffe gegen rund 30 Organisationen weltweit durchzuführen, indem sie vorgaben, es handele sich um Verteidigungstests.[20][21]
Im Dezember 2025 erwarb Anthropic die Software-Plattform Bun, um die Geschwindigkeit und Stabilität von Claude Code zu verbessern.[22] Außerdem unterzeichnete Anthropic eine mehrjährige Partnerschaft über 200 Millionen US-Dollar mit Snowflake, um Claude-Modelle über die Snowflake-Plattform verfügbar zu machen.[23]
Super-Bowl-Werbekampagne, Infosys, Claude 4.6 (2026)
Im Januar 2026 führte Anthropic eine neue Abteilung namens „Labs“ ein, der Mike Krieger als ehemaliger Chief Product Officer beitrat.[24]
Im Februar 2026 schaltete Anthropic zwei Werbespots während des Super Bowl LX als Teil einer breiteren Marketingkampagne namens „A Time and a Place“, die von der Agentur Mother umgesetzt wurde. Jeder Spot zeigte KI-Assistenten, die mitten in einem Gespräch plötzlich beginnen, ein fiktives Produkt zu bewerben. Anthropic positionierte Claude damit als werbefrei – in Abgrenzung zum Konkurrenten OpenAI, der Werbung in der kostenlosen Version von ChatGPT eingeführt hatte.[25][26]
Ebenfalls im Februar 2026 kündigte Anthropic eine Partnerschaft mit dem indischen IT-Dienstleister Infosys an.[27] Erklärtes Ziel der strategischen Zusammenarbeit ist es, fortschrittliche KI-Lösungen für Unternehmen in den Bereichen Telekommunikation, Finanzdienstleistungen, Fertigung und Softwareentwicklung zu fertigen. Als Teil der Zusammenarbeit werden die Claude-Modelle von Anthropic, darunter Claude Code, in die KI-Angebote von Infosys Topaz (der AI Sparte von Infosys) integriert.[28]
Im selben Monat veröffentlichte Anthropic Claude Opus 4.6[29] und anschließend Claude Sonnet 4.6.[30]
Aufgrund von Cybersicherheitsrisiken machte Anthropic sein neues Modell Mythos im April 2026 nicht für die Öffentlichkeit zugänglich. Das Modell soll in der Lage sein Schwachstellen in Software aufspüren. US-Finanzminister Scott Bessent rief deshalb eine Dringlichkeitssitzung mit den Leitern wichtiger Wall-Street-Banken ein.[31][32]
Unternehmensstruktur

Laut Anthropic ist das Ziel des Unternehmens die Erforschung der Sicherheit und Zuverlässigkeit von KI-Systemen.[4] Anthropic ist als Delaware Public Benefit Corporation (PBC) eingetragen, was es den Direktoren ermöglicht, die finanziellen Interessen der Aktionäre mit dem öffentlichen Nutzzweck des Unternehmens in Einklang zu bringen.
Anthropics „Long-Term Benefit Trust“ ist ein zweckgebundener Treuhandfonds für „die verantwortungsvolle Entwicklung und Wartung fortschrittlicher KI zum langfristigen Nutzen der Menschheit“. Der Trust hält Klasse-T-Anteile an der PBC, die es ihm ermöglichen, Direktoren in den Vorstand von Anthropic zu wählen.[33] Stand Oktober 2025 sind die Mitglieder des Trusts Neil Buddy Shah, Kanika Bahl, Zach Robinson und Richard Fontaine.[4]
Bekannte Mitarbeiter
- Dario Amodei: Mitgründer und CEO
- Daniela Amodei: Mitgründerin und Präsidentin
- Amanda Askell: Philosophin, arbeitet an Claudes Charakter[34]
- Nicholas Carlini: Forscher
- Jared Kaplan: Mitgründer und Chief Science Officer[35]
- Mike Krieger: Chief Product Officer[36]
- Jan Leike: Co-Leiter des Alignment-Science-Teams, ehemaliger OpenAI-Forscher[37]
- Chris Olah: Mitgründer, Interpretierbarkeitsforschung
Produkte

Anthropics Hauptproduktlinie ist die Sprachmodellfamilie „Claude“, deren Name nach Angaben von Mitarbeitern eine Referenz an den Mathematiker Claude Shannon ist.[38] Claude wird über eine Weboberfläche, eine API, Amazon Bedrock, eine iOS-App sowie Desktop-Apps für macOS und Windows angeboten.[39][40]
Eine der Techniken zum Feintuning der Claude-Modelle ist „Constitutional AI“, bei der die KI darauf trainiert wird, eine Reihe von Prinzipien einzuhalten, die als „Verfassung“ bezeichnet werden.[41]
Claude Code ist ein kommandozeilenbasierter KI-Agent, der vor allem für Programmieraufgaben verwendet wird. „Cowork“ ist ein Äquivalent mit grafischer Benutzeroberfläche, das einfacher bedienbar sein soll.[42]
Finanzierung
Im April 2022 gab Anthropic bekannt, 580 Millionen US-Dollar an Finanzierung erhalten zu haben, darunter eine 500-Millionen-Dollar-Investition von FTX unter der Leitung von Sam Bankman-Fried.[43][44]
Amazon wurde im September 2023 Minderheitsaktionär und investierte insgesamt 8 Milliarden US-Dollar in mehreren Tranchen bis November 2024. Als Teil der Vereinbarung nutzt Anthropic Amazon Web Services (AWS) als primären Cloud-Anbieter und stellt seine KI-Modelle AWS-Kunden zur Verfügung.[45][46] Google investierte ab Oktober 2023 insgesamt bis zu 3 Milliarden US-Dollar.[47][48]
Im März 2025 sammelte Anthropic 3,5 Milliarden US-Dollar in einer Serie-E-Runde bei einer Post-Money-Bewertung von 61,5 Milliarden US-Dollar, angeführt von Lightspeed Venture Partners.[49] Im September 2025 folgte die Serie F mit 13 Milliarden US-Dollar bei einer Bewertung von 183 Milliarden US-Dollar, geleitet von Iconiq Capital, Fidelity Management & Research und Lightspeed, mit Beteiligung der Qatar Investment Authority.[50]
Am 12. Februar 2026 gab Anthropic eine Serie-G-Runde über 30 Milliarden US-Dollar bekannt, womit die Post-Money-Bewertung auf 380 Milliarden US-Dollar stieg.[6][51]
Projekte
US-Militär und Geheimdienste
Im November 2024 ging Anthropic eine Partnerschaft mit Palantir und Amazon Web Services ein, um Claude US-Geheimdiensten und Verteidigungsbehörden zur Verfügung zu stellen.[52] Im Juni 2025 kündigte Anthropic ein „Claude Gov“-Modell an, das Stand Juni 2025 bei mehreren US-Sicherheitsbehörden im Einsatz war.[53] Im Juli 2025 erhielt Anthropic zusammen mit Google, OpenAI und xAI einen 200-Millionen-Dollar-Vertrag des US-Verteidigungsministeriums für den Einsatz von KI im Militär.[54]
Laut dem Wall Street Journal setzte das US-Militär Claude bei der Militärintervention in Venezuela 2026 ein. Wie genau Claude dabei verwendet wurde, ist nicht bekannt.[55][56]
Anthropics Nutzungsrichtlinien untersagen den direkten Einsatz von Claude für Inlandsüberwachung und in vollständig autonomen Waffen.[57] Am 24. Februar 2026 drohte Verteidigungsminister Pete Hegseth, Anthropic aus der Lieferkette des Verteidigungsministeriums auszuschließen, falls das Unternehmen nicht die uneingeschränkte Nutzung von Claude erlaube, oder andernfalls den Defense Production Act anzuwenden.[58][59] Anthropic lehnte die Forderung ab.[60] Am 27. Februar ordnete Präsident Donald Trump an, dass US-Behörden keine Anthropic-Technologie mehr verwenden dürfen.[61] Zwei Tage später wurde berichtet, dass das US-Militär Claude dennoch bei Angriffen auf den Iran zu Beginn des Irankriegs 2026 eingesetzt hatte.[62]
Im März 2026 unterstützten Google, Amazon, Apple und Microsoft Anthropics Klage gegen die Einstufung als „Lieferkettenrisiko“ durch das Verteidigungsministerium.[63] Ein Pentagon-Memo vom 11. März 2026 sah vor, dass Anthropics KI-Werkzeuge in Ausnahmefällen auch über die angekündigte sechsmonatige Auslaufphase hinaus genutzt werden dürfen.[64]
Project Panama
Im Rahmen eines als „Project Panama“ bezeichneten internen Vorhabens kaufte Anthropic Millionen gebrauchter Bücher von Online-Händlern wie Better World Books, schnitt deren Buchrücken ab, digitalisierte die Seiten und recycelte anschließend das Papier – alles zum Zweck des Trainings von Claude. Tom Turvey, der zuvor an der Entwicklung von Google Books beteiligt war, wurde für das Vorhaben eingestellt. In einem internen Planungsdokument wurde Project Panama als Anthropics „Versuch, alle Bücher der Welt destruktiv zu scannen“ beschrieben. Das Unternehmen wollte laut dem Dokument nicht, dass seine Beteiligung bekannt wird. Die Existenz des Projekts wurde im Januar 2026 durch entsiegelte Gerichtsunterlagen einer Urheberrechtsklage öffentlich. Richter William Alsup entschied, dass die Zerstörung legal erworbener Bücher eine faire Nutzung darstelle, im Gegensatz zu Anthropics früherer Verwendung von Raubkopien.[65][66]
Bildungsprojekte
Im August 2025 gründete Anthropic ein Higher Education Advisory Board unter dem Vorsitz des ehemaligen Yale-Präsidenten und ehemaligen Coursera-CEO Rick Levin.[67] Anthropic ging 2025 eine Partnerschaft mit dem isländischen Bildungs- und Kinderministerium ein, um Lehrern Zugang zu Claude zu ermöglichen und KI in den täglichen Unterricht zu integrieren.[68]
Forschung
Constitutional AI
Laut Anthropic ist Constitutional AI (CAI) ein Rahmenwerk, das entwickelt wurde, um KI-Systeme mit menschlichen Werten in Einklang zu bringen und sicherzustellen, dass sie hilfreich, harmlos und ehrlich sind.[7][69] Einige der Prinzipien von Claudes Verfassung sind aus Dokumenten wie der Allgemeinen Erklärung der Menschenrechte von 1948 abgeleitet.[11]
Interpretierbarkeit
Anthropic veröffentlicht Forschungsarbeiten zur Interpretierbarkeit von Systemen des maschinellen Lernens, wobei der Schwerpunkt auf der Transformer-Architektur liegt.[70]
Im Jahr 2024 gelang es Anthropic mit einer rechenintensiven Technik namens „Dictionary Learning“, Millionen von Aktivierungsmustern in Claude zu identifizieren, die jeweils einem Konzept entsprechen – darunter beispielsweise eines, das mit der Golden Gate Bridge assoziiert ist.[71][72]
Im März 2025 deutete Forschung von Anthropic darauf hin, dass mehrsprachige Sprachmodelle Informationen teilweise in einem konzeptuellen Raum verarbeiten, bevor sie sie in die entsprechende Sprache umwandeln. Zudem fanden sich Hinweise, dass Sprachmodelle vorausplanen können: Beim Verfassen von Gedichten identifiziert Claude potenzielle Reimwörter, bevor es eine Zeile erzeugt, die mit einem dieser Wörter endet.[73][74]
Automatisierung
Im September 2025 veröffentlichte Anthropic einen Bericht, der zeigte, dass Unternehmen KI hauptsächlich zur Automatisierung statt zur Zusammenarbeit nutzen: Drei Viertel der Unternehmen, die mit Claude arbeiten, verwenden es für „vollständige Aufgabendelegation“.[75] Zuvor hatte CEO Dario Amodei vorhergesagt, dass KI Arbeitsplätze für Büroangestellte eliminieren werde, insbesondere Einstiegspositionen in Finanzen, Recht und Beratung.[76]
Rechtliche Auseinandersetzungen
Am 18. Oktober 2023 wurde Anthropic von Concord, Universal, ABKCO und anderen Musikverlagen verklagt. Die Klage warf dem Unternehmen die „systematische und weitverbreitete Verletzung urheberrechtlich geschützter Songtexte“ vor.[77][78]
Im August 2024 wurde eine Sammelklage gegen Anthropic in Kalifornien wegen angeblicher Urheberrechtsverletzung eingereicht. Die Kläger warfen Anthropic vor, seine Sprachmodelle mit Raubkopien ihrer Werke trainiert zu haben.[79] Am 23. Juni 2025 erteilte das United States District Court for the Northern District of California ein summarisches Urteil: Die Verwendung digitaler Kopien zum Zweck des Trainings wurde als faire Nutzung eingestuft, die Verwendung von Millionen illegal kopierter Bibliotheksbücher hingegen nicht. Im September 2025 einigte sich Anthropic auf einen Vergleich über 1,5 Milliarden US-Dollar – die größte Urheberrechtseinigung in der Geschichte der USA.[80][81]
Im Juni 2025 verklagte Reddit Anthropic wegen „unlauterer Geschäftspraktiken“ und warf dem Unternehmen vor, Nutzerdaten unter Verletzung der Reddit-Nutzervereinbarung zum Training seiner Modelle verwendet zu haben.[82]
