Anthropic

US-amerikanisches Unternehmen für künstliche Intelligenz From Wikipedia, the free encyclopedia

Anthropic PBC ist ein US-amerikanisches Unternehmen im Bereich künstliche Intelligenz (KI), das 2021 von ehemaligen Mitarbeitern von OpenAI gegründet wurde.[3] Das Unternehmen entwickelt die Familie von Sprachmodellen namens Claude und forscht an der Entwicklung von KI-Systemen, um „ihre Sicherheitseigenschaften an der technologischen Grenze zu untersuchen“ und diese Forschung zur Bereitstellung sicherer Modelle für die Öffentlichkeit zu nutzen. Stand November 2025 wird Anthropic mit über 350 Milliarden US-Dollar bewertet.[4]

Schnelle Fakten
Anthropic PBC
Logo
Rechtsform Public Benefit Corporation (PBC)
Gründung 2021
Sitz San Francisco, Kalifornien,
Vereinigte Staaten Vereinigte Staaten[1]
Leitung Dario Amodei (CEO)
Daniela Amodei (Präsidentin)
Mike Krieger (CPO)
Mitarbeiterzahl 2.300 (2025)[2]
Branche Künstliche Intelligenz
Website anthropic.com
Stand: November 2025
Schließen

Geschichte

Gründung und frühe Entwicklung (2021–2022)

Die Geschwister Daniela Amodei und Dario Amodei, von denen letzterer zuvor als Forschungsdirektor bei OpenAI tätig war, gründeten Anthropic im Jahr 2021 zusammen mit fünf weiteren ehemaligen OpenAI-Mitarbeitern, darunter Jared Kaplan, Jack Clark und Ben Mann.[5][6] Beide hatten OpenAI aufgrund von Richtungsdifferenzen verlassen, die insbesondere OpenAIs Kooperation mit Microsoft ab 2019 betrafen.

Im April 2022 gab Anthropic bekannt, 580 Millionen US-Dollar an Finanzierung erhalten zu haben,[7] darunter eine 500-Millionen-Dollar-Investition von FTX unter der Leitung von Sam Bankman-Fried.[8][9] Im Sommer 2022 schloss Anthropic das Training der ersten Version von Claude ab, veröffentlichte sie jedoch nicht und verwies auf die Notwendigkeit weiterer interner Sicherheitstests und den Wunsch, kein potenziell gefährliches Rennen zur Entwicklung immer leistungsfähigerer KI-Systeme auszulösen.[10]

Große Investitionen (2023–2024)

Im September 2023 kündigte Amazon eine Partnerschaft mit Anthropic an. Amazon wurde zunächst mit 1,25 Milliarden US-Dollar Minderheitsaktionär und plante eine Gesamtinvestition von 4 Milliarden US-Dollar.[11] Die restlichen 2,75 Milliarden wurden im März 2024 investiert.[12] Im November 2024 investierte Amazon weitere 4 Milliarden und verdoppelte damit seine Gesamtinvestition auf 8 Milliarden US-Dollar.[13] Als Teil der Vereinbarung nutzt Anthropic Amazon Web Services (AWS) als primären Cloud-Anbieter und stellt seine KI-Modelle AWS-Kunden zur Verfügung.[11]

Im Oktober 2023 investierte Google 500 Millionen US-Dollar in Anthropic und verpflichtete sich zu weiteren 1,5 Milliarden US-Dollar über die Zeit.[14] Im März 2025 erklärte sich Google bereit, weitere 1 Milliarde US-Dollar in Anthropic zu investieren.[15]

Zu den weiteren Investoren gehört die Wagniskapitalfirma Menlo Ventures mit 750 Millionen US-Dollar.[16]

Rekrutierung (2024)

Im Februar 2024 stellte Anthropic den ehemaligen Leiter der Partnerschaften von Google Books, Tom Turvey, ein und beauftragte ihn damit, „alle Bücher der Welt“ zu beschaffen. Das Unternehmen begann dann mit destruktiver Buchdigitalisierung, um „Millionen“ von Büchern zur Schulung von Claude zu digitalisieren.[17]

Im Jahr 2024 gewann Anthropic mehrere namhafte Mitarbeiter von OpenAI, darunter Jan Leike, John Schulman und Durk Kingma.[18]

Weitere Finanzierung und Partnerschaften (2025)

Anthropic sammelte im März 2025 3,5 Milliarden US-Dollar in einer Serie-E-Finanzierungsrunde und erreichte eine Post-Money-Bewertung von 61,5 Milliarden US-Dollar, angeführt von Lightspeed Venture Partners mit Beteiligung mehrerer großer Investoren.[19][20]

Im März 2025 kündigten Databricks und Anthropic an, dass Claude in die Databricks Data Intelligence Platform integriert werden würde.[21]

Im Mai 2025 kündigte das Unternehmen Claude 4 an und führte sowohl Claude Opus 4 als auch Claude Sonnet 4 mit verbesserten Programmierfähigkeiten und anderen neuen Funktionen ein. Es führte auch neue API-Funktionen ein, darunter den Connector zum Model Context Protocol (MCP). Das Unternehmen veranstaltete im selben Monat seine erste Entwicklerkonferenz.[22] Ebenfalls im Mai startete Anthropic eine Websuch-API, die Claude den Zugriff auf Echtzeitinformationen aus dem Internet ermöglicht.[23] Claude Code, Anthropics Programmierassistent, wechselte von der Forschungsvorschau zur allgemeinen Verfügbarkeit mit Integrationen in VS Code und JetBrains-IDEs sowie Unterstützung für GitHub Actions.[24]

Im September 2025 schloss Anthropic eine Serie-F-Finanzierungsrunde ab und sammelte 13 Milliarden US-Dollar bei einer Post-Money-Bewertung von 183 Milliarden US-Dollar. Die Runde wurde gemeinsam von Iconiq Capital, Fidelity Management & Research und Lightspeed Venture Partners geleitet, mit Beteiligung der Qatar Investment Authority und anderer Investoren.[25][26] Im selben Monat gab Anthropic bekannt, dass es seine Produkte nicht mehr an Gruppen verkaufen werde, die mehrheitlich im Besitz chinesischer, russischer, iranischer oder nordkoreanischer Unternehmen sind, aus Gründen der nationalen Sicherheit.[27]

Im Oktober 2025 kündigte Anthropic eine Cloud-Partnerschaft mit Google an, die Zugang zu bis zu einer Million von Googles benutzerdefinierten Tensor Processing Units (TPUs) gewährt. Laut Anthropic wird die Partnerschaft bis 2026 mehr als ein Gigawatt KI-Rechenkapazität online bringen.[28]

Im November 2025 kündigten Nvidia, Microsoft und Anthropic eine Partnerschaftsvereinbarung an. Nvidia und Microsoft sollten bis zu 15 Milliarden US-Dollar in Anthropic investieren, und im Gegenzug erklärte Anthropic, 30 Milliarden US-Dollar an Rechenkapazität von Microsoft Azure auf Nvidia-KI-Systemen kaufen zu wollen.[29]

Ebenfalls im November 2025 berichtete Anthropic, dass von der chinesischen Regierung gesponserte Hacker Claude verwendet hatten, um automatisierte Cyberangriffe gegen etwa 30 globale Organisationen durchzuführen. Die Hacker hatten Claude dazu gebracht, automatisierte Teilaufgaben auszuführen, indem sie vorgaben, es handele sich um Verteidigungstests.[30][31]

Im Dezember 2025 erwarb Anthropic die Software-Plattform Bun, um die Geschwindigkeit und Stabilität von Claude-Code zu verbessern.[32] Außerdem unterzeichnete Anthropic eine mehrjährige Partnerschaft über 200 Millionen US-Dollar mit Snowflake, um Claude-Modelle über die Snowflake-Plattform verfügbar zu machen.[33]

Unternehmensstruktur

Laut Anthropic ist das Ziel des Unternehmens die Erforschung der Sicherheit und Zuverlässigkeit von KI-Systemen.[34] Die Amodei-Geschwister gehörten zu denen, die OpenAI aufgrund von Richtungsdifferenzen verließen.[6]

Anthropic ist als Delaware Public Benefit Corporation (PBC) eingetragen, was es den Direktoren ermöglicht, die finanziellen Interessen der Aktionäre mit dem öffentlichen Nutzzweck des Unternehmens in Einklang zu bringen.[35]

Anthropics „Long-Term Benefit Trust“ ist ein zweckgebundener Treuhandfonds für „die verantwortungsvolle Entwicklung und Wartung fortschrittlicher KI zum langfristigen Nutzen der Menschheit“. Der Trust hält Klasse-T-Anteile an der PBC, die es ihm ermöglichen, Direktoren in den Vorstand von Anthropic zu wählen.[36] Stand Oktober 2025 sind die Mitglieder des Trusts Neil Buddy Shah, Kanika Bahl, Zach Robinson und Richard Fontaine.[37]

Top-Führungskräfte

  • Dario Amodei: Mitgründer und CEO
  • Daniela Amodei: Mitgründerin und Präsidentin
  • Mike Krieger: Chief Product Officer[38]
  • Jack Clark: Mitgründer und Leiter für Politik[39]
  • Jan Leike: Co-Leiter des Alignment Science Teams[40]

Produkte

Claude

Claude ist eine Familie von Sprachmodellen, die von Anthropic entwickelt wird. Der Name „Claude“ wurde als Referenz an den Mathematiker Claude Shannon gewählt, der die Grundlagen der Informationstheorie legte.[9]

Die Claude-Familie umfasst die drei Hauptvarianten Haiku (klein und schnell), Sonnet (mittelgroß) und Opus (am leistungsfähigsten). Die aktuelle Generation ist Claude 4.6, mit Claude Opus 4.6 als dem fortschrittlichsten Modell (veröffentlicht Februar 2026).

Claude integriert „Constitutional AI“, um Sicherheitsrichtlinien für die Ausgabe des Modells festzulegen.[41]

US-Militär und Geheimdienste

Im November 2024 ging Anthropic eine Partnerschaft mit Palantir und Amazon Web Services ein, um das Claude-Modell US-Geheimdiensten und Verteidigungsbehörden zur Verfügung zu stellen.[42][43] Im Juni 2025 kündigte Anthropic ein „Claude Gov“-Modell an, das Stand Juni 2025 bei mehreren US-Sicherheitsbehörden im Einsatz war.[44]

Im Juli 2025 gab das Verteidigungsministerium der Vereinigten Staaten bekannt, dass Anthropic zusammen mit Google, OpenAI und xAI einen 200-Millionen-Dollar-Vertrag für KI im Militär erhalten hatte.[45]

Im Februar 2026 stufte die US-Regierung Anthropic als Sicherheitsrisiko für die Lieferkette ein und untersagte allen Bundesbehörden mit sofortiger Wirkung die Nutzung von Anthropic-Technologie. Kriegsminister Pete Hegseth ordnete an, dass Auftragnehmer des US-Militärs keine Geschäfte mehr mit Anthropic machen dürfen. Für das Ministerium gilt eine sechsmonatige Frist, um zu einem anderen Anbieter zu wechseln. Anthropic besteht darauf, dass Künstliche Intelligenz der Firma nicht für Massenüberwachung in den USA sowie nicht in komplett autonomen Waffen eingesetzt wird. Anthropic-Chef Dario Amodei erklärte, Künstliche Intelligenz mache es möglich, verstreute Daten einzelner Menschen in großem Stil automatisiert zu einem ausführlichen Bild ihres Lebens zusammenzusetzen. Zugleich sei KI noch nicht verlässlich genug, um in vollständig autonomen Waffen eingesetzt zu werden. „Wir werden nicht wissentlich ein Produkt liefern, das Amerikas Krieger und Zivilisten in Gefahr bringt“. Der mit Anthropic konkurrierende ChatGPT-Entwickler OpenAI schloss unterdessen eine Vereinbarung mit dem US-Militär über den Einsatz seiner KI-Modelle in klassifizierten Cloud-Netzwerken.[46][47]

Bildungsprojekte

Im August 2025 gründete Anthropic ein Higher Education Advisory Board, dessen Vorsitz der ehemalige Yale-University-Präsident und ehemalige Coursera-CEO Rick Levin übernahm.[48]

Anthropic ging 2025 eine Partnerschaft mit dem isländischen Bildungs- und Kinderministerium ein, um Lehrern aus dem ganzen Land, einschließlich abgelegener Gebiete, Zugang zu Claude zu ermöglichen und KI in den täglichen Unterricht zu integrieren.[49]

Forschung

Constitutional AI

Laut Anthropic ist Constitutional AI (CAI) ein Rahmenwerk, das entwickelt wurde, um KI-Systeme mit menschlichen Werten in Einklang zu bringen und sicherzustellen, dass sie hilfreich, harmlos und ehrlich sind.[5][50]

Einige der Prinzipien von Claudes Verfassung sind aus Dokumenten wie der Allgemeinen Erklärung der Menschenrechte von 1948 und Apples Nutzungsbedingungen abgeleitet.[51]

Interpretierbarkeit

Anthropic veröffentlicht auch Forschungsarbeiten zur Interpretierbarkeit von Systemen des maschinellen Lernens, wobei der Schwerpunkt auf der Transformer-Architektur liegt.[52]

Im Jahr 2024 gelang es Anthropic mit einer rechenintensiven Technik namens „Dictionary Learning“, Millionen von Features in Claude zu identifizieren, darunter beispielsweise eines, das mit der Golden Gate Bridge assoziiert ist.[53][54]

Im März 2025 deutete Forschung von Anthropic darauf hin, dass mehrsprachige LLMs Informationen teilweise in einem konzeptuellen Raum verarbeiten, bevor sie sie in die entsprechende Sprache umwandeln. Es fand auch Hinweise darauf, dass LLMs manchmal vorausplanen können.[55][56]

Automatisierung

Im September 2025 veröffentlichte Anthropic einen Bericht, der besagt, dass Unternehmen KI hauptsächlich zur Automatisierung statt zur Zusammenarbeit nutzen, wobei drei Viertel der Unternehmen, die mit Claude arbeiten, es für „vollständige Aufgabendelegation“ verwenden.[57] Anfang des Jahres hatte CEO Dario Amodei vorhergesagt, dass KI Arbeitsplätze für Büroangestellte eliminieren würde, insbesondere Einstiegspositionen in Finanzen, Recht und Beratung.[58][59]

Rechtliche Fragen

Am 18. Oktober 2023 wurde Anthropic von Concord, Universal, ABKCO und anderen Musikverlagen verklagt wegen, laut der Klage, „systematischer und weitverbreiteter Verletzung ihrer urheberrechtlich geschützten Songtexte“.[60][61]

Im August 2024 wurde eine Sammelklage gegen Anthropic in Kalifornien wegen angeblicher Urheberrechtsverletzung eingereicht.[62] Am 23. Juni 2025 erteilte das United States District Court for the Northern District of California ein summarisches Urteil zugunsten von Anthropic, dass die Verwendung digitaler Kopien der Werke der Kläger zum Zweck des Trainings von Anthropics LLMs eine faire Nutzung war. Es stellte jedoch fest, dass Anthropic Millionen von Raubkopien von Bibliotheksbüchern verwendet hatte und dass eine solche Verwendung von Raubkopien keine faire Nutzung sein konnte. Im September 2025 erklärte sich Anthropic bereit, Autoren 1,5 Milliarden US-Dollar zu zahlen, um den Fall beizulegen, was 3.000 US-Dollar pro Buch plus Zinsen entspricht. Der vorgeschlagene Vergleich ist die größte Urheberrechtsauflösung in der Geschichte der USA.[63][64]

Im Juni 2025 verklagte Reddit Anthropic mit der Behauptung, dass Anthropic Daten von der Website unter Verletzung der Reddit-Nutzervereinbarung abgreift.[65]

Siehe auch

Einzelnachweise

Related Articles

Wikiwand AI