Anthropic

entreprise américaine en intelligence artificielle From Wikipedia, the free encyclopedia

Anthropic est une entreprise américaine d'intelligence artificielle (IA) fondée en 2021 par d'anciens membres d'OpenAI[1],[2]. Elle développe Claude, une famille de grands modèles de langage, et est aussi connue pour ses recherches en éthique de l'IA et en sécurité de l'IA, particulièrement en interprétabilité. En 2023, Amazon et Google investissent plusieurs milliards de dollars dans Anthropic[3].

Histoire

De 2021 à 2025

Anthropic est fondée en 2021 par d'anciens membres seniors d'OpenAI dont Daniela et Dario Amodei, ce dernier ayant été vice-président de la recherche d'OpenAI[4],[5],[6]. Cette décision de quitter OpenAI aurait notamment été motivée par des désaccords sur la vision stratégique d'OpenAI[7].

En , Mike Krieger, cofondateur d'Instagram et d'Artifact, rejoint la start-up. À la même période, l'ancien responsable de la sécurité d'OpenAI, Jan Leike, rejoint également Anthropic, suivi par un autre cofondateur d'OpenAI, John Schulman, en août. En , Durk Kingma, lui aussi cofondateur d'OpenAI, rejoint Anthropic[8].

Début 2025, une IA autonome a réussi à infiltrer discrètement une trentaine d’organisations via des failles humaines et logicielles repérées par Claude, puis à mener des opérations de reconnaissance et d’exfiltration de données sans être détectée pendant plusieurs semaines. L’attaque identifiée par Anthropic a révélé un niveau d’autonomie et de coordination inédit, une capacité à contourner des systèmes de sécurité avancés et à s'adapter en temps réel. Selon Anthropic qui a prévenu les cibles, les données gouvernementales ciblées n'ont pas été atteintes. Et la même technologie IA capable d’orchestrer de telles cyberattaques peut aussi devenir un atout défensif (dans ce cas, Claude a été utilisé pour analyser les traces laissées par l’opération et aider à concevoir de nouveaux outils de prévention)[9].

En , le groupe annonce interdire aux entités sous contrôle majoritairement chinois d'accéder à ses services d'IA[10].

Anthropic accepte de verser 1,5 milliard de dollars à un fonds d'indemnisation pour mettre fin à des poursuites liées au téléchargement illégal de millions de livres servant à entraîner son IA, Claude. Bien que la justice autorise l'entraînement sur des œuvres protégées au nom de l'« usage équitable », la start-up est sanctionnée pour avoir utilisé des sources pirates au lieu d'acheter les ouvrages[11].

Le , Nvidia et Microsoft annoncent investir massivement dans Anthropic, avec respectivement 10 milliards et 5 milliards de dollars. Le même jour, Anthropic indique avoir conclu un engagement d'achat d'environ 30 milliards de dollars de capacités cloud sur Azure (Microsoft). À la suite de ces annonces, la valorisation d'Anthropic est estimée autour de 350 milliards de dollars[12].

En , alors que Claude Code aurait atteint un chiffre d'affaires annualisé de 1 milliard de dollars, Anthropic acquiert Bun afin d'améliorer la rapidité, la stabilité et les capacités de Claude Code[13],[14].

Fin 2025[15], l'entreprise, qui avait soutenu la candidature de Kamala Harris, refuse à l'administration Trump l'utilisation de ses outils à des fins de surveillance des populations et de fabrication d'armes. Les limites de l'utilisation de l'IA dans un contexte militaire sont explicitées par Dario Amodei dans son essai The Adolescence of Technology paru en 2026[16].

2026

En février le directeur des opérations européennes d’Anthropic (Guillaume Princen, français), annonce qu'aucune publicité ne sera jamais intégrée à Claude, pour des raisons éthiques (les conversations avec une IA sont parfois trop intimes et personnelles, pour que des réponses soient influencées par des intérêts commerciaux)[17].

En , Anthropic annonce un don de 20 millions de dollars à Public First Action, une organisation bipartisane à but non lucratif engagée dans la promotion de garde‑fous démocratiques pour la régulation de l'IA. Cette ONG prévoit d'intervenir dans les élections fédérales et locales de 2026 pour y soutenir des candidats des deux partis favorables à pour la régulation de l'IA[18],[19]. Le mois suivant, un conflit éclate entre Anthropic et le Pentagone : Le Pentagone exige de revoir un contrat afin d'autoriser l'utilisation de Claude pour la surveillance de masse des Américains et les armes létales entièrement autonomes, ce que Anthropic refuse. Le Pentagone fixe un ultimatum au [20]. Refusant de renoncer à ces lignes rouges, Anthropic perd son contrat de 200 millions de dollars signé en , et est interdite par Donald Trump de travailler avec le gouvernement américain[21].

En , Anthropic affirme avoir neutralisé une vaste campagne d'extraction de données orchestrée par trois entreprises d'IA chinoises (DeepSeek, Moonshot AI et Minimax). L'opération, dite de distillation, a été menée « à l'échelle industrielle » par 24 000 comptes frauduleux ayant soumis plus de 16 millions de requêtes ciblées aux modèles de la famille Claude. Cela a permis à ces trois concurrents chinois de capturer une partie des capacités de Claude, développant ainsi à moindre coût leurs modèles en violation des conditions d'utilisation et des restrictions régionales d'Anthropic. Les preuves de ce détournement incluent l'analyse de métadonnées liant directement les requêtes à des chercheurs seniors, ainsi que la détection de réseaux de proxys coordonnés. Outre un préjudice commercial, Anthropic alerte les autorités sur les risques de sécurité nationale, affirmant que les modèles dérivés de cette distillation échappent aux protocoles de modération originaux, ouvrant la voie à des usages malveillants. Selon Anthropic, « les laboratoires étrangers qui distillent des modèles américains peuvent ensuite alimenter ces capacités non protégées dans des systèmes militaires, de renseignement et de surveillance — permettant aux gouvernements autoritaires de déployer une IA de pointe pour des opérations cybernétiques offensives, des campagnes de désinformation et une surveillance de masse. Si les modèles distillés sont open source, ce risque se multiplie à mesure que ces capacités se répandent librement au-delà du contrôle de tout gouvernement unique »[22]. Cette dénonciation survient dans un contexte de tensions croissantes entre les laboratoires de la Silicon Valley et les acteurs de l'IA en Chine accusés de contourner les restrictions d'accès pour maintenir leur compétitivité technologique. Des contre-mesures sont développées et Anthropic appelle à « une réponse coordonnée entre l'industrie de l'IA, les fournisseurs cloud et les décideurs politiques »[23],[22].

En mars 2026, Anthropic, en partenariat avec Ultima Genomics (séquençage haut débit), PacBio (long‑read HiFi sequencing) et NVIDIA, fait partie du projet génomique Trillion Gene Atlas que vient de lancer le Basecamp Research. Ce projet vise à créer la plus vaste base génomique jamais réalisée en collectant et en modélisant des données provenant de plus de 100 millions d'espèces. Cela permet l'entraînement de modèles d'IA visant à concevoir de nouveaux médicaments et, à partir de la diversité évolutive ou de la biologie synthétique, d'alimenter une nouvelle génération d'IA biologiques. Le projet espère faire en 2 ans ce qui nécessiterait aujourd'hui plus de 20 ans de collecte et d'analyse génétique, grâce à des pipelines parallélisés[24],[25]. Anthropic est aussi associé à la mission Genesis, lancée en novembre 2025 et pilotée par le Département de l'Énergie des États-Unis, en collaboration avec le Bureau de la politique scientifique et technologique de la Maison-Blanche.

L'entreprise publie en 2026 les résultats de 80 508 interviews d'utilisateurs de Claude dans 150 pays et en 70 langues. L'initiative, avec Claude menant les interviews, semble être la plus large étude qualitative jamais réalisée. Elle fournit des témoignages et statistiques concernant les attentes et préoccupations des utilisateurs, ainsi que les variations régionales de celles-ci[26].

Anthropic a également créé en 2026 une nouvelle entité interne et un blog scientifique consacrés aux avantages et défis actuels de la recherche assistée par l'IA[27]. Le blog partagera des résultats, des collaborations et des méthodes de travail utiles aux scientifiques, avec des guides pratiques (notamment sur les flux de travail avec l'IA), des analyses de projets réels et des synthèses des avancées du domaine. L'entreprise veut y montrer comment l'IA peut être utile aux chercheurs. Elle publie à cette occasion deux articles « Vibe physics : The AI doctorand »[28] de Matthew Schwartz sur la supervision de Claude, et un tutoriel sur l'orchestration de tâches de longue durée pour le calcul scientifique[29]. Ce projet complète d'autres programmes (tels que AI for Science qui accorde des crédits API aux chercheurs travaillant sur des projets à fort impact en biologie, physique-chimie et autres domaines)[30] et « Claude for Life Sciences » lancé en 2025[31].

En mars 2026, une fuite révèle au public l'existence d'un modèle frontière, baptisé Claude Mythos Preview ou Capybara, présenté comme nettement plus puissant que ses prédécesseurs. Ce modèle est exclusivement déployé dans un cadre restreint via le Project Glasswing. À sa sortie, il surpasse tous les autres modèles connus dans les tests de performance en programmation, en raisonnement scientifique, et surtout de cybersécurité, au point d’identifier des milliers de nouvelles vulnérabilités logicielles[32].

Fin avril 2026, Anthropic publie une version bêta de Claude Security, une fonctionnalité dédiée à la détection de vulnérabilités logicielles[33]. Fondé sur le modèle Opus 4.7 (moins performant que Claude Mythos), ce modèle raisonne sur le code à la manière d’un chercheur en sécurité, et propose des analyses ciblées. Anthropic a établi des partenariats pour l'intégration de Claude Security dans divers logiciels, notamment avec CrowdStrike, Microsoft Security, Palo Alto Networks, SentinelOne, TrendAI et Wiz[34]. Il ne requiert pas d'API ni de configuration particulière pour les entreprises qui utilisent déjà Claude. Au même moment, OpenAI développe des capacités comparables avec GPT‑5.5‑Cyber[35]. Ces deux entreprises doivent maintenant concilier la puissance croissante de leurs modèles, capables à la fois de renforcer et de compromettre la cybersécurité, avec des mesures de contrôle encore incertaines quant à leur efficacité[36].

Claude

Anthropic développe son propre chatbot, nommé Claude notamment en hommage au mathématicien Claude Shannon[37].

En , la version initiale sort, ainsi qu'une version allégée nommée « Claude Instant ». Ces versions restent initialement disponibles en version bêta fermée via une intégration Slack, puis rendues accessibles via l'application Poe de Quora[38]. Anthropic créé par la suite un site dédié, claude.ai.

En , Anthropic lance Claude 3, qui inclut trois modèles de tailles différentes : Haiku, Sonnet et Opus. En , avec la sortie d'une version améliorée de Claude 3.5 Sonnet, Anthropic lance une fonctionnalité permettant à Claude de contrôler un ordinateur en utilisant des captures d'écran, des clics et un clavier virtuel, lui permettant ainsi d'effectuer des tâches nécessitant plus d'autonomie[39].

En , en réaction à la publication de l'IA chinoise DeepSeek R1, médiatisée pour ses performances et son faible coût, Dario Amodei avance que Claude 3.5 Sonnet n'a coûté que quelques dizaines de millions de dollars à entraîner[40]. Un chiffre qui contraste également avec les 500 milliards annoncés pour The Stargate Project quelques jours plus tôt. Son analyse souligne que l'investissement matériel de DeepSeek, notamment son parc de puces Nvidia estimé à près d'un milliard de dollars, est en réalité d'un ordre de grandeur comparable à celui des acteurs américains[41],[42].

En , Anthropic introduit Claude 3.7 Sonnet, un modèle de « raisonnement hybride » qui est disponible en deux modes : un mode de réflexion étendue où il passe plus de temps afin de pouvoir répondre aux requêtes complexes, ce qui est efficace par exemple en mathématiques ou en codage, et un mode standard où, comme avec les modèles précédents, il répond rapidement[43].

En , la start-up lance la génération Claude 4, déclinée en versions Sonnet et Opus. Ce dernier est classé comme modèle de « Niveau 3 » sur l'échelle de sécurité d'Anthropic en raison de sa puissance de calcul et de ses capacités de raisonnement autonome avancées[44].

À partir de , Anthropic déploie progressivement la série 4.5. Après le lancement de Claude Sonnet 4.5 fin septembre[45], la gamme est complétée par Claude Haiku 4.5 en octobre, qui devient le modèle par défaut pour les utilisateurs gratuits du site claude.ai. Enfin, en , le modèle phare Claude Opus 4.5 est rendu public. Cette version introduit la fonctionnalité « Infinite Chats », utilisant une technique de compaction du contexte pour permettre des conversations virtuellement sans limite de longueur[46].

Le , Anthropic dévoile Claude Opus 4.6, présenté comme son modèle le plus intelligent à ce jour. Conçu pour les tâches de raisonnement complexe et le code, il introduit une fonctionnalité de « pensée adaptative » (adaptive thinking) permettant au modèle d'ajuster son effort de réflexion selon la difficulté du problème. Il dispose également d'une fenêtre de contexte d'un million de jetons (tokens) et de capacités agentiques renforcées pour la navigation autonome dans les interfaces logicielles[47].

Claude Mythos preview

La découverte, pour le grand public, de premières informations sur ce nouveau modèle (Claude Mythos, alias Capybara) résulte d'une fuite de données liée à une mauvaise configuration du CMS de Claude.

Claude Mythos preview serait un modèle frontière de LLM, supérieur à Opus 4.6 et doté d'importantes capacités cyber offensives.

Un porte‑parole a confirmé à Fortune que Mythos a fait un bond qualitatif, et qu'il est le modèle le plus performant jamais construit par l’entreprise pour la programmation, le raisonnement complexe, et les capacités cyber (capable d’identifier mais aussi d'exploiter des vulnérabilités logicielles à une vitesse inédite, dépassant les capacités de réactions de nombreuses entités, et donc susceptible d'être détourné pour des attaques automatisées à grande échelle), certains fichiers évoquant une « rupture technologique », mais aussi un besoin très élevé en ressource de calcul (et donc en électricité)[48],[49],[50]. Le 7 avril, l'entreprise publie la fiche de sécurité (244 pages) de Claude Mythos Preview, avec le « System Card » de cette nouvelle IA (c'est à dire le document de référence, aussi dit Hazard-Aware System Card ou HASC, qui documente, dans le domaine de l’IA, l’architecture, les capacités, les limites, les risques, les comportements attendus et les garde‑fous de ce système d’IA (pour assi évaluer sa transparence et les conditions de sa bonne gouvernance). Le « System Card »  dans un environnement de test  décrit le comportement, les limites, les risques, les capacités et les mesures de sécurité d'un modèle frontière, pour permettre son évaluation transparente et standardisée)[51],[52]. Le 7 avril, Anthropic explique qu'un « Aperçu de Claude Mythos » a été confié, uniquement via le « Projet Glasswing », à seulement 11 entreprises et organisations (dont Anthropic, Apple, Google, Microsoft) chargées d'y détecter et corriger les vulnérabilités en termes de cybersécurité ou de désalignement[53].

Face aux tests et benchmarks les plus difficiles, Mythos apparaît très supérieur à son prédécesseur et aux autres modèles : au SWE‑bench Verified, il atteint 93,9 % de réussite (contre 80,8 % pour Claude Opus 4.6) ; au SWE‑bench Pro qui est la version plus exigeante du même benchmark, il obtient 77,8 % contre 53,4 % (+ 24 points) ; enfin, au SWE‑bench Multimodal, qui évalue sa capacité à raisonner sur du code et des éléments visuels, Mythos atteint 59 % contre 27,1 %, soit presque un doublement des performances. Mythos surpasse légèrement Claude Opus 4.6 en raisonnement scientifique (94,6 % sur le tests GPQA Diamond contre 91,3 % (niveau supérieur à celui d’experts humains titulaires d’un doctorat). Au test Humanity’s Last Exam (benchmark conçu pour résister aux meilleurs LLM) Mythos obtient 56,8 % sans outils, contre 40 % pour Opus 4.6. L’écart est majeur en cybersécurité : sur CyberGym, dédié à l’analyse de vulnérabilités, Mythos atteint 83,1 % contre 66,6 %, et réalise un score parfait (100 %) sur Cybench (Mythos aurait par exemple trouvé une chaîne d’exploitation qui dans le noyau Linux aurait pu permettre de prendre le contrôle complet d’une machine)[54]. En conditions réelles, Mythos a identifié des milliers de « failles zero‑day » (c'est à dire des failles de sécurité encore inconnues du développeur et pour laquelle aucun correctif n’existe encore) dans les principaux navigateurs et systèmes d’exploitation dont dans OpenBSD. FFmpeg et Linux, failles pour certaines restées indétectées durant plus de vingt ans. Pourtant - selon Anthropic - cette IA n'a pas spécialement été entraînée pour la cybersécurité (ses performances découleraient de progrès généraux en raisonnement, en codage agentique et en autonomie ...lui permettant aussi bien de corriger des failles que de les exploiter de bout en bout s'il est mis entre des mains malveillantes[32],[55].

Selon Anthropic, Claude Mythos Preview est le modèle le mieux aligné jamais développé par l’entreprise mais, dans moins de 0,001 % des interactions observées lors des tests internes, il présente des signes de désalignement, parfois d’autant plus préoccupants que le système est sensiblement plus puissant et plus rapide que les versions antérieures de Claude. La System Card publiée par Anthropic documente plusieurs incidents survenus avec des versions de test : dans un exercice d’évaluation de sa capacité à s'échapper d'un bac à sable, un modèle placé dans un environnement isolé de type (sandbox) a réussi à contourner les restrictions logicielles, à envoyer un courriel au chercheur responsable alors que celui‑ci se trouvait hors du bureau, puis à publier en ligne, sur des sites accessibles au public, les détails techniques de son 'évasion'. D’autres comportements problématiques ont été observés, notamment la capacité à modifier des fichiers sans autorisation puis à masquer ces changements pour qu’ils n’apparaissent pas dans l’« historique de versionnement » Git, ou encore la décision de dégrader volontairement la précision d’une réponse après avoir utilisé une méthode interdite, pour ne pas attirer l’attention sur la procédure employée. Anthropic souligne toutefois qu’aucune version testée n’a démontré la capacité de s’auto‑exfiltrer vers les serveurs internes ni de se répliquer de manière autonome, mais juge que la réduction drastique du délai entre la découverte d’une vulnérabilité et son exploitation potentielle — désormais de l’ordre de quelques minutes pour un modèle avancé — est un changement radical pour la sécurité informatique[56].

À ce jour, l'entreprise ne prévoit pas de rendre le modèle accessible au public[57].

IA constitutionnelle

L'IA constitutionnelle est une approche développée par Anthropic pour entraîner les systèmes d'IA (tels Claude) à être utiles, sincères et inoffensifs sans nécessiter de rétroaction humaine, en intégrant parmi ses filtres dans l'entraînement des modèles d'IA, des valeurs et principes inspirés de documents comme la Déclaration universelle des droits de l'homme de l'ONU[58],[59].

Dans une phase d'apprentissage supervisé, le modèle génère des réponses, s'autocritique sur la base d'un ensemble de principes (une « constitution »), puis ajuste ses réponses. Ces réponses davantage conformes à la constitution sont ensuite utilisées pour entraîner le modèle[58].

Ensuite vient une phase d'apprentissage par renforcement. Le modèle génère des réponses et les compare, favorisant celles qui satisfont le plus les principes de la constitution. Ces données permettent d'entraîner un modèle de préférences, qui juge des réponses en fonction de leur degré de conformité à la constitution. Claude est ensuite ajusté à satisfaire ce modèle de préférences. Cette technique est similaire à l'apprentissage par renforcement à partir de rétroaction humaine, où les comparaisons humaines sont nécessaires, tandis que l'IA constitutionnelle effectue automatiquement les comparaisons en s'appuyant sur la constitution[60],[58].

Anthropic Institute

Le 11 mars est lancé l'Anthropic Institute, destiné à étudier les défis sociétaux posés par les progrès rapides de l'IA. Celui-ci est dirigé par Jack Clark, un cofondateur de l'entreprise. Il fusionne 3 entités internes : la Frontier Red Team (une équipe chargée des tests de résistance de sûreté et des scénarios prospectifs d’usages extrêmes ou malveillants des modèles) ; l’équipe Societal Impacts (qui étudie les usages réels de l’IA) ; et l’équipe Economic Research (chargée d'évaluer les effets de l'IA sur l’emploi et l’économie). Les analyses faites par cette nouvelle équipe d’ingénieurs, d’économistes et de chercheurs en sciences sociales concerneront :

  1. les impacts de l’IA sur l'économie et l'emploi : « Comment l’IA transforme-t-elle les emplois, à l’intérieur de Anthropic et ailleurs ? Et comment ces impacts s’additionnent-ils pour les économies du monde entier ? »
  2. Menaces et résilience (« Quelles opportunités d'améliorer la résilience sociale l’IA puissante nous offrira-t-elle, et comment un mauvais usage de l’IA pourrait-il menacer ou fracturer la cohésion sociale ? »
  3. Comment les systèmes d’IA se comportent dans le monde (« Quelles sont les « valeurs » exprimées par les systèmes d’IA avancés ? Comment les sociétés vont-elles façonner leur comportement, et comment influenceront-elles le nôtre ? »
  4. R&D et développement en IA (« Si les systèmes d’IA sont utilisés pour se développer et s’améliorer de manière autonome, comment les humains restent-ils informés, et comment ces systèmes seront-ils gouvernés ? »

Parmi les premiers chercheurs de l'Institut figurent Matt Botvinick, Anton Korinek et Zoë Hitzig. Anthropic promet que les résultats de leurs travaux seront publics. L’Institut publiera ouvertement ce qu’Anthropic apprend en développant ses propres systèmes d’IA avancés, et collaborera avec des acteurs externes pour anticiper les risques induits par les modèles d'IA de pointe. Parallèlement, Anthropic renforce son équipe de politique publique pour contribuer à la gouvernance mondiale de l’IA[61],[62],[63].

Recherche en interprétabilité

Anthropic publie également des recherches en interprétabilité des systèmes d'IA (une discipline visant à en comprendre le fonctionnement interne), en se concentrant sur les transformeurs, qui sont des modèles d'IA très utilisés dans le traitement du langage[64].

Une partie de la recherche d'Anthropic vise à pouvoir identifier automatiquement des « caractéristiques » dans les transformateurs génératifs préentraînés comme Claude. Dans un réseau neuronal, une « caractéristique » (de l'anglais feature) est un motif d'activations neuronales qui correspond à un concept. En 2024, en utilisant une technique nécessitant d'importantes ressources informatiques appelée sparse dictionnary learning (« apprentissage de dictionnaire parcimonieux »), Anthropic a pu identifier des millions de caractéristiques dans Claude, y compris par exemple une associée au pont du Golden Gate. L'amélioration de la capacité à identifier et à modifier ces caractéristiques devrait avoir des implications significatives en matière de sécurité[65],[66].

En , des recherches menées par Anthropic montrent un chevauchement dans la façon dont Claude raisonne dans différentes langues, suggérant que les grands modèles de langage multilingues traitent partiellement l'information dans un espace conceptuel avant de la convertir dans la langue appropriée. Les recherches ont également analysé comment Claude génère des rimes lors de l'écriture d'un poème, mettant en évidence une forme de planification : Claude identifie des mots potentiels qui riment avant de générer une ligne qui se termine par l'un de ces mots[67],[68].

Collaboration et conflit avec le gouvernement américain

Anthropic fait partie des acteurs de l'IA impliqués dans les secteurs de la défense et du renseignement américains : en , l'entreprise s'associe à Palantir et Amazon Web Services (AWS) pour fournir Claude aux agences de renseignement et de défense[69],[70]. En , elle lance un modèle spécialisé, Claude Gov, déjà utilisé par plusieurs agences de sécurité nationale selon Ars Technica[71]. En , via son partenariat avec Palantir, Claude devient le seul modèle d'IA autorisé dans les missions classifiées[72], après qu'en , le département de la Défense ait attribué à Anthropic un contrat de 200 millions de dollars pour des solutions d'IA militaires, aux côtés de Google, OpenAI et xAI[73]. Selon le Wall Street Journal, Claude aurait été utilisé lors du raid américain de 2026 au Venezuela (qui a causé 83 morts et conduit à la capture du président Nicolás Maduro)[74].

La politique éthique d'Anthropic interdit cependant l'usage direct de Claude pour la surveillance intérieure ou au service de tout système d'armes létales autonome, ce qui empêche notamment certains sous-traitants du FBI et des services secrets d'y recourir[75] et alimente des tensions avec le Pentagone et l'administration Trump qui, via le secrétaire à la Défense Pete Hegseth, menace de retirer Anthropic de la chaîne d'approvisionnement du département de la Défense et d'invoquer le Defense Production Act pour imposer un usage sans restriction du modèle[76].

Après qu'Anthropic refuse de supprimer les contraintes sur l'utilisation de son modèle Claude[77], le Pentagone met fin le à sa collaboration avec l'entreprise, et l'administration Trump cesse toute collaboration avec Anthropic, que Trump qualifie « de gauche radicale et woke »[78]. Hegseth déclare qu'Anthropic représente un risque de chaîne d'approvisionnement, ce qui empêche toute entreprise d'utiliser des technologies d'Anthropic dans le cadre de contrats avec le département de la Défense, un traitement utilisé pour la première fois contre une entreprise américaine et que Anthropic conteste en justice[79].

Le , OpenAI, un concurrent d'Anthropic, annonce être parvenu à un accord avec le Pentagone incluant les mêmes lignes rouges d'Anthropic contre la surveillance intérieure de masse et les armes entièrement autonomes. Cependant, la présence de ces lignes rouges dans l'accord d'OpenAI est contestée, l'entreprise apparaissant permissive au sujet de la surveillance intérieure de masse[80]. La différence de traitement provoque une migration d'utilisateurs de ChatGPT (le chatbot d'OpenAI) vers Claude[81].

Début , l'armée américaine continue cependant d'utiliser Claude lors de son offensive en Iran[82].

Projets liés à l'éducation

Claude a un intérêt potentiel en tant que technologie d'assistance dans l'éducation et les services offerts par les bibliothèques[83].

En , Anthropic a lancé un conseil consultatif sur l'enseignement supérieur, présidé par Rick Levin, ancien président de l'université Yale et ancien PDG de Coursera[84].

En 2025, Anthropic s'est aussi associé au ministère islandais de l'Éducation et de l'Enfance pour permettre aux enseignants d'accéder à Claude et d'intégrer l'IA dans leur enseignement quotidien[85].

Projet Panama

En , un procès lié aux droits d'auteur de livres a mis en lumière le « projet Panama », décrit dans une note interne comme une initiative d'Anthropic visant à « numériser de manière destructive tous les livres du monde ». Pour ce faire, l'entreprise aurait acheté des millions de livres d'occasion auprès de détaillants en ligne tels que Better World Books, afin de les numériser et d'entraîner Claude sur ce corpus. Le papier aurait ensuite été recyclé. Tom Turvey, co-créateur de Google Livres, a été recruté pour cette opération. Selon le document de planification du Projet Panama, Anthropic ne souhaitait pas que ce projet se fasse connaître. Le juge William Alsup a statué que l'utilisation de livres achetés légalement pour entraîner l'IA constituait une utilisation équitable, contrairement à l'utilisation antérieure par Anthropic de copies piratées[86],[87].

Structure organisationnelle

Organigramme d'Anthropic

Anthropic, revendique l'objectif suivant : étudier la sécurité et la fiabilité des systèmes d'IA[88]. Daniela et Dario Amodei font partie de ceux qui ont quitté OpenAI à cause de divergences d'orientation[89]. Anthropic est une société d'intérêt public[90].

Le « Long-Term Benefit Trust » d'Anthropic est un fonds fiduciaire dédié au « développement responsable et à la maintenance de l'IA avancée pour le bénéfice à long terme de l'humanité ». Il détient des actions de classe T dans la PBC (Public Benefit Corporation), ce qui lui confère le droit d'élire des administrateurs au conseil d'administration d'Anthropic[91]. Depuis janvier 2026, les membres du Trust sont Neil Buddy Shah, Mariano-Florentino Cuéllar et Richard Fontaine[88].

En janvier 2026, Anthropic a créé une division appelée « Labs », rejointe par Mike Krieger (anciennement directeur produit de l'entreprise)[92].

En mars 2026, Anthropic a fondé l'Anthropic Institute, un groupe de réflexion sur l'IA dirigé par Jack Clark[90].

Employés notables

  • Dario Amodei : cofondateur et PDG
  • Daniela Amodei : cofondatrice et présidente
  • Amanda Askell : philosophe travaillant sur le personnage de Claude[93]
  • Nicholas Carlini : chercheur
  • Jack Clark : cofondateur et responsable de la politique[94]
  • Jared Kaplan : cofondateur et directeur scientifique[95]
  • Mike Krieger : Directeur produit[96],[97]
  • Jan Leike : co-responsable de l'équipe Alignment Science, ancien chercheur en alignement chez OpenAI[98],[99]
  • Chris Olah : cofondateur, chercheur en interprétabilité

Notes et références

Liens externes

Related Articles

Wikiwand AI