L’histoire d’Anthropic, c’est un peu comme un roman d’aventure technologique : des esprits brillants quittent un géant de l’IA pour tracer leur propre chemin, avec une promesse d’éthique et de sécurité. Fondée en 2021 par des ex-d’OpenAI, Anthropic s’est imposée comme un acteur clé dans la course à l’intelligence artificielle, avec son modèle Claude.
Mais entre ambitions nobles, controverses et défis techniques, leur parcours est loin d’être un conte de fées.
L’équipe de Yiaho s’est plongée dans cette épopée, des origines à aujourd’hui, pour comprendre ce qui fait d’Anthropic une entreprise à part… et ce qui la rend imparfaite.
Un départ sur fond de désaccord avec OpenAI
Tout commence par une rupture. En 2021, Dario et Daniela Amodei, figures respectées chez OpenAI, claquent la porte avec une poignée de collègues, dont Tom Brown et Sam McCandlish. Pourquoi ? OpenAI, dopée par l’argent de Microsoft, s’élance dans une course à la commercialisation avec ChatGPT.
Les Amodei, eux, s’inquiètent. Ils craignent que cette ruée vers des IA toujours plus puissantes néglige les risques : biais, désinformation, ou même usages malveillants dans des domaines sensibles comme la défense. Dario, dès 2016, avait co-écrit un article sur les dangers de l’IA, Concrete Problems in AI Safety.
Cette graine d’inquiétude devient Anthropic, une entreprise qui promet de faire de l’IA autrement : plus sûre, plus transparente.
Claude entre en scène
En 2022, Anthropic dévoile Claude, un modèle de langage nommé d’après Claude Shannon, le père de la théorie de l’information.
L’idée ? Concurrencer ChatGPT, mais avec une touche de vertu. Claude est conçu pour éviter les contenus toxiques, les biais algorithmiques et les réponses hasardeuses. Plusieurs versions ont été dévoilées.
- Claude : Lancé en bêta sur Slack en 2023, puis accessible via claude.ai, il séduit par ses réponses souvent pertinentes, parfois spirituelles, et sa capacité à citer ses sources.
- Claude 2 : Lancé en juillet 2023, améliore la recette.
- Claude 3 (Haiku, Sonnet, Opus) : Lancé en mars 2024 rivalise avec les ténors du marché.
Mais Claude n’est pas parfait : il peut encore produire des erreurs, et son ton parfois trop policé agace certains utilisateurs qui le trouvent moins audacieux que ses concurrents.
L’IA constitutionnelle : belle idée, résultats mitigés
Anthropic se démarque avec une idée originale : l’IA constitutionnelle. Plutôt que de dépendre uniquement des retours humains pour corriger ses modèles, Claude suit une « constitution », un ensemble de règles inspirées de textes comme la Déclaration universelle des droits de l’homme. L’IA s’auto-évalue pour rester utile et inoffensive. Sur le papier, c’est séduisant. En pratique, ça limite certains dérapages, mais pas tous.
En 2025, un cabinet d’avocats découvre que Claude a inventé une référence dans un mémoire juridique, un rappel gênant que même une IA « éthique » peut halluciner. Sur Yiaho, nous mettons à disposition un avocat IA, mais nous rappelons toujours que nos IA peuvent commettre des erreurs et qu’il faut toujours vérifier les informations.
Anthropic travaille aussi sur l’interprétabilité, avec des outils comme le sparse dictionary learning pour décoder les rouages internes de Claude. Intéressant, mais pour l’instant, ces efforts restent techniques et peu accessibles au grand public.
Qui investit sur Anthropic ?
Anthropic n’aurait pas vu le jour sans un sérieux coup de pouce financier. Voici les prinicpaux investisseurs :
- Jaan Tallinn (Skype) mise 124 millions de dollars dès 2021,
- Sam Bankman-Fried, 500 millions, avant que l’effondrement de FTX ne jette une ombre sur cet investissement.
- Amazon 4 milliards et Google 2 milliards, offrant à Anthropic des ressources colossales via AWS et Google Cloud.
En février 2024, Menlo Ventures valorise l’entreprise à 18,4 milliards. Ces fonds permettent de rivaliser avec les géants, mais ils soulèvent des questions : comment rester indépendant avec des investisseurs aussi puissants ? Et que dire du partenariat avec Palantir et AWS en 2024 pour fournir Claude aux agences de renseignement américaines ?
Anthropic jure que c’est pour le bien commun, mais l’IA dans la défense, même avec des garde-fous, reste un terrain glissant.
Lire aussi : Anthropic va lever 2 milliards de dollars, pour une valorisation à 60 Md !
Les innovations d’Anthropic, à quel prix ?
Anthropic ne manque pas d’idées.
- En octobre 2024, Claude 3.5 Sonnet se dote d’une capacité à contrôler un ordinateur via des captures d’écran et des clics, une prouesse qui ouvre des perspectives d’automatisation.
- En février 2025, Claude 3.7 Sonnet introduit un « raisonnement hybride » pour les tâches complexes, et Claude Code devient un outil prisé des développeurs.
Mais ces avancées ont un coût. Anthropic fait face à des poursuites, comme celle d’Universal Music Group en 2023 pour violation de droits d’auteur, accusant Claude d’avoir reproduit des paroles protégées.
Et malgré ses promesses de sécurité, l’entreprise n’échappe pas aux critiques sur la transparence de ses données d’entraînement ou sur les limites de son approche éthique face à des concurrents moins regardants, notamment en Chine.
Lire également : Reddit VS Anthropic : bataille juridique autour des données d’entraînement de l’IA Claude
Une expansion mondiale, des doutes persistants ?
Anthropic s’étend rapidement. En mai 2024, Claude arrive en Europe, avec un support correct pour le français, l’allemand ou l’espagnol. Mais l’entreprise doit naviguer dans un monde complexe. Les régulations sur l’IA, comme l’AI Act européen, imposent des contraintes, et la concurrence chinoise, avec des acteurs comme SenseTime, avance sans les mêmes scrupules éthiques.
Anthropic doit aussi gérer les attentes : son discours sur la sécurité séduit, mais certains y voient une posture marketing pour se démarquer dans un marché saturé. Et quand Claude refuse certaines conversations jugées « problématiques », cela soulève des débats sur la censure et la liberté d’expression.
Anthropic, entre idéal et réalité
Anthropic, c’est l’histoire d’une équipe qui a voulu réinventer l’IA avec une boussole morale, mais qui se heurte aux réalités d’un secteur impitoyable. Leur approche constitutionnelle et leurs efforts pour rendre l’IA interprétable sont des pas intéressants, mais ils ne sont pas à l’abri des erreurs, des controverses ou des compromis.
Anthropic montre qu’on peut viser une IA plus responsable, mais elle rappelle aussi que la perfection est illusoire dans un domaine où la technologie, l’argent et l’éthique s’entremêlent. Pour votre blog, c’est une saga qui mérite d’être suivie : pas pour encenser Anthropic, mais pour comprendre les tensions et les espoirs d’un monde où l’IA redessine les règles.
Source :

