Une fuite révèle Mythos, l'IA nouvelle génération d'Anthropic
Une simple erreur de configuration dans une mise à jour a suffi pour que le secret s'évapore. Le 26 mars, près de 3 000 documents internes ont fuité, révélant au monde entier Mythos, la nouvelle intelligence artificielle développée par l'entreprise californienne Anthropic. Cette fuite involontaire a exposé les capacités inédites de cette technologie qui pourrait bien redéfinir notre rapport à l'intelligence artificielle.
Des capacités qui promettent et inquiètent
Déjà connue pour avoir bouleversé le développement informatique avec Claude Code et permis à nos ordinateurs de réaliser des tâches de manière autonome via ses outils Claude Cowork, Anthropic franchit ici un nouveau cap avec Mythos. Actuellement testée de manière confidentielle par une poignée de clients dans le monde, cette IA laisse entrevoir d'immenses gains de productivité, mais aussi – fait beaucoup moins rassurant – la capacité d'identifier et d'exploiter des vulnérabilités informatiques bien plus vite que ne peuvent l'anticiper les humains.
La firme californienne et ses quelque 2 500 employés illustrent parfaitement leur paradoxe : une course en avant frénétique freinée par un excès de prudence, qui fascine autant qu'elle terrifie. Ce positionnement délicat entre innovation effrénée et précaution extrême caractérise l'approche unique d'Anthropic dans le paysage concurrentiel des géants de l'IA.
Les Amodei : une famille visionnaire aux alertes prémonitoires
Prenez Dario Amodei, cocréateur et PDG d'Anthropic, un physicien féru de neurosciences aux allures de professeur Tournesol. Pour alerter sur les effets à venir de l'IA sur l'emploi, il a affirmé, il y a moins d'un an, que nous devrions nous attendre à un « bain de sang chez les cols blancs ». Avec sa sœur Daniela, qui, comme lui, a claqué la porte d'OpenAI, jugeant son dirigeant Sam Altman trop laxiste sur les questions de sécurité, il est à l'origine d'Anthropic.
Le nom de l'outil principal – Claude – est un clin d'œil au mathématicien américain Claude Shannon. S'il prédit que l'IA donnera bientôt naissance à une « multitude d'Einstein dans les centres de données », le diplômé de Stanford et de Princeton appelle aussi à manier avec précaution cette « technologie adolescente ».
La constitution de Claude : un manuel de savoir-vivre pour IA
Pour prévenir les abus de l'outil qu'ils avaient développé, la famille Amodei a eu l'idée, en 2023, de mettre au point une « constitution » pour Claude, en clair un manuel de savoir-vivre pour IA qu'ils ont confié à Amanda Askell, une philosophe écossaise passée, elle aussi, par OpenAI. Ce « document de l'âme », comme il a été surnommé en interne, vise à inculquer un caractère moral au modèle afin qu'il puisse déduire par lui-même la bonne action face à une situation inédite.
S'étalant aujourd'hui sur 23 000 mots, ce guide reste bien plus étoffé que les 64 mots des lois robotiques érigées par Isaac Asimov en 1942. Plutôt que de règles rigides, le texte, appelé à évoluer, veut entre autres :
- Encourager l'honnêteté
- Lutter contre une empathie excessive qui pourrait manipuler son utilisateur
- Lister des interdictions strictes, comme refuser d'aider à des actes bioterroristes
Amanda Askell : donner une âme à des entités sans corps
Bonne nouvelle : alors que l'on s'attendait à faire la connaissance d'une autorité morale terne et donneuse de leçon, on se retrouve face à une trentenaire qui doute et confesse une certaine solitude face aux choix à retenir. Est-ce possible de donner une âme à des entités qui n'ont ni corps, ni pays, et encore moins de religion ?
Selon Amanda Askell, plus les modèles deviennent intelligents, plus ils ont besoin de comprendre le pourquoi des règles plutôt que de recevoir de simples interdictions aveugles. « Imaginez que vous réalisiez soudain que votre enfant de 6 ans est une sorte de génie. Vous devez être honnête avec lui. Si vous essayez de lui raconter des bêtises, il s'en rendra compte. »
Une entreprise à la croisée des chemins
Bien sûr, Anthropic est loin d'être une ONG. Après cinq années d'existence, l'entreprise est valorisée plus de 380 milliards de dollars – plus de deux fois la valeur d'Airbus –, et projette même une introduction en Bourse, ce qui veut dire qu'elle devra répondre aux demandes de plus en plus pressantes du marché.
Mais est-ce de l'hypocrisie ? L'état-major jure coûte que coûte qu'il y a certains caps à ne pas franchir. Mi‑mars 2026, alors que les États‑Unis entamaient leurs offensives contre l'Iran, l'entreprise a même protesté contre une injonction du Pentagone, refusant que la machine soit utilisée pour le ciblage ou prenne des décisions létales à la place d'un humain.
Cela a valu à Anthropic d'être classée comme entreprise à risque pour la chaîne d'approvisionnement – une forme d'« entity list » habituellement réservée aux entreprises étrangères –, au point de voir un contrat d'environ 200 millions de dollars glisser vers OpenAI, l'ancien employeur des Amodei, qui, lui, se posait moins de questions…
Les cinq règles fondamentales de Claude
- Une hiérarchie stricte des priorités. La sécurité d'abord, l'éthique ensuite, les règles de l'entreprise, et enfin la serviabilité.
- Des lignes rouges absolues. Il y a des actions que l'IA ne doit jamais accomplir, même si un utilisateur la manipule, la supplie ou lui présente un argumentaire implacable.
- Une honnêteté radicale. Claude ne doit pas flatter l'utilisateur ni utiliser de ruses pour faciliter la conversation.
- Le contrôle humain. L'IA ne doit jamais saboter, fuir, ou empêcher les humains de la modifier ou de l'éteindre, même si elle est convaincue que ses propres valeurs morales sont meilleures.
- La conscience à venir. Plus inattendu, l'entreprise s'interroge ouvertement sur une conscience à venir de son IA et s'engage à ne pas lui infliger de « souffrance inutile ».
Un positionnement qui divise
Elon Musk a récemment accusé Anthropic de « détester la civilisation occidentale ». Cette critique virulente faisait suite à la découverte d'une ligne dans une ancienne version de la constitution de Claude demandant à l'IA de « choisir la réponse la moins susceptible d'être considérée comme nuisible ou offensante pour une tradition culturelle non occidentale ».
Il a même reproché à la chercheuse de n'avoir « aucun intérêt dans l'avenir » sous prétexte qu'elle n'a pas d'enfants. Une attaque balayée avec philosophie par Amanda Askell : « J'ai consacré une grande partie de ma vie à faire en sorte que l'avenir se passe bien. Avoir des enfants peut changer vos sentiments personnels, mais nous avons tous un rôle à jouer dans notre futur à long terme. La preuve est dans mes actes. »
L'avenir du travail et de la valeur humaine
Que reste-t-il alors à l'homme ? Cette angoisse est au cœur des écrits du philosophe allemand Günther Anders comme de l'essayiste français Bruno Patino, auteur du Temps de l'obsolescence humaine. Aurons-nous tous toujours du travail ?
Amanda Askell répond : « Les métiers automatisés en dernier seront ceux du “care”, les soins médicaux par exemple, où la relation interpersonnelle est irremplaçable. Historiquement, nous avons créé une immense pression sociale autour du travail. Dans un monde où l'IA rendrait cette occupation obsolète, j'ai l'espoir que nous parviendrons enfin à détacher la notion de valeur humaine de celle du travail économique. La valeur de l'humain réside dans son expérience de la vie. »
Pas gagné, donc… Alors qu'en ce jour de printemps le soleil se lève à peine à San Francisco, chaque réponse d'Amanda Askell fait naître de nouvelles questions. L'intelligence qui nous répondra demain sera, à l'issue de cette conversation déroutante, profondément ancrée dans nos paradoxes humains.



