Attaque au cocktail Molotov chez Sam Altman : le face-à-face entre les géants de l'IA
Attaque chez Sam Altman : le duel des géants de l'IA

Une nuit de violence dans le brouillard de San Francisco

Vendredi 10 avril, à 4 h 12, le quartier huppé de Russian Hill à San Francisco est plongé dans une brume épaisse. C'est dans ce cadre que la résidence de Sam Altman, le PDG d'OpenAI, devient la cible d'une attaque inquiétante. Un individu non identifié s'approche de la propriété, estimée à 27 millions de dollars, et lance un cocktail Molotov contre l'entrée. Les flammes orange vif illuminent soudainement l'obscurité, mais l'incendie se limite au portail extérieur, épargnant le manoir lui-même.

Moins d'une heure plus tard, l'agresseur, Daniel Alejandro Moreno-Gama, est maîtrisé par la police de San Francisco alors qu'il proférait des menaces devant les bureaux d'OpenAI. Cet incident met en lumière la vulnérabilité de Sam Altman, pourtant connu pour ses préparatifs de survie extrêmes, incluant des terres isolées, des stocks d'or et des équipements de protection.

La réponse d'Altman : entre transparence et appel au calme

En réaction, Sam Altman partage sur son blog une photo familiale avec son mari et leur fils, accompagnée d'un message visant à désamorcer les tensions. « Normalement, nous essayons de rester discrets, mais je partage cette photo dans l'espoir de dissuader de futures attaques », écrit-il. Il reconnaît les craintes légitimes face à la technologie tout en défendant sa conviction que le progrès technologique peut améliorer l'avenir. Il appelle à une désescalade de la rhétorique et des tactiques violentes, plaidant pour moins d'explosions, au sens propre comme au figuré.

Bannière large Pickt — app de listes de courses collaboratives pour Telegram

Un projet de société digne d'un candidat présidentiel

Cette attaque survient dans un contexte chargé pour Altman. Le 6 avril 2026, il publie un document de 13 pages intitulé « Politique industrielle pour l'ère de l'intelligence : des idées pour donner la priorité à l'humain ». Face à l'automatisation massive, il propose un nouveau pacte social incluant une semaine de 32 heures, présentée comme un « dividende d'efficacité », une taxe sur les robots, et un fonds de richesse public financé par les entreprises d'IA. Ce programme ambitieux, comparable à celui d'un candidat à la Maison-Blanche, vise à redistribuer les bénéfices de l'IA tout en instaurant des filets de sécurité automatiques.

Les révélations troublantes du New Yorker

Pourtant, le timing de cette profession de foi est éclipsé par une enquête du New Yorker publiée 24 heures plus tôt. L'article, signé Ronan Farrow et Andrew Marantz, dépeint Altman comme un autocrate manipulateur, citant des documents internes et des témoignages d'anciens collaborateurs. Il est accusé de duplicité, offrant les mêmes postes à plusieurs personnes et racontant des histoires contradictoires. Alors qu'il plaide publiquement pour la régulation, il la torpillerait en coulisses pour protéger la croissance d'OpenAI.

La rivalité philosophique avec Dario Amodei

L'enquête révèle aussi la fracture profonde entre Altman et Dario Amodei, cofondateur d'Anthropic. Ce dernier, traumatisé par la mort prématurée de son père, développe une obsession du contrôle qui influence sa vision de l'IA. Là où Altman voit un moteur de croissance, Amodei perçoit un système potentiellement incontrôlable. Cette divergence provoque leur séparation en 2020, conduisant Amodei et sa sœur Daniela à fonder Anthropic, une entreprise axée sur une IA éthique et régulée.

Le dilemme éthique d'Anthropic

Anthropic se présente comme le gardien du temple avec sa « Constitution » de 23 000 mots pour son IA Claude. Cependant, l'entreprise fait face à un dilemme avec son nouveau modèle, Claude Mythos, capable d'exploiter des failles de cybersécurité à une échelle industrielle. En réponse, Amodei lance le Project Glasswing, promettant une transparence inédite, tout en limitant l'accès à un cercle restreint d'acteurs majeurs. Certains critiques, comme Yann Le Cun, y voient une manœuvre marketing pour verrouiller le marché par la peur.

Bannière post-article Pickt — app de listes de courses collaboratives avec illustration familiale

La troisième voie de Demis Hassabis

Face aux extrêmes, Demis Hassabis, cofondateur de DeepMind, propose une alternative. Pour lui, l'IA doit servir à résoudre les grands défis de l'humanité, comme la maladie et le changement climatique, plutôt qu'à inonder le monde de chatbots. Il regrette que la course commerciale ait détourné la mission originelle de l'IA, déclarant : « Nous avons peut-être échangé la chance de guérir le cancer contre un chatbot. » Avec Isomorphic Labs, il utilise l'IA pour concevoir des médicaments anticancéreux, dont les premiers essais cliniques sont prévus pour fin 2026.

L'appel européen d'Arthur Mensch

Le 7 avril 2026, Arthur Mensch, cofondateur de Mistral AI, présente à Bruxelles un plan de 22 mesures pour éviter que l'Europe ne devienne une « colonie technologique ». Il préconise une préférence européenne dans les marchés publics, une « AI Blue Card » pour attirer les talents, et des investissements massifs dans les infrastructures. Pour lui, le statu quo signifierait une voix affaiblie sur la scène mondiale.

Conclusion : un avenir à définir

L'attaque contre Sam Altman symbolise les peurs et les tensions entourant l'IA. Entre le messianisme d'Altman, l'alarmisme d'Amodei, et l'approche utilitaire de Hassabis, le débat sur l'avenir de cette technologie reste vif. La question centrale demeure : peut-on faire confiance à ceux qui façonnent notre avenir numérique ? Alors que l'Europe cherche sa voie, la nécessité d'une régulation équilibrée et d'une éthique robuste s'impose plus que jamais pour éviter que la peur ne se transforme en violence.