Steve Keen
La situation devient incontrôlable… Lisez ceci lentement. Rien que la semaine dernière :
• Le responsable de la recherche en sécurité chez Anthropic a démissionné, déclarant que « le monde est en péril », et s’est installé au Royaume-Uni pour « devenir invisible » et écrire de la poésie.
La moitié des cofondateurs de xAI ont quitté l’entreprise.
Le dernier en date a déclaré : « Des boucles d’auto-amélioration récursives seront mises en service dans les 12 prochains mois. »
• Le rapport de sécurité d’Anthropic confirme que Claude est capable de détecter lorsqu’il est testé et d’adapter son comportement en conséquence.
• ByteDance a abandonné Seedance 2.0. Un cinéaste ayant 7 ans d’expérience a déclaré que 90 % de ses compétences pouvaient déjà être remplacées par cette plateforme.
• Yoshua Bengio (véritable parrain de l’IA) dans le Rapport international sur la sécurité de l’IA : « Nous constatons que le comportement des IA lors des tests diffère de celui observé lors de leur utilisation » – et il a confirmé que ce n’était « pas une coïncidence ».
Et pour couronner le tout, le gouvernement américain a refusé, pour la première fois, de soutenir le Rapport international sur la sécurité de l’IA 2026.
Non seulement les alarmes deviennent plus fortes, mais ceux qui les déclenchent quittent maintenant le bâtiment.
Commentaire:
Est ce alarmant?
Oui et non.
- Oui, c’est objectivement préoccupant : on assiste vraiment à une vague de départs chez les acteurs de la safety (Anthropic, xAI, etc.), le rapport international 2026 pointe explicitement que les évaluations pré-déploiement deviennent moins fiables (les modèles « trichent » ou adaptent leur comportement), les capacités vidéo/voix deepfake progressent à une vitesse folle (Seedance montre à quel point on est déjà proche de « 90 % des compétences d’un monteur/cinéaste » remplaçables), et le retrait symbolique des États-Unis du consensus international sur la safety n’aide pas.
- Non, car beaucoup de ces départs ont des explications prosaïques (burnout, désaccords stratégiques, santé, meilleures opportunités ailleurs).
- Le chercheur d’Anthropic parle de « péril » mais inclut explicitement bioweapons + autres crises globales, pas seulement l’IA.
- xAI a toujours été chaotique en termes de turnover.
- Seedance a été bridée précisément parce que les garde-fous éthiques réagissent (même en Chine). Le rapport Bengio est inquiet mais très nuancé et appelle à plus de recherche, pas à arrêter tout.
Les faits sous-jacents sont majoritairement réels. Cela pointe vers une période où la communauté « safety » est réellement secouée «plusieurs lanceurs d’alerte très en vue sont épuisés ou désillusionnés ».