Plus de 1000 personnalités (dont Steve Wozniak) réclament l’arrêt total de l’IA
Quand même les plus technophiles commencent à douter du sens du vent, il faut peut-être les écouter.
En tout, ils sont plus de mille figures publiques, scientifiques, prix Nobel, anciens responsables militaires et dirigeants politiques qui viennent de signer un appel à la suspension immédiate de toute recherche visant à créer une « superintelligence ». Une IA plus intelligente que l’humain lui-même, qui pourrait le surpasser dans tous les domaines, capable d’apprendre, de raisonner et de créer mieux que nous.
Le rêve mouillé des prophètes de la Silicon Valley (l’intelligence artificielle générale ou AGI), mais le cauchemar pour ceux qui mesurent vraiment les implications qu’aurait l’émergence d’une telle technologie.
La révolte des inventeurs contre leur propre création
Cette immense levée de boucliers est menée par le Future of Life Institute, un organisme à but non lucratif basé à Cambridge (Massachusetts), qui vient de publier une déclaration. Signée par plus d’un millier de personnalités de divers horizons, son but est d’interdire purement et simplement la course à la superintelligence, tant qu’aucun consensus scientifique ni accord démocratique n’en garantit la sécurité.
Parmi elles : Steve Wozniak, cofondateur d’Apple, Geoffrey Hinton, prix Nobel et pionnier du deep learning, Yoshua Bengio, Stuart Russell, ou encore d’anciens hauts gradés militaires et responsables politiques américains. Même des figures que l’on attendait un peu moins sur ce front ont apposé leurs signatures. C’est le cas du rappeur Will.i.am ou Steve Bannon, ex-membre de la marine américaine, homme d’affaires et militant conservateur de l’alt-right américaine.
Le manifeste, baptisé Statement on Superintelligence, va droit au but, et ses mots sont durs : « Les outils d’intelligence artificielle les plus avancés promettent des progrès spectaculaires dans la santé et la prospérité humaine. Cependant, parallèlement à ces technologies, de nombreuses grandes entreprises du secteur affichent ouvertement leur objectif : créer une superintelligence d’ici la prochaine décennie […] Cette perspective suscite de profondes inquiétudes, allant du risque d’obsolescence économique et sociale de l’humain, à la perte de liberté, de dignité et de contrôle, sans oublier les menaces pour la sécurité nationale et même la possibilité d’une extinction de l’espèce humaine ».
Un discours alarmiste, visant directement les géants du secteur de la tech, accusés de mener une course à l’IA sans prendre leurs responsabilités. « Nous avons, d’une certaine manière, laissé ce choix se faire à notre place par les fondateurs des entreprises d’IA et par le système économique qui les pousse, » déplore Anthony Aguirre, directeur général du Future of Life Institute. « Mais personne n’a vraiment demandé au reste du monde : est-ce bien ce que nous voulons ? »
Une fracture grandissante entre la recherche et l’industrie
Factuellement, Aguirre n’est pas si éloigné de la réalité. Mark Zuckerberg affirme désormais que la superintelligence « se profile à l’horizon », tandis qu’Elon Musk soutient qu’elle « est déjà en train de se produire ». Sam Altman, PDG d’OpenAI, prévoit quant à lui son arrivée « au plus tard d’ici 2030 ». Évidemment, aucun de ces trois dirigeants ou leurs entreprises n’ont signé le texte.
Il existe aujourd’hui un immense clivage, que rien ne semble vouloir combler. Les chercheurs et penseurs de l’éthique de l’IA mettent en garde contre un risque existentiel, estimant que l’humanité n’a pas les outils techniques ou l’encadrement politique pour encadrer une intelligence qui lui serait supérieure. En face, les géants de la Silicon Valley voient en cette perspective une opportunité commerciale et de domination techno-économique qu’il serait aberrant de rater.
Si les deux discours ont leurs arguments valables, cette peur que certains nourrissent face à la superintelligence nous renvoie à une angoisse très ancienne. Nous craignons et ne supportons pas le reflet de nous-mêmes que la machine, si elle existe un jour, peut nous renvoyer. Nous voulons créer une AGI à notre image, mais redoutons qu’elle fasse mieux (et pire) que nous. Finalement, nous revoilà face à cette vieille peur : celle de l’hubris, de Prométhée qui a volé le feu au dieu et s’est retrouvé entravé à un rocher pour son acte de rébellion. Si l’on en revient à la dimension technologique de la question, l’IA est devenue une force productrice de nos sociétés, et comme toute force, elle peut s’émanciper de ses créateurs à mesure qu’elle gagne en puissance. Ne nous leurrons pas, la publication du Statement on Superintelligence ne changera strictement rien, mais c’est peut-être la première fois que la tech signe un manifeste pour se protéger d’elle-même.
- Plus d’un millier de personnalités, dont Steve Wozniak et Geoffrey Hinton, appellent à stopper la course à une intelligence artificielle plus puissante que l’humain.
- Le manifeste du Future of Life Institute dénonce une innovation privée qui avance sans contrôle ni débat collectif.
- Derrière la peur de la superintelligence se cache une interrogation plus profonde : que deviendra l’homme face à une technologie capable de le dépasser ?

Patrick70
23 octobre 2025 à 19 h 46 min
Article bien écrit. Bravo Camille !
ETiPhoneMaison
23 octobre 2025 à 20 h 37 min
C’est trop tard, le mal est fait !…🤦♀️
Soldaf inconu
23 octobre 2025 à 23 h 14 min
Voir Terminator 1, 2, 3…
keny
24 octobre 2025 à 5 h 24 min
Super article 👍🏻
Skynet, nous voilà !
Haznut
24 octobre 2025 à 19 h 55 min
Très bon article de fond