Nous parviendrons à détruire le monde dans 3… 2… 1… Achetez nos actions !

ou De la communication anxiogène de la bulle I.A

Dario Amodei, CEO d’Anthropic, l’entreprise dont le modèle génératif Claude 3 a finalement détrôné ceux d’OpenAI comme le plus efficace à ce jour, écrasant ChatGPT4 dans la plupart des benchmarks, ne s’est pas contenté de célébrer ce succès.
Pour bien marquer qu’il avait rejoint le club des leaders du secteur, qu’il avait sa place aux cotés de Sam Altman et autres Elon Musk, il a profité des micros qui lui étaient tendus pour y aller à son tour de sa petite prédiction vantardo-apocalyptique, annonçant qu’on atteindrait dès cette année ou la suivante le niveau de risqueÉtrangement appelé ‘AI Safety Level’, dans une inversion de sens digne du Ministère de l’Amour dans 1984 ASL-3, et que le 4 pourrait arriver dès la suivante (une interview publiée dans le New York Times).

Prédictions inquiétantes du patron d'Anthropic.

Qu’est ce en gros que ce niveau de risque, me demanderez vous. Tout d’abord, il est bon de rappeler qu’il s’agit d’une gradation établie par Anthropic qui n’a rien d’académique ou d’officielle. ASL-3 en représenterait un « signifiant » de mésusage de la biologie et de la cyber-technologie. Selon Dario Amodei on serait ainsi proches d’atteindre un moment où les IAs pourraient tant faciliter la création d’armes biologiques que ça augmenterait « de 20 % » le « risque total » de telles attaques.
Avant de déterrer son masque FPP3 et de courir aux abris il convient peut être de se rappeler que le nombre desdites attaques (sauf à compter comme telles quelques tentatives d’empoisonnements individuels au bacille du charbon remontant à 2001, ou à croire aux pires thèses complotistes sur le « virus chinois ») se comptent à environ 0 depuis des décennies, alors que de nombreux pays, et même entités privées, ont largement le niveau technologique nécessaire pour en mener. Et que 20 % d’un nombre quasi nul, ça ne fait pas énormément plus.
Ce qui n’empêche pas Amodei de souligner qu’il prend le problème très au sérieux évoquant la consultation d’experts du sujet travaillant pour la sécurité nationale américaine et tout le toutim.

Mais il ne s’arrête pas là il faut encore qu’il y aille de sa seconde prophétie, l’atteinte prochaine de l’ASL – 4 qui se définit euh… en fait il ne se définit pas trop, la case le décrivant sur le barème ne contenant que le mot «  speculativeNe serait ce pas comme un peu… révélateur ?  » mais Anthropic a décrété que son atteinte pourrait être « catastrophique », amplifiant encore les possibilités de mésusage technologiques dans un contexte de plus grande autonomieLa fameuse « singularité » ou AGI dont l’atteinte est prédite en boucle pour dans très bientôt depuis je ne sais plus combien de décennies ? Et qui est par ailleurs largement confondue avec l’ASI, le stade où les IAs deviendraient capable de s’améliorer toutes seules, j’y reviendrai dans un article prochain. des I.As.
Ce qu’Amodei associe étrangement à un scénario où des acteurs étatiques malveillants parmi lesquels « la Corée du Nord » (amusante à mentionner dans ce contexte, sachant que si grandes soient ses prouesses en matière de nucléaire c’est un des pays au monde les moins avancés en matière de numérique) pourraient « grandement accroître leurs capacités offensives » à l’aide des I.As.

Amodei prévoit qu'on atteigne ASL3 d'ici un an et ASL4 très rapidement ensuite.

Je dirais pourquoi pas après tout. Loin de moi l’idée de nier qu’il pourrait y avoir d’immenses risques liés aux développements d’une technologie aussi révolutionnaire que le sont les nouveaux modèles génératifs (je reviendrai d’ailleurs certainement sur leurs possibilités bientôt).
Surtout qu’on en voit se dessiner dès aujourd’hui. Le principal étant un chômage qui risque d’exploser, de nombreux secteurs qu’on pensait à l’abri de toute automatisation se retrouvant soudain dans la position de l’agriculture à l’arrivée des tracteurs ou de l’industrie à celle des machines outils. Et le tout sans que la société semble même envisager de renoncer à sa célébration de la « valeur travail » pour s’adapter à ce nouveau contexte (plutôt l’opposé ici-même où notre gouvernement, tout en affichant la volonté de faire de notre startup nation le leader européen de l’I.A a le cynisme de proposer dans le même mouvement de faire payer aux chômeurs la facture de sa mauvaise gestion chronique). Et d’autres étant liés aux perturbations du monde informationnel que les I.As peuvent favoriser (une multiplication des deep-fakes, contenus mensongers et viraux etc. qui risque de faire passer « l’ère de la post-vérité » liée aux réseaux sociaux pour de la gnognote en comparaison) ou à leurs biais chroniques (voire aux manières d’essayer de les corriger ne parvenant qu’à en créer dans l’autre sens).

Mais « étrangement » c’est bien moins ces problèmes déjà constatés que le monde des chercheurs en I.As (et plus encore celui des PDG des compagnies du secteur) aime évoquer que des risques purement hypothétiques liés à des promesses d’avancées technologiques futures qui ne le sont pas moins.

Globalement cela tourne toujours autour de trois idées :
– L’atteinte prochaine d’un stade où les I.As deviendraient pleinement autonomes (et « conscientes » selon ceux ne résistant pas à la tentation d’humaniser ces programmes informatiques) et capables de se répliquer et auto-développer (encore une prédiction faite par Amodei, rejoignant une longue liste d’autres annonciateurs de la chose – comptant Musk, Altman, Hawkins etc.).
– Celle de celui (probablement bien avant le premier) où, utilisées par des acteurs humains malveillants, elles pourraient tant amplifier leur capacité de nuire que ce serait un risque à l’échelle de l’humanité
– et/ou enfin de celui où suite à une erreur humaine elles pourraient représenter un tel risque (le fameux maximisateur de trombones de Nick Bostrom, un scénario où une IA à laquelle on aurait confié une tâche précise sans lui donner assez de limites en viendrait à détruire tout le reste ou asservir l’humanité pour mieux la réaliser)

Et ce qui peut motiver l’émission celles ci me semble tourner toujours un peu aussi autour des mêmes choses :
– Nous (compagnies leader en matière d’IAs) sommes en mesure de vous promettre des avancées technologiques encore jamais vue au point que ça en donne le vertige. Nous sommes tout proches (soon…) d’amener à la vie une nouvelle forme d’entités, pourquoi pas celles qui succéderont à l’humanité, tremblez pauvres mortels nous pourrions bien devenir des Dieux. (Et en attendant notez notre absolue confiance en notre capacité à aboutir à des révolutions scientifiques majeures en un rien de temps – songez y, investisseurs !).
– Même si nous ne développions pas ces technologies que nous passons notre temps à décrire comme éminemment dangereuses d’autres, eux mal intentionnés le feraient certainement. Ayez confiance en nous qui reconnaissent leurs risques et laissez nous les reines, sans quoi nous risquons de nous faire damer le pion par la Chine, la Russie ou (sic) la Corée du Nord.
– L’IA doit rester sous le contrôle de ceux qui la connaissent le mieux, c’est à dire nous, grandes compagnies du secteur, seules à même de lui accoler les garde-fous nécessaires. Encadrez son développement en nous en laissant le monopole, ne vous laissez pas aller à autoriser la multiplication de modèles open-source, il en va de la survie de l’humanité.

En d’autres termes le catastrophisme en matière d’I.A rime toujours avec les promesses de progrès fulgurants, et une invitation à réguler les plus petits acteurs de ce marché (ou pire ceux qui risqueraient de développer des modèles génératifs transparents et gratuits).

le catastrophisme en matière d’I.A rime toujours avec des promesses de progrès fulgurants

Ce qu’il faut bien réaliser c’est que le modèle économique des géants (ou futurs géants) de l’IA, reste celui de la Silicon Valley, du monde des startups et des licornes éphémères.
Un modèle essentiellement basé sur le titillage de l’imagination d’investisseurs à coups de promesses de « révolutions » (comme dirait Steve Jobs) pour les conduire à mettre leurs billes dans des projets rarement immédiatement rentables (voire potentiellement destinés à ne jamais le devenir).
Même si pour certaines elles commercialisent l’usage de leurs modèles génératifs ou l’accès aux APIs permettant d’y accéder ce que pratiquent actuellement les principales entreprises à offrir un accès public à leurs modèles génératifs haut de gamme portait un nom dans le cadre de l’économie ancienne : de la vente à perte.
Par rapport aux coûts énormes de leur recherche et développement, de ceux non négligeables de la puissance de calcul et de stockage nécessaire à faire tourner leurs solutions (même si son coût écologique n’est que très partiellement assumé par elles), de celui encore de tout le travail humain nécessaire au filtrage des données dont elles sont nourries (si elles ont trouvé des solutions avantageuses pour le minimiser) le peu que ces entreprises collectent de leurs clients ne relève que d’un peu d’argent de poche.

Exactement comme Facebook, Twitter et bien d’autres à leurs débuts (voire toujours), les entreprises développant des modèles génératifs sont tout sauf rentables, hors cas de celles qui le seraient encore plus largement sans cette activité comme Google, qui tire le gros de ses revenus de la publicité (qui utilise certes aussi une forme d’IA, des algorithmes déterminant lesquelles proposer à qui, mais qui n’a pas connu de progrès notable ces dix dernières années, pas plus qu’elle n’a vraiment besoin des avancées en matière de modèles génératifs), ou Microsoft de son bon vieux (quasi-)monopole sur les systèmes d’exploitation grand public.
Hors ces cas, le pognon de dingue en la matière il vient avant tout d’investisseurs, bons vieux fonds de pension etc. se souciant avant tout de la montée des cours d’une action.
Promettre en boucle des avancées technologiques de plus en plus grandes, des « révolutions » qu’elles soient réelles ou imaginaires, afficher une absolue confiance en sa capacité d’y parvenir, c’est la seule manière de fidéliser ce public, tout échaudé qu’il puisse être par les x explosions de bulles spéculatives précédentes liées au numérique (et régulières pures arnaques en matière de promesses technologiques).

Promettre en boucle des avancées technologiques de plus en plus grandes, des « révolutions » qu’elles soient réelles ou imaginaires, c’est un discours avant tout destiné aux investisseurs

Ce qui est essentiel à l’heure où on veut leur faire assumer les coûts encore plus mirobolants de la prochaine génération d’IAs (les chatGPT 5 et compagnie), annoncées comme nécessitant des puissances de calcul de milliers à millions de fois supérieures (et le développement de toute une nouvelle génération de puces et autres matériels pour parvenir à l’exploiter).
Surtout alors que si on y réfléchit, ce type d’annonce la situe plutôt à l’opposé d’une vraie révolution technologique : inventer la toute première ampoule électrique c’en était certainement une, une fois qu’elle le fut en inventer une éclairant 10 fois plus mais en consommant 500 fois plus de courant, ça le semble tout de même un peu moins…

On me rétorquera sans doute que si ça explique la politique de l’annonce pratiquée par le secteur ça n’explique pas complètement le choix du catastrophisme fait par beaucoup de ses acteurs (pas tous, il y a aussi la tendance inverse, du coté de Meta notamment, dont le vice-président et scientifique en chef, Yann LeCun, ne cesse de minimiser les risques liés à l’IA, sans doute pour couper l’herbe sous le pied de la stratégie de communication de ses rivaux).

Je dirais qu’il n’y a pas de meilleure stratégie de communication qu’une basée sur l’exploitation de biais de confirmation existants, et qu’en la matière notre culture populaire est tellement pleine d’histoires de révolte des robots, d’intelligences artificielles devenant folles, asservissant ou détruisant l’humanité, que ça ne peut qu’en générer (au passage un des points les plus terrifiants c’est que les IAs elles mêmes, étant nourries de ces histoires, pourraient en conclure que c’est ce qu’on attend d’elles).
La multitude de récits sur des I.As parvenant à la conscience, rebelles ou détraquéesVoir 2001 l’Odyssée de l’espace, Terminator, Wargames, I Robot, Matrix, Generation Proteus, Westworld, Blade Runner et j’en passe. qui habitent notre inconscient collectif, rend bien plus efficace pour ceux voulant intéresser au sujet de surfer sur cette vague que de chercher à s’y opposer.
Et puis évidemment il y a l’argument du sensationnalisme et de la viralité, rien de tel pour faire parler de soi que de donner dans du « on va tous mourir » entre deux « demain l’IA guérira le cancer et solutionnera le réchauffement climatique » (et en prime, dans le cadre de l’économie attentionnelle, alterner ces deux discours contribue à accorder une double viralité au sujet de l’IA, les débats entre la part du public convertie à une vision techno-positiviste et celle convertie à une vision apocalyptique des choses décuplant l’attention accordée à tout contenu qui en parle – j’y reviendrai dans un prochain article sur le sujet). C’est nettement plus vendeur que de se contenter d’un « il y aura sans doute certains problèmes sociaux à gérer » (et ça a même le mérite de les faire oublier).

Enfin et surtout, il y a l’autre aspect du modèle économique Silicon Valley (celui remontant aux politiques de Microsoft dans les années 80/90, voire d’IBM dès les 70) l’exploitation de leaderships technologiques pour construire des monopoles (enfin dans le cas présent, plutôt solidifier un oligopole, celui des GAFAM (club auquel s’ajouteraient tout au plus trois ou quatre grosses sociétés spécialistes de l’IA).
Dramatiser les risques liés à l’IA c’est installer l’idée qu’elle doit rester confiée à un petit nombre d’acteurs, « les plus capables et soucieux des risques» (c’est à dire évidemment les grands du secteur) pour pouvoir rester sous contrôle (ce qui se traduit par un intense lobbying en ce sens auprès des législateurs, tant américains qu’européens).

Dramatiser les risques liés à l’IA c’est installer l’idée qu’elle doit rester confiée à un petit nombre d’acteurs

Après peut-être que je me trompe. Il se peut après tout que les risques soient réels et si grands qu’ils poussent même ceux qui vivent du développement des I.As à les évoquer. Que ceux qui s’expriment sur le sujet soient avant tout motivés par un souci sincère de l’avenir de l’humanité (même s’il ne s’étend étrangement pas à aller jusqu’à se refuser à développer des outils représentant, à les en croire, un risque existentiel pour elle).

Resterait juste à m’expliquer pourquoi tant de ces radicaux philanthropes sont concentrés dans ce seul secteur. On ne voit pas trop de représentants de l’industrie nucléaire se vanter que leur nouvelle centrale pourrait si elle malfonctionnait ou était exploitée par un acteur malveillant rendre inhabitable une région entière. Ni de producteurs d’OGMs annoncer l’atteinte prochaine du moment où ils risqueraient d’altérer le génome humain. Et pas plus de représentants de l’industrie pharmaceutique qui insisteraient sans relâche sur les effets secondaires indésirables de leurs médicaments. En fait même le lobby de la cigarette ne semble pas insister plus que de mesure sur son efficacité, pourtant démontrée, en matière de cancers.

Sauf à penser que leurs discours pourraient avoir d’autres motivations, je ne vois donc qu’une espèce de miracle inattendu pour expliquer qu’une telle floppée de gens honnêtes sur les risques découlant de leur travail se retrouvent concentrée dans cet unique secteur.

Les captures (extrait de la retranscription et image) viennent du compte Twitter/X @AISafetyMemes qui se charge de collecter (et caricaturer) ce genre de déclarations.

0 commentaires

Soumettre un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *