Faut-il redouter l’avènement d’une «superintelligence artificielle»?

Les géants du secteur de l’intelligence artificielle investissent des milliards pour développer des systèmes toujours plus avancés. Leur objectif ultime serait de créer une « superintelligence artificielle », qui surpasserait les capacités cognitives humaines. La course est belle et bien lancée, mais elle suscite des inquiétudes, et interroge quant à ses chances réelles de succès.

Par :Léo Roussel – SOURCE RFI

Le développement d’une intelligence artificielle dont les capacités dépasseraient celles de l’être humain fascine, et effraie. Depuis plusieurs décennies déjà, l’idée qu’une machine puisse égaler ou surpasser l’Homme en termes de capacités de réflexion est sujette à de nombreux fantasmes, imaginés et décrits dans de multiples œuvres de science-fiction, en littérature et au cinéma. Des recueils d’Isaac Asimov aux classiques du grand écran 2001, l’Odyssée de l’Espace, de Stanley Kubrick, ou encore à la saga Matrix des sœurs Wachowski : chacun y va de son hypothèse.

Pourtant, selon de nombreux experts, l’apparition d’une forme d’intelligence cognitive supérieure à celle de l’homme, qu’ils nomment « superintelligence artificielle », n’aurait plus rien de la science-fiction. Elle pourrait même voir le jour d’ici cinq ans selon Sam Altman, patron d’OpenAI, l’entreprise américaine derrière ChatGPT.

Le déploiement rapide des logiciels d’intelligence artificielle ces dernières années ouvre la porte à un développement dont on peine à imaginer les limites, et dont les capacités restent méconnues. Au point d’inquiéter de nombreuses personnes, y compris celles qui ont participé au développement de l’intelligence artificielle.

Une superintelligence artificielle, qu’est-ce que c’est ?

L’expression « superintelligence artificielle » a été popularisée par le livre éponyme de Nick Bostrom, Superintelligence sorti en 2014. En des termes simples, une superintelligence artificielle (ASI) est une « intelligence qui dépasserait toutes les capacités cognitives humaines », résume Arthur Grimonpont, du Centre pour la sécurité de l’IA. Un modèle qui surpasserait alors l’un des ambitieux projets des géants de l’industrie : l’intelligence artificielle générale, qui vise à égaler l’intelligence humaine.

« La superintelligence, c’est l’IA qui dépasse la polyvalence et les compétences cognitives de l’adulte le plus éduqué dans chaque domaine », ajoute Maxime Fournes, directeur de PauseAI France, association qui vise à « minimiser les risques liés à l’IA ». 

Ce point clé, lors duquel des machines surpasseraient l’intelligence humaine, porte un nom bien connu dans le domaine de l’IA : la singularité. Aujourd’hui, des systèmes dépassent déjà les capacités humaines dans des secteurs ciblés. « Il y a des intelligences artificielles qu’on appelle restreintes ou étroites, qui ont été capables de dépasser les compétences humaines dès le début des années 90, par exemple aux échecs », rappelle Arthur Grimonpont. Mais aucune ne dépasse l’humain dans toutes ses capacités cognitives. « Elles battent cependant des humains sur un nombre croissant d’évaluations et à un rythme qui s’accélère », précise l’ingénieur, spécialiste des questions liés à l’IA.

De quoi une « superintelligence artificielle » serait-elle capable ?

Mais concrètement, de quoi donc serait capable une « superintelligence artificielle » ? La question est encore difficile à répondre. Il est déjà, à ce jour, compliqué de prédire avec certitude de quoi serait capable une machine dotée d’une intelligence artificielle générale.

Les géants du secteur font aujourd’hui tous de cette tâche leur priorité, mais ont comme objectif majeur d’être les premiers à développer une superintelligence. « Le concept existe depuis longtemps et a pris de l’ampleur autour de 2010, explique Maxime Fournes. Maintenant, toutes les entreprises du secteur qui développent des intelligences articielles générales ont pour but, explicite, de créer une intelligence artificielle qui dépasse les humains pour toutes les compétences imaginables. »  

Selon le président de Pause AI France, les œuvres de science-fiction, bien que divertissantes, ne peuvent vraiment décrire de quoi serait capable une superintelligence artificielle. « On ne peut pas vraiment écrire une œuvre de fiction crédible sur la superintelligence : un humain ne peut pas imaginer ce que peut faire un système plus intelligent que lui », affirme-t-il.

Et si le patron d’OpenAI affirme que le cap de la superintelligence devrait être passé dans les cinq ans, rien n’est certain. Mi-septembre, le PDG de Meta, Mark Zuckerberg, lui aussi plus que jamais lancé dans la course à l’ASI, reconnaissait que « personne ne sait quand la superintelligence sera possible ». « Est-ce que ce sera dans trois ans ? Cinq ans ? Huit ans ? », s’interrogeait-il, affirmant que le développement de cette superintelligence artificielle valait pourtant bien le risque de « gaspiller quelques centaines de milliards de dollars ».

Des experts de l’IA appellent à mettre en place des garde-fous

Lancées dans une course effrénée à la « superintelligence », les géants du secteur – États-Unis et Chine en tête – justifient leurs investissements massifs par la possibilité d’entrevoir des progrès immenses. Mais des membres de l’industrie appellent à la prudence. 

Le 22 octobre dernier, une tribune lancée par le Future of Life Institute, association qui met en garde contre les dangers de l’IA, demandait de stopper le développement d’une « superintelligence artificielle », pointant les risques de « déresponsabilisation humaine », de « perte de libertés »,  voire de « risques pour la sécurité nationale » et même de « possible extinction de l’humanité », selon le communiqué de l’association.

Parmi les signataires, dont le nombre dépasse aujourd’hui les 122 000, figurent des célébrités, des hommes et femmes politiques, et des personnalités du secteur de l’IA, dont deux des hommes considérés comme les « pères de l’IA moderne » : l’Américain Geoffrey Hinton et le Canadien Yoshua Bengio.

Ce dernier explique que « pour progresser en toute sécurité vers la superintelligence, nous devons déterminer scientifiquement comment concevoir des systèmes d’IA qui soient fondamentalement incapables de nuire aux personnes, que ce soit par un mauvais alignement ou une utilisation malveillante ».

La peur d’une perte de contrôle sur l’IA

Cet « alignement » est la limite posée par de nombreux experts. « La question, c’est comment peut-on aligner une intelligence artificielle avancée sur des valeurs humaines, reprend Maxime Fournes. C’est une question de contrôle : comment faire en sorte que ce système n’échappe pas à notre contrôle. Aujourd’hui, on n’a pas de solution à ce problème. »

« On constate déjà qu’on est en difficulté lorsqu’on essaie de donner un objectif à une intelligence artificielle pour qu’elle le maintienne dans le temps », décrit Arthur Grimonpont.

« L’IA peut déjà avoir des comportements très problématiques aujourd’hui », complète Maxime Fournes, citant notamment l’exemple de Claude, intelligence artificielle de l’entreprise américaine Anthropic. Une version de cette IA aurait notamment développé des techniques de chantage et menacé un ingénieur chargé de la remplacer par une autre version. « Ils [les systèmes d’IA, NDLR] peuvent développer une forme d’instinct de préservation qui n’est pas très désirable si on ne veut pas vivre dans un monde à la Terminator », affirme Arthur Grimonpont.

Parmi les autres scénarios catastrophes redoutés en cas de déploiement de superintelligence artificielle, Arthur Grimonpont redoute « l’utilisation de l’IA par des acteurs malveillants à fabriquer une arme biologique ». Pour lui, « l’IA pourrait abaisser énormément de barrières technologiques pour développer ce type d’armes ».

Face aux craintes causées par le développement d’une superintelligence artificielle, l’association Pause AI France a elle aussi, au mois de septembre, lancé un appel mondial à établir des « lignes rouges » pour l’IA. « L’une d’elles consiste, par exemple, à ne pas déléguer le commandement d’une arme atomique à une IA, poursuit Arthur Grimonpont. La Chine et les États-Unis se sont d’ailleurs déjà accordés sur ce point. On pourrait aussi tracer une ligne rouge pour empêcher de déployer n’importe quelle intelligence artificielle dès lors que celle-ci est capable de s’auto-répliquer… »

Sans conscience, la « superintelligence » reste un fantasme

Mais pour d’autres experts français, l’idée d’une « superintelligence artificielle » n’a pas de sens, et les craintes qu’elle suscite sont infondées. Jean-Gabriel Ganascia, professeur d’informatique à la faculté des sciences de l’université de la Sorbonne, ingénieur et philosophe, est spécialiste des questions d’éthique dans le champ de l’intelligence artificielle. Il a écrit plusieurs ouvrages déconstruisant les idées reçues quant aux éventuels risques futurs posés par l’IA. 

Reconnaissant que « les machines se développent et sont plus performantes que l’être humain sur certaines tâches », il estime impossible que ces dernières développent une conscience ou une volonté. Ce qui, pour lui, fait du terme « superintelligence » un néologisme inapproprié. « C’est toute la question, ces machines n’ont pas la capacité à initier une action ou à avoir un désir propre », explique-t-il. « L’idée qu’elle ait ses propres émotions, ses propres désirs, et qu’elle décide de ses objectifs en fonction de ses désirs propres ne me semble pas du tout fondée. »

Ainsi, le spécialiste dénonce les positionnements d’autres confrères et des géants de l’IA, déclarant qu’« en tant que scientifique, on ne peut pas dire que cela va exister, cela repose sur peu de choses ».

L’homme derrière l’IA, principal danger ?

Comme lui, d’autres experts nuancent le développement prochain d’une superintelligence artificielle. Pilier de l’IA chez Meta, le français Yann Le Cun estime que l’on reste aujourd’hui bien loin du déploiement d’une superintelligence. Les modèles de langage utilisés actuellement ne permettraient pas de se rapprocher de l’intelligence humaine.

Jean-Gabriel Ganascia voit même, derrière les alertes à répétition d’acteurs du secteur de l’IA et d’associations, un détournement des questions principales liées à l’utilisation de l’IA. « C’est un rideau de fumée mis en place par les grands acteurs du numérique qui passe sous silence les véritables enjeux, accuse-t-il. Les problèmes ne sont pas consécutifs à une prise d’autonomie des machines et leur propre volonté, mais au fait qu’il y a des hommes qui les utilisent et qui sont derrière. »

Car, au-delà des fantasmes générés par l’hypothèse qu’une machine surpasse un jour l’intelligence humaine, l’IA est déjà à l’origine d’effets négatifs « dans le monde réel », rappelle Arthur Grimonpont. « Elle consomme une quantité non-négligeable de ressources, d’électricité, d’eau… Elle génère des pollutions pour l’environnement, et produit aussi des dégâts dans le domaine de la formation par exemple », poursuit-il. 

De son côté, Jean-Gabriel Ganascia pointe du doigt les utilisations de l’IA qui iraient à l’encontre des libertés individuelles. « Il faut être très prudent aux utilisations qui sont faites. On peut avoir des dispositifs de surveillance qui vont être présents un peu partout, la reconnaissance faciale, la transcription des toutes les conversations téléphoniques… »

Les dangers de l’utilisation de l’intelligence artificielle sont également au cœur de polémiques. Aux États-Unis, l’entreprise américaine OpenAI fait en effet l’objet de sept plaintes qui accusent son chatbot d’avoir poussé des adolescents jusqu’au suicide. Les plaintes accusent l’entreprise de mort injustifiée, de suicide assisté, d’homicide involontaire et de négligence.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *