“Je ne suis pas très inquiet à ce sujet”: les risques existentiels liés à l’IA “exagérés” selon un spécialiste
Le spécialiste de l’intelligence artificielle (IA) Gary Marcus a passé ces derniers mois à alerter ses pairs, les élus et le public au sujet des risques liés au développement et à l’adoption ultra-rapide des nouveaux outils d’IA. Mais le danger d’extinction de l’humanité est “exagéré”, a-t-il déclaré à l’AFP lors d’un entretien à San Francisco.
“Personnellement, et pour l’instant, je ne suis pas très inquiet à ce sujet, parce que les scénarios ne sont pas très concrets”, explique ce professeur émérite de l’université de New York, venu en Californie pour une conférence. “Ce qui m’inquiète, c’est que nous construisons des systèmes d’IA que nous ne contrôlons pas bien”, continue-t-il.Gary Marcus a conçu son premier programme d’IA au lycée – un logiciel pour traduire le latin en anglais – et après des années d’études de la psychologie infantile, il a fondé Geometric Intelligence, une entreprise de “machine learning” (apprentissage automatisé des machines) ensuite rachetée par Uber.En mars, il a cosigné la lettre de centaines d’experts demandant une pause de six mois dans le développement de systèmes d’IA ultra-puissants comme ceux de la start-up OpenAI, le temps de s’assurer que les programmes déjà existants soient “fiables, sûrs, transparents, loyaux (…) et alignés” avec les valeurs humaines.Mais il n’a pas signé la déclaration succincte de chefs d’entreprise et spécialistes qui a fait du bruit cette semaine. Sam Altman, le patron d’OpenAI, Geoffrey Hinton, un ancien ingénieur proéminent de Google, Demis Hassabis, le dirigeant de DeepMind (Google) et Kevin Scott, directeur technologique de Microsoft, notamment, y appellent à lutter contre “les risques d’extinction” de l’humanité “liés à l’IA”.
Personnellement, et pour l’instant, je ne suis pas très inquiet à ce sujet, parce que les scénarios ne sont pas très concrets”, explique ce professeur émérite de l’université de New York, venu en Californie pour une conférence. “Ce qui m’inquiète, c’est que nous construisons des systèmes d’IA que nous ne contrôlons pas bien”, continue-t-il.
Gary Marcus a conçu son premier programme d’IA au lycée – un logiciel pour traduire le latin en anglais – et après des années d’études de la psychologie infantile, il a fondé Geometric Intelligence, une entreprise de “machine learning” (apprentissage automatisé des machines) ensuite rachetée par Uber.En mars, il a cosigné la lettre de centaines d’experts demandant une pause de six mois dans le développement de systèmes d’IA ultra-puissants comme ceux de la start-up OpenAI, le temps de s’assurer que les programmes déjà existants soient “fiables, sûrs, transparents, loyaux (…) et alignés” avec les valeurs humaines.
Mais il n’a pas signé la déclaration succincte de chefs d’entreprise et spécialistes qui a fait du bruit cette semaine. Sam Altman, le patron d’OpenAI, Geoffrey Hinton, un ancien ingénieur proéminent de Google, Demis Hassabis, le dirigeant de DeepMind (Google) et Kevin Scott, directeur technologique de Microsoft, notamment, y appellent à lutter contre “les risques d’extinction” de l’humanité “liés à l’IA”.“Guerre accidentelle”Le succès sans précédent de ChatGPT, le robot conversationnel d’OpenAI capable de produire toutes sortes de textes sur simple requête en langage courant, a suscité une course à cette intelligence artificielle dite “générative” entre les géants des technologies, mais aussi de nombreuses mises en garde et appels à réguler ce domaine. Y compris de la part de ceux qui construisent ces systèmes informatiques en vue de parvenir à une IA “générale”, aux capacités cognitives similaires à celles des humains.
“Si vous pensez vraiment que cela représente un risque existentiel, pourquoi vous travaillez là-dessus? C’est une question légitime”, note Gary Marcus. “L’extinction de l’espèce humaine… C’est assez compliqué, en réalité”, pondère-t-il. “On peut imaginer toutes sortes de fléaux, mais des gens survivraient.”Il existe, en revanche, des scénarios réalistes où l’utilisation de l’IA “peut causer des dégâts massifs”, souligne-t-il. “Par exemple, des gens pourraient réussir à manipuler les marchés. Et peut-être qu’on accuserait les Russes d’être responsables, et qu’on les attaquerait alors qu’ils n’y seraient pour rien et on pourrait se retrouver dans une guerre accidentelle, potentiellement nucléaire”, détaille-t-il.“Autoritarisme”A plus court terme, Gary Marcus se fait davantage du souci pour la démocratie. Car les logiciels d’IA générative produisent de fausses photographies, et bientôt des vidéos, de plus en plus convaincantes, à peu de frais. Les élections risquent donc selon lui “d’être gagnées par les personnes les plus douées à répandre de la désinformation. Une fois élues elles pourront changer les lois (…) et imposer l’autoritarisme”.Surtout, “la démocratie repose sur l’accès aux informations nécessaires pour prendre les bonnes décisions. Si plus personne ne sait ce qui est vrai ou non, c’est fini”. L’auteur du livre “Rebooting AI” (“Redémarrer l’IA”) ne pense pas néanmoins qu’il faille tout jeter dans cette technologie.
“Il y a une chance qu’on utilise un jour une IA que nous n’avons pas encore inventée, qui nous aidera à faire des progrès dans la science, dans la médecine, dans les soins des personnes âgées (…) Mais pour l’instant, nous ne sommes pas prêts. Nous avons besoin de régulation, et de rendre les programmes plus fiables”.Lors d’une audition devant une commission parlementaire américaine en mai, il a défendu la création d’une agence nationale ou internationale chargée de la gouvernance de l’intelligence artificielle. Un projet que soutient aussi Sam Altman, qui revient d’une tournée européenne où il a exhorté les dirigeants politiques à trouver un “juste équilibre” entre protection et innovation.Mais attention à ne pas laisser le pouvoir aux entreprises, avertit Gary Marcus: “Ces derniers mois nous ont rappelé à quel point ce sont elles qui prennent les décisions importantes, sans forcément tenir compte (…) des effets collatéraux”.