Google, Microsoft et OpenAI alliés sur l’IA responsable
Technologie: Google, Microsoft, OpenAI et Anthropic se réunissent au sein du Frontier Model Forum, un groupe destiné à promouvoir le développement de l’intelligence artificielle de manière « sûre et responsable ».
Concurrents certes, mais également partenaires. Quatre géants de l’intelligence artificielle annoncent la création commune du Frontier Model Forum. Cette initiative fait suite à une réunion organisée la semaine dernière par la Maison-Blanche.
L’administration Biden réunissait Google, Microsoft, OpenAI et Anthropic, ainsi qu’Amazon et Meta dans le but de discuter du développement sécurisé et transparent de l’intelligence artificielle du futur.
La sécurité de l’IA : une affaire d’entreprise avant tout
Des discussions donc, mais pas de réglementation comme en Europe avec l’AI Act – qui n’est d’ailleurs pas sans préoccuper nombre de patrons de grandes entreprises européennes, dont Airbus, Blablacar, Capgemini, ou Ubisoft.
Les entrepreneurs américains expriment clairement leur préférence pour des initiatives privées, comme le Frontier Model Forum. Ce partenariat rassemble donc les principaux acteurs des technologies d’IA.
Officiellement, Google et Microsoft s’associent à OpenAI et Anthropic pour veiller à ce que les développements en intelligence artificielle progressent de manière « sûre et responsable ». Car pour ses fondateurs, la régulation ne suffit pas.
Le groupe Frontier Model Forum note que si certains gouvernements dans le monde prennent des mesures pour assurer la sécurité de l’IA, ces mesures restent insuffisantes. C’est aux entreprises technologiques qu’il incombe d’agir, revendique-t-il.
Collaboration avec les politiques, mais sans lobbying
Dans un article publié sur le site de Google, le Forum énumère quatre objectifs principaux, dont l’amélioration de la recherche sur la sécurité de l’IA pour minimiser les risques futurs et l’identification des meilleures pratiques pour un développement et un déploiement responsables des futurs modèles.
Les industriels de l’IA prévoient aussi de travailler avec les décideurs politiques, les universitaires et d’autres acteurs pour partager les connaissances sur les risques liés à la sécurité de l’IA. Enfin, l’initiative commune vise à soutenir le développement de l’utilisation de l’IA pour résoudre les plus grands problèmes de l’humanité, tels que le changement climatique et la détection du cancer.
Un représentant d’OpenAI confirme la volonté du Forum de collaborer avec les décideurs politiques. Cependant, il exclut toute implication dans le lobbying gouvernemental. Une politique à laquelle devront adhérer les futurs membres.
Un travail urgent, assure OpenAI
L’adhésion au Forum est ouverte à toute entreprise qui répond à trois critères : développer et déployer des modèles d’avant-garde, faire preuve d’un engagement fort en faveur de la sécurité des modèles et être disposée à participer à des initiatives conjointes avec d’autres membres.
Selon Anna Makanju, vice-présidente des affaires mondiales chez OpenAI, « Il est essentiel que les entreprises spécialisées dans l’IA – en particulier celles qui travaillent sur les modèles les plus puissants – s’alignent sur un terrain d’entente. Il s’agit d’un travail urgent. Et ce forum est bien placé pour agir rapidement afin de faire progresser l’état de la sécurité de l’IA ».
Le président de Microsoft, Brad Smith, s’est fait l’écho de ces sentiments, affirmant qu’il appartient en fin de compte aux entreprises qui créent des technologies d’IA de les maintenir en sécurité et sous contrôle humain.