Une première mondiale: l’UE met en place sa loi sur la régulation de l’intelligence artificielle
Cela fait quatre ans que le Parlement européen travaillait sur un texte de loi – le premier au monde – devant encadrer l’utilisation de l’intelligence artificielle pour les entreprises. Car l’enjeu est de taille: le développement de l’IA est autant une immense opportunité qu’un très grand facteur de risques. On craint qu’elle ne menace de nombreux emplois, mais aussi qu’elle ne renforce les logiciels de surveillance. Voire qu’elle ne mette en danger la vie des utilisateurs.
Le règlement européen sur l’IA a obtenu l’approbation de l’ensemble des États-membres de l’Union, et entre donc en vigueur dès ce jeudi. C’est la première fois qu’un texte de loi encadrera les utilisations de l’IA, en particulier commerciales. Et c’est une première mondiale dont l’impact n’est pas à négliger, pour les grandes entreprises technologiques comme pour les particuliers.
Ce qui sera sévèrement encadré
Jouer à l’apprenti-sorcier avec l’IA, c’est terminé. La législation applique une approche basée sur les risques pour la régulation de l’IA, détaille dans une analyse des textes le média économique CNBC. Ce qui signifie que les différentes applications de la technologie sont régulées différemment en fonction du niveau de risque qu’elles posent à la société.
Des applications de l’IA seront ainsi considérées comme “à haut risque”: les véhicules autonomes (on se souvient des accidents en série chez Tesla, dont certains mortels), les dispositifs médicaux, les systèmes de décision de prêt, les systèmes de notation éducative et les systèmes d’identification biométrique à distance. Toute application commerciale entrant dans cette catégorie sera soumise à des systèmes d’évaluation et de mitigation des risques draconiens.
Et ce qui est strictement interdit
D’autres utilisations de l’IA seront considérées comme en contradiction avec la loi européenne ; on parle de “risque inacceptable”. Ce sera par exemple le cas des systèmes de “scoring social” qui classent les citoyens en fonction de l’agrégation et de l’analyse de leurs données. Mais aussi de la police “prédictive” qui tenterait d’estimer la probabilité que quelqu’un commette un crime, comme dans Minority Report – la SF n’est jamais loin quand on parle d’IA. De même, l’utilisation de la technologie de reconnaissance émotionnelle sur le lieu de travail ou dans les écoles sera interdite.
Un texte qui portera plus loin que l’UE
Ce sont bien sûr les grandes entreprises technologiques, celles qui investissent massivement dans le développement des IA, qui sont les premières visées par ce texte. Et même si ni Microsoft, Alphabet, ou encore Meta ne sont basées en Europe, l’UE représente un tel marché qu’elles devront bien s’adapter. D’autant que ces lois peuvent en inspirer d’autres, ailleurs.
“Le règlement sur l’IA a des implications qui vont bien au-delà de l’UE”, confirme auprès de CNBC Charlie Thompson, vice-président senior de l’entreprise informatique Appian. “Il s’applique à toute organisation ayant une opération ou un impact dans l’UE, ce qui signifie que le règlement sur l’IA s’appliquera probablement à vous, peu importe où vous êtes situé. Cela entraînera un contrôle beaucoup plus strict des géants technologiques en ce qui concerne leurs opérations sur le marché de l’UE et leur utilisation des données des citoyens de l’UE.”
L’IA d’usage commun
Quant à l’IA générative de contenus, celle que le commun des utilisateurs connait, elle entre dans la catégorie “à usage général”. Ce qui ne veut pas dire que ChatGPT et autre Gemini ne seront pas soumis à des règles. Ces systèmes devront se plier aux lois de protection de la propriété intellectuelle de l’UE, tout en assurant aussi une protection suffisante des données de leurs utilisateurs, et fournir des preuves de transparence sur la formation du modèle IA.
Les développeurs d’IA ont toutefois réagi que l’UE devait s’assurer que les modèles open-source — qui sont gratuits pour le public et peuvent être utilisés pour construire des applications d’IA sur mesure — ne soient pas trop strictement régulés.