Royaume-Uni: quand les administrations ont recours à l’intelligence artificielle

Au Royaume-Uni, de nombreux services publics s’en remettent à l’intelligence artificielle. Pas moins de huit ministères utilisent déjà des algorithmes pour les décisions administratives. Un recours à la technologie qui touche par exemple l’attribution d’allocations, la police, et qui n’est pas sans poser question.

Huit départements ministériels délèguent une partie de leurs responsabilités à l’intelligence artificielle (IA) (Image d’illustration). Huit départements ministériels délèguent une partie de leurs responsabilités à l’intelligence artificielle (IA)

Avec notre correspondante à Londres, RFI

C’est une enquête du quotidien britannique The Guardian qui révèle ce chiffre : huit ministères délèguent une partie de leurs responsabilités à l’intelligence artificielle (IA). Dans certains cas, c’est relativement pratique, et sans grande conséquence, par exemple, la vérification des passeports automatique dans les aéroports.Mais il y a des décisions plus importantes. Le ministère du Travail utilise des algorithmes pour octroyer les allocations, afin de filtrer les demandes abusives. Les logiciels de reconnaissance faciale de la police fonctionnent de manière automatisée. Et le ministère de l’Intérieur a recours à la technologie pour valider les licences de mariage, et éviter les mariages blancs. Certaines de ces intelligences artificielles sont sophistiquées et pas toujours tout à fait comprises par les employés des ministères. Et, c’est le Guardian qui le souligne, les garde-fous n’existent pas toujours.

Problème de discrimination

Selon des juristes indépendants, le Royaume-Uni se dirigerait vers un scandale d’État à cause de ces systèmes, qui tendent à reproduire les discriminations sociales. Les systèmes d’intelligence artificielle « apprennent » à partir de jeux de données extrêmement volumineux, tirées des cas qui ont été examinés précédemment par des humains. Et l’une des conséquences de ce type d’apprentissage, c’est l’amplification des préjugés présents au sein de la société. Pour les allocations, par exemple, une députée explique que plus d’une douzaine d’habitants de sa circonscription ont vu leurs versements suspendus, sans raison. Leur point commun, c’est que presque tous étaient de nationalité bulgare. Pour la reconnaissance faciale de la police, les visages noirs ressortent plus souvent comme « suspects » que les visages blancs, là encore sans autre raison. RFI

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *