L’IA générative face au défi de la gestion du changement

Selon une étude du Boston Consulting Group, si l’IA est de mieux en mieux acceptée dans les environnements de travail, il reste encore beaucoup à faire pour rassurer les employés.

Selon une récente étude du Boston Consulting Group (BCG), les salariés se montrent curieux, optimistes et confiants quant à l’arrivée de l’IA dans l’entreprise, et même de plus en plus avec le temps. Pour beaucoup, ces sentiments sont fondés sur une expérience solide. « Bien que ChatGPT, exemple type des applications d’IA générative, n’ait été lancé qu’en novembre 2022, 26 % des personnes interrogées déclarent déjà utiliser l’IA générative plusieurs fois par semaine, tandis que 46 % l’ont expérimentée au moins une fois », a constaté le BCG. Pour son enquête, le cabinet d’étude a demandé à 12 898 travailleurs de terrain, cadres et dirigeants de grandes entreprises du monde entier ce qu’ils pensaient de l’IA : 61 % ont mentionné la curiosité comme l’un de leurs deux sentiments les plus forts, 52 % l’optimisme, 30 % l’inquiétude et 26 % la confiance.

Il y a cinq ans, lors d’une enquête du BCG sur un panel plus restreint, 60 % des personnes interrogées avaient cité la curiosité, 35 % l’optimisme, 40 % l’inquiétude et 17 % la confiance. Beaucoup de choses se sont passées depuis cette dernière enquête de 2018 sur le sentiment à l’égard de l’IA. À l’époque, le sujet « était encore émergent et peu de gens l’utilisaient ou étaient confrontés à ses applications dans le monde réel », a déclaré Vinciane Beauchene, directeur et partner du BCG, lors d’une récente conférence téléphonique à propos des résultats de l’enquête. Mais, c’est après la pandémie de Covid-19 qui a bousculé le monde du travail, que l’IA générative a prospéré. « C’est la nouvelle norme : 80 % des dirigeants affirment qu’ils l’utilisent chaque semaine », a-t-elle déclaré. « Le plus frappant, c’est à quel point les entreprises sont encore mal équipées pour y faire face », a-t-elle ajouté.

Passer de l’inquiétude à l’optimisme

L’étude a également révélé que plus les salariés utilisaient les outils d’IA, moins ils étaient inquiets, et plus ils étaient optimistes quant à leur impact. Seuls 22 % des utilisateurs réguliers de l’IA et 27 % des utilisateurs très occasionnels se sont déclarés inquiets, contre 42 % des non-utilisateurs de l’intelligence artificielle. Par ailleurs, 36 % des non-utilisateurs se disent optimistes à l’égard de l’IA, contre 55 % des utilisateurs très occasionnels et 62 % des utilisateurs réguliers. « Les entreprises peuvent aider leurs employés à passer de l’inquiétude à l’optimisme », a estimé Nicolas de Bellefonds, responsable mondial de l’IA au BCG X, l’unité de conception et de développement technologique du cabinet d’études. « Cela fait huit ans que nous aidons les entreprises à tirer le meilleur parti de l’IA, et nous avons constaté que l’IA est beaucoup mieux acceptée par les employés quand ils comprennent comment elle peut améliorer leur travail », a-t-il déclaré. Il y a encore beaucoup à faire dans ce domaine. Jusqu’à présent, seuls 14 % des employés de terrain et 44 % des dirigeants déclarent avoir reçu une formation sur l’IA, mais 86 % des répondants à l’enquête pensent qu’ils en auront besoin. « C’est un chiffre énorme, preuve que nous devons vraiment nous pencher sur l’amélioration des compétences », a déclaré le consultant.

Selon le cabinet américain, faire comprendre aux employés ce que l’IA peut leur apporter n’est pas une tâche facile, car ils veulent sentir que l’IA valorise leur travail et ne remplace pas seulement une part agréable de leur travail. « Le plus difficile dans cette acceptation de l’IA, c’est de créer un espace dans lequel les colloborateurs peuvent encore ajouter de la valeur et ne pas se sentir en concurrence avec l’IA pour créer de la valeur », a ajouté Nicolas de Bellefonds. « Une grande partie du travail que nous effectuons en matière de gestion du changement et de coaching consiste à aider les employés à travailler avec l’IA et, en même temps, à changer la manière dont ils ajoutent de la valeur, de sorte qu’une partie de leur travail soit prise en charge par l’IA, mais que leur travail se recentre sur des tâches à plus forte valeur ajoutée », a-t-il encore déclaré. « La manière dont ces processus sont reconnectés et dont les méthodes de travail sont modifiées varie d’une entreprise à l’autre », a-t-il ajouté.

Un programme de gestion du changement en cinq étapes

Par ailleurs, les préoccupations des employés à l’égard de l’IA ne sont pas les mêmes en fonction du rôle. « Les dirigeants se montrent plus optimistes, et les travailleurs de terrain plus inquiets », a constaté le BCG dans son étude. Et, alors que 68 % des dirigeants estiment que leur entreprise a mis en œuvre des mesures adéquates pour garantir une utilisation responsable de l’IA, seuls 29 % de leurs employés de première ligne sont de cet avis. Mais, cet optimisme des employés mis en évidence par l’étude, a un côté plus sombre. Plus d’un tiers des personnes interrogées craignent que l’IA mette leur emploi en péril, et près de quatre cinquièmes d’entre elles souhaitent que les gouvernements interviennent et mettent en place des réglementations spécifiques à l’IA afin de garantir son utilisation responsable. Cette proportion est la plus élevée en Inde (89 %), en Espagne (88 %), en Italie (84 %), au Brésil et en France (83 % chacun), et la plus faible au Japon (64 %), en Allemagne (73 %), aux États-Unis (74 %), ainsi qu’au Moyen-Orient et aux Pays-Bas (76 % chacun).

En attendant que les régulateurs déterminent ce que nous pouvons et ne pouvons pas faire avec l’IA, Steven Mills, responsable de l’éthique de l’IA au BCG, a quelques idées à partager avec les DSI sur la manière d’introduire l’IA générative sur le lieu de travail en toute sécurité. La familiarité avec l’IA générative étant un facteur clé pour réussir son adoption, les employés doivent pouvoir la tester eux-mêmes. « Il est important que les gens aient la possibilité d’interagir avec ces technologies et de les utiliser, arrêter l’expérimentation n’est pas la solution », explique Steven Mills, notant que ce n’est pas non plus pratique. « L’IA sera développée au sein d’une entreprise par les employés, que vous le sachiez ou non », a-t-il ajouté. « Au lieu d’essayer de faire comme si cela ne se produira pas, il vaudrait mieux établir rapidement des lignes directrices qui permettent aux employés de savoir où se trouvent les garde-fous, ce qu’ils peuvent faire et ne peuvent pas faire, et qui encouragent réellement l’innovation et l’expérimentation responsables », poursuit Steven Mills. L’investissement dans la formation continue – continue et non ponctuelle – sera également utile, en particulier pour les employés de première ligne, moins familiarisés avec la technologie. « Cette disparité entre les rôles sera vraiment importante à comprendre pour les entreprises pour mener à bien ce changement continu dans lequel elles sont engagées… et pour disposer des bonnes compétences pour réussir en tant qu’entreprise », fait savoir Steven Mills.

Un enjeu d’éthique au centre des projets d’IA générative

Enfin, Steven Mills conseille aux entreprises de mettre en place un programme d’IA responsable afin de rassurer les employés quant à l’utilisation éthique de l’IA générative. Dans l’absolu, un tel programme comporte cinq éléments clés : les principes généraux définissant la stratégie de l’entreprise et sa tolérance au risque ; la structure de gouvernance définissant l’organisation et les voies d’escalade ; les processus d’intégration de l’IA dans le développement des produits ; l’outillage nécessaire pour réaliser tout cela ; et la volonté d’un changement de culture. Concrètement, les entreprises peuvent prendre des mesures immédiates, en confiant notamment la responsabilité du programme à un cadre supérieur, en s’assurant que cette personne et son équipe disposent du financement et des ressources nécessaires pour mettre en place le programme, en mettant rapidement en place une première série de garde-fous et en veillant à ce qu’ils soient respectés. Pour y arriver, il faut un processus d’examen agile avec lequel peuvent travailler les équipes qui expérimentent l’IA et auquel elles peuvent s’adresser pour obtenir des réponses à leurs questions ».

Source – lemondeinformatique

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *