Sirh

Exploitation de l’IA par les DRH : points de vigilance, facteurs de risques

Le | Core rh

Sur fond d’essor de l’IA générative, les usages et le cadre réglementaire sont en pleine évolution. Voici quelques points synthétiques à prendre en compte en cas d’exploitation par les DRH.

Usage de l’IA par les DRH : des risques et des freins (volet 2 du dossier spécial RH Matin) - © D.R.
Usage de l’IA par les DRH : des risques et des freins (volet 2 du dossier spécial RH Matin) - © D.R.

Les freins liés aux usages par les DRH

Risques de non pertinence de tout ou partie des réponses générées

Paul Courtaud, Neobrain - © D.R.
Paul Courtaud, Neobrain - © D.R.

Les grands modèles de langage (Large Language Model ou LLM en anglais) derrière les technologies d’IA conversationnelles comme ChatGPT (OpenAI), Bard (Google) ou Claude (Anthropic) sont incapables de restituer quelles sources ont été utilisées pour générer une réponse. Ils peuvent « halluciner », c’est-à-dire inventer des réponses vraisemblables mais fausses.

« Leur taux de précision plafonne entre 70 et 90 % », évalue Paul Courtaud, CEO de Neobrain, un éditeur de solutions RH spécialisées dans la gestion des compétences qui s’implique dans des développements avec l’IA.

Autre problème : si ces LLM ont réponse à toutes les requêtes (« prompts »), la prudence est de mise. Car deux réponses différentes peuvent être générées à la même question en fonction du contexte ou de l’évolution du modèle. Ce qui pose des soucis de stabilité et d’explicabilité du modèle. Et donc susciter l’incompréhension de la part de l’utilisateur final.

En s’adressant aux DRH, Paul Courtaud conseille de brancher un modèle d’IA générative sur un outil comme Neobrain, qui permet d’intégrer les règles de classification des compétences propres à une organisation.

« La DRH conservera la maîtrise des réponses apportées aux collaborateurs et la qualité de service. L’outil se basera sur des compétences normées et validées et non des compétences inventées. »

Confidentialité des données pour éviter les fuites d’informations

Stéphane Roder, AI Builders - © D.R.
Stéphane Roder, AI Builders - © D.R.

Fondés sur des modèles freemium ou premium, des outils comme ChatGPT (IA conversationnelle pour générer d’abord du texte) ou Midjourney (création d’images sous IA à partir de descriptions par texte) sont accessibles au grand public. Il existe aussi des versions professionnelles payantes de ses solutions avec des fonctionnalités plus approfondies et des crédits d’usage plus importants.

Les LLM derrière les outils d’IA conversationnelle sont entraînés et ré-entraînés à partir des données intégrées dans les modèles et se nourrissent aussi des interactions avec les utilisateurs pour affiner la pertinence.

Il est arrivé que ces multiples couches d’échanges et de transferts de données, susceptibles de passer sous le radar des directions des systèmes d’information (DSI) des organisations, aient provoqué des fuites de données sensibles.

« Des brevets ou des plans d’avion se sont retrouvés ainsi sur la place publique », alerte Paul Courtaud.

Pour mettre fin à ce « shadow IT » (exploitation des services numériques sans l’assentiment de la DSI) et garantir la confidentialité des données, les entreprises devront se tourner vers des solutions de marché pour l’exploitation personnalisée de l’IA c’est-à-dire des ChatGPT « privatifs » (dans le sens « dédiés aux entreprises ») ou des outils clones spécialisés par métier ou fonction.

« La charte des usages numériques en entreprise rappellera au collaborateur qu’il ne doit pas rendre publiques des informations de nature personnelle ou confidentielle », complète Stéphane Roder, président du cabinet conseil AI Builders.

Les risques liés à l’environnement d’exploitation

Cadre de gouvernance

  • « Pour que l’IA générative tienne ses promesses, il faut repenser l’organisation et mettre en place un cadre de gouvernance et déterminer clairement les tâches confiées à l’IA et surtout celles qui lui échappent.
  • Par exemple, une entreprise peut décider quelle part du processus des entretiens de fin d’année demeure purement managériale », indique Benoît Serre, Partner & Director HR People Strategy au BCG, et Vice-Président délégué de l’ANDRH.

Acculturation des collaborateurs

Benoît Serre, BCG - © D.R.
Benoît Serre, BCG - © D.R.

L’étude de BCG « IA générative : quel impact sur la performance au travail ? », publiée en septembre 2023, montre que les utilisateurs améliorent leurs performances en fonction de la pertinence des usages de l’IA générative.

À l’inverse, les utilisateurs qui se servent d’une IA générative comme ChatGPT hors de leur domaine de compétence actuel ont tendance à se laisser duper par les résultats parfois erronés qu’elle délivre.

Leurs performances moyennes sont inférieures de 23 % à ceux qui n’utilisaient pas l’outil.

Face à ce constat, Benoît Serre considère que les organisations doivent conduire un travail d’acculturation de l’IA auprès de leurs collaborateurs « afin d’éveiller l’esprit critique ».

« Beaucoup de collaborateurs prennent pour argent comptant les résultats d’une IA. Ils doivent aussi apprendre à la challenger. »

Conséquences sur la fonction RH et la gestion par les DRH

« La DRH est impactée à double titre par l’IA. Elle doit :

  • évaluer les apports de l’IA sur sa propre fonction,
  • anticiper les conséquences sociales et humaines sur l’ensemble de l’organisation », évoque Benoît Serre, expert RH&IA de BCG.

Pour répondre aux inquiétudes légitimes des salariés, la DRH doit démontrer que « l’IA a vocation à “augmenter” les collaborateurs c’est-à-dire leur redonner du temps qualificatif et qu’elle n’a pas pour objet de remplacer les salariés en poste. »

L’horizon de la régulation européenne

En cours d’élaboration au niveau des instances de l’UE, la future AI Act, qui a vocation à réglementer l’intelligence artificielle dans l’UE, suscite de vives inquiétudes chez les spécialistes du domaine. L’AI Act, présentée par la Commission européenne en avril 2021, a été adoptée par le Parlement européen le 14 juin 2023.

Des pourparlers sont en cours avec les pays de l’UE au sein du Conseil pour affiner la forme finale de la loi. L’objectif est de parvenir à un accord d’ici la fin de l’année 2023, mais un compromis de régulation semble difficile à atteindre en ce début de mois de décembre.

L’approche IA dans les débats au sein des instances de décision de l’UE fait l’objet de débats importants et des associations professionnelles du numérique comme France Digital ou l'European Digital SME Alliance prennent position pour s’opposer sur certains points susceptibles de nuire à l’innovation.

« La première version était simple et pleine de bon sens », commente Paul Courtaud de son côté. Le CEO de Neobrain se dit favorable - par principe - à la régulation. Mais, de son point de vue, le texte actuel est complexe et truffé d’incohérences. « Par exemple, l’AI Act est pensé IA par IA et non comme la somme des IA », évoque-t-il.

Selon Paul Courtaud, « le futur règlement pourrait brider l’innovation et remettre en cause notre souveraineté technologique en affaiblissant les éditeurs européens face à leurs concurrents américains ».

« À cause de l’AI Act, le cycle de vente de nos solutions a été rallongé de deux mois. Nos prospects prennent le temps de réfléchir aux conséquences du futur cadre réglementaire », déplore le dirigeant.

(dossier réalisé par Xavier Biseul et Philippe Guerrier)

Concepts clés et définitions : #DRH ou directeur des ressources humaines