C’est ce que révèlent les résultats d’un sondage mené aux États-Unis qui provoquent actuellement l’émoi. Plus de 1300 responsables RH ont été interrogés par ResumeBuilder (une plateforme pour les demandeurs d’emploi) sur leur utilisation de l’IA au travail. Il s’avère que les chatbots comme ChatGPT jouent un rôle de plus en plus important dans les décisions de recrutement, une tendance qui devrait déplaire à nombre d’employés et demandeurs d’emploi.
Emploi ? Ou licenciement ? Ainsi décide ChatGPT de votre situation salariale.
En effet, 78 % des personnes interrogées ont déclaré qu’elles utilisaient les LLM (Large Language Models) pour décider si une personne était éligible ou non pour une augmentation de salaire. Un pourcentage similaire (77 %) utilise ChatGPT, Claude ou Gemini pour déterminer qui a droit à une promotion.
66 % demandent conseil à l’intelligence artificielle au sujet des licenciements. Une proportion similaire consulte ChatGPT et équivalents concernant la meilleure façon de procéder à ces licenciements. Donc l’IA ne joue pas seulement un rôle dans la décision en elle-même, mais elle contribue également à la façon dont l’annonce est faite.
C’est là que les questions éthiques se posent. Mais cela vaut encore plus pour une autre valeur : une personne interrogée sur cinq déclare en effet que c’est ChatGPT même qui tranche sur la question du licenciement de quelqu’un ou non !
- À lire également : Comment obtenir des résultats de recherche plus intelligents.
Laisser l’IA décider : une bonne ou une mauvaise idée ?
L’enquête révèle qu’environ la moitié des chargés de recrutement utilisent ChatGPT, suivi de Copilot de Microsoft et de Google Gemini. Toutes ces plates-formes ont pour point commun de se montrer objectives dans les décisions de recrutement. Cela semble a priori positif : après tout, il n’y a pas de désavantage parce qu’un supérieur n’aime pas la tête d’un employé, et pas de promotion imméritée comme dans les cas où l’employé serait de la famille du patron.
Alors oui : en théorie, une décision prise avec l’aide de l’IA pourrait être plus juste… à condition que la base de données et les règles soient justes, et que la communication se fasse de manière transparente. La présélection des candidats concernés pourrait être plus efficace et plus objective.
Les problèmes liés à l’IA
Cependant, nous devons nous interroger au sujet des ramifications éthiques de cette utilisation et remettre en cause le degré d’objectivité. Si vous utilisez régulièrement ChatGPT, vous avez certainement remarqué que ces modèles aiment nous dire ce que nous voulons entendre. De plus, nous devons prendre en compte un biais qui peut résulter de l’entraînement et des prompts utilisés.
Mais surtout, une IA n’a pas tous les éléments du contexte : comment la personne a-t-elle évolué au fil des ans, quel est son rôle dans l’équipe, dans quelle mesure les relations interpersonnelles sont-elles bonnes/mauvaises… Autant d’éléments qui peuvent très bien ne pas être considérés à leur juste valeur dans la base de données. Il est également possible qu’une décision d’IA permette à une entreprise de se dédouaner de sa responsabilité dans des situations humainement difficiles. Si l’on ajoute à cela le sentiment que le personnel est en quelque sorte déshumanisé et interchangeable, l’impact sur l’ambiance de travail risque d’être dramatique.
L’IA pèse lourd dans la balance ? Pas pour l’instant !
Cette tendance ne pourra probablement pas être stoppée, mais elle doit être prise avec des pincettes pour le moment. Même dans le domaine des ressources humaines, l’IA peut déjà apporter une aide précieuse – mais à l’heure actuelle, laisser ChatGPT prendre la décision finale est loin d’être une bonne idée.
Nous vivons à une époque où l’IA ne s’accapare pas (encore) de nos emplois en masse. Et pourtant, si elle est déjà utilisée comme excuse pour les licenciements, il est à craindre que le seuil d’inhibition pour de tels licenciements ne finisse par diminuer encore davantage si l’on peut maintenant aussi rejeter la faute sur l’IA.
0commentaire