A l’heure où tout le monde s’extasie devant les prouesses de Chat-GPT, l’IA peut-elle être une mine d’or dans le cas du recrutement? Bien que les promesses soient nombreuses (gain de temps, meilleure sélection des profils…), l’IA appliquée aux recrutements soulève de réelles questions. Notre article se propose de vous aider à y voir plus clair.
Quel est le cadre légal pour l’IA ?
Pour la France comme pour l’Union européenne, un projet de règlement a été édicté en avril 2021. Il se nomme AI Act. Ce dernier classe les systèmes destinés à servir pour le recrutement (ou encore pour la sélection de personnes physiques) dans une catégorie intitulée « systèmes d’IA à haut risque ». Cette catégorie englobe les systèmes d’IA qui peuvent avoir des effets négatifs potentiels sur les droits fondamentaux des citoyens européens. Petit à petit, il est prévu que ce texte va s’étoffer, en intégrant des règles spécifiques et des audits réguliers pour les logiciels d’IA.
Jusqu’à présent, tant le droit du travail français que les règlements européens sont dotés de cadres généraux qui ont pour objectif de protéger les candidats lors du processus d’embauche. Néanmoins, les inégalités sont telles entre les différents États de l’UE qu’un règlement européen global sur l’IA apparaît indispensable.
En l’état actuel des choses, il existe un réel décalage entre les multiples promesses d’efficacité ultime, couplée à l’objectivité la plus intelligente et absolue. La réalité est qu’il existe peu (voire pas) d’études scientifiques transversales globales traitant de ce sujet. Il faut donc du temps avant de pouvoir tirer les leçons objectives des éventuels apports de l’IA dans un processus de recrutement.
Grâce à l’IA, un recrutement plus efficace et plus rapide ?
Les solutions logicielles qui intègrent l’IA (à divers niveaux) concernent désormais l’ensemble des étapes d’une campagne de recrutement. Les avantages promis par ces systèmes sont :
- Un avantage économique, car un processus de recrutement utilisant l’IA est plus rapide et efficient. Certains développeurs avancent même une réduction par quatre du temps nécessaire pour finaliser un recrutement ;
- Un avantage technique, car l’IA est capable de traiter un volume gigantesque d’informations et d’effectuer des classements divers et variés selon les critères qu’on lui donne ;
- Un avantage éthique qui permet (en théorie) d’échapper aux stéréotypes touchant les recruteurs humains quand ils analysent un CV ou bien une lettre de motivation.
Les logiciels dotés d’une IA présentent également des avantages lors de la phase de sourcing, mais également dans la phase de web scraping. Les développeurs promettent que ces logiciels permettent une amélioration dans le processus de récupération des données repérables sur les CV mais également les informations trouvées sur les réseaux sociaux. Ces informations sont récupérées quasi automatiquement par l’IA, permettant un gain de temps et de main d’œuvre.
Certains cabinets utilisent l’IA sous la forme de chatbots (IA conversationnelle) dans la phase de présélection d’un dossier. Ainsi, ils peuvent proposer des tests personnalisés et ainsi orienter les candidats vers le poste le mieux adapté. L’expérience du candidat serait ainsi « améliorée ». De quelle façon ? Grâce à la diminution du stress ressenti par le candidat, mais également par la ludification de l’expérience de recrutement. Les entreprises peuvent ainsi rediriger les compétences des recruteurs humains vers des tâches plus complexes et qualitatives en leur permettant de se débarrasser des étapes fastidieuses et chronophages.
Certaines entreprises utilisent l’IA pour l’étape des entretiens, par le biais d’outils d’analyse automatique de vidéos. Certaines entreprises (comme les Suisses de Cryfe) poussent très loin le concept en promettant d’analyser le langage non verbal et les attitudes corporelles des candidats afin de définir leur fiabilité. Ces outils sont en plein développement.
Enfin, il faut ajouter que toutes ces missions sont réalisées sans aucun stéréotype sur la couleur de peau, le langage ou encore l’apparence physique du candidat puisque l’IA est (soi-disant) objective. Les créateurs de logiciels de recrutement IA promettent donc à leurs utilisateurs un recrutement plus efficace, plus rapide et plus inclusif.

Le système de l’IA est loin d’être parfait
Les créateurs de logiciels IA ont beau assurer que leurs logiciels sont objectifs et sont exempts des « défauts » des recruteurs humains, certains défauts ne doivent pas être ignorés. En effet, si l’on prend le temps de réfléchir, on se rend compte que, loin de supprimer, ou même de réduire les discriminations, certains outils de recrutement « intelligents » peuvent même générer de nouvelles discriminations.
En effet, une intelligence artificielle n’est jamais qu’un produit créé par des humains avec leurs faiblesses et leurs préjugés, comme tout à chacun. En cela, durant la programmation de l’outil « intelligent », les développeurs peuvent (la plupart du temps, sans le vouloir bien sûr) y incorporer leurs propres préjugés.
Ainsi, les algorithmes qui mixent les éléments de la personnalité, les expressions (ou micro-expressions) faciales etc. se basent sur des postulats de départ discutables. Réussir à décoder et décrypter de manière sûre et efficace les émotions humaines est très complexe, mais surtout, peut connaître de très nombreuses variations selon la culture ou l’ethnie du candidat.
Certains logiciels et algorithmes vantent l’IA « apprenante » (ou encore « Machine Learning). Dans ce cas de figure, les algorithmes s’appuient sur des données, s’en servent pour s’entraîner, pour « apprendre » et ajuster ensuite leurs réponses. Le problème est que les bases servant à l’entraînement de l’algorithme peuvent être fausses ou biaisées, rendant l’algorithme moins performant.
Pour la réalisation de tests divers, l’IA est mise en avant pour sa soi-disant « neutralité ». En effet, si l’on regarde en surface, on peut se dire qu’avec une machine, pas de place à l’interprétation. Les réponses sont justes ou fausses, tout simplement. Néanmoins, même les tests qui se revendiquent neutres, les problèmes liés au stéréotype peuvent survenir. Face à certains tests, un candidat peut avoir l’impression d’être jugé selon un préjugé négatif incluant son groupe d’origine, provoquant stress et chute des performances. L’exemple le plus évident est celui d’une femme qui passerait un test de mathématiques et ayant un résultat affecté par le stress généré par l’intériorisation de l’idée qu’une femme serait forcément moins performante qu’un homme en mathématiques.
Si ces tests sont réalisés avec une IA (type chatbot par exemple), une autre forme de stress peut se créer pour les candidats les moins à l’aise avec l’informatique et le digital. Ainsi, ils pourraient parfaitement moins réussir leur test si la méthode de sélection est digitale. Pour cette situation, nous pourrions prendre l’exemple d’un candidat senior qui n’a pas forcément l’habitude d’utiliser ce type d’outils, et qui craindrait d’être moins performant qu’un candidat plus jeune.
Enfin, l’algorithme peut également être générateur d’erreurs en se basant sur des corrélations pouvant être erronées, du fait de variables prêtant à confusion. Ainsi, jouer au golf est statistiquement un loisir très représenté chez les cadres dirigeants, mais tous les candidats jouant au golf ne peuvent pas pour autant occuper un poste de cadre dirigeant. La plupart des algorithmes sont méconnus, voire inconnus dans leur manière de fonctionner car ils sont trop complexes, ce qui empêche l’humain de comprendre son raisonnement. Dans ce cas, cela peut poser des problèmes.
Un algorithme d’IA trop complexe peut-il être viable ?
Même si des progrès immenses ont été effectués en peu de temps, il faut rester encore très prudent. A l’heure actuelle, les tâches sont réparties assez clairement avec celles plus basiques, longues et fastidieuses pour l’IA, et les tâches plus complexes et celles impliquant un choix final réservées à l’humain. L’IA est donc, pour le moment, envisagée comme un outil d’aide à la présélection et à la décision prise par l’humain.
Comme souvent, l’être humain est vite aveuglé par les perspectives innovantes promises par le potentiel de l’IA. Même si les recruteurs déclarent clairement faire davantage confiance aux informations et recommandations données par leurs collaborateurs plutôt que celles offertes par un logiciel, ils utilisent de plus en plus les algorithmes divers et variés à leur disposition, principalement pour des raisons de rapidité, même si leur efficacité est encore bien moindre.
Dans le domaine du recrutement, comme dans de nombreux autres domaines, il est absolument nécessaire de prendre le temps d’attendre. Il faut faire preuve de prudence car si les recruteurs suivent de manière aveugle des recommandations pouvant être erronées ou discriminantes, fournies par des logiciels/algorithmes qui ne sont pas transparents et compréhensibles, les risques sont grands pour l’entreprise/le cabinet qui utiliserait ces outils.
Pour conclure, une IA se doit d’être transparente sur les données qui servent de base au modèle d’analyse. Elle doit être enfin compréhensible, explicable et interprétable par l’utilisateur, afin de pouvoir vérifier et expliquer ses choix. Même si de nombreux progrès ont été réalisés, le cerveau humain a encore de beaux jours devant lui.