IA en recrutement sans intervention humaine : pourquoi c'est interdit par l'AI Act — et dangereux éthiquement
Un algorithme qui trie des CV, score des candidats et décide seul des présélections, sans qu'un humain valide ou puisse contester le résultat : c'est le cauchemar réglementaire que l'AI Act cherche à prévenir. Voici pourquoi ce cas d'usage est encadré très strictement — et ce que les DRH et les DSI doivent mettre en place dès maintenant.
IA en recrutement sans intervention humaine : pourquoi c'est interdit par l'AI Act — et dangereux éthiquement
Un algorithme qui trie des CV, score des candidats et décide seul des présélections, sans qu'un humain valide ou puisse contester le résultat : c'est le cauchemar réglementaire que l'AI Act cherche à prévenir. Voici pourquoi ce cas d'usage est encadré très strictement — et ce que les DRH et les DSI doivent mettre en place dès maintenant.
Temps de lecture : 10 minutes
Sommaire
- Le cas d'usage : de quoi parle-t-on exactement ?
- Pourquoi c'est haut risque selon l'AI Act (Annexe III)
- L'interdiction de la décision entièrement automatisée : article 14 et RGPD article 22
- Les risques éthiques : biais, discrimination, opacité
- Ce qui est autorisé : le bon usage de l'IA en RH
- Ce que doivent faire les DRH et DSI aujourd'hui
- FAQ
1. Le cas d'usage : de quoi parle-t-on exactement ?
Le scénario que nous examinons est précis : une entreprise utilise un système d'IA pour analyser des candidatures (CV, lettre de motivation, données de tests en ligne, parfois analyse vidéo ou vocale) et produit une liste de candidats retenus ou éliminés, sans qu'un recruteur humain examine individuellement chaque dossier avant la décision de présélection.
Ce cas est plus répandu qu'on ne le croit. De nombreuses entreprises utilisent des ATS (Applicant Tracking Systems) intégrant des modules IA, des outils de matching algorithmique, ou des plateformes d'évaluation prédictive qui attribuent automatiquement des scores aux candidats. Dans certains déploiements, ces scores déterminent directement qui passe à l'étape suivante — sans révision humaine systématique.
C'est précisément ce déploiement-là qui pose problème : non pas l'utilisation de l'IA comme outil d'aide, mais la délégation entière de la décision à l'algorithme.
2. Pourquoi c'est haut risque selon l'AI Act (Annexe III)
L'Annexe III du règlement, point 4, classe explicitement comme haut risque les systèmes d'IA utilisés dans le domaine de l'emploi et de la gestion des travailleurs, notamment :
"Les systèmes d'IA destinés à être utilisés pour le recrutement ou la sélection de personnes physiques, notamment pour analyser et filtrer les candidatures, évaluer les candidats au cours d'entretiens ou d'épreuves"
"Les systèmes d'IA destinés à être utilisés pour prendre des décisions affectant les conditions de relations de travail, la promotion ou la résiliation de relations contractuelles de travail"
La classification haut risque découle de la nature même de ces décisions : elles affectent directement les moyens de subsistance des personnes, leur accès à l'emploi, et leur trajectoire professionnelle. Des erreurs algorithmiques dans ce domaine ne sont pas de simples dysfonctionnements techniques — elles peuvent priver une personne d'un emploi auquel elle avait objectivement droit.
Cette classification entraîne un ensemble d'obligations lourdes pour le fournisseur du système (documentation technique, tests de biais, évaluation de conformité) et pour le déployeur — c'est-à-dire l'entreprise qui l'utilise pour recruter.
3. L'interdiction de la décision entièrement automatisée : article 14 et RGPD article 22
L'article 14 de l'AI Act : supervision humaine obligatoire
Pour tout système d'IA à haut risque, l'article 14 impose la mise en place de mesures de supervision humaine appropriées. Ces mesures doivent permettre à des personnes physiques de :
- Comprendre les capacités et les limites du système
- Surveiller son fonctionnement et détecter des dysfonctionnements ou résultats inattendus
- Intervenir à tout moment et mettre le système en pause
- Ignorer, contourner ou invalider les sorties du système
- Ne pas agir sur les recommandations du système
Cette dernière capacité est fondamentale : le recruteur doit non seulement pouvoir ignorer l'algorithme, mais disposer de moyens concrets pour le faire. Un système où le score algorithmique détermine automatiquement le passage à l'étape suivante, sans que le recruteur puisse voir ou contester les candidatures éliminées, ne satisfait pas à cette exigence.
La supervision humaine doit être effective, pas nominale. Désigner un responsable RH comme "superviseur" sans lui donner accès aux données sous-jacentes ni la capacité réelle d'intervenir ne suffit pas.
L'article 22 du RGPD : le droit de ne pas être soumis à une décision automatisée
L'AI Act ne fait pas cavalier seul. L'article 22 du RGPD — en vigueur depuis 2018 — interdit déjà les décisions entièrement automatisées produisant des effets juridiques ou significatifs sur une personne physique, sauf exceptions strictes (consentement explicite, nécessité contractuelle, autorisation légale).
Dans le contexte du recrutement, une présélection automatique par algorithme constitue une décision produisant des effets significatifs sur la personne : elle peut définitivement exclure un candidat qualifié sans aucun regard humain. L'article 22 impose alors :
- Le droit du candidat d'être informé qu'une décision automatisée a été prise
- Le droit d'obtenir une explication sur la logique de la décision
- Le droit de contester la décision et d'obtenir une révision humaine
Combiner l'article 22 du RGPD et l'article 14 de l'AI Act produit une obligation claire : toute décision de sélection ou d'élimination d'un candidat doit pouvoir être revue par un humain, et le candidat doit pouvoir en demander la révision.
4. Les risques éthiques : biais, discrimination, opacité
Au-delà du cadre juridique, les raisons éthiques de ne pas déléguer entièrement le recrutement à un algorithme sont tout aussi impérieuses.
Le problème des biais algorithmiques
Un algorithme de recrutement apprend à partir de décisions passées. Si les recrutements historiques d'une entreprise ont systématiquement favorisé des candidats d'un certain profil — par exemple, des hommes diplômés d'écoles prestigieuses — l'algorithme va reproduire et amplifier ces biais. Il ne les corrige pas : il les encode.
Le cas le plus célèbre est celui d'Amazon, qui a développé puis abandonné en 2018 un outil de tri de CV automatique parce qu'il pénalisait systématiquement les CV contenant le mot "femmes" (dans des expressions comme "capitaine de l'équipe féminine de sport"). L'outil avait appris à partir d'une décennie de recrutements à dominante masculine.
La loi française (article L. 1132-1 du Code du travail) interdit la discrimination à l'embauche sur 25 critères, dont le sexe, l'origine, l'âge, le handicap ou les convictions religieuses. Un algorithme biaisé peut violer ces interdictions à grande échelle, de façon invisible et systématique.
L'opacité des décisions
Un recruteur humain peut, si on le lui demande, expliquer pourquoi il a retenu ou écarté un candidat. Un algorithme de scoring, surtout s'il repose sur du machine learning, produit souvent des décisions opaques : même ses concepteurs ne peuvent pas toujours expliquer précisément pourquoi tel candidat a obtenu un score de 78 et tel autre un score de 52.
Cette opacité est problématique à plusieurs titres. Elle prive le candidat écarté de toute possibilité de comprendre et de contester la décision. Elle prive le recruteur de la capacité d'identifier des biais. Et elle rend l'organisation incapable de défendre ses décisions devant un tribunal ou une autorité de contrôle.
La déshumanisation du processus de recrutement
Au-delà des aspects juridiques et techniques, confier entièrement le recrutement à un algorithme envoie un signal fort aux candidats : leur singularité, leur parcours atypique, leur potentiel non linéaire ne comptent pas. Seuls les patterns reconnus par la machine importent.
Les études montrent que les candidats — y compris ceux qui sont sélectionnés — perçoivent négativement les processus de recrutement entièrement automatisés. La confiance envers l'employeur et l'attractivité de la marque employeur en pâtissent.
5. Ce qui est autorisé : le bon usage de l'IA en RH
L'AI Act n'interdit pas l'IA dans le recrutement. Il interdit la délégation entière de la décision à l'IA. La distinction est fondamentale.
Ce qui est autorisé avec les bonnes garanties
- Utiliser un système IA pour trier et prioriser des candidatures, à condition qu'un recruteur humain examine les dossiers et valide ou invalide les recommandations
- Utiliser un outil de matching pour identifier des candidats dans une CVthèque, si le recruteur examine les profils suggérés
- Générer des résumés ou des synthèses de candidatures pour faciliter la lecture humaine
- Utiliser des outils d'aide à la rédaction pour les offres d'emploi ou les communications avec les candidats
- Analyser les données agrégées de recrutement pour identifier des tendances et améliorer les pratiques
Les conditions pour un déploiement conforme
Pour que l'usage de l'IA en recrutement soit conforme à l'AI Act, plusieurs conditions doivent être réunies : le recruteur doit avoir accès à l'ensemble des candidatures, y compris celles éliminées ou déclassées par l'algorithme ; les scores algorithmiques doivent être présentés comme des suggestions, pas des décisions ; le système doit être régulièrement testé pour détecter des biais ; les candidats doivent être informés de l'usage de l'IA dans le processus ; et un mécanisme de recours doit être prévu.
6. Ce que doivent faire les DRH et DSI aujourd'hui
Si votre organisation utilise ou envisage d'utiliser un outil IA dans le recrutement, voici les actions concrètes à mener avant août 2026.
Cartographier les outils utilisés. Identifiez tous les outils RH qui comportent une composante IA : ATS, plateformes de sourcing, outils de matching, tests en ligne scorés algorithmiquement. Pour chacun, déterminez si les décisions de présélection peuvent être prises sans révision humaine.
Qualifier le niveau de risque. Tous ces outils entrent a priori dans l'Annexe III de l'AI Act. Vérifiez si l'exception de l'article 6(3) peut s'appliquer à certains d'entre eux.
Revoir les processus. Assurez-vous qu'aucune décision d'élimination de candidat ne peut être prise sans qu'un humain l'ait validée. Documentez cette supervision dans vos procédures internes.
Produire la documentation obligatoire. Si vous êtes déployeur d'un système haut risque, vous devez notamment réaliser une FRIA (évaluation de l'impact sur les droits fondamentaux) et tenir à jour une documentation sur votre usage du système.
Informer les candidats. Mettez à jour vos mentions légales et vos communications aux candidats pour inclure l'information sur l'usage de l'IA dans votre processus de recrutement.
DILAIG. vous accompagne sur chacune de ces étapes. L'audit gratuit identifie si vos outils RH sont haut risque, quelles obligations s'appliquent précisément, et génère les documents de conformité nécessaires — FRIA, documentation technique, notice de transparence. En 20 minutes, vous savez où vous en êtes.
7. FAQ
Notre ATS attribue des scores mais un recruteur voit tous les dossiers. Sommes-nous conformes ? Pas nécessairement. Il faut vérifier que le recruteur peut effectivement ignorer les scores et examiner des candidatures écartées. Si l'interface ne présente que les candidatures au-dessus d'un seuil de score, la supervision humaine est illusoire.
Le fournisseur de notre ATS nous dit qu'il est conforme à l'AI Act. Cela nous exonère-t-il ? Non. La conformité du fournisseur (en tant que fournisseur du système) ne dispense pas le déployeur — votre entreprise — de ses propres obligations : FRIA, supervision humaine, information des candidats.
Nous utilisons ChatGPT pour analyser des CV. Sommes-nous déployeurs d'un système haut risque ? Oui, si vous l'utilisez pour filtrer ou scorer des candidats. L'outil en lui-même (ChatGPT) est un modèle à usage général, mais l'usage que vous en faites dans un contexte de recrutement crée un système d'IA haut risque au sens de l'Annexe III.
Un candidat peut-il nous demander une explication sur son score ? Oui, au titre de l'article 22 du RGPD et de l'article 86 de l'AI Act. Il a le droit d'obtenir une explication sur la logique de la décision automatisée et de demander une révision humaine.
Conclusion
Déléguer entièrement la présélection de candidats à un algorithme n'est pas seulement risqué juridiquement — c'est contraire aux principes fondamentaux de non-discrimination et de dignité humaine sur lesquels repose le droit du travail européen.
L'AI Act et le RGPD posent ensemble un cadre clair : l'IA peut assister le recruteur, mais elle ne peut pas se substituer à lui. La supervision humaine effective n'est pas une option, c'est une obligation légale.
Vous utilisez des outils IA dans vos processus RH ? DILAIG. évalue votre conformité en 20 minutes, gratuitement — et génère la documentation dont vous avez besoin pour être en règle avant août 2026.
Cet article est fourni à titre informatif. Il ne constitue pas un conseil juridique. Sources : Règlement (UE) 2024/1689, Articles 6, 14, Annexe III point 4 ; Règlement (UE) 2016/679 (RGPD), Article 22 ; Code du travail français, Article L. 1132-1.
Dernière mise à jour : mars 2026