Abstract :
[fr] * Contexte et Objectifs
L'intelligence artificielle transforme profondément les processus de recrutement en Belgique, promettant gain d'efficacité et objectivité accrue, tout en soulevant des préoccupations quant à la reproduction potentielle de biais discriminatoires. Classés comme « systèmes à haut risque » par l'AI Act européen, les systèmes d'IA de recrutement nécessitent une attention particulière. Cette étude examine l'utilisation de l'IA dans les processus de recrutement et de sélection en Belgique. Elle analyse les pratiques actuelles des recruteur·euse·s, évalue leur conscience des risques de discrimination de genre et examine comment les développeur·euse·s intègrent ces considérations dans leurs systèmes.
* Méthodologie
L'étude s'appuie sur une approche mixte combinant trois phases : une phase qualitative
exploratoire (22 entretiens semi-directifs avec des développeur·euse·s et des
professionnel·le·s RH), une phase quantitative confirmatoire (416 professionnel·le·s du
recrutement interrogé·e·s représentant toutes les régions et secteurs) et une phase qualitative d'approfondissement (5 focus groups de co-construction des recommandations).
* Principaux constats
- Adoption généralisée mais segmentée : 74 % des recruteur·euse·s utilisent l'IA à au moins
une étape du processus, avec une utilisation intensive en phase de préparation (77 %),
modérée en phase de recherche de candidat·e·s (43 %) et limitée en phase de sélection
(21 %). L'IA est principalement mobilisée comme « super support administratif », en particulier pour les profils à forte affluence (l'expertise humaine restant privilégiée pour les profils de niche).
- Perception globalement positive mais nuancée : 64 % des recruteur·euse·s se déclarent
favorables à l'IA, principalement pour le gain de temps et l'espoir d'une plus grande
productivité. Toutefois, des inquiétudes majeures persistent concernant la déshumanisation des processus, la confidentialité des données, la fiabilité des résultats et le risque de standardisation excessive des profils recherchés.
- Conscience insuffisante des risques légaux et de biais : Seulement 21 % des
organisations ont pris des mesures relatives aux législations sur l'IA, et 41 % des
recruteur·euse·s ne savent pas ce qu'il en est réellement. Les biais de genre sont rarement
mentionnés spontanément, bien que 12 à 17 % des recruteur·euse·s reconnaissent avoir
observé des résultats biaisés produits par l’IA, plutôt en lien avec d’autres formes de biais :
algorithmes des réseaux sociaux, âge, origine, etc.
- Un paradoxe fondamental : L'IA est simultanément perçue comme solution pour neutraliser les biais humains et comme risque de reproduction voire d'amplification des discriminations existantes. Cette tension révèle la nécessité d'un encadrement rigoureux et d'une vigilance
constante.
* Recommandations
L'étude formule des recommandations structurées selon trois niveaux d'action complémentaires, visant à créer un écosystème responsable où l'IA devient un levier d'égalité de genre plutôt qu'un vecteur de discrimination. Une sélection des recommandations :
- Au niveau des pouvoirs publics : étudier l'adéquation du cadre juridique pour lutter contre la discrimination de genre par l’IA dans les processus de recrutement, développer de la documentation et des formations pour informer les personnes utilisatrices et développeuses et sensibiliser aux obligations légales et aux risques de discrimination (de genre), et prévoir des moyens suffisants pour les autorités de protection des droits fondamentaux.
- Au niveau organisationnel (organisations utilisatrices et développeuses) : créer un comité d'éthique IA au sein des organisations qui utilisent l’IA, faire des contrôles réguliers des systèmes IA, garantir une supervision humaine systématique et former au recrutement inclusif et à l’utilisation de l’IA sans discrimination. Pour les développeur·euse·s, intégrer le principe « Equality by Design » dès la conception et tester les algorithmes sur des bases diversifiées, aussi après-vente.
- Au niveau individuel : développer la maîtrise du prompting inclusif, maintenir une posture critique face aux résultats de l'IA, assurer une double supervision humaine pour les décisions importantes et informer systématiquement les candidat·e·s de l'usage de l'IA.
* Conclusion
L'adoption de l'IA dans le recrutement est une réalité en Belgique, mais son déploiement doit s'accompagner d'une vigilance accrue et d'un encadrement rigoureux pour éviter que les promesses d'objectivité ne se transforment en mécanismes de (re)production systématique des inégalités de genre. L'enjeu crucial consiste à combiner régulation publique, responsabilité des acteurs et formation continue pour faire de l'IA un véritable outil au service de l'égalité et de la diversité dans le monde professionnel.