On développe une plateforme RH qui doit calculer des fourchettes salariales équitables en temps réel pendant nos entretiens. L'objectif : éliminer les biais de négociation et assurer une transparence totale.
Contrainte : calcul en moins de 2 secondes pendant l'entretien
Deux approches qu'on étudie :
API externes type Glassdoor/PayScale : données du marché mais souvent US-centrées
IA entraînée sur notre base propriétaire : 50k salaires anonymisés français sur 5 ans
Quelqu'un a déjà implémenté ce genre de système ? Les enjeux éthiques me préoccupent aussi... Comment éviter que l'IA reproduise les inégalités existantes ?
Super sujet ! On a eu exactement le même challenge l'année dernière.
Notre solution : approche hybride qui marche bien :
Base de données propriétaire pour les postes tech (notre cœur de métier)
API PayScale Business en fallback pour les autres métiers
Audit biais trimestriel avec des KPIs très stricts
Côté technique, on utilise un modèle de régression simple (scikit-learn) avec :
features = [
'years_experience',
'skill_score_weighted',
'location_cost_index',
'company_size_factor'
]
Point crucial : on a retiré délibérément l'âge, le genre, l'école d'origine des features. Ça a réduit notre précision de 3% mais éliminé 80% des biais détectés.
Performance actuelle : prédiction en 800ms moyenne, écart-type de 8% sur les salaires réels.
Tu veux que je partage notre checklist audit biais ?
De notre côté, on a testé l'approche Fairlearn de Microsoft pour détecter et corriger les biais. Résultats mitigés mais intéressants.
Retour d'expérience API externes :
PayScale API Business : 0.12€/requête, données France correctes mais limitées
Glassdoor API : plus cher, très US-centré effectivement
INSEE Enquêtes Emploi : gratuit mais données agrégées, pas de granularité
Question importante : comment gérez-vous la transparence vis-à-vis du candidat ?
On affiche maintenant la fourchette calculée + les 3 critères principaux qui l'influencent. Ça créé une super dynamique de confiance mais parfois des négociations plus tendues...
L'équilibre transparence/négociation c'est pas évident à trouver !
@marie_fairness ton approche hybride nous intéresse vraiment. Pour l'audit biais, vous utilisez quoi comme métriques ? Demographic parity ? Equalized odds ?
@thomas_lead_dev excellent point sur la transparence ! On penche aussi vers l'affichage de la fourchette. Question : vous montrez ça dès le 1er entretien ou plutôt côté final/négociation ?
Update de notre côté :
On a commencé à prototyper avec notre dataset. Premiers résultats :
Précision : 87% sur une fourchette ±15%
Temps calcul : 1.2s moyenne (objectif atteint)
Problème détecté : 12% d'écart homme/femme à compétences égales... 😟
Du coup on va creuser l'approche Fairlearn que tu mentionnes Thomas.
Une autre question : comment gérer les cas edge ? Genre un profil très atypique ou une stack technique ultra-rare ?
Discussion passionnante ! Je travaille sur l'éthique IA en RH depuis 3 ans.
Recommandations pour éviter les pièges :
Validation croisée par groupes démographiques : vos 87% de précision, c'est sur quelle population ? Il faut découper par âge/genre/origine géo
Seuil de confiance dynamique : si le modèle hésite (variance élevée), basculer sur données marché ou alerte manuelle
Historique des décisions : tracez tout pour audit CNIL/inspection du travail
Pour les profils atypiques, on utilise une approche en cascade :
if confidence_score < 0.7:
return market_data_fallback
if rare_skills_detected:
apply_premium_multiplier(1.15-1.4)
if geographic_outlier:
weight_location_factor(0.3) # vs 0.8 normal
Point juridique important : avec la directive IA européenne 2025, vous devez documenter l'impact sur l'égalité des chances. Système IA haut risque = obligations renforcées.
Côté transparence candidat : on affiche systématiquement dès l'entretien technique. Ça filtre les profils en recherche de surenchère et améliore notre taux d'acceptation d'offres (+23%).