Calcul salaire équitable candidats avec IA - API Salary vs base données propriétaire éthique 2025

Salut à tous !

On développe une plateforme RH qui doit calculer des fourchettes salariales équitables en temps réel pendant nos entretiens. L'objectif : éliminer les biais de négociation et assurer une transparence totale.

Notre problématique :

  • Volume : 300-400 candidatures/mois
  • Critères : poste, expérience, localisation, compétences techniques
  • Contrainte : calcul en moins de 2 secondes pendant l'entretien

Deux approches qu'on étudie :

  1. API externes type Glassdoor/PayScale : données du marché mais souvent US-centrées
  2. IA entraînée sur notre base propriétaire : 50k salaires anonymisés français sur 5 ans

Quelqu'un a déjà implémenté ce genre de système ? Les enjeux éthiques me préoccupent aussi... Comment éviter que l'IA reproduise les inégalités existantes ?

Merci pour vos retours !

Super sujet ! On a eu exactement le même challenge l'année dernière.

Notre solution : approche hybride qui marche bien :

  • Base de données propriétaire pour les postes tech (notre cœur de métier)
  • API PayScale Business en fallback pour les autres métiers
  • Audit biais trimestriel avec des KPIs très stricts

Côté technique, on utilise un modèle de régression simple (scikit-learn) avec :

features = [
  'years_experience',
  'skill_score_weighted', 
  'location_cost_index',
  'company_size_factor'
]

Point crucial : on a retiré délibérément l'âge, le genre, l'école d'origine des features. Ça a réduit notre précision de 3% mais éliminé 80% des biais détectés.

Performance actuelle : prédiction en 800ms moyenne, écart-type de 8% sur les salaires réels.

Tu veux que je partage notre checklist audit biais ?

@marie_fairness ta checklist m'intéresse aussi !

De notre côté, on a testé l'approche Fairlearn de Microsoft pour détecter et corriger les biais. Résultats mitigés mais intéressants.

Retour d'expérience API externes :

  • PayScale API Business : 0.12€/requête, données France correctes mais limitées
  • Glassdoor API : plus cher, très US-centré effectivement
  • INSEE Enquêtes Emploi : gratuit mais données agrégées, pas de granularité

Question importante : comment gérez-vous la transparence vis-à-vis du candidat ?

On affiche maintenant la fourchette calculée + les 3 critères principaux qui l'influencent. Ça créé une super dynamique de confiance mais parfois des négociations plus tendues...

L'équilibre transparence/négociation c'est pas évident à trouver !

Merci pour ces retours ultra-pertinents !

@marie_fairness ton approche hybride nous intéresse vraiment. Pour l'audit biais, vous utilisez quoi comme métriques ? Demographic parity ? Equalized odds ?

@thomas_lead_dev excellent point sur la transparence ! On penche aussi vers l'affichage de la fourchette. Question : vous montrez ça dès le 1er entretien ou plutôt côté final/négociation ?

Update de notre côté :

On a commencé à prototyper avec notre dataset. Premiers résultats :

  • Précision : 87% sur une fourchette ±15%
  • Temps calcul : 1.2s moyenne (objectif atteint)
  • Problème détecté : 12% d'écart homme/femme à compétences égales... 😟

Du coup on va creuser l'approche Fairlearn que tu mentionnes Thomas.

Une autre question : comment gérer les cas edge ? Genre un profil très atypique ou une stack technique ultra-rare ?

Discussion passionnante ! Je travaille sur l'éthique IA en RH depuis 3 ans.

Recommandations pour éviter les pièges :

  1. Validation croisée par groupes démographiques : vos 87% de précision, c'est sur quelle population ? Il faut découper par âge/genre/origine géo
  2. Seuil de confiance dynamique : si le modèle hésite (variance élevée), basculer sur données marché ou alerte manuelle
  3. Historique des décisions : tracez tout pour audit CNIL/inspection du travail

Pour les profils atypiques, on utilise une approche en cascade :

if confidence_score < 0.7:
    return market_data_fallback
if rare_skills_detected:
    apply_premium_multiplier(1.15-1.4)
if geographic_outlier:
    weight_location_factor(0.3) # vs 0.8 normal

Point juridique important : avec la directive IA européenne 2025, vous devez documenter l'impact sur l'égalité des chances. Système IA haut risque = obligations renforcées.

Côté transparence candidat : on affiche systématiquement dès l'entretien technique. Ça filtre les profils en recherche de surenchère et améliore notre taux d'acceptation d'offres (+23%).