Salut la communauté !
Je dirige le département pédagogique d’une faculté de médecine avec 2800 étudiants.
On cherche à automatiser la correction de nos QCM + questions ouvertes courtes pour les partiels.
Contexte actuel :
-
45 profs mobilisés 3 semaines par semestre juste pour corriger
-
Coût : ~180k€/an en heures sup correction
-
Délai résultats : 15-20 jours (les étudiants râlent)
-
Incohérences entre correcteurs (même prof note différemment selon sa fatigue…)
Ce qu’on vise :
Résultats en 2-3 jours max
-
Économies substantielles
-
Notation plus homogène
Tests préliminaires :
On a testé Claude 3.5 Sonnet sur 200 copies d’anatomie :
M : 99.2% (logique)
Mes interrogations :
Quelqu’un a-t-il déployé ça à grande échelle dans l’enseignement supérieur ?
Aspects légaux/réglementaires pour les examens officiels ?
Solutions techniques robustes pour 2800 copies simultanées ?
Coûts API réels sur gros volumes ?
Merci d’avance pour vos retours !
Excellente initiative !
J’ai implémenté un système similaire pour une école d’ingé (1200 étudiants).
Architecture technique qui marche :
- API Claude 3.5 avec retry logic + fallback GP
T-4o
Redis pour gérer les pics de charge
Métriques après 6 mois :
I : ~2.80€/copie (rentable dès 15 min/copie prof)
- Satisfaction profs : 8.7/10
Point crucial : Le prompt engineering est CRITIQUE.
On a mis 3 mois à optimiser nos prompts spécifiques par matière.
Réglementaire :
Pour les examens officiels, on garde une validation humaine obligatoire sur échantillon aléatoire (10% des copies).
Ça suffit juridiquement.
Tu veux que je partage notre architecture détaillée ?
Super projet ! Côté infra, quelques points importants : Gestion des pics de charge : 2800 copies simultanées = gros défi technique. Nos recommandations : - Batch processing avec priorités (résultats urgents vs normaux) - Auto-scaling sur AWS/GC P selon charge - Cache Redis pour éviter reprocessing copies similaires - Monitoring alertes si délai > seuil défini Coûts optimisés qu’on observe : - Claude 3.5 : ~1.20€/copie (QC M + 3 questions courtes) - GP T-4o : ~2.10€/copie (meilleur sur questions complexes) - Mistral Large : ~0.80€/copie (bon rapport qualité/prix) Tips économies : - Pre-processing pour nettoyer/structurer avant AP I - Modèles spécialisés selon type questions - Caching des corrections similaires Votre ROI sera excellent : 180k€ → ~15-25k€/an maximum. @dr_martin_edtech tu as pensé à tester d’autres modèles que Claude ?
Attention aux aspects conformité ! J’accompagne plusieurs universités sur ces sujets. Obligations légales examens : - Décision automatisée = information obligatoire aux étudiants (RGPD Art. 22) - Droit contestation/révision humaine garantie - Traçabilité complète des décisions I A - DPA signé avec fournisseur API (Claude/OpenA I) Framework validation qu’on recommande : 1. Phase pilote : Tests sur examens blancs uniquement 2. Audit qualité : Validation croisée humain/I A sur 500+ copies 3. Documentation : Processus décision + biais potentiels identifiés 4. Mise en production : Avec validation humaine systématique jusqu’à 99%+ fiabilité Point crucial réglementaire : Le Ministère prépare un cadre spécifique IA dans l’éducation (sortie prévue fin 2025). En attendant, on reste sur validation humaine obligatoire. Le modèle hybride IA + échantillonnage humain est le plus sûr juridiquement. @sophie_ia_edu vous avez eu des audits réglementaires ?