IA à l'école : la Cnil pose un cadre

Alors que l'intelligence artificielle gagne du terrain dans les établissements scolaires, la Commission nationale de l'informatique et des libertés publie deux FAQ pour aider les enseignants et les responsables d'établissement à en faire un usage encadré et respectueux des droits des élèves. L'objectif est de prévenir les dérives liées à la collecte des données personnelles, aux biais algorithmiques et à une dépendance excessive à cette technologie. 

Classe
Classe

Le recours à l'intelligence artificielle dans le monde éducatif présente de nombreuses vertus, reconnaît la Commission nationale de l'informatique et des libertés (Cnil). Dans le même temps, cette technologie doit être "particulièrement encadrée", juge l'autorité de protection des données dans un nouveau document dédié aux enseignants, responsables d'établissement, ministères et autorités académiques. Le but : les accompagner dans l'intégration de l'IA à l'école via deux FAQ

De façon générale, la Commission identifie trois axes d'intégration de l'IA dans l'éducation : pour les enseignants par la création de supports, la correction automatisée, le suivi des élèves ou encore la détection de contenus générés par l'IA ; pour les élèves avec l'accompagnement à la lecture ou aux devoirs et l'adaptation aux besoins éducatifs spécifiques ; pour l'administration pour la sécurité, la planification et la gestion. 

Le DPO doit être associé au projet

Dans ce cadre, l'autorité rappelle que l'utilisation de l'IA peut engendrer la collecte et le traitement des données personnelles des élèves. L'enseignant n'est pas le responsable du traitement mais il doit informer la direction de son établissement qu'il utilise un tel outil. Le responsable du traitement doit en valider l'usage, avec appui possible du conseil pédagogique ou d'administration. Le délégué à la protection des données (DPD) doit être associé à ce projet, recommande la Cnil. 

Point important : l'usage d’un système d’IA ne requiert pas le consentement des parents si l’outil sert un objectif pédagogique. Toutefois, si l’outil traite des données d’élèves, ces derniers et leurs parents doivent être informés. En cas d’opposition fondée sur une situation particulière, le responsable de traitement tranche, surtout si l’outil est indispensable à la pédagogie. 

Utiliser des ressources validées

Du côté des ressources à utiliser, la Cnil recommande de recourir aux ressources validées par l’Éducation nationale, notamment via le Gestionnaire d’Accès aux Ressources (GAR), qui garantit sécurité et hébergement au sein de l'Union européenne. En cas d'utilisation d'outil "grand public", tel que ChatGPT, elle conseille de préférer un compte "classe" sans création de profils individuels ainsi que de désactiver toutes les fonctions superflues (historique, géolocalisation...). 

Les enseignants doivent prendre plusieurs précautions. Souvent mineurs, les élèves doivent être encadrés en leur expliquant que l'outil n'est pas un interlocuteur humain et de les sensibiliser aux limites des réponses (erreurs possibles, absence de vérification, biais dans les données d'entraînement...). Une récente étude du MIT dessine les premières conséquences d'une utilisation abusive des chatbots : leur usage réduirait l'esprit critique. Ces conclusions doivent être confirmées par de nouvelles études. 

La Commission alerte également sur le rôle de l'enseignant. Il ne doit jamais déléguer une note ou une décision pédagogique à un outil utilisant l'IA. La Cnil alerte également sur la non-fiabilité des outils de détection de contenus générés par l'IA. 

Effectuer une AIPD

Pour le responsable du traitement, le chef d'établissement ou académique dans la majorité des cas, une analyse d'impact (AIPD) est fortement recommandée, si elle n'est pas obligatoire. Elle doit décrire le traitement, analyser sa proportionnalité, estimer les risques et détailler les mesures de sécurité. Le fournisseur de l'outil peut fournir une AIPD cadre, à personnaliser par l'établissement. 

Par anticipation, la Cnil rappelle que l'AI Act prévoit un cadre pour les systèmes d'IA à haut risque utilisés dans l'éducation, relatif à l'admission ou l'affectation scolaire, l'évaluation des acquis ou encore le suivi du comportement lors des examens. Ces systèmes devront répondre à des exigences strictes de transparence, sécurité et supervision humaine. Une analyse d’impact sur les droits fondamentaux sera obligatoire pour les utilisateurs publics.

Newsletter L'Usine Digitale
Nos journalistes sélectionnent pour vous les articles essentiels de votre secteur.
Cherche talents numériques
Les webinars