Les préjugés raciaux dans le milieu éducatif entraînent une discrimination scolaire liée à l’IA. Une étude de Common Sense Media révèle que les adolescents noirs sont injustement accusés d’utiliser des outils d’intelligence artificielle (IA) pour leurs devoirs. Cela accentue les inégalités scolaires déjà existantes.
Les outils de détection d’IA, conçus pour garantir l’intégrité des devoirs scolaires, deviennent un terrain fertile pour les discriminations. L’étude révèle que les adolescents noirs sont deux fois plus accusés d’utiliser des générateurs de texte comme ChatGPT. En comparaison, leurs camarades blancs et latinos suscitent moins de soupçons. Ces accusations aggravent les inégalités au sein du système éducatif américain.
Les résultats de l’étude soulignent une réalité alarmante. Les logiciels de détection d’IA, ainsi que leur utilisation par les enseignants, aggravent les disparités disciplinaires. Aux États-Unis, les élèves noirs reçoivent davantage de sanctions disciplinaires que leurs pairs, même en l’absence de mauvais comportement. Ces mesures injustifiées affectent leurs résultats scolaires ainsi que leur estime de soi.
Fiabilité des outils en question
Les logiciels de détection d’IA, censés identifier les devoirs générés par des machines, se révèlent inefficaces. Ces programmes cherchent des modèles de phrases génériques et stéréotypées. Cependant, ils peinent à distinguer un texte produit par ChatGPT d’une rédaction vérifiée avec des outils comme Grammarly.
Les troubles d’apprentissage, tels que la dyslexie, sont fréquemment sous-diagnostiqués chez les étudiants noirs. En raison de cette situation, ils font davantage l’objet d’accusations de tricherie. Les logiciels de détection d’IA n’intègrent pas leurs difficultés spécifiques, ce qui augmente les risques de discrimination scolaire.
Parallèlement, les élèves blancs ont accès à des outils technologiques avancés. Ils peuvent utiliser des logiciels de paraphrase pour reformuler leurs devoirs. Grâce à cet avantage, ils évitent les sanctions liées à l’utilisation d’outils d’IA.
Stéréotypes dans l’évaluation
Les présomptions sur la capacité des élèves à produire un langage de qualité diffèrent selon leur origine socio-économique et ethnique. Les enseignants ont tendance à accorder le bénéfice du doute aux élèves blancs issus de milieux privilégiés. En revanche, les enseignants perçoivent un élève noir de la classe ouvrière de manière moins favorable. Cette dynamique accentue les biais et les inégalités dans l’évaluation des devoirs.
Impact sur la réussite scolaire
Ces discriminations répétées dans les salles de classe entraînent des conséquences graves. Les accusations injustifiées découragent les élèves noirs, ce qui affecte leur motivation et compromet leur réussite académique. En utilisant ces technologies de manière indiscriminée, le système éducatif contribue à creuser les écarts de performance entre les groupes ethniques.
Il est urgent de repenser l’utilisation des outils technologiques dans les écoles. Les institutions doivent former les enseignants aux limites des logiciels de détection d’IA et les sensibiliser aux biais qui en découlent. De plus, les responsables éducatifs doivent s’assurer que ces technologies ne se transforment pas en un outil de discrimination supplémentaire.
Les conclusions de l’étude de Common Sense Media sont un signal d’alarme. Parents, éducateurs et décideurs doivent s’engager pour garantir un environnement éducatif équitable. Il est essentiel de protéger tous les élèves, quels que soient leur origine ou leur accès à la technologie.
- Partager l'article :