Les critiques adressées aux systèmes d’IA générative se concentrent souvent, en parallèle de la dénonciation de leur impact environnemental désastreux, sur la tendance de leurs algorithmes à produire des « hallucinations » ou du « baratin », à entretenir les stéréotypes, quand ce n’est pas à propager de la désinformation. A grand renfort de minerais, d’eau et d’électricité, ces systèmes génèrent en effet du « plausible » plutôt que du « vrai », en reproduisant les biais contenus dans leurs données d’entraînement... ou dans les idéologies politiques de ceux qui les conçoivent puis les entraînent. Au-delà de la fiabilité de ses productions, l’IA soulève ainsi des enjeux sociétaux majeurs dont les élèves doivent être conscient·es pour en faire un usage responsable.Dans ce contexte, on invoque fréquemment la nécessité de développer « l’esprit critique ». Or cette notion n’est ni simple ni univoque : les personnes adeptes des théories du complot ne revendiquent-elles pas elles aussi une forme de scepticisme ?
Comprendre pourquoi leur démarche diffère de celle des scientifiques permet d’éclairer les conditions d’une véritable pensée critique, adaptée à l’évaluation des productions et des impacts de l’IA. Une fois cette distinction posée, l’IA pourra apparaître non pas seulement comme une menace exigeant plus d’esprit critique, mais aussi comme une opportunité de le cultiver, offrant aux enseignant·es et aux élèves des situations et des méthodes d’analyse inédites.