Le professeur Nir Eisikovits et Jacob Burley de l'Université du Massachusetts à Boston discutent de l'éthique de l'IA dans l'enseignement supérieur et du rôle de la technologie dans le « déchargement cognitif ».

Une version de cet article a été initialement publiée par The Conversation (CC BY-ND 4.0)

Le débat public sur l’intelligence artificielle dans l’enseignement supérieur tourne autour d’une préoccupation familière : la tricherie. Les étudiants utiliseront-ils des chatbots pour rédiger des essais ? Les instructeurs peuvent-ils le dire ? Les universités devraient-elles interdire cette technologie ? L'adopter ?

Ces préoccupations sont compréhensibles. Mais se concentrer autant sur la tricherie passe à côté de la transformation plus vaste déjà en cours, qui s’étend bien au-delà de la mauvaise conduite des élèves et même de la salle de classe.

Les universités adoptent l’IA dans de nombreux domaines de la vie institutionnelle. Certaines utilisations sont largement invisibles, comme les systèmes qui aident à allouer les ressources, à signaler les étudiants « à risque », à optimiser la planification des cours ou à automatiser les décisions administratives de routine. D'autres utilisations sont plus visibles. Les étudiants utilisent des outils d'IA pour résumer et étudier, les instructeurs les utilisent pour créer des devoirs et des programmes, et les chercheurs les utilisent pour écrire du code, numériser de la littérature et compresser des heures de travail fastidieux en minutes.

Les gens peuvent utiliser l’IA pour tricher ou sauter des tâches. Mais les nombreuses utilisations de l’IA dans l’enseignement supérieur, et les changements qu’elles présagent, soulèvent une question bien plus profonde : à mesure que les machines deviennent plus capables d’effectuer le travail de recherche et d’apprentissage, qu’arrive-t-il à l’enseignement supérieur ? A quoi sert l’université ?

Au cours des huit dernières années, nous avons étudié les implications morales d'un engagement omniprésent dans l'IA dans le cadre d'un projet de recherche conjoint entre le Centre d'éthique appliquée de l'UMass Boston et l'Institut d'éthique et de technologies émergentes. Dans un récent livre blanc, nous affirmons qu’à mesure que les systèmes d’IA deviennent plus autonomes, les enjeux éthiques de son utilisation dans l’enseignement supérieur augmentent, tout comme ses conséquences potentielles.

À mesure que ces technologies deviennent plus efficaces pour produire du travail de connaissance – concevoir des cours, rédiger des articles, suggérer des expériences et résumer des textes difficiles – elles ne rendent pas seulement les universités plus productives. Elles risquent de détruire l’écosystème d’apprentissage et de mentorat sur lequel ces institutions sont bâties et dont elles dépendent.

IA non autonome

Considérez trois types de systèmes d’IA et leurs impacts respectifs sur la vie universitaire.

Les logiciels basés sur l'IA sont déjà utilisés dans l'enseignement supérieur pour l'examen des admissions, les achats, le conseil pédagogique et l'évaluation des risques institutionnels. Ceux-ci sont considérés comme des systèmes « non autonomes » car ils automatisent les tâches, mais une personne est « dans la boucle » et utilise ces systèmes comme outils.

Ces technologies peuvent présenter un risque pour la vie privée et la sécurité des données des étudiants. Ils peuvent également être biaisés. Et ils manquent souvent de transparence pour déterminer les sources de ces problèmes. Qui a accès aux données des étudiants ? Comment les « scores de risque » sont-ils générés ? Comment empêcher les systèmes de reproduire les inégalités ou de traiter certains élèves comme des problèmes à gérer ?

Ces questions sont sérieuses, mais elles ne sont pas conceptuellement nouvelles, du moins dans le domaine de l’informatique. Les universités disposent généralement de bureaux de conformité, de comités d'examen institutionnels et de mécanismes de gouvernance conçus pour aider à faire face ou à atténuer ces risques, même s'ils ne parviennent parfois pas à atteindre ces objectifs.

IA hybride

Les systèmes hybrides englobent une gamme d’outils, notamment des chatbots de tutorat assistés par l’IA, des outils de feedback personnalisé et une aide à la rédaction automatisée. Ils s’appuient souvent sur des technologies d’IA générative, notamment sur de grands modèles de langage. Alors que les utilisateurs humains fixent les objectifs généraux, les étapes intermédiaires que le système prend pour les atteindre ne sont souvent pas spécifiées.

Les systèmes hybrides façonnent de plus en plus le travail universitaire quotidien. Les étudiants les utilisent comme compagnons d'écriture, tuteurs, partenaires de brainstorming et explicateurs à la demande. Les professeurs les utilisent pour générer des rubriques, rédiger des cours et concevoir des programmes. Les chercheurs les utilisent pour résumer des articles, commenter des ébauches, concevoir des expériences et générer du code.

C’est là qu’appartient la conversation sur la « tricherie ». Alors que les étudiants et les professeurs s’appuient de plus en plus sur la technologie pour obtenir de l’aide, il est raisonnable de se demander quels types d’apprentissage pourraient se perdre en cours de route. Mais les systèmes hybrides soulèvent également des questions éthiques plus complexes.

Il s’agit d’une question de transparence. Les chatbots IA offrent des interfaces en langage naturel qui rendent difficile la détection du moment où vous interagissez avec un humain et du moment où vous interagissez avec un agent automatisé. Cela peut être aliénant et distrayant pour ceux qui interagissent avec eux. Un étudiant qui révise du matériel pour un test doit être capable de dire s’il parle avec son assistant pédagogique ou avec un robot.

Un étudiant qui lit des commentaires sur une dissertation a besoin de savoir si celui-ci a été rédigé par son instructeur. Dans de tels cas, toute transparence moindre serait aliénante pour toutes les personnes impliquées et déplacerait l’attention des interactions académiques de l’apprentissage vers les moyens ou la technologie d’apprentissage. Des chercheurs de l’Université de Pittsburgh ont montré que ces dynamiques suscitent des sentiments d’incertitude, d’anxiété et de méfiance chez les étudiants. Ce sont des résultats problématiques.

Une deuxième question éthique concerne la responsabilité et le crédit intellectuel. Si un instructeur utilise l’IA pour rédiger un devoir et qu’un étudiant utilise l’IA pour rédiger une réponse, qui effectue l’évaluation et qu’est-ce qui est évalué exactement ? Si les commentaires sont en partie générés par des machines, qui est responsable lorsqu’ils induisent en erreur, découragent ou intègrent des hypothèses cachées ? Et lorsque l’IA contribue de manière substantielle à la synthèse ou à la rédaction de recherches, les universités auront besoin de normes plus claires concernant la paternité et la responsabilité – non seulement pour les étudiants, mais aussi pour les professeurs.

Enfin, se pose la question cruciale du déchargement cognitif. L’IA peut réduire la corvée, et ce n’est pas mauvais en soi. Mais cela peut également éloigner les utilisateurs des aspects de l'apprentissage qui renforcent les compétences, comme générer des idées, lutter contre la confusion, réviser un brouillon maladroit et apprendre à repérer ses propres erreurs.

Agents autonomes

Les changements les plus conséquents pourraient venir de systèmes qui ressemblent moins à des assistants qu’à des agents. Même si les technologies véritablement autonomes restent un rêve, le rêve d'un chercheur « dans une boîte » – un système d'IA agentique capable de réaliser des études par lui-même – devient de plus en plus réaliste.

Les outils agents devraient « libérer du temps » pour un travail axé sur des capacités davantage humaines telles que l'empathie et la résolution de problèmes. Dans le domaine de l'enseignement, cela peut signifier que les professeurs peuvent toujours enseigner au sens large, mais qu'une plus grande partie du travail quotidien d'enseignement peut être confiée à des systèmes optimisés pour l'efficacité et l'échelle. De même, en recherche, la trajectoire s’oriente vers des systèmes capables d’automatiser de plus en plus le cycle de recherche. Dans certains domaines, cela ressemble déjà à des laboratoires robotiques qui fonctionnent en continu, automatisent de grandes parties de l’expérimentation et sélectionnent même de nouveaux tests sur la base de résultats antérieurs.

À première vue, cela peut sembler être un gain de productivité bienvenu. Mais les universités ne sont pas des usines d’information ; ce sont des systèmes de pratique. Ils s'appuient sur un bassin d'étudiants diplômés et d'universitaires en début de carrière qui apprennent à enseigner et à faire de la recherche en participant à ces mêmes travaux. Si les agents autonomes assument davantage de responsabilités « routinières » qui servaient historiquement de rampe d'accès à la vie universitaire, l'université pourrait continuer à produire des cours et des publications tout en réduisant discrètement les structures d'opportunités qui soutiennent l'expertise au fil du temps.

La même dynamique s’applique aux étudiants de premier cycle, quoique dans un registre différent. Lorsque les systèmes d’IA peuvent fournir des explications, des ébauches, des solutions et des plans d’étude à la demande, la tentation est de se décharger des parties les plus difficiles de l’apprentissage. Pour l’industrie qui pousse l’IA dans les universités, il peut sembler que ce type de travail est « inefficace » et que les étudiants feraient mieux de laisser une machine s’en charger. Mais c’est la nature même de cette lutte qui construit une compréhension durable. La psychologie cognitive a montré que les étudiants grandissent intellectuellement en effectuant un travail de rédaction, de révision, d'échec, de réessai, de lutte contre la confusion et de révision d'arguments faibles. C’est le travail d’apprendre à apprendre.

Prises ensemble, ces évolutions suggèrent que le plus grand risque posé par l’automatisation dans l’enseignement supérieur n’est pas simplement le remplacement de tâches particulières par des machines, mais aussi l’érosion de l’écosystème plus large de pratiques qui soutient depuis longtemps l’enseignement, la recherche et l’apprentissage.

Un point d’inflexion inconfortable

Alors, à quoi servent les universités dans un monde où le travail du savoir est de plus en plus automatisé ?

Une réponse possible consiste à considérer l’université avant tout comme un moteur de production de diplômes et de connaissances. Là, la question centrale est la suivante : les étudiants obtiennent-ils des diplômes ? Des articles et des découvertes sont-ils générés ? Si les systèmes autonomes peuvent fournir ces résultats plus efficacement, alors l’institution a toutes les raisons de les adopter.

Mais une autre réponse considère l’université comme quelque chose de plus qu’une machine à produire, reconnaissant que la valeur de l’enseignement supérieur réside en partie dans l’écosystème lui-même. Ce modèle attribue une valeur intrinsèque à l’ensemble des opportunités grâce auxquelles les novices deviennent des experts, aux structures de mentorat par lesquelles le jugement et la responsabilité sont cultivés, et à la conception éducative qui encourage la lutte productive plutôt que de l’optimiser. Ici, ce qui compte n’est pas seulement de savoir si les connaissances et les diplômes sont produits, mais aussi comment ils sont produits et quels types de personnes, de capacités et de communautés sont formés au cours du processus. Dans cette version, l’université est censée servir rien de moins qu’un écosystème qui forme de manière fiable l’expertise et le jugement humains.

Dans un monde où le travail du savoir lui-même est de plus en plus automatisé, nous pensons que les universités doivent se demander ce que l’enseignement supérieur doit à ses étudiants, à ses chercheurs en début de carrière et à la société qu’il sert. Les réponses détermineront non seulement la manière dont l’IA sera adoptée, mais aussi ce que deviendra l’université moderne.

La conversation

Par le professeur Nir Eisikovits et Jacob Burley

Nir Eisikovits est professeur de philosophie et directeur fondateur du Applied Ethics Center de l'Université du Massachusetts à Boston. Les recherches d'Eisikovits se concentrent sur l'éthique de la guerre et l'éthique de la technologie et il a écrit de nombreux livres et articles sur ces sujets.

Jacob Burley est chercheur junior à l'Université du Massachusetts à Boston, spécialisé dans l'éthique des technologies émergentes. Son travail explore la manière dont l’intelligence artificielle remodèle la prise de décision humaine, la responsabilité et les pratiques de connaissance, avec une attention particulière aux défis normatifs et épistémiques posés par des systèmes de plus en plus autonomes.

A lire également