Wie können wir helfen?
Drucken

Outils de rédaction basés sur l’IA dans l’enseignement: l’exemple de ChatGPT

Menschen versammelt um einen Roboter. Roboter sagt: Haben wir heute was gelernt?

1. Objectifs

Le présent document vise à fournir au personnel enseignant de la BFH un premier éclairage sur l’utilisation des outils de rédaction basés sur l’intelligence artificielle (IA) dans l’enseignement. Dans un premier temps, nous nous intéressons plus particulièrement à ChatGPT, l’outil le plus populaire et le plus répandu actuellement. Comme il s’agit d’une thématique très dynamique, nous adapterons cette première version succincte au fil des nouveaux développements. Les commissions Enseignement et Formation continue ainsi que l’organe de coopération Enseignement numérique (DiLE) de la BFH ont été associées à la création des contenus. La publication d’une autre fiche technique traitant d’une manière plus large et approfondie le sujet des outils d’IA dans l’enseignement est prévue. Ces informations, ainsi que d’autres informations sur le thème « L’IA dans l’enseignement », figurent dans la base de connaissances de l’Académie virtuelle. En complément, on mentionnera le recueil de ressources, complet et continuellement mis à jour, du Centre de compétence virtuel sur le thème « Écrire, enseigner et apprendre avec l’IA ».

2. Positionnement de la BFH par rapport aux outils d’IA

Les outils de rédaction basés sur l’IA recèlent un potentiel immense pour les travaux scientifiques et diverses applications pratiques. La capacité de nos étudiant-e-s et de nos enseignant-e-s à tirer parti de ce potentiel jouera un rôle déterminant dans leurs Future Skills. Les technologies de génération de texte connaissent un développement fulgurant et se révèlent particulièrement pertinentes dans le contexte académique, notamment pour les travaux écrits. Il y a tout lieu de penser que la majorité des étudiant-e-s utilise d’ores et déjà ChatGPT et d’autres outils et que leur usage est appelé à s’accélérer.

Sur le fond, la BFH défend le point de vue selon lequel les technologies doivent être intégrées à l’enseignement dès lors qu’elles soutiennent le processus d’apprentissage et qu’elles sont adaptées à la pratique. Les étudiant-e-s doivent apprendre à utiliser les technologies avec compétence et à exercer leur sens critique à leur égard. Cela vaut sans restriction pour ChatGPT et pour les autres outils de même nature.

3. Qu’est-ce que ChatGPT ?

ChatGPT est un robot conversationnel basé sur l’IA lancé fin 2022 par la société OpenAI. L’outil re-pose sur des modèles linguistiques connus (Large Language Models [LLM]) que l’application met pour la première fois à la portée d’un large public. Le développement dynamique et le potentiel de ces LLM résultent à la fois des nouvelles techniques dans le domaine de l’apprentissage automatique, de l’arrivée d’ordinateurs toujours plus puissants et de la présence de corpus de textes gigantesques sur internet. Les LLM sont en mesure d’apprendre les modèles de probabilités selon lesquels les mots se suivent au sein du corpus de textes utilisé.

La société OpenAI, qui s’était autrefois donné pour but de rendre la recherche sur l’IA disponible à chacun-e, est devenue une entreprise commerciale soutenue par Microsoft® en tant qu’investisseur. Les données saisies par les utilisatrices et utilisateurs sont mises à profit pour améliorer ChatGPT, mais aussi pour élargir le potentiel commercial de l’outil. Ainsi, Microsoft® a déjà intégré une pro-chaine version à son moteur de recherche « Bing » et il est probable que les versions suivantes seront intégrées directement dans Windows et dans les produits Microsoft 365. OpenAI fournira d’autre part une plateforme de modules d’extension avec des programmes complémentaires pour ChatGPT. Les modules d’extension ont l’avantage d’enrichir les fonctionnalités de ChatGPT et d’intégrer p. ex. des informations d’actualité. Les développements autour de ChatGPT présentent un caractère extrême-ment dynamique, de sorte que l’état des connaissances évolue d’une semaine ou d’un mois à l’autre.

3.1 Caractéristiques essentielles

  • En substance, ChatGPT est le fruit de deux technologies. Ses capacités à générer du texte sont à mettre au crédit d’un LLM alimenté par de gigantesques volumes de données texte. De plus, on a eu recours à des techniques permettant de prendre en compte les préférences humaines concernant les textes générés par ChatGPT. ChatGPT prend le texte saisi et tente de le prolonger de la « meilleure façon possible ». ChatGPT peut prendre en compte l’ensemble du contexte quand il génère du texte. C’est pourquoi il est capable de rédiger non seulement des phrases grammaticalement correctes, mais aussi des discours entiers, des scripts, des déclarations, des poèmes, etc.
  • ChatGPT se présente aux utilisatrices et utilisateurs sous la forme d’un robot conversationnel, c’est-à-dire qu’il leur propose de saisir du texte (« prompt »). ChatGPT y apporte alors une réponse et un dialogue s’instaure. Cette présentation sous forme de conversation peut donner l’im-pression à l’utilisatrice ou à l’utilisateur de discuter avec une entité autonome qui semble se sou-venir des éléments de conversation antérieurs. En réalité, le dialogue antérieur est réutilisé en permanence comme « prompt » pour la génération de textes et c’est sur cette base que ChatGPT s’appuie pour apporter à la conversation les éléments les plus appropriés possible.
  • La tentation est grande d’attribuer à ChatGPT des facultés humaines telles que le fait de « penser » ou de « croire ». Puisque le robot est manifestement à même de corriger ses propres affirmations en demandant des précisions, il semble avoir la faculté de réfléchir sur lui-même et sur ses déclarations. Les utilisatrices et utilisateurs se retrouvent ainsi dans une position délicate : puisque ChatGPT semble être en mesure de « penser », pourquoi ne pas lui faire confiance ? Seulement, la fonction assignée à ChatGPT se limite à générer un texte qui semble plausible sur la base de probabilités, et non d’énoncer des « vérités ».

3.2 De quoi ChatGPT est-il capable ?

  • ChatGPT génère des textes inédits sur la base des questions qui lui sont posées (« prompts »). Les types de textes susceptibles d’être produits vont de la fiction en prose au code de programmation en passant par la poésie.
  • ChatGPT peut traduire des textes.
  • ChatGPT peut apprendre à partir d’exemples. Au cours du processus d’apprentissage, le texte saisi sert d’exemple. Par un questionnement approprié (« prompting »), ChatGPT peut être amené à résoudre une multitude de problèmes différents. Le robot peut ainsi analyser les exemples donnés dans le texte saisi pour apprendre à résoudre un problème en le décomposant en plusieurs étapes intermédiaires. Cette technique appelée « chain-of-thought prompting » peut améliorer considérablement les capacités de ChatGPT à tirer des conclusions.
  • Cet outil de rédaction peut ainsi être utilisé pour surmonter des blocages d’écriture, paraphraser des passages ou vérifier la lisibilité d’un texte qu’on a écrit. ChatGPT peut également être utilisé d’autres manières, comme chercher des explications alternatives à certains faits ou théories, résumer un texte, résoudre des problèmes de programmation, analyser des textes ou du code. Cependant, il faut toujours garder à l’esprit que les tâches qui lui sont confiées peuvent être erronées. Il s’agit donc d’en vérifier l’exactitude et l’adéquation.

3.3 Qu’est-ce que ChatGPT ne sait pas faire ?

  • ChatGPT produit des textes qui doivent sembler le plus plausible possible à l’entendement hu-main. À toute requête l’invitant à énoncer des faits, ChatGPT formulera donc une réponse paraissant plausible. Mais sous sa forme actuelle, ChatGPT n’est pas en mesure de s’assurer de la véracité de ses réponses à l’aide de sources externes. Il incombe toujours à l’utilisatrice ou à l’utilisateur de vérifier les assertions de ChatGPT.
  • Sauf à être associé à des outils tiers, ChatGPT n’est ni un moteur de recherche ni un ouvrage de référence. Il n’a d’ailleurs pas été présenté en tant que tel par OpenAI à ses débuts. Micro-soft® a toutefois d’ores et déjà intégré une version évoluée de ChatGPT à son moteur de re-cherche « Bing ».
  • ChatGPT n’a aucun moyen de vérifier si le texte généré a effectivement un rapport avec le monde réel ou si les faits qu’il relate sont exacts. Ainsi, ChatGPT ne peut pas être utilisé pour établir une bibliographie dans la mesure où le modèle génère des références plausibles et non des références réelles. On ne peut donc pas recourir à ChatGPT pour citer des sources de façon scientifiquement correcte. Il est toutefois possible de connecter ChatGPT à des bases de données externes. Des outils en ce sens sont en cours de développement (ResearchRabbit, Elicit).
  • Les ensembles de données ayant alimenté ChatGPT peuvent contenir des contenus biaisés, mensongers ou controversés. C’est pourquoi les textes générés par ChatGPT peuvent véhiculer des préjugés (biais).
  • ChatGPT ne sait pas calculer. Autrement dit, on ne peut pas l’utiliser aveuglément pour des besoins mathématiques. Il est toutefois possible d’apprendre à ChatGPT à résoudre des problèmes mathématiques grâce au « prompt design ». Malgré tout, il n’est pas recommandé d’utiliser ChatGPT comme calculatrice étant donné que le robot ne peut pas effectuer de cal-culs exacts sur de grands nombres.
  • ChatGPT peut indiquer des pistes susceptibles de résoudre des problèmes. Mais il ne sait pas expliquer son « raisonnement ». ChatGPT peut par exemple répondre à la question « Combien font 2 et 2 ? ». En revanche, s’il est interrogé sur le cheminement qui l’a conduit à cette réponse, le robot va générer un raisonnement plausible, mais qui n’est pas celui qu’il a effectivement utilisé. ChatGPT se limite à compléter le texte saisi avec la solution la plus probable.

4. Considérations de principe sur l’utilisation de ChatGPT à la BFH

  • Les textes produits par ChatGPT ne sont pas simplement des textes paraphrasés tirés des données d’entrainement déjà disponibles, mais des contenus nouvellement générés. C’est pourquoi ces textes ne sont pas des plagiats au sens classique du terme. La société qui développe Turnitin, le vérificateur de plagiat de la BFH, travaille actuellement sur une extension capable de détecter les textes générés par IA. D’autres entreprises mènent également des re-cherches en ce sens. En l’état actuel des choses, il est toutefois acquis que les textes générés par IA sont presque impossibles à distinguer des autres. Il ne sera pas possible de détecter les textes générés par IA de façon irréfutable, contrairement à ce qui serait souhaité d’un point de vue juridique. Néanmoins, la BFH recommande de continuer à contrôler les travaux écrits à l’aide du vérificateur de plagiat Turnitin.
  • Le traitement correct des sources et références est un élément fondamental du travail scientifique que les étudiant-e-s doivent assimiler. Dans le cadre des contrôles de compétences par écrit, les étudiant-e-s doivent certifier avoir cité les sources de manière correcte et exhaustive, en fournissant une déclaration sur l’honneur par laquelle ils et elles indiquent avoir travaillé de manière autonome et respecté l’intégrité scientifique. Les outils de rédaction basés sur l’IA constituent des sources externes et doivent donc toujours être cités, au même titre que les autres sources, dans un souci d’intégrité scientifique, si des passages entiers issus de ChatGPT sont utilisés. Si l’étudiant-e a utilisé ChatGPT pour remanier son texte, il ou elle devra le mentionner parmi les outils auxiliaires utilisés. wurde, muss ChatGPT als verwendetes Hilfsmittel angeführt werden.
  • L’IA en général – et ChatGPT en particulier – ouvre de nouvelles perspectives dans la transmission didactique des contenus et peut être utilisée de manière productive dans l’enseignement et la recherche. (Recueil de liens Didactique et ChatGPT). La BFH proposera des possibilités de qualification et d’échange à ce sujet par le biais de l’Académie virtuelle et lancera des travaux de recherche sur l’utilisation raisonnée de l’IA dans l’enseignement (BeLEARN).
  • L’Académie Virtuelle propose dans sa base de connaissances une collection de FAQ et des in-formations complémentaires sur le thème de « L’IA dans l’enseignement » régulièrement mises à jour.

5. Utilisation de textes générés par l’IA dans le cadre des contrôles de compétence

5.1 Généralités

  • Bases juridiques internes : l’article 26 du Règlement-cadre concernant les études à la Haute école spécialisée bernoise BFH (RCE) définit les règles en matière de contrôles de compétence. En ce qui concerne l’utilisation d’outils d’IA lors des contrôles de compétence, l’article 26 (Tricherie) est particulièrement explicite puisqu’il stipule que les principes d’intégrité intellectuelle et de bonne pratique scientifique doivent être observés. Autrement dit, les contrôles de compétence doivent être réalisés sans aide non autorisée de tierces personnes et uniquement avec les moyens auxiliaires admis. Toutes les citations et sources doivent être indiquées clairement. Les anciennes directives relatives au traitement des cas de plagiat ont été intégrées au chapitre 6 du Règlement de la Haute école spécialisée bernoise sur l’intégrité scientifique (WissIR). Les nouveaux outils d’IA ne changent fondamentalement rien aux règles vis-à-vis du plagiat.
  • Plagiat « au sens large » : le plagiat est un délit éthique et moral consistant à faire passer la propriété intellectuelle d’autrui pour la sienne. Voilà pourquoi l’utilisation de textes générés par l’IA dans les contrôles de compétence sans déclaration ni citation constitue également un cas de plagiat « au sens large ». La définition formelle du plagiat au sens strict telle qu’elle était considérée jusqu’à maintenant s’en trouve ainsi élargie.
  • Un traitement juridique commun : l’équipe de projet KI:edu.nrw de l’Université de la Ruhr à Bochum (Allemagne) a récemment publié un avis de droit concernant l’utilisation des outils de rédaction basés sur l’IA dans les hautes écoles. Cet avis est disponible sur le site KI:edu.nrw. Il n’en reste pas moins que le développement d’une approche juridique nationale et internationale commune dans le contexte de l’utilisation des outils d’IA n’en est qu’à ses balbutiements et possède un temps de retard sur l’évolution technologique.

5.2 Utilisation d’outils d’IA lors des examens à livre ouvert

  • Interdiction explicite des outils d’IA : durant les examens à livre ouvert autorisant l’utilisation d’outils numériques, les étudiant-e-s ont le droit d’utiliser des outils auxiliaires pour effectuer les exercices. Sauf interdiction explicite, cela s’applique également aux outils d’IA tels que ChatGPT.
  • Production d’un travail indépendant pouvant être évalué : les modalités d’utilisation d’outils d’IA de génération de texte lors d’examens à livre ouvert dépendent de la nature du contrôle de compétence et des exercices. Il est essentiel de ce point de vue que le critère de la production par les étudiant-e-s d’un travail indépendant pouvant être évalué soit toujours respecté.
  • Devoir d’information des enseignant-e-s : les enseignant-e-s et responsables de module doivent décider en amont de l’autorisation ou de l’interdiction des outils d’IA pendant l’examen et en informer les étudiant-e-s.

5.3 Utilisation d’outils d’IA lors des examens à livre fermé (en ligne)

  • Utilisation du navigateur Safe Exam Browser et clé USB d’apprentissage : il est possible de blo-quer l’utilisation de ChatGPT et d’autres outils d’IA lors d’un examen en ligne en utilisant le navigateur Safe Exam Browser ou la clé USB d’apprentissage.
  • Demander conseil en amont : pour les examens à livre fermé (en ligne), il est recommandé aux enseignant-e-s de demander conseil aux super-utilisateurs Moodle de leur département ou de l’Académie virtuelle dès le début du semestre. Pour les examens BYOD passés avec Moodle ou d’autres programmes, les enseignant-e-s peuvent s’entrainer au préalable avec leurs étudiant-e-s dans la configuration d’examen donnée et contribuer ainsi au bon déroulement de l’exa-men.

5.4 Utilisation d’outils d’IA pour les travaux écrits

  • Citations et mention : pour les contrôles de compétence effectués sous forme de travaux écrits (travaux de projet, de bachelor et de master), les étudiant-e-s doivent signaler les textes générés au moyen d’outils. Il faut distinguer entre les passages utilisés mot pour mot et les passages modifiés par l’auteur-e. Les passages repris entièrement doivent être cités. Quant aux textes écrits par les étudiant-e-s et améliorés à l’aide d’outils de rédaction basés sur l’IA, ils doivent être signalés comme tels avec une mention globale de ces outils à la fin du travail. Le chapitre 5.5 propose des exemples/options pour la citation des outils d’IA et leur mention.
  • Mises au point en début de semestre : à l’avenir, il faudra aborder la question de l’utilisation des outils d’intelligence artificielle dès le début du semestre lors de l’explication des modalités de déroulement des contrôles de compétence pour chaque module. Les enseignant-e-s et les étudiant-e-s auront alors la possibilité de discuter ensemble de la pertinence et de l’impact de ces outils dans le contexte de leur discipline, de réfléchir aux enjeux et de prendre position face à l’utilisation de ces outils.
  • Utilisation de Turnitin : il est possible et recommandé de continuer à analyser les travaux écrits à l’aide du vérificateur de plagiat Turnitin, même s’il n’est pas encore à même de détecter l’usage des outils d’IA. L’objectif du contrôle reste toutefois inchangé. Les enseignant-e-s seront informé-e-s dès que Turnitin bénéficiera d’une extension en ce sens.
  • Procédure en cas de soupçons : en cas de suspicions concernant l’utilisation non autorisée ou insuffisamment signalée d’outils de rédaction basés sur l’IA (plagiat « au sens large »), on procèdera conformément aux dispositions du Règlement de la Haute école spécialisée bernoise sur l’intégrité scientifique (WissIR).
  • Formes d’examen différentes ou complémentaires : compte tenu du changement de cadre pour les travaux écrits, il peut être utile, dans certains contextes, de recourir à d’autres formes de contrôle de compétence, ou du moins de les combiner avec des travaux écrits (p. ex. examens pratiques, examens oraux, présentations). Dans le cas des mémoires de bachelor et de master, on pourra ainsi se demander si la présentation orale ne doit pas avoir un poids plus important dans la notation par rapport au travail écrit que par le passé.

5.5 Exemples de citation et de mention globale

Il n’existe pas encore de directives concernant les citations de ChatGPT ou d’autres outils de rédaction basés sur l’IA. Étant donné que les textes de ChatGPT ne sont pas reproductibles, il est recommandé d’employer un style de citation réservé aux communications personnelles en cas d’utilisation de ChatGPT ou d’autres outils d’IA. Les communications personnelles ne sont pas soumises à l’obligation de figurer dans la bibliographie. Les exemples mentionnés ci-dessous pour des standards de citation courants peuvent servir de référence pour d’autres standards.

  1. Exemple : citer ChatGPT selon le style APA (ChatGPT, communication personnelle, 4 avril 2023))
  2. Exemple : citer ChatGPT selon le style Harvard (Modèle de langage IA d’OpenAI ChatGPT, communication personnelle, 04.04.2023)
  3. Exemple : citer ChatGPT selon l’usage allemand (première note de bas de page: Modèle de langage d’OpenAI ChatGPT, réponse à une question de l’auteur-e, 4 avril 2023.   Note de bas de page suivante: ChatGPT, 4 avril 2023.)

Dans le cas où les outils de rédaction d’IA ne sont utilisés qu’à titre de soutien (p. ex. pour améliorer des textes), l’utilisation de ces outils doit être signalée par une mention globale à la fin du travail ou dans la déclaration sur l’honneur :

Exemple de mention globale  « Pour rédiger ce travail, j’ai utilisé l’outil de rédaction basé sur l’IA ChatGPT à des fins d’optimisation du texte. Les passages repris mot pour mot de cet outil ont été cités dans mon travail au titre de communication personnelle.»

 

Politiques d’IA des départements (en allemand)

Die Policy Des Departements Wirtschaft Zu Künstlicher Intelligenz In Der Lehre

 

Tags:
Inhaltsverzeichnis
Go to Top