Imprimer

Outils de rédaction basés sur l’IA dans l’enseignement

Menschen versammelt um einen Roboter. Roboter sagt: Haben wir heute was gelernt?

1. Objectifs

Le présent guide à l’attention des enseignant-e-s de la BFH donne des instructions complètes sur l’utilisation responsable de l’intelligence artificielle dans l’enseignement. Il se base sur le Règlement IA de la BFH (adopté le 7 mai 2025) et tient compte des derniers développements dans le domaine des procédures d’évaluation basées sur l’IA.

Les contenus ont été conçus en étroite collaboration avec les commissions Enseignement et Formation continue et avec le Comité de collaboration Enseignement numérique (DiLE) de la BFH. Ce guide est adapté en continu aux derniers développements technologiques et au cadre juridique.

Des informations et des ressources complémentaires sont disponibles dans la Base de connaissances de l’Académie Virtuelle. Le projet Éducation 6.0 de la BFH met à disposition des recommandations supplémentaires concernant l’utilisation d’outils basés sur l’IA sur une plateforme en ligne (en allemand).

2. Positionnement de la BFH par rapport aux outils d’IA

La BFH reconnait le potentiel transformateur de l’intelligence artificielle et les défis éthiques qu’il pose dans la recherche, l’enseignement et le fonctionnement des hautes écoles. Les technologies basées sur l’IA peuvent permettre des approches innovantes, rendre les contenus d’apprentissage plus dynamiques et plus personnalisés et améliorer l’efficacité.

Il y a tout lieu de penser que la majorité des étudiant-e-s utilise d’ores et déjà ChatGPT ou d’autres outils et que cet usage est appelé à se répandre. La BFH réagit à cette évolution en adoptant une attitude proactive et structurante.

 La BFH défend le principe que les technologies doivent être intégrées à l’enseignement dès lors qu’elles soutiennent le processus d’apprentissage et qu’elles sont adaptées à la pratique. Les étudiant-e-s doivent apprendre à utiliser les technologies d’IA avec compétence et à exercer leur sens critique à l’égard de ces dernières. La capacité de nos étudiant-e-s et de nos enseignant-e-s à tirer parti de ce potentiel jouera un rôle déterminant dans leurs Future Skills.

3. Principes pour l’utilisation de l’IA dans l’enseignement

3.1 Transparence et traçabilité

Les enseignant-e-s utilisent les systèmes d’IA en toute conscience et précisent de manière transparente leur fonctionnement, leurs limites tout comme les algorithmes et les sources de données utilisés. Elles et ils informent les étudiant-e-s sur les outils d’intelligence artificielle auxquels ils ont recouru, notamment lorsqu’ils sont utilisés pour l’évaluation des examens.

3.2 Sécurité de l’information et protection des données

Toutes les informations traitées le sont conformément à la Directive de la BFH sur la sécurité de l’information et la protection des données. Avant leur utilisation, les nouveaux systèmes et outils d’IA sont soumis à un audit, afin de vérifier qu’ils respectent les normes définies. Avec Microsoft Copilot, la BFH met à disposition un outil d’IA testé et conforme à la protection des données.

Exigences spécifiques en matière de protection des données pour les outils d’IA : les enseignant-e-s doivent s’assurer qu’aucune donnée personnelle n’est saisie dans des systèmes d’IA externes qui n’ont pas été explicitement validés par la BFH. Cette dernière veillera tout particulièrement à ce que les systèmes d’IA utilisés ne se servent pas des données saisies pour l’entrainement de leurs modèles. Les examens et autres travaux d’étudiant-e-s identifiables doivent exclusivement être traités sur des plateformes soumises à un contrôle institutionnel.

3.3 Réflexion éthique et responsabilité

Une réflexion éthique critique – guidée par les principes de primauté de l’action humaine, d’équité, d’humanité et de prise de décision transparente – permet aux enseignant-e-s d’examiner soigneusement l’impact de leur utilisation de l’IA et d’en assumer la responsabilité.

3.4 Intégrité scientifique

L’IA est utilisée de manière responsable et dans le respect de l’intégrité scientifique conformément au Règlement de la Haute école spécialisée bernoise sur l’intégrité scientifique (WissIR).

Les outils d’intelligence artificielle ne doivent pas être utilisés pour créer des contenus scientifiques, dont l’évaluation propose principalement sur des critères d’originalité et de traçabilité.

3.5 Adéquation didactique et égalité des chances

Les outils d’IA sont utilisés de manière ciblée, pour autant qu’ils apportent une valeur ajoutée pédagogique. Chaque étudiant-e bénéficie d’un accès égal aux applications d’IA mises à disposition par la BFH. Les étudiant-e-s sont impliqué-e-s de manière appropriée dans l’évaluation des outils d’IA utilisés.

Équité des compétences : les enseignant-e-s tiennent compte des différentes expériences numériques préalables des étudiant-e-s et veillent à proposer des initiations et des mesures de soutien appropriées (coaches en compétences numériques).

4. Que sont les générateurs de texte IA ?

Les générateurs de texte IA, tels que ChatGPT, sont basés sur des grands modèles linguistiques (Large Language Models, LLM) entrainés avec d’énormes quantités de textes. Ils peuvent produire divers types de textes, de la fiction en prose au code de programmation, en passant par la poésie.

4.1 Caractéristiques essentielles

Ces outils combinent des capacités de génération de texte avec des techniques d’apprentissage des préférences humaines. Ils prennent du texte comme matériel de base et produisent une suite plausible axée sur les probabilités en tenant compte de l’ensemble du contexte.
La présentation sous forme de chatbot peut suggérer aux utilisateurs et utilisatrices qu’ils discu-tent effectivement avec une entité autonome. Mais en réalité, l’ensemble du dialogue sert de base à la génération de texte.

4.2 Possibilités et limites

Les outils d’IA sont capables :

  • de générer un nouveau texte sur la base d’une question ;
  • de traduire et de paraphraser des textes ;
  • d’apprendre par l’exemple (chain-of-thought prompting) ;
  • d’aider à surmonter des blocages d’écriture ;
  • de fournir des explications alternatives aux faits ;
  • de résumer et d’analyser des textes.

Les outils d’IA ne sont pas capables :

  • de vérifier l’exactitude de leurs déclarations à l’aide de sources externes ;
  • de citer de manière scientifiquement correcte (sans connexion à une base de données externe) ;
  • d’effectuer des calculs mathématiques exacts ;
  • de garantir des contenus vérifiés et dénués de biais reflétant et perpétuant les préjugés.

 

5. Évaluer des travaux d’étudiant-e-s en recourant à l’IA

5.1 Principes de l’évaluation basée sur l’IA

L’évaluation des examens et des études reste une tâche avant tout humaine et à haute responsabilité pour les enseignant-e-s. Les systèmes d’IA doivent conserver le statut d’outil, jamais d’instance d’évaluation primaire. L’enseignant-e assume l’entière responsabilité de l’évaluation finale et doit pouvoir la justifier indépendamment des analyses générées par l’IA.

5.2 Domaines d’utilisation autorisés et délimitations claires

L’IA peut être utilisée pour :

  • l’analyse facilitée de critères purement formels (orthographe, normes de citation, caractéristiques structurelles du texte) ;
  • le feedback automatisé au cours du processus d’apprentissage afin d’encourager l’autoréflexion (n’entre pas en ligne de compte dans l’évaluation) ;
  • des applications justifiées sur le plan didactique, à la valeur ajoutée pédagogique démontrable.

L’IA ne doit pas être utilisée pour :

  • évaluer le contenu d’argumentations scientifiques ;
  • évaluer la créativité ou l’originalité de la pensée ;
  • évaluer les compétences professionnelles complexes ;
  • attribuer des notes finales sans contrôle humain approfondi.

5.3 Transparence et équité

Les étudiant-e-s sont informé-e-s clairement et par écrit (description du module sur IS-A) au début du semestre de la mesure dans laquelle des outils d’IA seront utilisés dans le processus d’évaluation. L’utilisation se fait dans le strict respect des principes de non-discrimination et d’équité. Les enseignant-e-s documentent les requêtes et les critères d’évaluation utilisés et s’assurent qu’ils sont identiques pour l’ensemble des étudiant-e-s.

5.4 Obligation de rendre compte et documentation

Tous les contenus ou analyses générés par l’IA doivent être déclarés comme tels. L’étendue, le type d’utilisation de l’IA ou encore les messages-guides doivent être documentés de manière traçable et conservés au moins 30 jours après la communication des notes. Cette documentation permet d’apporter la preuve d’un contrôle indépendant et sert de base lors d’éventuels recours.

5.5 Aspects juridiques et gestion des risques

Comme l’utilisation de systèmes d’IA pour l’évaluation des travaux d’étudiant-e-s n’est pas encore définitivement clarifiée sur le plan juridique, la BFH recommande une approche mesurée. Les enseignant-e-s devraient utiliser les outils d’IA en premier lieu comme des aides et non à des fins d’évaluation. En cas d’utilisation lors de l’évaluation, elles et ils demanderont conseil à l’Académie Virtuelle et au Service juridique au préalable. Toutes les utilisations doivent être entièrement documentées afin de pouvoir démontrer, en cas de recours, que l’évaluation finale est basée sur une expertise humaine.

6 Utilisation d’outils d’IA pour différentes modalités d’évaluation

6.1 Examens Open Book (examens à livre ouvert)

Dans le cas d’examens à livre ouvert, où l’utilisation d’outils numériques est autorisée, les étudiant-e-s peuvent aussi recourir à des outils d’IA, sauf s’ils sont explicitement exclus. Le critère de prestations personnelles évaluables de manière indépendante doit absolument être rempli.

Les enseignant-e-s stipuleront clairement les règles par écrit, si possible déjà dans la description du module sur IS-A, et au plus tard quatre semaines avant l’examen. Elles et ils en informeront les étudiant-e-s. La conception de l’examen doit garantir que, malgré l’utilisation de l’IA, une performance personnelle reste évaluable. Les énoncés qui nécessitent une réflexion critique, une analyse personnelle ou une application spécifique au contexte sont recommandés.

6.2 Examens à livre fermé (en ligne)

Le navigateur Safe Exam Browser ou le Lernstick permet de bloquer l’utilisation des outils d’IA. Les enseignant-e-s devraient demander conseil suffisamment tôt aux super-utilisateurs Moodle ou à l’Académie Virtuelle et tester la forme de l’examen au préalable avec les étudiant-e-s. En cas de difficultés techniques, des formes alternatives d’examen doivent être disponibles.

6.3 Travaux écrits

Dans les travaux écrits (travaux de projet, mémoires de bachelor et de master), les contenus générés par l’IA doivent être signalés en conséquence :
Parties de texte reprises telles quelles : doivent être citées intégralement et signalées comme générées par l’IA.
Textes optimisés : doivent être déclarés en mentionnant spécifiquement le type et l’ampleur de l’aide demandée.

Le recours à des outils d’intelligence artificielle devrait être abordé par écrit dès le début du semestre, lors de la clarification des conditions cadres, et intégré dans les critères d’évaluation. Les travaux écrits doivent continuer à être contrôlés avec Turnitin.

7 Citation et désignation des contenus générés par l’IA

7.1 Exemples de citation

Comme les textes générés par l’IA ne peuvent pas être reproduits, on recommande les formes de citation suivantes :

Style APA :
OpenAI. (2025). ChatGPT (version du 15 juin) [Large language model]. https://chat.openai.com/chat

Style Harvard :
OpenAI ChatGPT (2025) ChatGPT Réponse à l’auteur-e, 15 juin

Style allemand :
Première note de bas de page : modèle de langage ChatGPT d’OpenAI, réponse à une question de l’auteur-e, 15 juin 2025.
Notes suivantes : ChatGPT, 15 juin 2025.

7.2 Exemple de note générale

En cas d’utilisation d’outils d’IA à titre d’aide, une formulation spécifique est nécessaire pour rendre transparentes la nature et l’étendue de l’utilisation :

 

« En rédigeant ce travail, j’ai utilisé le générateur de texte IA [nom de l’outil, version, date] dans les domaines suivants : [indication spécifique telle qu’optimisation de texte, aide à la traduction, génération d’idées, etc.]. J’estime la proportion de passages de texte assistés par l’IA à [pourcentage ou estimation qualitative]. Les passages repris mot pour mot de cet outil sont cités dans mon travail au titre de contenus générés par l’IA. La responsabilité du contenu et l’évaluation critique de tous les contenus m’incombent entièrement en tant qu’auteur-e. »

7.3 Exemple de note dans le descriptif du module

Indications sur l’utilisation de l’intelligence artificielle (IA) dans les cours (à transmettre aux étudiant-e-s, par exemple dans les descriptifs de module ou de filière, afin de mettre en évidence les limites juridiques et éthiques)

Dans le cadre de ce cours, des outils basés sur l’IA (par exemple chatbots, modèles linguistiques ou générateurs d’images) sont utilisés. D’un point de vue juridique et éthique, l’utilisation de ces technologies requiert une attention et des précautions particulières.

      1. Objectif et ampleur de l’utilisation

L’utilisation de systèmes d’IA se fait exclusivement à des fins d’enseignement et d’exercice. Les étudiant-e-s sont amené-e-s à s’interroger sur le fonctionnement, les limites et les implications éthiques de tels systèmes.

      1. Interdiction de saisir des données personnelles et des œuvres

La BFH interdit la saisie de données personnelles dans des systèmes d’IA au sens des lois sur la protection des données en vigueur. Il s’agit notamment :

      • des nom, adresse, numéro de téléphone, adresse électronique ;
      • des numéros de matricule ou autres identifiants d’étudiant-e-s ;
      • des données relatives à la santé ou autres données personnelles sensibles.

Il est également interdit de saisir des œuvres de tiers protégées par des droits d’auteur-e. Les droits d’auteur-e sont toujours protégés, à moins qu’une œuvre ne soit indiquée comme étant utilisable (sous certaines conditions, par exemple avec une licence CC-BY).

Les œuvres sont notamment :

      • des textes ;
      • des morceaux de musique ;
      • du code informatique ;
      • des images, des dessins et des photographies de ceux-ci.
      1. Utilisation responsable

Les étudiant-e-s s’engagent à utiliser des systèmes d’IA uniquement dans le cadre défini par le cours. Elles et ils sont responsables de leurs saisies et de l’utilisation des systèmes d’IA. Les contenus générés par l’IA doivent être désignés comme tels s’ils font partie intégrante d’un examen ou d’un exercice.

      1. Stockage et utilisation des données saisies

Rappel : de nombreux services d’IA (par exemple des modèles linguistiques basés sur le cloud) enregistrent les saisies de manière temporaire ou permanente et les utilisent à des fins d’analyse ou de développement de leur technologie. L’utilisation de ces systèmes suppose que l’on vérifie minutieusement les paramètres et le respect des dispositions en matière de protection des données du fournisseur concerné.

      1. Exemption de responsabilité

La haute école décline toute responsabilité en cas de violation de la protection des données résultant d’une utilisation inappropriée des systèmes d’IA par les étudiant-e-s.

      1. Sanctions en cas de non-respect

Toute infraction aux présentes mesures peut entrainer des sanctions disciplinaires dans le cadre du Règlement d’études et d’examens et, le cas échéant, engendrer des conséquences en droit de la responsabilité civile.

8 Compétences et responsabilités des enseignant-e-s

8.1 Compétences de base nécessaires$

Les enseignant-e-s qui souhaitent utiliser des outils d’IA doivent disposer ou acquérir les compétences de base suivantes :

  • compréhension du fonctionnement technique des systèmes d’IA à un niveau utilisateur ;
  • conscience des biais et des limites typiques des outils d’IA ;
  • connaissance des dispositions pertinentes en matière de protection des données et de droits d’auteur-e ;
  • capacité à évaluer de manière critique le contenu généré par l’IA dans leur domaine de spécialité.

8.2 Offres de soutien

La BFH propose les mesures de soutien suivantes aux enseignant-e-s :

8.3 Responsabilité

Dans le cadre de leur concept d’enseignement, les enseignant-e-s sont responsables du respect des principes décrits lors du choix et de l’utilisation des outils d’IA. Elles et ils vérifient l’adéquation des outils en termes d’objectifs d’apprentissage, de promotion des compétences et de pertinence pratique.

Les enseignant-e-s évaluent régulièrement l’efficacité des outils utilisés et déterminent la manière dont les contenus générés par l’IA doivent être signalés. Elles et ils se basent pour cela sur des directives de citation établies de la BFH pour chaque discipline. Les directives sont fixées au niveau du département et de la filière d’études, et éventuellement affinées à l’échelon du module.

9 Assurance qualité des outils d’IA

9.1 Critères d’évaluation pour les nouveaux outils d’IA

Avant d’introduire de nouveaux outils d’IA, la BFH les examine sur la base des critères suivants :

  • conformité à la protection des données et à la sécurité de l’information ;
  • stabilité technique et disponibilité ;
  • plus-value pédagogique dans le processus d’apprentissage ;
  • rentabilité et durabilité ;
  • compatibilité avec les systèmes existants.

9.2 Procédure d’examen

L’évaluation de nouveaux outils d’IA est effectuée par une équipe interdisciplinaire composée de représentant-e-s des départements (DiLe), des coordinateurs SIPD départementaux ou du CISO, des services informatiques, de l’Académie Virtuelle, du Service spécialisé Protection des données et d’expert-e-s spécialisé-e-s. Les enseignant-e-s peuvent soumettre des demandes pour de nouveaux outils par l’intermédiaire de leur représentant-e DiLe.

9.3 Suivi et évaluation continue

L’Académie Virtuelle contrôle régulièrement l’efficacité et l’adéquation des outils d’intelligence artificielle utilisés, en tenant compte du feedback des enseignant-e-s et des étudiant-e-s. En cas de problème ou de modification des conditions cadres, elle peut retirer des outils de l’offre ou limiter leur utilisation.

10 Protection des données et droits d’auteur-e

10.1 Cadre juridique

L’utilisation des outils d’intelligence artificielle se fait dans le strict respect des lois sur la protection des données et de la Directive interne sur la sécurité de l’information et la protection des données (SIPD) en vigueur. Le traitement des données personnelles s’effectue exclusivement sur des plateformes contrôlées et validées.

10.2 Mesures pratiques de protection des données

Les enseignant-e-s doivent respecter les mesures de protection des données suivantes :

  • pas de saisie de noms, de numéros d’immatriculation ou d’autres caractéristiques d’identification dans les systèmes d’IA (exception : systèmes d’IA exploités en interne à la BFH ou validés en conséquence) ;
  • anonymisation ou au moins pseudonymisation des données des étudiant-e-s avant la saisie ;
  • utilisation exclusive de plateformes d’intelligence artificielle validées par les institutions pour les informations confidentielles et uniquement dans la mesure où la saisie d’informations confidentielles est également validée pour une plateforme concrète (double contrôle) ;
  • suppression régulière des données stockées conformément aux directives de conservation.

10.3 Aspects relatifs au droit d’auteur-e

Les travaux des étudiant-e-s sont des œuvres protégées par le droit d’auteur-e. Toute utilisation sans le consentement des personnes concernées est interdite. Pour prouver le consentement, celui-ci doit être explicite et écrit. Il est interdit de téléverser des travaux sur des plateformes accessibles au public ou non autorisées. L’accord des étudiant-e-s doit être obtenu préalablement à l’utilisation d’outils d’IA pour l’analyse de leurs travaux.

11 Services à contacter et assistance

Questions didactiques sur l’utilisation de l’IA :
Service Académie Virtuelle
virtuelle.akademie@bfh.ch

Assistance technique pour les outils d’IA :
Services informatiques de la BFH
servicedesk@bfh.ch

Protection des données et droits d’auteur-e :
Service spécialisé Protection des données
datenschutz@bfh.ch

Évaluation des outils :
Chief Information Security Officer (CISO) ou
responsables SIPD des départements
isds@bfh.ch

Conseils juridiques sur l’utilisation de l’IA dans l’évaluation :
rechtsdienst@bfh.ch

12 Dispositions finales

Le présent guide sera revu tous les six mois et adapté si nécessaire afin de répondre aux nouvelles exigences règlementaires, aux évolutions technologiques et aux progrès scientifiques.

En lien avec la politique en matière d’IA de la BFH, le guide s’adresse à l’ensemble du corps enseignant et complète les règlements existants sur l’intégrité scientifique et la Directive sur la sécurité de l’information et la protection des données.

Politiques d’IA des départements (en allemand)

 

No ratings yet Leave Feedback


Étiquettes:
Le Sommaire
Go to Top