Wie können wir helfen?
Drucken

KI-basierte Schreibtools in der Lehre – ChatGPT im Fokus

Ein Roboter und eine Gruppe von älteren und jüngeren Menschen im Gespräch.

1. Zielsetzung

Die nachfolgenden Ausführungen sollen für alle Lehrpersonen der BFH eine erste Orientierungshilfe zum Umgang mit Künstlicher-Intelligenz (KI)-basierten Schreibtools in der Lehre geben. Im Vordergrund steht dabei zunächst das derzeit populärste und verbreitetste Tool ChatGPT. Angesichts der hohen Themendynamik handelt es sich um eine erste Kurzfassung, die bei neuen Entwicklungen fortlaufend angepasst wird. Die Kommissionen Lehre und Weiterbildung und das Kooperationssgremium Digitale Lehre (DiLE) der BFH wurden bei der Erstellung der Inhalte eingebunden. Ein weiteres Merkblatt, das sich noch breiter und vertiefender mit den KI-Tools in der Lehre beschäftigen wird, ist vorgesehen. Diese und weitere Informationen zum Thema «KI in der Lehre» werden in der Knowledge Base der Virtuellen Akademie hinterlegt. Ergänzend sei auf eine laufend aktualisierte und fundierte Ressourcen-Sammlung des Virtuellen Kompetenzzentrums zum Thema «Schreiben, lehren und lernen mit KI» hingewiesen.

2. Haltung der BFH zu KI-Tools

KI-basierte Schreibtools haben für das wissenschaftliche Arbeiten, sowie andere diverse praktische Anwendungen, ein enormes Potenzial. Die Fähigkeit, diese Potenziale zu nutzen, wird zu einem wichtigen Bestandteil der Future Skills unserer Studierenden und Dozierenden werden.

Textgenerative Technologien entwickeln sich rasant und werden daher im akademischen Kontext insbesondere bei schriftlichen Arbeiten sehr relevant. Es ist davon auszugehen, dass bereits jetzt die Mehrheit der Studierenden ChatGPT und andere Tools nutzen, und dies künftig noch vermehrt tun werden.

Grundsätzlich vertritt die BFH die Haltung, dass Technologien dort, wo sie den Lernprozess unterstützen und praxisrelevant sind, in die Lehre einbezogen werden sollen. Studierende sollen lernen, Technologien kompetent einzusetzen und kritisch zu hinterfragen. Dies gilt uneingeschränkt auch für ChatGPT und andere gleichgerichtete Tools.

3. Was ist ChatGPT?

ChatGPT ist ein KI-basierter Chatbot, der Ende 2022 von der Firma OpenAI veröffentlicht wurde. Das Tool basiert auf bekannten Sprachmodellen (Large Language Models (LLMs)), die in dieser Anwendung erstmalig für eine breite Öffentlichkeit zum Einsatz kommen. Die dynamische Entwicklung und das Einsatzpotenzial dieser LLMs resultiert aus dem Zusammenbringen neuer Techniken im Bereich des maschinellen Lernens, der Verfügbarkeit von immer leistungsstärkeren Rechnern und riesigen Textsammlungen aus dem Internet. LLMs sind in der Lage, modellierte Wahrscheinlichkeiten zu lernen, mit denen Wörter in der verwendeten Textsammlung aufeinanderfolgen.

Die Firma OpenAI, die ursprünglich KI-Forschung für alle zugänglich machen wollte, hat sich inzwischen zu einem kommerziellen Unternehmen entwickelt, hinter dem Microsoft mit als Investor steht. Die von Benutzenden eingegebenen Daten werden dazu verwendet, ChatGPT weiter zu verbessern, aber auch das kommerzielle Potenzial des Tools zu vergrössern. So hat Microsoft z.B. eine nächste Version bereits in die Suchmaschine «Bing» integriert, und es ist davon auszugehen, dass nachfolgende Versionen sowohl direkt in Windows als auch in die Microsoft365-Produkte integriert werden. Zudem wird OpenAI eine Plug-in-Platform mit Zusatzprogrammen für ChatGPT zur Verfügung stellen. Plug-ins erweitern die Funktionalität von ChatGPT und ermöglichen z.B. die Einbindung aktueller Informationen. Die Entwicklung rund um ChatGPT ist hochdynamisch, so dass sich der Wissensstand in Wochen- und Monatszyklen verändert.

3.1 Wesentliche Eigenschaften

  • ChatGPT ist im Wesentlichen eine Verbindung aus zwei Technologien. Die textgenerierenden Fähigkeiten verdankt das Tool einem LLM, welches mit riesigen Mengen an Textdaten trainiert wurde. Zusätzlich wurden Techniken eingesetzt, welche es erlauben, menschliche Präferenzen in Bezug auf die von ChatGPT generierten Texte zu erlernen. ChatGPT nimmt Text als Input und versucht, eine möglichst «gute» Weiterführung des Textes zu generieren. ChatGPT kann bei der Text-erstellung den ganzen Textkontext berücksichtigen. Deshalb kann ChatGPT nicht nur grammatikalisch korrekte Sätze, sondern ganze Diskurse, Skripte, Erklärungen, Gedichte usw. generieren.
  • ChatGPT wird den Benutzerinnen als Chatbot präsentiert. Dies bedeutet, dass die Benutzerinnen einen sogenannten «Prompt» (Eingabetext) eingeben können. Daraufhin gibt ChatGPT eine Antwort, für die die Benutzerinnen weiterführende Inputs geben können. Diese Darstellung als Konversation kann bei dem/der Benutzerin zu der Vorstellung führen, tatsächlich eine Diskussion mit einer autonomen Entität zu führen, welche sich scheinbar an vorangehende Textpassagen erinnert. In Wahrheit wird jedoch der ganze bisherige Dialog immer wieder als «Prompt» für die Textgeneration verwendet, und ChatGPT generiert auf dieser Grundlage eine möglichst passende Weiterführung.
  • Die Versuchung ist sehr gross, ChatGPT menschliche Fähigkeiten wie z.B. «Denken» oder «Glauben» zuzuschreiben. Da das Tool scheinbar durch Rückfragen eigene Aussagen korrigieren kann, scheint es die Fähigkeiten zu besitzen, sich und seine Aussagen reflektieren zu können. Dies stellt Benutzer*innen vor eine grosse Herausforderung: weil ChatGPT scheinbar «denken» kann, verführt dies dazu, den Aussagen von ChatGPT Vertrauen zu schenken. Die Aufgabe von ChatGPT ist jedoch lediglich, wahrscheinlichkeitsbasiert plausibel erscheinenden Text zu generieren, und nicht zuverlässige Aussagen zu machen.

3.2 Was kann ChatGPT?

  • ChatGPT generiert fragebasiert («prompt») neuen, bisher nichtexistierenden Text. Die Bandbreite der möglichen Textarten reicht von fiktiver Prosa, über Gedichte bis hin zu Programmiercode.
  • ChatGPT kann Texte übersetzen.
  • ChatGPT kann durch Beispiele lernen. Im Lernprozess dient der Eingabetext als Lernbeispiel. Durch geeignetes «Prompting» kann ChatGPT dazu gebracht werden, viele verschiedene Probleme zu lösen. So kann ChatGPT etwa mittels Beispielen im Eingabetext lernen, wie ein Problem durch Zerlegung in kleinere Teilschritte gelöst werden kann. Diese Technik wird «chain-of-thought prompting» genannt und kann zu einer starken Verbesserung der Schlussfolgerungsfähigkeit von ChatGPT führen.
  • Das Schreibtool kann somit eingesetzt werden, um Schreibblockaden zu überwinden, Textpassagen zu paraphrasieren oder selbst geschriebene Textpassagen auf Verständlichkeit zu überprüfen. Weitere Beispiele für sinnvolle Verwendungen von ChatGPT sind: alternative Erklärungen suchen für bestimmte Sachverhalte/Theorien, Texte zusammenfassen, Programmieraufgaben lösen, Texte und/oder Codes analysieren. Eine entsprechende Verwendung muss aber immer im Bewusstsein erfolgen, dass die Ausgaben fehlerhaft sein können und auf Korrektheit und Angemessenheit zu prüfen sind.

3.3 Was kann ChatGPT nicht?

  • ChatGPT produziert Text, der für Menschen möglichst plausibel klingen soll. Auf die Forderung, eine faktische Antwort zu geben, wird ChatGPT folglich eine plausibel scheinende Antwort erstellen. ChatGPT in seiner aktuellen Form ist jedoch nicht in der Lage, die Richtigkeit der eigenen Aussagen anhand externer Quellen zu überprüfen. Die Verifizierung der Aussagen von ChatGPT ist immer Aufgabe der Benutzer*innen.
  • ChatGPT ist ohne die Einbindung weiterer Tools weder eine Suchmaschine noch ein Nachschlagewerk und wurde von OpenAI anfänglich auch nicht als solches angepriesen. Microsoft hat jedoch eine Weiterentwicklung von ChatGPT bereits in die Suchmaschine «Bing» integriert.
  • ChatGPT hat keine Möglichkeiten, zu überprüfen, ob generierter Text tatsächlich einen Bezug zur realen Welt hat, bzw. faktisch korrekt ist. So kann ChatGPT nicht dazu verwendet werden, eine Bibliografie zu erstellen, da das Modell plausibel erscheinende Referenzen erzeugt und nicht solche, die tatsächlich existieren. ChatGPT kann somit nicht verwendet werden, um wissenschaftlich korrekt zu zitieren. Es ist jedoch darauf hinzuweisen, dass die Anbindung von ChatGPT an externe Datenbanken möglich ist. Geeignete Tools hierfür werden zurzeit entwickelt (ResearchRabbit, Elicit).
  • Die Datensätze, von denen ChatGPT gelernt hat, können voreingenommene, unwahre oder kontroverse Inhalte enthalten. Deshalb können von ChatGPT generierte Texte Vorurteile (Biases) enthalten.
  • ChatGPT kann selbst nicht rechnen. Dies bedeutet, dass ChatGPT nicht vorbehaltlos für Mathematik verwendet werden kann. Es ist aber möglich, ChatGPT durch «prompt design» beizubringen, Rechenprobleme zu lösen. Die Verwendung als Taschenrechner ist jedoch nicht zu empfehlen, da ChatGPT Rechenoperationen mit grossen Zahlen nicht exakt lösen kann.
  • ChatGPT kann Auskunft darüber geben, wie Lösungswege für Probleme aussehen können. ChatGPT hat jedoch keine Einsicht darin, wie es selber zu einer Aussage kam. So kann z.B. ChatGPT als Antwort auf die Frage: «Was ist 2+2?» die richtige Antwort geben. Wenn eine Erklärung verlangt wird, wie diese Antwort entstand, generiert ChatGPT einen plausiblen Lösungsweg, der aber nicht der Lösungsweg ist, der von ChatGPT benutzt wurde. ChatGPT produziert nur möglichst wahrscheinliche Vervollständigungen des Eingabetextes.

4. Grundlegendes zur Nutzung von ChatGPT an der BFH

  • Von ChatGPT erstellte Texte sind nicht lediglich paraphrasierte Texte, welche in den Trainingsdaten vorhanden waren, sondern neu generierter Text. Deshalb sind solche Texte auch keine Plagiate im herkömmlichen Sinne. Die Entwicklerfirma des BFH-Plagiatsprüfungstools Turnitin arbeitet zurzeit an einer Erweiterung, um KI-generierte Texte zu detektieren. Auch andere Anbieter sind in dieser Richtung unterwegs. Es ist jedoch aktuell davon auszugehen, dass KI-generierte Texte kaum von nicht-KI-generierten unterschieden werden können. Die eindeutige Identifizierung von generierten Texten, wie sie aus rechtlicher Sicht verlangt würde, wird nicht möglich sein. Dennoch empfiehlt die BFH auch weiterhin, schriftliche Arbeiten mit der Plagiatserkennungssoftware Turnitin zu prüfen.
  • Der korrekte Umgang mit Quellen ist ein wichtiger Teil des wissenschaftlichen Arbeitens, das den Studierenden vermittelt werden soll. Bei Kompetenznachweisen in Form von schriftlichen Arbeiten müssen die Studierenden mit Eigenständigkeitserklärungen und einem Bekenntnis zur wissenschaftlichen Integrität versichern, dass sie Quellen korrekt verwendet und vollständig angegeben haben. KI-basierte Schreibtools sind externe Quellen und müssen daher im Sinne der wissenschaftlichen Integrität immer, wie andere Quellen auch, zitiert werden, sofern ganze Textpassagen von ChatGPT benutzt werden. Falls mit dem Tool der eigene Text überarbeitet wurde, muss ChatGPT als verwendetes Hilfsmittel angeführt werden.
  • Die Verwendung von KI im Allgemeinen und ChatGPT im Speziellen bietet neue Möglichkeiten in der didaktischen Vermittlung von Lehrinhalten und kann wertstiftend in der Lehre und Forschung eingesetzt werden (Linksammlung Didaktik und ChatGPT ). Die BFH wird entsprechende Qualifizierungs- und Austauschmöglichkeiten über die Virtuelle Akademie anbieten und auch forschend an der sinnvollen Verwendung von KI in der Lehre arbeiten (BeLEARN).
  • Die Virtuelle Akademie stellt in der Knowledge Base eine Sammlung an FAQs und weitere Informationen zum Thema «KI in der Lehre» zur Verfügung, die fortlaufend aktualisiert werden.

5. Umgang mit KI-generierten Texten bei Kompetenznachweisen

5.1 Generelles

  • Interne Rechtsgrundlagen: Das Rahmenreglement über das Studium an der Berner Fachhochschule (RRS) regelt in Artikel 26 den Umgang mit Kompetenznachweisen. In Bezug auf die Verwendung von KI-Tools bei Kompetenznachweisen ist insbesondere Artikel 26 (Unredlichkeit) relevant, der festlegt, dass die Grundsätze der wissenschaftlichen Integrität und der guten wissenschaftlichen Praxis zu beachten sind. Kompetenznachweise sind demnach immer ohne unerlaubte Hilfe Dritter und nur mit den zugelassenen Hilfsmitteln zu erbringen. Insbesondere sind immer sämtliche Quellen und Zitate kenntlich zu machen. Die bisherigen Richtlinien zum Umgang mit Plagiaten wurden im Reglement zur wissenschaftlichen Integrität an der Berner Fachhochschule (WissIR) in Kapitel 6 integriert. Am grundlegenden Umgang mit Plagiaten ändert sich durch die neuen KI-Tools nichts.
  • Plagiat «im weiteren Sinne»: Ein Plagiat ist ein ethisch-moralisches Vergehen, bei welchem fremdes geistiges Eigentum als eigenes ausgegeben wird. Insofern kann beim Benutzen von KI-generierten Texten in Kompetenznachweisen ohne Deklaration oder Zitierung auch von einem Plagiat «im weiteren Sinne» ausgegangen werden, welches das bisher etablierte formalistische Plagiatsverständnis im engeren Sinne erweitert.
  • Übergeordnetes Rechtsverständnis: Das Projektteam KI:edu.nrw der Ruhr-Universität Bochum hat kürzlich ein Rechtsgutachten zum Einsatz von KI-basierten Schreibtools an Hochschulen veröffentlicht. Dieses ist auf der KI:edu.nrw Website verfügbar. Die Entwicklung eines gemeinsamen nationalen und internationalen Rechtsverständnisses im Kontext der Verwendung von KI-Tools steht allerdings noch ganz am Anfang und hinkt der technischen Entwicklung hinterher.

5.2 Umgang mit KI-Tools bei Open Book-Prüfungen (Kofferklausuren)

  • Explizites Ausschliessen von KI-Tools: Bei Open Book-Prüfungen mit erlaubter Verwendung von digitalen Hilfsmitteln (Kofferklausuren) dürfen Studierende Hilfsmittel für die Bearbeitung der Aufgaben verwenden. Sofern dies nicht explizit ausgeschlossen ist, gilt das auch für den Einsatz von KI-Tools wie ChatGPT.
  • Bewertbare eigenständige Leistungserbringung: Der Umgang mit KI-textgenerativen Tools ist bei Open Book-Prüfungen abhängig vom Design des Kompetenznachweises und der Aufgabenstellungen. Essenziell ist dabei, dass dem Kriterium der Erbringung einer bewertbaren eigenständigen Leistung durch die Studierenden immer entsprochen werden muss.
  • Informationspflicht der Dozierenden: Dozierende und Modulverantwortliche müssen über die Verwendung oder das Verbieten von KI-Tools in der Prüfung vorgängig eine Festlegung treffen und dies den Studierenden mitteilen.

5.3 Umgang mit KI-Tools bei Closed BookPrüfungen (online)

  • Einsatz von Safe Exam-Browser und Lernstick: Die Nutzung von ChatGPT und anderen KI-Tools kann durch die Verwendung des Safe Exam-Browsers oder des Lernsticks bei einer Online-Prüfung unterbunden werden.
  • Beratungsangebote frühzeitig nutzen: Bei Closed Book-Prüfungen (online) wird den Dozierenden empfohlen, sich schon bei Semesterstart von den Moodle-Super Usern im Departement oder bei der Virtuellen Akademie beraten zu lassen. Lehrende können bei der Realisation von BYOD-Prüfungen mit Moodle und anderen Programmen mit ihren Studierenden vorgängig im gegebenen Prüfungssetting üben und so zu einer erfolgreichen Prüfungsdurchführung beitragen.

5.4 Umgang mit KI-Tools bei schriftlichen Arbeiten

  • Zitate und Verweis: Bei Kompetenznachweisen in Form von schriftlichen Arbeiten (Projektarbeiten, Bachelor- und Masterthesen) sollen Studierende die toolbasierten Texte kennzeichnen. Es ist zu unterscheiden, ob generierte Textpassagen wörtlich benutzt, oder von dem/der Autor*in modifiziert werden. Komplett übernommene Textpassagen sind zu zitieren. Von Studierenden geschriebene Texte, welche mittels KI-Schreibtools optimiert wurden, sind als solche mit einem pauschalen Hilfsmittelverweis am Ende der Arbeit zu deklarieren. Beispiele/Optionen für das Zitieren von KI-Tools und einen solchen Verweis finden sich in Kapitel 5.5.
  • Festlegungen zum Semesteranfang: Zukünftig sollte die Verwendung von KI-Tools bereits zu Beginn des Semesters bei der Klärung der Rahmenbedingungen für die Kompetenznachweise eines Moduls mit thematisiert werden. Dozierende und Studierende haben dann die Möglichkeit, gemeinsam die Relevanz und den Impact von solchen Tools im Fachkontext zu diskutieren, zu reflektieren und eine eigene Haltung zum Umgang mit den Tools zu entwickeln.
  • Einsatz von Turnitin: Schriftliche Arbeiten können und sollten weiterhin wie bisher mit der Plagiatserkennungssoftware Turnitin geprüft werden, auch wenn diese die momentan den Einsatz von KI-Tools noch nicht erkennen kann. Der bisherig Prüfzweck bleibt aber unverändert bestehen. Bei einer entsprechenden Erweiterung von Turnitin werden die Dozierenden informiert.
  • Vorgehen bei Verdachtsfällen: Im Verdachtsfall (Plagiat «im weiteren Sinne») bezüglich eines unerlaubten oder nicht korrekt ausgewiesenen Einsatzes von KI-Schreibtools wird gemäss den Vorgaben im Reglement zur wissenschaftlichen Integrität an der Berner Fachhochschule (WissIR) vorgegangen.
  • Alternative oder ergänzende Prüfungsformen: Vor dem Hintergrund der veränderten Rahmensetzungen für schriftliche Arbeiten kann es in bestimmten Kontexten auch sinnvoll sein, auf alternative Kompetenznachweisformen auszuweichen, oder diese zumindest in Kombination mit schriftlichen Arbeiten durchzuführen (z.B. praktische Prüfungen, mündliche Prüfungen, Präsentationen). Bei den Bachelor- und Masterthesen kann geprüft werden, ob die Schlusspräsentation im Vergleich zur schriftlichen Arbeit künftig bei der Benotung höher zu gewichten ist als bisher.

5.5 Zitierbeispiele und Pauschalverweis

Es existieren ein paar Richtlinien für das Zitieren von ChatGPT oder anderen KI-basierte Schreibtools. Da Texte von ChatGPT nicht reproduzierbar sind, wird empfohlen, bei der Benutzung von ChatGPT oder anderer KI-Tools die unteren Zitierstile zu benutzen.

  1. Beispiel: ChatGPT nach APA zitieren (OpenAI. (2024). ChatGPT (Apr 15 version) [Large language model]. https://chat.openai.com/chat) (APA Policy)
  2. Beispiel: ChatGPT nach Harvard zitieren (OpenAI ChatGPT (2024) ChatGPT Antwort auf Autorin, 15 April)
  3. Beispiel: ChatGPT nach deutscher Zitierweise zitieren (Erste Fussnote: OpenAI’s ChatGPT Sprachmodell, Antwort auf eine Frage derdes Autorin, 04. April 2023. Folgefussnote: ChatGPT, 04. April 2023.

Für den Fall der lediglich unterstützenden Verwendung von KI-Schreibwerkzeugen (z.B. für Textoptimierungen) muss die Tool-Verwendung durch eine Pauschalformulierung am Ende der Arbeit, resp. bei der Selbständigkeitserklärung kenntlich gemacht werden:

Beispiel Pauschalverweis

«Beim Verfassen der Arbeit habe ich das KI-gestützte Schreibwerkzeug ChatGPT zur Textoptimierung verwendet. Wörtlich aus dem Tool übernommene Passagen wurden im Text als persönliche Kommunikation zitiert.»

KI Policies aus den Departementen

Die Policy Des Departements Wirtschaft Zu Künstlicher Intelligenz In Der Lehre

Inhaltsverzeichnis
Nach oben