Akademische Integrität

Letzter Update: 07. Februar 2024

Disclaimer: dies ist ein lebendiges Dokument, gedacht als FAQ. Nichts auf dieser Seite ist ein offizielles Reglement oder eine Weisung der ETH Zürich.

Künstliche Intelligenz und der Verlust der akademischen Integrität sind nicht von Natur aus miteinander verbunden. Wir haben schon immer Werkzeuge benutzt, um Aufgaben zu erledigen, und künstliche Intelligenz ist in erster Linie ein Werkzeug. Probleme entstehen, wenn dieses Werkzeug auf unehrliche Weise eingesetzt wird oder wenn es menschliche Zeit vergeudet.

Die Lehrkräfte werden nachdrücklich aufgefordert, Regeln und Richtlinien für die Aufgaben, Projekte und Bewertungen in ihren Kursen aufzustellen; es gibt keine "One-Size-Fits-All". Die Festlegung dieser Regeln kann auch ein Teil der Diskussion in Ihrem Kurs sein, in der Ihr Kurs als Lerngemeinschaft pragmatische und faire Konsenslösungen erarbeiten kann.

Diese Frage wird in Wissenschaft und Gesellschaft viel diskutiert. Es wird argumentiert, dass Large Language Models auf einem Textkorpus basieren, der die Arbeit anderer Menschen ist - daher wird ein Argument vorgebracht, um die Verwendung von KI-generiertem Text als Plagiat zu bezeichnen.

Gleichzeitig reproduzieren diese proabilistischen Modelle kein bestimmtes schriftliches Dokument; stattdessen werden Dokumente aus dem Textkorpus lediglich verwendet, um einen im Wesentlichen assoziativen Autovervollständigungsalgorithmus zu trainieren. In nicht unerheblichem Masse tun Menschen das Gleiche, wenn sie das erzeugen, was als Originaltext gilt: Wir schreiben auf der Grundlage von Assoziationen, und unsere Assoziationen beim Schreiben stammen von dem, was wir zuvor von anderen Menschen gehört oder gelesen haben. Nachdem wir ein Buch gelesen haben, fangen wir als Menschen vielleicht sogar an, wie der Autor zu klingen. In diesem Sinne ist ein KI-Tool eher so, als würde jemand anderes einen Text für uns auf der Grundlage seiner Assoziationen erstellen, und die Verwendung von KI-generierten Texten ist eher mit Ghostwriting vergleichbar.

Wesentlich ist das Konzept der eigenen Arbeit: Einen Text direkt oder leicht abgewandelt aus einem KI-Tool einzureichen und zu behaupten, es sei die eigene Arbeit, ist akademische Unredlichkeit, unabhängig von der Diskussion über Plagiat oder Ghostwriting.

Ein wichtiges Instrument ist daher die DownloadEigenständigkeitserklärung (PDF, 175 KB) (DownloadDeclaration of Originality (PDF, 183 KB)), in welcher nun der Einsatz von KI deklariert werden kann.

Es kann aber auch sein, dass der Dozierende die Verwendung von KI-Tools zulässt oder einfach eine Erklärung über deren Verwendung erwartet ... all das hängt vom Dozierenden und der jeweiligen Aufgabe ab.

Einige Lernende verwenden KI-Werkzeuge, andere versuchen alles, um sich so weit wie möglich von diesen Werkzeugen fernzuhalten, um nicht auch nur im Entferntesten der Unredlichkeit bezichtigt zu werden. Diese Diskrepanz kann zu unfairen Vorteilen führen.

In Anbetracht des breiten Spektrums an Kursen, Projekten, Aufgaben usw. ist es nicht möglich oder sogar wünschenswert, eine einheitliche Richtlinie zu formulieren. Stattdessen müssen die Lehrkräfte entscheiden, was erlaubt und angemessen ist, und sie sollten diese Richtlinien für jeden einzelnen Kurs und jede einzelne Aufgabe mitteilen. Die Studierenden sollten sich auch frei fühlen, den Dozenten einfach von Mensch zu Mensch zu fragen.

Ziel ist es, aussagekräftige Beurteilungen mit aussagekräftigen Noten zu erhalten. Die Vorbereitung einer Aufgabe beinhaltete immer die Festlegung, welche Hilfsmittel erlaubt sind, welche nicht erlaubt sind und welche angegeben werden müssen: Taschenrechner, Wörterbuch, Lehrbuch, Rechtschreibprüfung, Literaturdatenbank usw. Large Language Models und andere KI-Systeme sind nur ein weiteres Hilfsmittel. Sagen Sie Ihren Studierenden, ob ChatGPT, Bard, Copilot, Gemini und dergleichen erlaubt sind oder nicht; wenn ja, muss ihre Verwendung angegeben werden und wie?

Für traditionelle, veröffentlichte Ressourcen wie Artikel oder Bücher sollten Lernende wissen, wie sie diese zitieren, aber für von KI erzeugten Text gibt es keine ursprüngliche Quelle mehr - alle Verbindungen zur Originalquelle gehen im Trainingsprozess verloren. Dennoch kann das Prompt zitiert werden, zum Beispiel

[ChatGPT23b] ChatGPT, Modell GPT-4. Liste von Argumenten für und gegen die Ausweitung der Nutzung der Kernenergie in der Schweiz. Zugriff am 12.07.2023.

Für das Zitieren von KI wurden spezifischere Stile entwickelt, beispielsweise für externe SeiteAPA und externe SeiteMLA.

Da oft Schlussfolgerungen in einem Dialog erreicht werden und da Prompt-Antworten nicht stabil sind, könnte eine noch bessere Lösung die "Share"-Funktion in ChatGPT sein, die es ermöglicht, eine teilbare, schreibgeschützte URL für einen Dialog zu erzeugen.

Natürlich wäre diese Referenz allein nicht ausreichend, um Argumente zu stützen. Autorinnen und Autoren müssen die ChatGPT-Ausgabe als eigene Eingabe nehmen und Behauptungen und Fakten mit veröffentlichter, insbesondere peer-geprüfter Literatur untermauern - ein Aufsatz, der nur ChatGPT zitiert, wird wahrscheinlich einfach ein schlechter Aufsatz sein.

Nein! In den Anfängen der Large Language Models hielten es Autorinnen und Autoren für angemessen, interessant, lustig, geistreich, ... ChatGPT als Mitautor bei wissenschaftlichen Arbeiten aufzuführen, aber mittlerweile haben die meisten Zeitschriften ausdrückliche Regeln dagegen. Man würde ja auch seinen Taschenrechner nicht als Autor aufführen.

In jedem Fall muss jemand für die Arbeit verantwortlich sein, und das muss ein Mensch sein; ein KI-Werkzeug hat keine Persönlichkeit. Ein menschlicher Autor oder eine menschliche Autorin kann die Verantwortung kaum an ein KI-Werkzeug delegieren, und KI-Werkzeuge (oder die hinter ihnen stehenden Unternehmen) können nicht für die Halluzinationen, Fehler und Vorurteile der Algorithmen verantwortlich gemacht werden - ein Mensch muss deren Ausgabe überprüfen, validieren, genehmigen, anpassen usw., und am Ende ist er oder sie verantwortlich.

Die ETH Zürich hat klare DownloadRichtlinien zur akademischen Integrität (PDF, 1.2 MB), die unter anderem (dem gesundem Menschenverstand entsprechende!) Regeln für die Autorenschaft beinhalten. ChatGPT könnte zitiert oder in den Acknowledgements erwähnt werden.

Nein. Trotz Werbebehauptungen und Geschichten über "Signaturen" dieser Werkzeuge zeigen Studien, dass selbst die besten Erkennungswerkzeuge nur eine Genauigkeit von 80% haben und jedes von ihnen falsch-positive sowie falsch-negative Ergebnisse liefert. Da Large Language Models probabilistisch sind, gibt es keinen ursprünglichen Quelltext, den man als Beweis verwenden könnte, und die Behauptung eines Studierenden, er oder sie habe ein falsch-positives Ergebnis erhalten, kann nicht widerlegt werden.

Menschen sind häufig bessere Beurteiler für den Einsatz von KI als Computer, und als Dozierender könnten Sie ein Gespür für studentisches im Vergleich zu KI-generiertem Schreiben entwickeln. Als Dozierender können Sie den Studierenden dazu auffordern, den Text zu verteidigen und die darin gemachten Behauptungen zu begründen, zum Beispiel entlang der Linien "Was bringt Sie zu dieser Aussage? Wie können Sie das beweisen? Gibt es Referenzen dafür?"

Es kann sehr frustrierend sein: Man liest einen Text, der geradezu nach reinem ChatGPT riecht, und man fragt sich, ob man mehr Zeit mit der Bewertung verbringen sollte, als der sogenannte Autor oder die sogenannte Autorin für die Erstellung gebraucht hat.

Trotzdem ist es wichtig, die Integrität der Bewertung zu bewahren:

  • Wenn Sie die Verwendung von KI-Werkzeugen erlaubt haben und diese gemäß den von Ihnen festgelegten Regeln verwendet wurden, sollte der Aufsatz wie jeder andere Aufsatz bewertet werden. Wenn es ein schlechter Aufsatz ist, sollte er dementsprechend bewertet werden.
  • Wenn jedoch die Verwendung eines KI-Werkzeugs nicht erlaubt war und Sie einen starken Verdacht haben, sollten Sie einen Disziplinarprozess einleiten, damit das gebührende Verfahren eingehalten wird. Auch wenn den Studierenden die Verwendung von KI-Werkzeugen erlaubt war, sie dies aber entgegen den Anweisungen des Dozierenden nicht angeben, handelt es sich um Täuschung im Sinne des Prüfungsrechts.

KI-Werkzeuge sind derzeit sehr gut darin, plausible Fiktion zu produzieren, aber sie sind auch respektabel gut in einführenden MINT-Kursen. Wenn es nur von den Aufgaben abhänge, könnten sie wahrscheinlich Kurse wie Physik oder Einführung in die Informatik bestehen. Wenn es jedoch um akademische Unehrlichkeit in MINT-Kursen geht, sind die traditionellen Methoden wie das Abschreiben von Mitstudierenden immer noch effizienter.

In solchen Kursen könnte eine Überlegung sein, den Einsatz aller KI-Werkzeuge während bestimmter Phasen des Kurses oder Teilen von Prüfungen ausdrücklich zu erlauben, da die Studierenden solche Werkzeuge in ihrem zukünftigen Berufsleben wahrscheinlich verwenden werden.

Viele der Dinge, die Sie vielleicht schon vor der weiten Verbreitung von KI getan haben, nur strenger:

Erinnern Sie die Studierenden auch daran, dass sie vollständig verantwortlich für die Arbeiten sind, die sie einreichen, und dass es ihre Verantwortung ist, genügend Material und Hintergrund zu liefern, damit Sie ihre Kompetenzen beurteilen können.

Wie bei jedem anderen Werkzeug auch: Wenn der Dozent Richtlinien für Werkzeuge festlegt, die für eine Aufgabe verwendet werden können, oder wie deren Einsatz offengelegt werden muss, und ein Lernender diese Vorgaben verletzt, handelt es sich um einen bedauerlichen, aber normalen Fall von akademischer Unehrlichkeit. Die ETH Zürich verfügt über solide Mechanismen, um akademische Unehrlichkeit zu behandeln, siehe externe SeiteDisziplinarverordnung (Ordinance on Disciplinary Measures).

Die Bibliothek offeriert Kurse zum wissenschaftlichen Schreiben, insbesondere "Wissenschaftliches Schreiben – Einsatz von ChatGPT effektiv und verantwortungsbewusst".

Kommentare, Anregungen, etc.: Gerd Kortemeyer,

JavaScript wurde auf Ihrem Browser deaktiviert