ChatGPT

Letzter Update: 19. Januar 2024

Disclaimer: dies ist ein lebendiges Dokument, gedacht als FAQ. Nichts auf dieser Seite ist ein offizielles Reglement oder eine Weisung der ETH Zürich.

KI-generriertes Bild mit drei Glühbirnen
ChatGPT-​4 mit dem Prompt: "Draw a circuit diagram for three light bulbs and a battery. Two light bulbs A and B should be equally bright, and one light bulb C should be brighter."

GPT (Generative Pre-trained Transformer) ist ein neuronales Netz, das plausible Fiktion erzeugt. Der "generative" Algorithmus funktioniert wie die Autovervollständigungsfunktion für Textnachrichten auf Smartphones, die dem Benutzer wahrscheinliche nächste Wörter vorschlägt - bei der Eingabe von "Ich komme" könnte das Telefon "jetzt", "aus" und "auch" vorschlagen. Ein Beispiel: Wenn man immer auf das erste vorgeschlagene Wort klickt, würde folgender Satz entstehen: "Ich komme jetzt nach hause und hole dich ab und wir fahren dann zusammen nach hause", was zwar grammatikalisch fast korrekt, aber unsinnig ist. Während die Autovervollständigung mit Wörtern arbeitet, arbeitet GPT mit Token (ähnlich, aber nicht identisch mit Silben); es wurde auf einem riesigen Textkorpus, einschliesslich wissenschaftlicher Literatur, trainiert, und die Größe seines neuronalen Netzes ist um mehrere Größenordnungen größer als das, was hinter der Autovervollständigung steckt. Generative neuronale Netzalgorithmen sind nur ein spezieller Ansatz für die künstliche Intelligenz - es gibt noch mehrere andere vielversprechende Ansätze. Das Ergebnis von GPT ist hochgradig plausible Fiktion, die sich oft als sachlich richtig erweist.

ChatGPT ist eine Schnittstelle zu GPT, die eine mehrsprachige Eingabeaufforderung durch Befehle und Fragen ermöglicht. Das System ist über externe Seitehttps://chat.openai.com/ erreichbar.

Am besten lernen Sie die Fähigkeiten von ChatGPT kennen, indem Sie einfach auf externe Seitehttps://chat.openai.com/ damit spielen. Das Tool kann zum Beispiel Aufsätze, Präsentationen, Gedichte und Programmcode schreiben. Es kann Texte zusammenfassen und übersetzen, und es kann auch Hausaufgaben und Prüfungsaufgaben lösen, benoten und konstruieren. Es kann auch Elemente in Bildern erkennen, Handschrift erkennen und neue Bilder und Abbildungen erzeugen.

Das System ist nicht "intelligent" im menschlichen Sinne, aber es hat sich gezeigt, dass es in einer Reihe von standardisierten Tests gut abschneidet. OpenAI hat einige Ergebnisse für seine Abonnentenversion GPT-4 auf externe Seitehttps://openai.com/research/gpt-4 zusammengestellt, die mit unabhängigen Untersuchungen und Erfahrungen übereinzustimmen scheinen.

GPT-3.5, die derzeit frei verfügbare Version, hat Probleme mit grundlegender symbolischer und numerischer Mathematik, was seine Leistung bei den Bewertungskomponenten traditioneller naturwissenschaftlicher Kurse beeinträchtigt. Dennoch hat sich gezeigt, dass das System auch mit GPT-3.5 die Bewertungskomponenten einiger naturwissenschaftlicher Grundkurse bestehen würde, z. B. in den Einführungskursen für Physik an amerikanischen Colleges, die nicht zu den Hauptfächern gehören - externe Seitewo es noch gerade so durchkommt, aber es würde bestehen.

Anekdotische Erfahrungen mit GPT-4, der Version für Abonnenten ($20/Monat), zeigen, dass diese Situation teilweise behoben wurde und das System schätzungsweise eine Punktzahl von etwa 80 % bei den Bewertungskomponenten eines einführenden Physikkurses erreicht.

Während die Autovervollständigung auf Smartphones permanent aus den Eingaben des Nutzers "lernt", lernt GPT nicht mehr permanent neues Wissen: Das "P" in GPT steht für "pre-trained", und für die aktuelle Version GPT-4 endete dieses Vortraining im April 2023. Wenn das System nach etwas gefragt wird, das möglicherweise später passiert ist, verwendet es die Suchmaschine Bing, um möglicherweise neuere Informationen aus dem Internet zu finden.

Das System lernt jedoch innerhalb der Grenzen der jeweiigen Dialoge, in denen es möglich ist, sich auf Aussagen oder Schlussfolgerungen zu beziehen, die zu einem früheren Zeitpunkt innerhalb dieses Dialogs erfolgt sind.

Das Unternehmen, das hinter ChatGPT steht, OpenAI, arbeitet weiter an der Feinabstimmung des Systems, zum Teil auf der Grundlage der Daumen hoch/runter-Bewertungen, die die Nutzer abgeben können, aber das ist keine neue Erkenntnis.

Wir wissen es nicht. Es gab sicherlich wissenschaftliche Lehrbücher in seinem Korpus, Nachrichten, Geschichte, wissenschaftliche Arbeiten und weite Teile des Webs - alles vor April 2023, dem "Knowledge Cutoff". Die Aussage "wir wissen es nicht" und die Tatsache, dass OpenAI es wahrscheinlich nicht preisgeben wird, garantiert, dass ChatGPT keine wirklich wissenschaftliche Arbeit produzieren wird. Stattdessen gibt es auf Anfrage zu jedem Thema einen ausgezeichneten Überblick über das, was es gibt: the good, the bad, and the ugly, in seinem typischen Listenstil. Dies kann ein äusserst hilfreicher Einstieg in Aufsätze, Präsentationen und Abhandlungen sein, da es wahrscheinlich Aspekte und Themen vorschlägt, die der menschliche Autor oder die Autorin vielleicht nicht in Betracht gezogen hat, aber es bleibt immer noch dem Mensch überlassen, die Ergebnisse zu sortieren und zu überprüfen.

Nein. Für Studierende, die bei MINT-Hausaufgaben schummeln wollen, wäre es immer noch eine viel effizientere und sicherere Wahl, von Mitstudierenden zu kopieren oder einige der Online-Dienste wie externe SeiteChegg zu nutzen.

Für jede Art von wissenschaftlichem Schreiben kann ChatGPT einen guten Anfang bieten, um die Schreibblockade zu überwinden, aber die Studierenden müssen trotzdem daran arbeiten, ihre Arbeit sicher in der Literatur zu verankern usw. - ChatGPT ist bemerkenswert, produziert aber im Kern nichts als plausible Fiktion.

Streng genommen, technisch und juristisch gesehen: nein. Ein Plagiat ist das nicht anerkannte Kopieren oder die Verwendung des geistigen Eigentums einer anderen Person. Solange der künstlichen Intelligenz keine Persönlichkeit zugewiesen wird, ist die Verwendung dieses Tools technisch gesehen genauso wenig ein Plagiat wie eine Google-Scholar-Suche, die Verwendung von Grammarly oder DeepL oder die Verwendung von R oder Python zur Durchführung grosser Berechnungen. Während Computerbibliotheken häufig zitiert werden, um die Autoren zu würdigen, wird im Allgemeinen von keinem dieser anderen Tools erwartet, dass sie gewürdigt werden - sie sind einfach nur Werkzeuge des Handwerks. Man könnte auch argumentieren, dass die Verwendung von ChatGPT Ghostwriting ist.

Aber, und das ist ein sehr wichtiges "aber": ChatGPTs Output einfach zu kopieren und als eigene Arbeit einzureichen ist inakzeptabel! Die rechtliche Definition von Plagiaten wurde festgelegt, bevor KI-Werkzeuge verfügbar wurden. Als Gemeinschaft müssen wir das Konzept der eigenen Arbeit respektieren und durchsetzen - Nutzende müssen die Ausgabe eines KI-Tools zu ihrer eigenen Arbeit machen, bevor sie es so nennen können.

Studierende müssen immer vorsichtig mit der Ausgabe von ChatGPT arbeiten, nicht zuletzt, weil sie alle möglichen sachlichen Fehler enthalten kann. ChatGPT ist auch nicht in der Lage, Quellen für Aussagen anzugeben - wenn man es um Referenzen bittet, produziert es plausibel klingende Zitate, die in Wirklichkeit völliger Unsinn sind. Vielleicht geht es bei der Sorge um Studierende, die wissenschaftliche Texte mit ChatGPT schreiben, auch weniger um Plagiate, sondern um die Peinlichkeit, die entsteht, wenn eingebetteter Unsinn bei der Benotung unentdeckt bleibt.

Natürlich kann ChatGPT missbraucht werden, um nicht nachweisbare Plagiate zu begehen: Das Kopieren/Einfügen einer Passage einer sorgfältig recherchierten Arbeit in ChatGPT und die Aufforderung an das System, eine Zusammenfassung oder Paraphrase zu erstellen, wird höchstwahrscheinlich zu einem ebenso sachlichen Text führen, der von Plagiatswerkzeugen nicht aufgespürt werden kann.

Eine ausführlichere Diskussion finden Sie auf unserer Seite über KI und akademische Integrität.

Nein, nicht zuverlässig. ChatGPT-Antworten sind das Ergebnis eines probabilistischen Algorithmus und daher im Allgemeinen nicht reproduzierbar - zwei Studierende, die ChatGPT verwenden, werden unterschiedliche Ergebnisse abliefern. Die Antworten sind nicht einfach Fragmente des Textkorpus, der für das Training verwendet wurde, und daher können die Antwortpassagen nicht mit Google gefunden werden; ChatGPT plagiiert nicht. Es gibt Tools, die ChatGPT aufspüren könnten, wie ZeroGPT und möglicherweise TurnItIn, auf die man sich jedoch nicht verlassen sollte, da sie in dem sich schnell entwickelnden Bereich der KI immer hinter der Kurve zurückbleiben werden.

Auf lange Sicht wird jeder Versuch, ChatGPT oder ähnliche KI-Tools zu bekämpfen, wahrscheinlich ein vergebliches Wettrüsten sein. Die eigentliche Frage sollte vielmehr lauten: Was ist der Sinn des Kampfes gegen solche Tools?

Eine ausführlichere Diskussion finden Sie auf unserer Seite über KI und akademische Integrität.

Zunächst einmal deutet alles darauf hin, dass die Mehrheit unserer Studierenden ehrlich ist. Das Verbot der Verwendung von nicht nachweisbaren Werkzeugen bei unbeaufsichtigten Aufgaben oder die Forderung nach einer Art Ehrenkodex führt wahrscheinlich dazu, dass die ehrlichen Studierenden bestraft werden; die Studierenden sind sich der Regelverstöße anderer Studierender stärker bewusst als die Lehrkräfte und geraten dadurch in ein moralisches Dilemma.

Einige Ideen finden Sie auf unserer Seite über KI und akademische Integrität.

In Fakultätssitzungen hört man heutzutage häufig verärgerte Aussagen wie "Sollen wir also einfach aufgeben?!" - Natürlich denken die Lehrkräfte über Betrug nach, aber auch auf einer grundsätzlicheren Ebene: Sind unsere Lehrpläne veraltet?

Gegenwärtig mögen die Möglichkeiten von ChatGPT die akademische Integrität und die gute wissenschaftliche Praxis bedrohen, und es mag den Anschein haben, dass sie an den Grundlagen unserer Lehrpläne rütteln, aber in gewisser Weise ähnelt die Diskussion den ausführlichen und heftig umstrittenen Diskussionen über die Verwendung von Taschenrechnern in Schulen und bei Prüfungen in den 1970er Jahren - schliesslich wurden Taschenrechner als das verstanden, was sie wirklich sind: Werkzeuge.

Ja, ChatGPT bedroht bestimmte Prüfungsarten. Der typische, einfache Aufsatz zum Mitnehmen gehört wahrscheinlich der Vergangenheit an; während Lehrkräfte diese Aufsätze früher durch kreative neue Aufforderungen vor Plagiaten schützen mussten, wird ChatGPT auf fast jede Aufforderung mit plausiblen Antworten in der gewünschten Länge und im gewünschten Stil antworten. Selbst die "Wissensgrenze" von April 2023 stellt keine Hürde dar, da die Lernenden auch passende Nachrichtenartikel in den Dialog einspeisen können.

Aber auch das ist nichts Neues: externe SeiteDeepL, ein Tool, das viele von uns regelmässig nutzen (auch beruflich!), hat einfache Übersetzungsaufgaben als Hausübung im Grunde nutzlos gemacht.

ChatGPT ist eine gute Möglichkeit, Schreibblockaden bei der Erstellung von Aufsätzen und Präsentationen zu überwinden, so wie DeepL eine gute Möglichkeit ist, mit einer Übersetzung zu beginnen. Aber genau wie bei computergenerierten Übersetzungen müssen auch computergenerierte Aufsätze und Präsentationen weiter bearbeitet werden, um für eine mehr als oberflächliche Bewertung akzeptabel zu sein. Wenn man ChatGPT auf seine Schwächen anspricht, "gibt es zu", dass es sehr wortreich werden kann und zu wenig sachlich ist. Unsere Studierenden müssen lernen, unvoreingenommen, prägnant, präzise und sachlich korrekt zu kommunizieren. In gewisser Weise hat ChatGPT einfach die Messlatte für bestimmte Arten von Aufgaben und deren Benotung höher gelegt.

Hier sind einige Ideen, wie man ChatGPT in Hausaufgaben oder Projektarbeiten für MINT-Fächer einsetzen kann:

  • Die Bewertung der Ergebnisse von KI-Tools wird in Zukunft wahrscheinlich zu einer wichtigen Fähigkeit werden. Anstatt die Studierenden ein Problem lösen zu lassen, sollten sie es ChatGPT stellen, die erhaltene Antwort einreichen und ihre Bewertung dazu abgeben: ist sie richtig? wenn nicht, was ist falsch gelaufen und wie? Die Aufgabe wird anhand der Antworten der Studierenden auf diese Fragen benotet.
  • Vergeben Sie Grössenordnungs- oder sogenannte Fermi-Fragen. Anekdotische Hinweise deuten darauf hin, dass einige der klassischen Fragen Teil des ChatGPT-Trainingskorpus waren, dass es aber im Allgemeinen nicht gelingt, diese zufriedenstellend zu beantworten, selbst wenn ausdrücklich nur nach Schätzungen gefragt wird. Zukünftige Wissenschaftler und Wissenschaftlerinnen sowie Ingenieure und Ingenieurinnen sollten genau diese Art von Problemen beherrschen, da sie manchmal relevanter für Entscheidungen und Überlegungen im wirklichen Leben sein können als exakte numerische Antworten.
  • Bitten Sie die Studierenden, ChatGPT Probleme konstruieren zu lassen. Diese Probleme sehen meist vernünftig aus, aber einige von ihnen werden keinen Sinn ergeben. Ein Unterrichtsszenario wäre, die Studierenden die generierten Probleme durchgehen zu lassen und zu erklären, warum sie lösbar sind oder nicht.
  • Lassen Sie ChatGPT allgemeine Missverständnisse zu einem Thema formulieren. Verwenden Sie diese als Distraktoren in Multiple-Choice-Aufgaben. Lassen Sie ChatGPT Antworten auf eine Frage einer Multiple-Choice-Aufgabe generieren. Wenn sie das Ziel verfehlen, verwenden Sie sie als Distraktoren.
  • Bitten Sie die Studierenden, Fragen zu den Kursthemen zu formulieren, die ChatGPT richtig/gut beantworten wird. Bitten Sie die Studierenden, Fragen zu den Kursthemen zu formulieren, die ChatGPT falsch oder nicht gut beantworten wird.

Hier sind einige Ideen, wie man Hausaufgaben oder Projekte gestalten kann, bei denen ChatGPT nur bedingt hilfreich ist:

  • Bitten Sie die Studierenden, darüber nachzudenken, was heute (oder letzte Woche) im Kurs passiert ist, oder über ihre persönlichen Erfahrungen mit einer Exkursion oder einem Projekt. Diese Art der Reflexion ist nicht nur hilfreich für das Lernen, sondern stellt auch eine Erfahrung dar, die ChatGPT einfach nicht gemacht hätte.
  • Lassen Sie die Studierenden Lösungen zeichnen, z. B. "Zeichnen Sie das Beschleunigungsdiagramm eines Autos, das vor einer Ampel anhält und dann losfährt" oder "Zeichnen Sie einen Schaltplan für drei Glühbirnen und eine Batterie. Zwei Glühbirnen A und B sollten gleich hell sein, und eine Glühbirne C sollte heller sein." GPT-4 wird wahrscheinlich ein schön aussehendes Bild wie das oben auf dieser Seite erzeugen, aber keinen Schaltplan.
  • Lassen Sie die Studierenden als Hausaufgabe physikalische Grössen auf der Grundlage ihrer eigenen Messungen berechnen oder schätzen. Zu diesem Zweck sind Smartphones mit all ihren Sensoren nützlich, um Daten in realen Situationen zu sammeln. Die Studierenden können beliebige Tools verwenden, um diese Daten zu analysieren und zusammenzufassen.

Insgesamt muss man jedoch aufpassen, dass man keine Aufgaben konstruiert, die auf dem basieren, was KI derzeit nicht kann. Das kann sich morgen ändern. Erstellen Sie Aufgaben, die sich auf menschliche Erfahrungen und Kreativität stützen.

Nicht so schnell, nein. ChatGPT ist ein ETH-externer Cloud-Dienst, der für die Anmeldung identifizierbare Informationen erfordert. Er unterliegt daher den Bestimmungen zum Schutz der Privatsphäre und zur Datensicherheit, wenn er in der Lehre und beim Lernen eingesetzt wird. Zum jetzigen Zeitpunkt erscheint es unwahrscheinlich, dass es in die geschützte SeiteListe der geschützten und freigegebenen Dienste aufgenommen wird, da die eingegebenen Daten zu Entwicklungszwecken verwendet werden, ohne dass sie offengelegt werden. Sie können kein Mitglied der ETH-Gemeinschaft zwingen, diese Dienstleistung zu nutzen, die Nutzung muss freiwillig bleiben.

Nein, das sagen wir nicht. Aber seien Sie sich bewusst, dass ChatGPT, oder, was das betrifft, jedes KI-Tool, sich in einer rasanten Entwicklung in Richtung einer teilweise unbekannten Zukunft befindet. Die weitere Entwicklung von GPT wird sich die Interaktionen der Nutzer mit ChatGPT (einem "Nicht-API-Dienst") zunutze machen; externe Seiteder Anbieter macht das ja auch klar bekannt. Obwohl ChatGPT nicht auf unbeaufsichtigte Weise aus diesen Interaktionen lernt (z.B. ist es sehr unwahrscheinlich, dass ein Dialog in einen anderen Dialog übergeht), scheint es ratsam, keine privaten, vertraulichen oder anderweitig identifizierbaren Informationen in ChatGPT-Dialogen preiszugeben.

Nein, natürlich nicht! Es wird immer grundlegende Aufgaben geben, die die Studierenden ohne fremde Hilfe, weder menschlich noch künstlich, erledigen können müssen. Man kann nicht ständig alles nachschlagen, und ein gewisses konzeptionelles Verständnis und Wissen ist für künftige Kurse und Arbeitsplätze einfach erforderlich. Diese müssen in einer überwachten, begrenzten Umgebung getestet werden.

Wichtig für die Zulassung oder Nichtzulassung von Hilfsmitteln sind auch die Lernziele, der Kontext spielt eine Rolle: Wenn man in der Grundschule die Grundlagen der Addition und Multiplikation lernt, ist selbst ein Taschenrechner wahrscheinlich kein hilfreiches Hilfsmittel; wenn man etwas über die Analyse von Big Data lernt, würde man all diese Aufgaben ganz selbstverständlich und ohne zu zögern an einen Computer delegieren.

Es ist wichtig anzumerken, dass ChatGPT hier nicht das Ende aller Probleme ist. Um überhaupt auf ChatGPT zugreifen zu können, benötigen die Studierenden einen Internetzugang - und mit dem Internet kommen alle möglichen anderen, effizienteren Betrugsmöglichkeiten. Man muss sehr vorsichtig sein, um keine Regeln aufzustellen, die nicht durchgesetzt werden können.

Wie bei jeder anderen technologischen Ressource sollten sich die Prüfenden fragen: Möchte ich die Nutzung von ChatGPT (oder anderen Ressourcen) bei der Bearbeitung von Prüfungsaufgaben erlauben - oder nicht?

  • Prüfungen, bei denen ChatGPT nicht erlaubt ist: Bei papierbasierten Prüfungen gehen Sie so vor, wie Sie es vor ChatGPT getan hätten. Für computergestützte Prüfungen bietet die ETH einen Service für sichere On-Campus-Online-Prüfungen an. Vergewissern Sie sich jedoch, dass solche Beschränkungen vernünftig sind und dass es für die Lernenden offensichtlich ist, warum solche Beschränkungen durch den Gegenstand gerechtfertigt sind - Sie wollen den Eindruck vermeiden, dass Beschränkungen lediglich eine Frage der Bequemlichkeit oder Trägheit seitens der Fakultät sind.
  • Prüfungen, bei denen ChatGPT ausdrücklich erlaubt ist: Es ist zu erwarten, dass viele Fachbereiche ChatGPT und ähnliche Technologien schnell in ihre Praktiken und Arbeitsabläufe integrieren werden. Dies kann zu einer Nachfrage nach entsprechend angepassten Prüfungen führen, bei denen die Studierenden auch Zugang zu ChatGPT haben, während andere Ressourcen, wie z.B. Messenger-Apps oder Chat-Foren, effektiv blockiert bleiben. Solche Prüfungsszenarien werden bereits routinemässig mit der ETH-Infrastruktur für On Campus Online Examinations durchgeführt - allerdings noch nicht mit ChatGPT, sondern mit anderen webbasierten Ressourcen.

Darüber hinaus kann ein Bedarf an zwei- oder mehrphasigen Prüfungen bestehen, bei denen die Studierenden zunächst Aufgaben ohne Zugang zu ChatGPT lösen und dann weitere Aufgaben mit Zugang lösen. Auch solche mehrphasigen Szenarien sind mit der Dienstleistung Online Examinations der ETH möglich.

Langfristig wird die Bring-Your-Own-Device-Initiative der ETH zusätzliche Flexibilität bringen, insbesondere beim Einsatz von externe SeiteSafe-Exam-Browser und anderen Technologien, die sich derzeit in der Entwicklung befinden, wie zum Beispiel kontrollierte WLAN-Subnetze. Wie bei jeder anderen Prüfung ist jedoch darauf zu achten, dass es keine Beschränkungen gibt, die nicht durchgesetzt werden können, da dies die ehrlichen Studierenden bestraft.

Weitere Möglichkeiten bieten mündliche Prüfungen, bei denen der Prüfer einen oder mehrere Studierende einige Aufgaben mit und einige ohne externe Hilfsmittel lösen lassen kann. Mündliche Prüfungen sind nicht nur eine Möglichkeit zur Kontrolle gegen Täuschung, sondern auch eine Möglichkeit, die Kompetenzen der Studierenden besser zu prüfen. Mündliche Prüfungen können sich eher auf den interaktiven und dynamischen Prozess als auf ein statisches Arbeitsergebnis konzentrieren.

Ja, es eröffnen sich viele neue Möglichkeiten. An der ETH verwenden wir zum Beispiel häufig LaTeX, und es scheint, dass das GPT Möglichkeiten bieten kann, um diese externe SeiteDokumente zugänglich zu machen.

Eine Programmieraufgabe mit ChatGPT

Oh ja, das kann es. ChatGPT funktioniert zum Beispiel erstaunlich gut bei kleinen Programmieraufgaben in Python (einschließlich VPython) und R. Es übersetzt Problembeschreibungen in Code und behebt auch Fehler, wenn es dazu aufgefordert wird. Wir müssen noch lernen, was das für typische Jupyter Notebook-Aufgaben bedeutet.

Eine Antwort könnte sein, offenere Problembeschreibungen oder einfach Szenarien zu geben, die der Lernende dann in konkretere Aufforderungen übersetzen muss, die ChatGPT in Code umsetzen kann. Computerkompetenzen für Nicht-Informatikstudierende würden also mit Konzepten der Berechenbarkeit, der Konzeptualisierung und der Formulierung des zu lösenden Problems beginnen.

ChatGPT kann plausibel klingende Noten und Begründungen für vorgegebene Rubriken und Notenskalen erstellen. Anekdotische Evidenz zeigt jedoch, dass diese Noten und Begründungen kaum für Prüfungen mit hohem Schwierigkeitsgrad vertretbar wären - zumindest nicht im Moment.

Dennoch: GPT könnte schon bald für die Benotung von formativen Beurteilungen eingesetzt werden, und es ist durchaus vielversprechend. Eine externe Seiteexplorative Studie fand ein R2 von 0,8 zwischen menschlicher und maschineller Benotung.

Ein traurig-unterhaltsamer Gedanke wäre es, ChatGPT zu benutzen, um Arbeiten zu benoten, die von ChatGPT geschrieben wurden, was eine völlig autarke Parallelwelt des falschen wissenschaftlichen Diskurses schaffen würde.

In jedem Fall ist es an der ETH Zürich nicht erlaubt, Noten vollständig automatisch zu vergeben
; KI könnte bei der Punktevergabe helfen, aber die Note muss immer von einem Menschen vergeben werden.

ChatGPT wird wahrscheinlich nicht mehr Schaden anrichten, als es TikTok bereits getan hat. Aber im Ernst: Die Studierenden kommen zu uns, um zu lernen. Sie wären nicht hier, wenn sie nicht Wert auf kritisches Denken, Kreativität, unabhängiges Denken und das Ausloten von Grenzen in Wissenschaft, Mathematik und Technologie legen würden. Es ist unwahrscheinlich, dass wir uns als Lerngemeinschaft die Freude am Herausfinden von Dingen vorenthalten würden.

Andererseits besteht sicherlich die Gefahr, dass wir uns zu sehr auf die Technologie verlassen. Wenn wir in eine unbekannte Stadt kommen, verlassen sich die meisten von uns heute einfach auf die Wegbeschreibung auf ihrem Smartphone. Das funktioniert meistens gut, es sei denn, das GPS-Signal wird von Gebäuden reflektiert oder die Karte des Telefons ist irgendwie um 180 Grad gegenüber der Realität verdreht. Wenn man kilometerweit im Kreis läuft, kann man den Verlust des intuitiven Orientierungssinns und der Fähigkeit, sich nach dem Stand der Dinge zu richten, beklagen. Wissenschaftliches Neuland ist wie eine unbekannte Stadt, und das wird jetzt viel zu philosophisch.

Wir arbeiten daran. In der Zwischenzeit könnten Sie an einer Veranstaltung von Refresh Teaching interessiert sein, die im März 2023 stattfand:
https://refresh-teaching.ethz.ch/events/artificial-intelligence-in-teaching-and-learning-opportunities-and-challenges/

Wahrscheinlich geht es nicht um ChatGPT im Besonderen, denn Werkzeuge der künstlichen Intelligenz werden sich ausbreiten und allgegenwärtig werden. So plant Microsoft beispielsweise, einen KI-"Copiloten" in jedes seiner Office-Produkte einzubauen, und Google hat seine eigenen Systeme Bard und Gemini vorgestellt. Alle schnell verfassten, zu spezifischen oder restriktiven Regeln und Vorschriften laufen Gefahr, wie blinder Aktionismus zu klingen, und scheinbar schnelle Lösungen könnten in ein paar Monaten lächerlich wirken.

Wir müssen auch vorsichtig sein, wenn wir Werkzeuge einschränken, die wir nicht rechtfertigen können. Es ist sinnvoll, den Einsatz von Computern bei Schachturnieren zu verbieten, da Computer Menschen praktisch jederzeit besiegen könnten, was die Freude an einem wunderbaren Spiel zerstört - das ist ähnlich wie das Verbot von Doping oder "leistungssteigernden Mitteln" im Sport. In den Naturwissenschaften, der Mathematik und den Ingenieurwissenschaften war das nie so; wir haben immer mit den besten verfügbaren Werkzeugen gearbeitet, und das wurde auch erwartet, um wettbewerbsfähig zu bleiben.

Abgesehen davon ist es inakzeptabel, die Ergebnisse eines KI-Tools einfach zu kopieren und als eigene Arbeit einzureichen.

Disclaimer: Nichts in dieser FAQ ist eine offizielle Regel oder Vorschrift der ETH Zürich!

Kommentare, Anregungen, etc.: Gerd Kortemeyer,

JavaScript wurde auf Ihrem Browser deaktiviert