KI ist keine Pandemie
Manche glauben, dass ChatGPT das Bildungssystem untergraben könnte, und es werden Rufe laut, die Nutzung von KI in der Lehre zu regulieren. Gerd Kortemeyer spricht sich dafür aus, dies nur mit Augenmass zu tun. Denn alles andere könnte am Ende kontraproduktiv sein.
- Vorlesen
- Anzahl der Kommentare
Als Covid-19 zum ersten Mal zuschlug, reagierten wir sofort, indem wir Regeln und Einschränkungen entwickelten, verkündeten und zurückzogen. Wir haben Vorschriften über Masken, Tests, Reisen und Impfungen erlassen, die teilweise widersprüchlich waren. Im Rückblick mögen uns einzelne Massnahmen lächerlich, wirkungslos oder schlicht übertrieben erscheinen – doch damals war Unvollkommenheit viel besser als Untätigkeit: Wir mussten etwas tun, um eine tödliche Pandemie einzudämmen.
KI ist keine tödliche Pandemie, aber auch hier laufen wir Gefahr, vorauseilend einschneidende und über das Ziel hinausschiessende Regeln und Vorschriften zu erlassen, um ihre Ausbreitung zu verhindern. Zugegeben, im Vergleich zu anderen disruptiven Technologien traten Tools wie ChatGPT ziemlich abrupt in die Öffentlichkeit. Unterdessen fordern Kritiker und Kritikerinnen, die Entwicklung neuer KI-Modelle komplett einzufrieren. Ganze Länder versuchen, ChatGPT zu verbieten und Verlage erweitern ihre Autorenvereinbarungen. Auch die Universitäten beeilen sich, neue Vorschriften zu erlassen. Meistens geht es dabei nicht darum, zu regulieren, wofür KI eingesetzt werden darf, sondern nur darum, wo sie verboten werden soll. Ich vermute, dass wir auch viele dieser Massnahmen in ein paar Monaten als lächerlich, ineffektiv oder schlicht als übertrieben ansehen werden.
Nach dem ersten Schock...
KI ist keine Pandemie, sondern ein Werkzeug – allerdings ein beeindruckendes. Für Bildungsexperten war es ein Schock zu erkennen, dass ChatGPT eine Universitätszulassungsprüfung meistern kann. Und nicht nur das: Das Tool hat naturwissenschaftliche Einführungskurse bestanden und kann Essays und Präsentationen mit bemerkenswert plausiblen, wenn auch fiktiven Inhalten erstellen. Ich spreche bewusst von Fiktion, denn mögen diese Texte noch so sachlich daherkommen, handelt es sich schlussendlich um eine statistisch wahrscheinliche Zusammenstellung von Textfetzen, welche nicht durch Quellen belegt werden kann – der zum Training verwendete Textkorpus ist proprietär, der Algorithmus wirbelt alles durcheinander, und wenn man ChatGPT auffordert, Referenzen zu liefern, so sind diese komplette Fiktion.
Trotzdem: Es ist erstaunlich, wie gut ChatGPT programmieren, Sprachen übersetzen und Texte zusammenfassen kann. Wir werden Zeit brauchen, um herauszufinden, was das über KI aussagt, aber auch, was es über unser Bildungssystem aussagt.
«Den unveränderten Text aus einem KI-Tools zu verwenden, ist zwar kein Plagiat, aber die Aussage «Ich habe das geschrieben» wäre eindeutig eine Lüge.»Gerd Kortemeyer
In Schachturnieren wurde die KI verboten, um den Spass der Menschen an diesem kunstvollen Spiel zu bewahren. In der Wissenschaft wird jedoch immer von uns erwartet, dass wir die leistungsfähigsten verfügbaren Werkzeuge verwenden, um die Grenzen des Wissens zu erweitern. Es kann in der Hochschulbildung daher nicht darum gehen, über ein komplettes Verbot eines Werkzeugs zu diskutieren, sondern eher um die Konsequenzen dieser Disruption dafür, was und wie wir lehren – und wahrscheinlich nur um ein paar wenige harte Grenzen gegen den Missbrauch des Werkzeugs.
Nicht einfach «nur» ein Plagiat
Um der KI Grenzen zu setzen, sind unsere Regeln, um Plagiate zu verhindern, leider nicht sehr hilfreich. Sie wurden erstellt, bevor KI alltagstauglich wurde, und sie konzentrieren sich meistens darauf, dass das geistige Eigentum eines anderen nicht als eigenes ausgegeben wird. Für die KI gilt dies streng genommen nicht, es sei denn, wir gestehen der KI eine eigene Persönlichkeit zu. Anstatt dass wir uns auf die Arbeit «von jemand anderem» konzentrieren, sollten wir uns darauf fokussieren, was «eigene Arbeit» bedeutet: Den Text eines KI-Tools zu verwenden, ist zwar kein Plagiat, aber die Aussage «Ich habe das geschrieben» wäre eindeutig eine Lüge.
Auf der anderen Seite können KI-Tools legitim verwendet werden, um Schreibblockaden zu überwinden und einen schnellen Überblick über «the good, the bad, and the ugly» dessen zu erhalten, was in seinem riesigen Textkorpus zu einem bestimmten Thema zu finden ist. Dann allerdings müssen die menschlichen Autorinnen und Autoren es zu ihrer eigenen Arbeit machen, indem sie die Spreu vom Weizen trennen und Informationen aus tatsächlichen wissenschaftlichen Quellen verifizieren und validieren. Wo genau in dem Prozess «die eigene Arbeit» im Sinne einer wissenschaftlichen Leistung ansetzt, muss diskutiert werden. Ich denke aber, eine Regel, dass keine KI-generierten Wörter oder Formulierungen verwendet werden dürfen, greift zu weit. Nehmen wir uns Zeit, sinnvolle Regeln zu entwickeln. Oder haben wir es eilig, weil wir uns schämen, wenn wir ChatGPT gute Noten geben?
Lieber gegen Fake News impfen
Wie auch immer, Diskussionen über Betrug mit KI sind wahrscheinlich wenig konstruktiv. Die Studierenden kommen zu uns, weil sie lernen wollen und weil sie kritisches, unabhängiges Denken und letztlich Kreativität schätzen. Es liegt in unserer Verantwortung, die Fähigkeiten, Konzepte, Methoden und Kompetenzen zu vermitteln, die es ihnen ermöglichen, in einer Welt, in der KI allgegenwärtig sein wird, zu bestehen und sich zu behaupten. Während wir in Mathematik und Naturwissenschaften immer noch ein solides Fundament legen, müssen wir einige Lehrpläne überdenken. Zum Beispiel könnten einfache Programmierübungen veraltet sein. Wir müssen uns möglicherweise auf Berechenbarkeit, Algorithmen und Informationstheorie konzentrieren. Vielleicht kommen wir zum Schluss, dass zum Beispiel das händische Zusammenfassen von Texten und andere Lehrinhalte obsolet sein mögen. Stattdessen müssen wir unsere Studierenden möglicherweise gegen die Pandemie viraler Fake News, Fake Science und Deepfakes impfen.