«Ein Entwicklungsstopp gefährdet die Transparenz»

In einem offenen Brief fordern Tech-Grössen aus Wissenschaft und Wirtschaft einen Stopp des Trainings neuer KI-Sprachmodelle, die leistungsfähiger sind als GPT-4. Andreas Krause und Alexander Ilic vom ETH AI Center halten dies für schwer durchsetzbar und mit Risiken verbunden.

Andreas Krause und Alexander Ilic auf dem Gang eines leeren Büros
Andreas Krause (l.) und Alexander Ilic (r.). (Bild: Nicola Pitaro / ETH Zürich)

ETH-News: Herr Krause, Tech-Grössen fordern in einem externe Seiteoffenen Brief ein Moratorium für das Training von Systemen Künstlicher Intelligenz (KI), die leistungsstärker als GPT-4 sind. Ist eine so drastische Massnahme angebracht?
Andreas Krause: Ich bezweifle, dass diese Forderung durchsetzbar ist, da hinter der Entwicklung grosse kommerzielle und strategische Interessen stehen. Zudem ist es schwierig festzulegen was konkret eingeschränkt werden soll ohne Wettbewerbsverzerrung zu betreiben und Innovation in der Anwendung zu gefährden. Auch wenn ein solches Moratorium beschlossen werden würde, könnte wohl niemand sicherstellen, dass nicht weiter verdeckt am Training solcher Modelle gearbeitet wird.

Das würde zu weniger Transparenz führen.
Krause: Genau. Das birgt die Gefahr, dass die Entwicklung, die vorher weitgehend offen und transparent war, unzugänglicher und intransparenter wird. Dadurch wäre es beispielsweise kaum mehr möglich nachzuvollziehen, auf Basis welcher Daten die aktuellen Modelle trainiert wurden und welche Biases, also Verzerrungen, damit verbunden sind. Diese Tendenz gibt es schon jetzt.

Ein Entwicklungsstopp ist also keine gute Idee.
Alexander Ilic: Nein, denn bei den aktuellen Sprachmodellen gibt es grosse Fragezeichen hinsichtlich ihrer Vertrauenswürdigkeit, Zuverlässigkeit und Nachvollziehbarkeit. Diese Elemente sind von grosser Bedeutung und müssen unbedingt noch stärker erforscht werden und über Fachbereichsgrenzen hinweg kritisch diskutiert werden.

Was schlagen sie als Alternative vor?
Krause: Zum einen ist die Grundlagenforschung gefordert, um die nächste Generation von sichererer, vertrauenswürdigerer KI-Technologie zu entwickeln. Zum anderen sollten wir die interdisziplinäre Forschung vorantreiben und zeigen, wie man diese Technologien gewinnbringend für den Menschen einsetzen kann. Erst wenn KI verlässlich und vertrauenswürdig ist, kann sie zum Beispiel im Gesundheitswesen sinnvoll eingesetzt werden und den Menschen als nützliches Werkzeug dienen.

Welche Rolle spielt das AI Center der ETH Zürich dabei?
Krause: Am ETH AI Center verbinden wir beides, Grundlagen- und interdisziplinäre Forschung. Das Ziel des Centers ist es, Technologien und Anwendungsgebiete zu fördern, die der Allgemeinheit helfen. Zudem ist unsere Forschung offen und transparent.

Ilic: Wir wollen dem Trend entgegenwirken, dass KI-Forschung immer mehr hinter verschlossenen Türen stattfindet und setzen auf offene, interdisziplinäre Zusammenarbeit zwischen Forschung, Industrie und Start-ups. Wir glauben, dass insbesondere an Schnittstellen von Disziplinen wie zum Beispiel KI und Medizin oder KI und Geisteswissenschaften wichtige Beiträge entstehen. Wir haben deshalb ein Fellowship Programm geschaffen, bei dem wir die weltweit besten Talente anziehen und am ETH AI Center zusammenbringen. Mit einem Frauenanteil von 50 Prozent und Mitarbeitenden aus über 26 Ländern konnten wir auch von Anfang an eine Kultur schaffen, die Chancen und Risken von KI kritisch diskutiert und verantwortungsvoll mitgestaltet.

Die Verfasser:innen fordern ausserdem, dass während des Stopps eine unabhängige Prüfungsinstanz Sicherheitsprotokolle für das Design von künstlichen Intelligenzen erarbeiten soll. Was halten sie davon?
Ilic: Die Entwicklung von Prüfungsverfahren und die Zertifizierung KI-basierter Technologie ist sicher ein wichtiges Thema, und muss im Kontext konkreter Anwendungen verfolgt werden. Es ist aber auch wichtig, dass wir neue Sprachmodelle auf eine transparente Art und Weise trainieren und die Forschung aktiv mitgestalten, anstatt sich lediglich der Kontrolle und Überprüfung bereits bestehender Sprachmodelle zu widmen. Nur so können wir sicherstellen, dass die Systeme vertrauenswürdiger, sicherer und verlässlicher werden. Die grossen Firmen verfolgen kommerzielle Interessen und werden sich daher eher auf die grössten Märkte und kulturellen, sprachlichen Regionen konzentrieren. Wir haben uns daher dem Europäischen KI-Forschungsnetzwerk ELLIS angeschlossen, um die KI-Welt nach europäischen Werten mitzuprägen. Es gibt aber hier noch viel Potenzial, um das Thema Diversität noch weiter zu fördern. Man könnte beispielsweise gezielt offene Datensätze aufbauen zu unterschiedlichen Kultur- und Sprachkreisen oder bei Feedback durch Menschen darauf achten, aus welchen Kulturkreisen die befragten Personen stammen, um später Biases zu verringern. Man wird kommerzielle Anbieter nicht dazu zwingen können, dies selbst zu tun. Aber die Forschung könnte es Firmen durch den offenen und transparenten Umgang mit den eigenen Daten erleichtern, ihre Systeme vertrauenswürdiger zu machen.

Im offenen Brief wird auch davor gewarnt, dass neue Sprachmodelle Propaganda und Unwahrheiten verbreiten könnten. Stimmen sie dem zu?
Krause: Bei den generativen KI-Modellen hat in den letzten Monaten eine rasante Entwicklung stattgefunden: Texte und Bilder können generiert werden, die immer realistischer wirken. Diese können tatsächlich für Desinformationskampagnen genutzt werden. Obwohl auch daran geforscht wird, wie man solche generierten Texte und Bilder erkennen kann, stellt diese Entwicklung ein reales Risiko dar.

Die Verfasser:innen sehen auch die Gefahr, dass Menschen durch den Einsatz von KI ihre Jobs verlieren oder gar irgendwann ganz von Maschinen ersetzt werden könnten. Ist das nicht überzogen?
Krause: Mich stört, dass ernstzunehmende Gefahren, wie beispielsweise die Sorge vor Desinformation, und Science-Fiction, wie der Weltübernahme durch Maschinen, über einen Kamm geschoren werden. Dies erschwert eine fundierte Diskussion und einen Dialog über die tatsächlichen Risiken. KI wird die Berufswelt sicher nachhaltig verändern. Es ist immer schwieriger sich vorzustellen, welche neuen Jobs und Berufsfelder entstehen als welche bestehenden Aufgaben von Automatisierung betroffen sein könnten.

Ilic: Ähnliche Bedenken gab es auch in der Vergangenheit im Kontext neuer Technologien, wie der Industrialisierung oder der Digitalisierung. Es wird eher so sein, dass Personen im Job durch andere ersetzt werden, die mit KI umgehen können, als dass KI den Job komplett ersetzt. Daher wird es entscheidend sein, die Bevölkerung und die Wirtschaft bei dieser Transformation zu unterstützen.

Andreas Krause ist Vorsteher des ETH AI Center und Professor für Informatik an der ETH Zürich, wo er die Gruppe "Learning & Adaptive Systems" leitet.

Alexander Ilic ist der Geschäftsführer des ETH AI Centers der ETH Zürich.

JavaScript wurde auf Ihrem Browser deaktiviert