Frage der Verantwortung
Mit dieser Thematik setzt sich auch die ETH-Professorin Gudela Grote auseinander. Für sie als Arbeitspsychologin stellt sich die Frage, wann sich eine neue Technologie verlässlich in einen Arbeitsprozess integrieren lässt. «Für die Qualitätssicherung ist es zentral, dass ein technisches System zertifiziert ist. Doch wenn nicht nachvollziehbar ist, wie es zu seinen Resultaten kommt, ist das fast unmöglich», sagt Grote. Letztlich geht es um die Verantwortung, wenn Mensch und Maschine zusammenarbeiten. «Als Arbeitnehmerin interessiert mich, wofür ich am Schluss geradestehen muss», sagt die Professorin. Das gilt nicht nur für die aufstrebende generative KI, sondern für jede Form der Automatisierung.
Für den Informatikprofessor Thomas Hofmann ist das Tempo, mit der sich das Feld der generativen KI entwickelt, beeindruckend hoch. «Aber die Wertschöpfung ist womöglich bei anderen Formen der Automatisierung noch grösser», vermutet Hofmann. Auch er sieht die Unzuverlässigkeit als Herausforderung. Alle Anwendungen, die textbasiert arbeiten, haben ein grundsätzliches Problem: Sie alle basieren auf Sprachmodellen, die dereinst mit allerhand Texten trainiert wurden, auch mit fiktiver Literatur.
Das mag sinnvoll sein, wenn es darum geht, Rechtschreibung und Grammatik zu erlernen. Aber der Faktentreue dienen erfundene Geschichten mit Sicherheit nicht. «Sprachmodelle haben aktuell gar kein Verständnis dafür, was faktisch wahr oder falsch ist», gibt Hofmann zu bedenken, zu dessen Forschungsgebiet Sprachmodelle gehören.
Freiwillig oder nicht
Für die Arbeitspsychologin Grote steht noch ein weiterer Aspekt im Zentrum: Nutzt jemand eine neue Technologie freiwillig als Privatperson oder ist jemand als arbeitnehmende Person dazu verpflichtet? Im Privaten, als Kunden der Technologiekonzerne, können wir Einfluss nehmen, indem wir die Technologie kaufen und nutzen – oder eben nicht. Darauf reagieren die Firmen und verbessern ihre Angebote. «Als Arbeitnehmerin bin ich in einen Prozess eingebunden, der nicht vollständig von mir definiert ist», sagt Grote. «Ich werde mit Technologien konfrontiert, für die sich mein Unternehmen entschieden hat, meist ohne Mitsprache der Mitarbeitenden.»