Morgenröte einer vertrauenswürdigen und kooperativen künstlichen Intelligenz
Erleben wir den Aufstieg einer anderen, anpassungsfähigen künstlichen Intelligenz (KI), die mit den Menschen zusammenarbeitet und sie mit klugen Entscheidungen unterstützt? Die Informatikerin Niao He untersucht, wie sich eine solche KI theoretisch absichern lässt, damit sie wirklich Nutzen stiftet.
- Vorlesen
- Anzahl der Kommentare
Als Forscherin hat Niao He die Menschen und die Technik im Blick. Bezeichnend dafür war ihre Antrittsvorlesung, als sie mit wenigen Worten umriss, wie sich lernfähige Computer-Software auf unser tägliches Leben auswirkt: «Wir stehen an der Schwelle eines neuen Zeitalters der künstlichen Intelligenz und sind alle verblüfft, was KI heute schon leistet und wie sie unseren Alltag bereits verändert.» Im Vortrag verglich die Informatikprofessorin vom Institut für maschinelles Lernen den aktuellen Entwicklungsstand der künstlichen Intelligenz mit der Morgenröte, wenn der anbrechende Tag Grosses verspricht und wir spüren, dass noch viel Arbeit auf uns wartet.
Allein im Bild der Morgendämmerung spiegelt sich der frappante Aufstieg, den Forschung und Entwicklung im Gebiet des maschinellen Lernens und der künstlichen Intelligenz in den vergangenen Jahren erfahren haben. Neue mathematische und algorithmische Erkenntnisse, enorme Leistungssteigerungen der Hardware, frei verfügbare KI-Softwaremodule sowie riesige Datenmengen, mit denen sich künstliche Intelligenz trainieren lässt, haben die Anwendungsmöglichkeiten von KI sprunghaft erweitert.
Heute sind Computer in der Lage mittels statistischen und datengetriebenen Methoden maschinell zu lernen. Sie ergänzen das Wissen der Menschen, indem sie automatisch Muster und Regelmässigkeiten aus riesigen Datensätzen herauslesen, die für Menschen zu komplex und zu umfangreich sind. Zum Beispiel kann KI auf diese Weise neue Proteinstrukturen entdecken und damit zur Entwicklung neuer Medikamente beitragen. Niao He möchte einen Schritt weitergehen und eine KI entwickeln, die mehr kann als Muster erkennen. Im Einklang mit den Werten des ETH AI Centers, zu dessen Kernteam sie gehört, schwebt ihr eine vertrauenswürdige und kooperative künstliche Intelligenz vor, die nicht in Konkurrenz zu den Menschen arbeitet, sondern mit diesen zusammen und sie mit intelligenten und nachvollziehbaren Entscheidungen unterstützt.
KI als Wegbegleiterin und Ratgeberin
Das Fernziel ihrer Forschung ist eine anpassungsfähige KI, die sich – wie die Menschen selbst – rasch und flexibel auf veränderte Umweltbedingungen einstellt und den Menschen bei ungewohnt schwierigen Entscheidungen wie eine Ratgeberin zur Seite steht. Dabei spornt Niao He auch die eigene Lebenserfahrung an: Nach dem Bachelorstudium in China studierte und forschte sie gut zehn Jahre in Georgia und Illinois (USA), bevor sie 2020 in die Schweiz kam. Bei jedem Umzug stellte sie sich auf eine andere Kultur ein und erwarb sich neue Fähigkeiten – in Illinois etwa lernte sie Autofahren, in Zürich Deutsch. «Wenn ich auf eine völlig neue Umgebung traf, wünschte ich mir oft, eine KI würde mir helfen, möglichst optimale Entscheidungen zu treffen.»
Mit Optimierung, Automatisierung und intelligenter Entscheidungsfindung in Organisationen befasst sich Niao He in ihrer Forschung: Ihre Gruppe untersucht, nach welchen Prinzipien sich Algorithmen – also Berechnungsregeln, auf deren Basis intelligente Software programmiert wird – mathematisch so gut fundiert entwerfen lassen, damit KI jederzeit zuverlässig arbeitet sowie datenbasierte Problemlösungen und intelligente Entscheidungen ermöglicht. Damit KI die Arbeit der Menschen tatsächlich ergänzt statt ersetzt, sucht Hes Team nach neuen KI-Ansätzen und alternativen Methoden des maschinellen Lernens. «Heute entwickeln wir fast schon routinemässig intelligente Programme, um reale Probleme von extrem hoher Komplexität mit riesigen Datenmengen zu lösen», erklärt sie.
Lernen, mit Unsicherheit und Unbekanntem umzugehen
Tatsächlich verbessern heute die meisten KI-Verfahren die Qualität ihrer Ergebnisse dadurch, dass sie aus grossen Trainingsdatensets lernen, was funktioniert und damit ihre Zuverlässigkeit erhöhen. «Im betrieblichen Alltag unterliegen die Probleme, die KI lösen soll, jedoch vielen Unsicherheiten», gibt Niao He zu bedenken. Diese Unsicherheiten können technischer oder menschlicher Natur sein. Sie können die Daten und die Datensicherheit ebenso betreffen wie die Nutzung geteilter Plattformen oder systematische Fehler von Menschen (engl. «human bias»).
«Damit künstliche Intelligenz auch unter Unsicherheit und sich ändernden Bedingungen zuverlässig funktioniert, ist es wichtig, dass wir die Unsicherheiten mathematisch formulieren und in unsere Lernalgorithmen integrieren. Daran arbeiten wir», sagt Niao He, «wir brauchen KI-Systeme, die über die Zeit widerspruchsfrei entscheiden; die lernen, mit Unsicherheiten oder unbekannten Umgebungen umzugehen, und die sich an neue Aufgaben anpassen können.» Ein vielversprechender Ansatz, der zu einer anpassungsfähigen KI führen könnte, ist das «bestärkende Lernen» (engl. «reinforcement learning»). Dabei erhöht ein intelligentes Lernverfahren die Zuverlässigkeit seiner Ergebnisse durch wiederholte Interaktion mit der Umwelt. Diesen Ansatz erweitert Niao Hes Team auch auf Fälle, wenn es nur spärlich Daten gibt oder die menschlichen Erfahrungen ganz fehlen.
Zuverlässigkeit über die Zeit schafft Vertrauen
Für Niao He ist klar: «KI muss ‹humanzentriert› sein, das heisst auf den Menschen ausgerichtet sein, unsere Werte ausdrücken und vertrauenswürdig arbeiten.» Sie teilt die Auffassung, dass Werte wie Vertrauenswürdigkeit, Transparenz, Datenschutz, Fairness, Ethik, Verantwortung und Haftung als Leitprinzipien für den Einsatz von KI in der Praxis dienen sollten. «Eine vertrauenswürdige KI arbeitet über einen langen Zeitraum zuverlässig. Die Zuverlässigkeit über die Zeit schafft Vertrauen», legt sie dar.
«Mir fehlen im Bild der vertrauenswürdigen KI leider zu oft die theoretischen Aspekte der KI.»Niao He
Theorie liegt ihr am Herzen. Ihr ist bewusst, dass die Rede von der Vertrauenswürdigkeit mehrdeutig ist: «Vertrauenswürdige KI ist für mich ein sehr magisches Wort, weil es mit vielen Bedeutungen überfrachtet wurde. Für mich ist Vertrauenswürdigkeit eine Frage der Methodik.» Entschieden fügt sie hinzu: «Wir sollten KI von Grund auf so entwickeln, dass sie mathematisch einwandfrei und theoretisch abgesichert ist, bevor sie in der Praxis eingesetzt wird. Mir fehlen im Bild der vertrauenswürdigen KI leider zu oft die theoretischen Aspekte der KI.»
Grenzen kennen, Diversität erhöhen
Da es für Computer-Designer und Programmierer heute vergleichsweise einfach ist, auf KI-Plattformen etwas auszuprobieren, gibt es in der Praxis ab und zu Algorithmen, die sehr plausible Ergebnisse liefern, bei denen jedoch, wenn ein Fehler auftritt, unklar bleibt, weshalb er entstanden ist. «Theorie» bedeutet für Niao He, dass die mathematischen und algorithmischen Grundlagen der KI soweit verstanden sind, dass jederzeit erklärbar ist, wie ein Algorithmus wirklich funktioniert und wie seine Ergebnisse zustande kommen. «Beim theoretischen Verständnis geht es vor allem auch darum, die grundsätzlichen Grenzen dieser Probleme und die grundsätzlichen Grenzen der Algorithmen zu verstehen».
KI menschenbezogen zu entwickeln, erfordere kontrafaktisches Denken, sagt Niao He. Was wäre passiert, wenn ich mich anders entschieden hätte oder wenn jemand mit einem anderen Geschlecht oder aus einer anderen ethnischen Gruppe sich an meiner Stelle entschiede? Diversität sei wichtig für die KI-Forschung: «Gerade wenn es um Fairness, Vertrauen und Zusammenarbeit mit KI geht, kommt es sehr darauf an, dass verschiedene Menschen ihre Perspektiven in die Entwicklung der KI einbringen. Ich möchte darum alle Studentinnen ermutigen, sich an der KI-Forschung zu beteiligen, damit die KI in Zukunft kooperativ, ethisch, fair und vertrauenswürdig funktioniert.»