Wenn Maschinen lernen
Big Data, künstliche Intelligenz, Industrie 4.0 – die neuen Möglichkeiten der Informationstechnologien werden die Welt verändern. Ein Blick in die Welt der Forscher, die Maschinen das Denken beibringen.
Eine Google-Suchanfrage nach Roger Federer, dem Schweizer Tennisstar, kommt auf 28'900'000 Einträge. Fussball-Weltstar Lionel Messi erzielt immerhin 61'300'000 Einträge. Einer schlägt sie locker: Die Suche nach AlphaGo, dem Computer, der im März dieses Jahres einen Meisterspieler im Strategiespiel Go besiegte, führt zu 313'000'000 Treffern. AlphaGo beherrschte dieses Frühjahr die Schlagzeilen: Maschine triumphiert über Mensch – der Sieg von AlphaGo war das Horrorszenario schlechthin für die einen, Durchbruch der künstlichen Intelligenz für die andern.
Die Meisterspieler
Joachim Buhmann, Informatikprofessor und Leiter des Instituts für maschinelles Lernen an der ETH Zürich, beurteilt die Situation nüchterner: «Der Algorithmus des Go-Spielers hat natürlich einen Meilenstein im Bereich des Machine Learning gesetzt. Aber es ist ein Meilenstein in einem sehr abgegrenzten, künstlichen Feld», sagt Buhmann. Seit den Anfängen der Informatik als Wissenschaft waren Strategiespiele eine der Herausforderungen, an denen sich Fortschritte vergleichsweise leicht messen liessen. Den Anfang machten einfache Spiele wie Mühle oder Dame. 1997 schlug der Computer Deep Blue den Schachweltmeister Garri Kasparow. Danach geriet bald das wesentlich komplexere Go-Spiel als nächster möglicher Meilenstein ins Visier der Programmierer.
Eigentlich interessant sei aber nicht die Tatsache, dass AlphaGo nun den Sieg davongetragen habe, sondern wie: im Gegensatz zum Computer Deep Blue nämlich nicht durch schiere Rechengeschwindigkeit, sondern viel mehr durch enorme Rechenleistung, «kombiniert mit einer Art cleveren Lernens», erläutert Buhmann. Doch er schränkt ein: «Das erfolgreiche Lösen solcher Spielprobleme ist nicht der ganz grosse Durchbruch, weil sich wirkliche Intelligenz durch Entscheidungsfindung bei grosser Unsicherheit auszeichnet. Und der Spielrahmen zähmt die Unsicherheit doch dramatisch.» Ähnlich sieht es sein Forscherkollege Thomas Hofmann, einer der Direktoren des neuen externe Seite Zentrums für Lernende Systeme der ETH und der Max-Planck-Gesellschaft: «Wir wollen Maschinen bauen, die sich in der realen Welt bewähren. Selbstfahrende Autos etwa sind mit wesentlich komplexeren und folgenreicheren Entscheidungen konfrontiert.»
Training im Datenmeer
Dennoch: Das Vorgehen, wie die Schöpfer von AlphaGo ihren Computer zur Meisterschaft brachten, ist typisch auch für viele andere Bereiche des maschinellen Lernens. Zu Beginn fütterten die Konstrukteure von AlphaGo die Maschine mit 150'000 Spielpartien, die von guten Spielern bestritten worden waren, und nutzten ein künstliches neuronales Netzwerk, um typische Muster in diesen Spielpartien zu identifizieren. Insbesondere lernte die Maschine vorherzusagen, welchen Spielzug ein menschlicher Spieler in einer bestimmten Position einsetzen würde. Dann optimierten die Designer das neuronale Netzwerk, indem sie es immer wieder gegen frühere seiner eigenen Spielversionen antreten liessen. So verbesserte das Netzwerk durch ständige kleine Anpassungen nach und nach seine Gewinnchancen weiter. «Es sind zwei Ingredienzien, die diese Art des Lernens möglich machen», erklärt Hofmann. «Man braucht sehr viele Daten als Lernmaterial und genügend Rechengeschwindigkeit.» Beides ist heute in vielen Bereichen vorhanden.
Damit hat sich das Vorgehen der Entwickler in der künstlichen Intelligenz dramatisch gewandelt. Joachim Buhmann erläutert dies am Gebiet der Bilderkennung: Früher mussten Bildexperten dem Computer detailliert vorgeben, aufgrund welcher Merkmale er eine Darstellung beispielsweise als Gesicht kategorisieren sollte. «Das bedeutete einerseits, dass wir auf das Wissen von Experten angewiesen waren und dass wir ausserdem Unmengen von Regeln als Codes schreiben mussten», erinnert sich der Forscher. Heute genügt es, ein Metaprogramm zu schreiben, das nur die Grundprinzipien des Lernens festlegt. Dann lernt der Computer selbstständig anhand von vielen Bildbeispielen, welche Merkmale ein Gesicht darstellen. An Lernmaterial herrscht dank Facebook, Instagram und Co. kein Mangel: «Wir können heute locker viele Millionen Bilder oder mehr als Übungsmaterial verwenden», sagt Buhmann.
Der Computer als Arzt
Sein Spezialgebiet ist die Bilderkennung im medizinischen Bereich. Gerade hier zeige sich der Vorteil des maschinellen Lernens deutlich: «Früher haben wir versucht, das Expertenwissen der Mediziner zu erfragen und es dann detailliert in Regeln umzusetzen. Damit haben wir grandios Schiffbruch erlitten, weil selbst gute Ärzte oft keine eindeutigen Erklärungen für ihr Handeln liefern können.» Heute suchen Computerprogramme in grossen Mengen von Bilddaten selbstständig nach statistisch relevanten Mustern. Konkret wenden Buhmann und seine Kollegen solche Verfahren beispielsweise in der Krebsforschung an, aber auch bei der Untersuchung von neurologischen Erkrankungen wie Schizophrenie oder degenerativer Hirnerkrankungen wie Demenz oder Parkinson.
Unter anderem haben sie ein Programm entwickelt, mit dessen Hilfe Pathologen den voraussichtlichen Verlauf einer bestimmten Nierenkrebsform genauer abschätzen können. Dazu werden den Patienten Biopsien entnommen, von denen histologische Schnitte erstellt werden. Mittels bestimmter Einfärbungen werden relevante Merkmale sichtbar gemacht. Die Schnitte werden digitalisiert und mit Hilfe maschineller Bildanalyseverfahren ausgewertet. Dabei geht es beispielsweise darum, die Krebszellen, die sich gerade teilen und durch die Einfärbungen sichtbar wurden, zu zählen. Aufgrund solcher Zählungen erstellt der Computer sodann in Kombination mit weiteren Daten Prognosen für bestimmte Patientengruppen. In einem anderen Projekt wurden per Computer Magnetresonanzaufnahmen der Hirne von Schizophreniepatienten analysiert. Die Bildanalyse ergab drei Gruppen von Patienten mit deutlich unterschiedlichen Aktivitätsmustern im Hirn. «Wir haben gelernt, dass Schizophrenie nicht gleich Schizophrenie ist», erläutert Buhmann. «Jetzt ist es Sache der Pharmazeuten und Ärzte, für jeden Patiententyp die richtige Behandlung zu finden.» Gut möglich, dass automatisierte Analysen von Hirnbildern auch dabei helfen.
Sprache und Sinn
Was für Buhmann die Bilderkennung, ist für seinen Forscherkollegen Thomas Hofmann die Sprache. «Spracherkennung als Teilgebiet der künstlichen Intelligenz ist vor allem dort gefragt, wo es um die Interaktion von Mensch und Maschine geht», erläutert Hofmann. Dem selbstfahrenden Auto wolle er dereinst nicht mehr mühsam über eine Tastatur erklären müssen, welches Ziel er ansteuern wolle, sondern lieber spontan mit mündlichen Anweisungen. Hofmann ist überzeugt, dass es nicht mehr lange dauern wird, bis es so weit ist. «Wir können heute ganz anders an das Problem herangehen, wie eine Maschine Texte verstehen kann, als früher.»
Big Data liefert auch hier das Material, anhand dessen die Maschinen üben, Texte zu verstehen. Das Web ist ein unermesslicher Sprachschatz, ein riesiger Trainingsparcours, mit dessen Hilfe die Maschinen statistische Regularitäten herausfiltern, die ihnen Zusammenhänge zwischen Worten zeigen. «Und zwar viel besser, als wir das mit abstrakten linguistischen oder phonetischen Regeln jemals gekonnt hätten», sagt Hofmann. Konkrete Anwendung finden solche Verfahren auch, wenn es darum geht, Übersetzungsprogramme zu optimieren oder Suchmaschinen. Hofmann entwickelt mit seinem Team ein Programm, das anhand aller Wikipedia-Einträge (das sind über 5 Millionen englischsprachige Einträge) lernt, Texte und Worte sinnvoll miteinander zu verlinken. Die Links und Querverweise zu anderen Beiträgen, die heute jeder Wikipedia-Autor noch von Hand macht, wird in Zukunft der Computer setzen – schneller und umfassender, als ein Autor es könnte. «Es fängt bei den elementaren Wortbedeutungen an. Aber dann sollen unsere Programme auch die Bedeutung von ganzen Sätzen verstehen und schliesslich ganze Diskurse», sagt Hofmann.
Mit Maschinen auf Augenhöhe
Zukunftsmusik? Nur teilweise. Übersetzungsprogramme haben in den letzten Jahren bereits enorme Fortschritte gemacht. Suchmaschinen werden ständig besser, Computerprogramme verfassen Sportmeldungen. Hofmann selbst war in den USA an der Gründung einer Firma namens Recommind beteiligt. Deren Programme analysieren und sortieren Texte hinsichtlich juristisch relevanter Inhalte. «Wir automatisieren das Aktenstudium, für das Anwälte bisher endlos Zeit gebraucht haben», erläutert der Forscher. Die Firma beschäftigt heute weltweit 300 Mitarbeiter und ist Marktführerin auf ihrem Gebiet.
Recommind ist nur ein Beispiel, wie die neuen Technologien selbst die Arbeit hochqualifizierter Berufsgruppen verändern werden. Hofmann ist überzeugt, dass es nur sehr wenige Berufsgruppen gibt, die durch den technologischen Wandel nicht betroffen sein werden. «Bisher haben Maschinen repetitive, mechanische Arbeiten übernommen. In Zukunft werden sie auch intelligente Entscheidungen treffen», so der Forscher. Auch Buhmann ist überzeugt: «Die neuen intelligenten Technologien werden in Zukunft auch Tätigkeiten von sehr gut Ausgebildeten ergänzen oder gar ersetzen.» So werde durch die neuen Möglichkeiten der Bildanalyse sicher die Arbeit der Pathologen massiv verändert. «Wir werden in Zukunft deutlich weniger Pathologen brauchen – aber dafür könnten Ärzte mehr Zeit für die psychische Betreuung von Kranken einsetzen», gibt der Forscher zu bedenken. Sein Kollege Hofmann ergänzt: «Technologisch gesehen ist alles möglich. Es ist eine Frage des gesellschaftlichen Gestaltungswillens, wie wir mit dem technologischen Wandel umgehen.»