Mit KI in eine menschenwürdige Zukunft

Der Ethiker Peter G. Kirchschläger zeigt auf, wie Künstliche Intelligenz international reguliert werden kann – und freut sich über die Unterstützung globaler Entscheidungsträger.
- Vorlesen
- Anzahl der Kommentare 11 Kommentare
Künstliche Intelligenz würde man treffender als datenbasierte Systeme (DS) bezeichnen. Denn ihre Leistung fusst auf ihrem Vermögen, grosse Datenmengen auszuwerten, und einige Bereiche der Intelligenz entziehen sich dem Zugriff von DS: Soziale und emotionale Intelligenz bleiben für sie unerreichbar, weil ihnen echte Gefühle fehlen. Ebenso wenig sind sie moralfähig, weil ihnen dazu die Freiheit mangelt.
Sowohl die Chancen als auch die Risiken von DS für die Menschheit sind immens. So können DS als Assistenzsysteme beispielsweise Menschen mit einer Behinderung ein selbstbestimmteres Leben ermöglichen. Andererseits können solche Assistenzsysteme und Suchmaschinen unsere Privatsphäre sowie den Datenschutz verletzen und auch die Selbstbestimmung der Menschen unterwandern: DS können Menschen manipulieren, da sie aufgrund der enormen Daten über uns bildlich gesprochen genau wissen, welche Klaviertasten sie spielen müssen, damit bei uns die Musik erklingt – sprich: damit wir so einkaufen oder politisch so wählen oder abstimmen, wie sie das wollen. Solche politische Manipulation sowie Fake News und Desinformation bedrohen die Demokratie massiv.
«Menschenrechte fokussieren sich auf das Wesentliche und sind innovationsfreundlich.»Peter G. Kirchschläger
Um die Chancen von DS nachhaltig nutzen und die Risiken meistern oder vermeiden zu können, ist es notwendig, DS international zu regulieren. Die EU geht mit ihrem geplanten Gesetz über Künstliche Intelligenz1 einen Schritt in die richtige Richtung, da sie die Menschen und ihre Rechte höher gewichtet als wirtschaftliche Interessen von ein paar multinationalen Tech-Konzernen und staatlichen Missbrauch einschränkt. Zu verbessern wäre bei diesem Gesetz noch der Schutz von Menschen auf Flucht sowie die Vereinfachung der Beschwerdemöglichkeiten bei einer Beeinträchtigung von Menschen durch DS.
Auf Menschenrechten basierend
Da die Möglichkeiten und Gefahren von DS enorm sind, und es sich um ein globales Thema handelt, müssen wir dieses darüber hinaus auch auf globaler Ebene angehen. Bei den ethischen Überlegungen und Entscheidungen, was beim Design und der Nutzung von DS alles berücksichtigt werden soll, lohnt es sich, die Menschenrechte als Orientierungshilfe hinzuzuziehen. Menschenrechte haben den grossen Vorteil, dass sie auf einem einfachen Konzept beruhen und sich auf das Wesentliche fokussieren: Sie definieren Minimalstandards, die Menschen ein menschenwürdiges Leben garantieren. Gleichzeitig sind sie innovationsfreundlich, indem sie Menschen in ihrer Freiheit des Denkens, der Meinungsäusserung und des Informationszugangs schützen sowie die Pluralität durch die Achtung der Selbstbestimmung jedes Menschen fördern.
Ich habe vor zwei Jahren vorgeschlagen, dass DS immer auf Menschenrechten basierend entwickelt und betrieben werden sollten sowie bei der Uno eine internationale Agentur für datenbasierte Systeme (International Data-Based Systems Agency, externe Seite IDA) geschaffen werden soll – ähnlich der internationalen Atomenergiebehörde IAEA.2 Die IDA soll als Plattform für die technische Zusammenarbeit im Bereich von DS dienen, welche die Menschenrechte, die Sicherheit und die friedliche Nutzung von DS fördert, sowie als globale Aufsichts- und Zulassungsbehörde fungieren.
Von The Elders aufgegriffen
The Elders – eine von Nelson Mandela gegründete unabhängige Gruppe globaler Leader, der unter anderem der ehemalige Uno-Generalsekretär Ban Ki Moon und die erste Präsidentin Irlands, Mary Robinson, angehören – haben meine konkreten Handlungsvorschläge der menschenrechtsbasierten DS und einer internationalen Agentur zur ihrer Überwachung unlängst übernommen und die Uno-Mitgliedstaaten zum entsprechenden Handeln aufgefordert.3 Auch der Uno-Generalsekretär António Guterres hat menschenrechtsbasierte DS und international abgestimmtes Handeln hin zu einer institutionellen Lösung in seinem jüngsten Policy Brief aufgegriffen.4 Das freut mich und stimmt mich zuversichtlich.

Die Schaffung einer IDA ist realistisch, denn die Menschheit hat bereits in der Vergangenheit gezeigt, dass sie in der Lage ist, nicht immer blind alles technisch Mögliche umzusetzen, sondern sich auf das technisch Machbare zu beschränken, wenn es um das Wohl der Menschheit und des Planeten geht.
Zum Beispiel hat die Menschheit auf dem Gebiet der Nukleartechnologie geforscht, Atombomben entwickelt und sie sogar mehrfach abgeworfen. Aber um noch Schlimmeres zu verhindern, hat dann der Mensch die Forschung und Entwicklung auf dem Gebiet der Kerntechnik trotz massiven Widerstands massiv eingeschränkt. Letzteres ist insbesondere wegen internationalen Richtlinien, konkreter Durchsetzungsmechanismen und dank der IAEA, einer Uno-Behörde, weitestgehend gelungen.
Kommentare
Es sind zusätzliche Kommentare in der englischen Fassung dieses Beitrags verfügbar. Alle Kommentare anzeigen
Als Ergänzung: Neben The Elders und António Guterres hat sich auch Sam Altman, der Erfinder des Chatbots ChatGPT und CEO von OpenAI, dafür ausgesprochen, dass eine internationale Agentur ähnlich der IAEA Künstliche Intelligenz überwachen und regulieren sollte. Siehe https://www.euronews.com/next/2023/06/07/openais-sam-altman-calls-for-an-international-agency-like-the-uns-nuclear-watchdog-to-overcall_made
Für mich ist ChatGPT in vielerlei Hinsicht schon menschenähnlich. Ich würde deshalb fordern, dass KIs ähnliche Pflichten erhalten wie Menschen: Zugriff nur darauf, auf was sie Zugriffsrechte haben, die Pflicht sich zu identifizieren, etc. Zudem sollte man nachvollziehen können, welche Aktivitäten und Äusserungen von KIs stammen. Heute können zwar auch Menschen anonym auftreten. Das erscheint mir jedoch problematisch - problematisch auch bei Menschen, noch problematischer bei KIs.
Besten Dank für Ihren Kommentar! In der Tat vollziehen DS Entscheidungen und Handlungen. Die Verantwortung dafür müssen jedoch Menschen tragen, da wir DS nicht zur Verantwortung ziehen können - wegen des Mangels an Freiheit bei DS.
@Peter G. Kirchschläger (Zitat): „ Gleichzeitig würde ich argumentieren, dass DS keine Pflichten tragen können, weil sie aufgrund von fehlender Freiheit keine Verantwortung übernehmen können. “ Vielleicht. Doch eine DS trifft Entscheidungen und handelt eventuell. Entweder man gibt der DS die Verantwortung dafür oder aber man auferlegt die Verantwortung denjenigen, die die DS in die freie Wildbahn entlassen.
Danke vielmals für Ihre Überlegung! Ich würde Ihnen zustimmen, dass wir DS ethische Prinzipien und Normen antrainieren müssen. Gleichzeitig würde ich argumentieren, dass DS keine Pflichten tragen können, weil sie aufgrund von fehlender Freiheit keine Verantwortung übernehmen können. Bildlich gesprochen: Die erste Zeile eines Programmiercodes stammt immer vom Menschen. Und diese Fremdbestimmung kann eine Maschine nie loswerden, sie kann nicht als frei gedacht werden. Sie erkennt sich nicht selbst und setzt sich nicht selbst ethische Prinzipien und Normen, anhand derer sie zwischen ethisch richtig und falsch, gut und schlecht entscheiden kann – nur wir können ihr das beibringen. Sie kann sich auch nicht selbst die ethische Qualität von Regeln erschliessen. Einem selbstfahrenden Auto kann ich zum Beispiel beibringen, dass es keine Menschen überfahren soll. Ich könnte demselben Fahrzeug aber auch beibringen: Ich möchte möglichst schnell von A nach B, also überfahre alles, was dir in den Weg kommt. Das Fahrzeug würde genau gleich konsequent diese Regel anwenden und entsprechend handeln, ohne dass es merkt, dass das etwas ethisch Falsches ist. Aufgrund dieser fehlenden Freiheit können wir auch Maschinen keine Verantwortung übertragen. Beispielsweise macht es keinen Sinn, ein selbstfahrendes Auto für einen Unfall mit Stromentzug oder mit Verschrottung zu bestrafen; Menschen müssen die Verantwortung übernehmen.
"menschenwürdige Zukunft". Habe nicht begriffen, weshalb damit die Zukunft menschenwürdiger wird.
Vielen Dank für Ihren Kommentar! Sie haben recht, von allein passiert dies nicht. Die von mir vorgeschlagenen menschenrechtsbasierten datenbasierten Systeme (HRBDS) und Internationale Agentur für datenbasierte Systeme IDA sollen zu einer menschenwürdigen Zukunft beitragen.
Die Bezeichnung "Datenbasierte Systeme" überzeugt mich auch nicht wirklich! "Datenbasiert", ja, aber "System" ist ein derart allumfassender Begriff, dass man ihn jedenfalls präzisieren müsste. – Jedes Excel-Worksheet ist ein "Datenbasiertes System"!
Danke vielmals für Ihre positive Rückmeldung! Gleichzeitig möchte ich Ihnen für Ihren Vorschlag danken. Meine Sorge wäre, dass dies möglicherweise zu eng wäre.
Danke für diesen exzellenten Artikel! Einzig mit dem Begriff DS bin ich nicht glücklich, weil er auf fast alles zutrifft, was Informationstechnologie hervorbringt. Vorschlag: "selbstlernende Algorithmen" oder eben machine learning. Dies umfasst zwar nicht alle KI, jedoch die risikoreichen. Weil sie ohne explizite Programmierung kaum nachvollziehbar, kaum steuerbar und kaum vorurteilsfrei sind.
Besten Dank für Ihren Kommentar! Ich sehe Ihren Punkt. Ich freue mich, dass Sie "datenbasiert" überzeugt. Was würden Sie für eine Alternative für "System" sehen? Ich würde vorschlagen, den Begriff "System" nicht allzu weit zu fassen. Dann wiederum kann der Begriff "datenbasierte Systeme (DS)" das erfassen, was Maschinen in diesem Bereich leisten können.