Mit KI in eine menschenwürdige Zukunft

Porträtfoto von Peter G. Kirchschläger

Der Ethiker Peter G. Kirchschläger zeigt auf, wie Künstliche Intelligenz international reguliert werden kann – und freut sich über die Unterstützung globaler Entscheidungsträger.

Kommentare

Kommentar schreiben

Kommentar schreiben

Wir freuen uns, wenn Sie an dieser Stelle Artikel aus den ETH-Newskanälen kommentieren, Fragen stellen oder auch auf Kommentare anderer Leserinnen und Leser reagieren. Bitte beachten Sie dabei unsere Kommentarregeln.

11 Kommentare

Es sind zusätzliche Kommentare in der englischen Fassung dieses Beitrags verfügbar. Alle Kommentare anzeigen

  • Redaktion Zukunftsblog13.07.2023 14:12

    Als Ergänzung: Neben The Elders und António Guterres hat sich auch Sam Altman, der Erfinder des Chatbots ChatGPT und CEO von OpenAI, dafür ausgesprochen, dass eine internationale Agentur ähnlich der IAEA Künstliche Intelligenz überwachen und regulieren sollte. Siehe https://www.euronews.com/next/2023/06/07/openais-sam-altman-calls-for-an-international-agency-like-the-uns-nuclear-watchdog-to-over

     
       
    • Martin Holzherr27.06.2023 17:01

      Für mich ist ChatGPT in vielerlei Hinsicht schon menschenähnlich. Ich würde deshalb fordern, dass KIs ähnliche Pflichten erhalten wie Menschen: Zugriff nur darauf, auf was sie Zugriffsrechte haben, die Pflicht sich zu identifizieren, etc. Zudem sollte man nachvollziehen können, welche Aktivitäten und Äusserungen von KIs stammen. Heute können zwar auch Menschen anonym auftreten. Das erscheint mir jedoch problematisch - problematisch auch bei Menschen, noch problematischer bei KIs.

       
      • Peter G. Kirchschläger28.06.2023 11:41

        Besten Dank für Ihren Kommentar! In der Tat vollziehen DS Entscheidungen und Handlungen. Die Verantwortung dafür müssen jedoch Menschen tragen, da wir DS nicht zur Verantwortung ziehen können - wegen des Mangels an Freiheit bei DS.

         
         
      • Martin Holzherr28.06.2023 10:19

        @Peter G. Kirchschläger (Zitat): „ Gleichzeitig würde ich argumentieren, dass DS keine Pflichten tragen können, weil sie aufgrund von fehlender Freiheit keine Verantwortung übernehmen können. “ Vielleicht. Doch eine DS trifft Entscheidungen und handelt eventuell. Entweder man gibt der DS die Verantwortung dafür oder aber man auferlegt die Verantwortung denjenigen, die die DS in die freie Wildbahn entlassen.

         
         
      • Peter G. Kirchschläger28.06.2023 04:51

        Danke vielmals für Ihre Überlegung! Ich würde Ihnen zustimmen, dass wir DS ethische Prinzipien und Normen antrainieren müssen. Gleichzeitig würde ich argumentieren, dass DS keine Pflichten tragen können, weil sie aufgrund von fehlender Freiheit keine Verantwortung übernehmen können. Bildlich gesprochen: Die erste Zeile eines Programmiercodes stammt immer vom Menschen. Und diese Fremdbestimmung kann eine Maschine nie loswerden, sie kann nicht als frei gedacht werden. Sie erkennt sich nicht selbst und setzt sich nicht selbst ethische Prinzipien und Normen, anhand derer sie zwischen ethisch richtig und falsch, gut und schlecht entscheiden kann – nur wir können ihr das beibringen. Sie kann sich auch nicht selbst die ethische Qualität von Regeln erschliessen. Einem selbstfahrenden Auto kann ich zum Beispiel beibringen, dass es keine Menschen überfahren soll. Ich könnte demselben Fahrzeug aber auch beibringen: Ich möchte möglichst schnell von A nach B, also überfahre alles, was dir in den Weg kommt. Das Fahrzeug würde genau gleich konsequent diese Regel anwenden und entsprechend handeln, ohne dass es merkt, dass das etwas ethisch Falsches ist. Aufgrund dieser fehlenden Freiheit können wir auch Maschinen keine Verantwortung übertragen. Beispielsweise macht es keinen Sinn, ein selbstfahrendes Auto für einen Unfall mit Stromentzug oder mit Verschrottung zu bestrafen; Menschen müssen die Verantwortung übernehmen.

         
         
       
    • Richard Dähler27.06.2023 15:21

      "menschenwürdige Zukunft". Habe nicht begriffen, weshalb damit die Zukunft menschenwürdiger wird.

       
      • Peter G. Kirchschläger28.06.2023 04:47

        Vielen Dank für Ihren Kommentar! Sie haben recht, von allein passiert dies nicht. Die von mir vorgeschlagenen menschenrechtsbasierten datenbasierten Systeme (HRBDS) und Internationale Agentur für datenbasierte Systeme IDA sollen zu einer menschenwürdigen Zukunft beitragen.

         
         
       
    • Max Blatter27.06.2023 08:21

      Die Bezeichnung "Datenbasierte Systeme" überzeugt mich auch nicht wirklich! "Datenbasiert", ja, aber "System" ist ein derart allumfassender Begriff, dass man ihn jedenfalls präzisieren müsste. – Jedes Excel-Worksheet ist ein "Datenbasiertes System"!

       
      • Peter G. Kirchschläger27.06.2023 15:20

        Danke vielmals für Ihre positive Rückmeldung! Gleichzeitig möchte ich Ihnen für Ihren Vorschlag danken. Meine Sorge wäre, dass dies möglicherweise zu eng wäre.

         
         
      • Micha Huber27.06.2023 14:07

        Danke für diesen exzellenten Artikel! Einzig mit dem Begriff DS bin ich nicht glücklich, weil er auf fast alles zutrifft, was Informationstechnologie hervorbringt. Vorschlag: "selbstlernende Algorithmen" oder eben machine learning. Dies umfasst zwar nicht alle KI, jedoch die risikoreichen. Weil sie ohne explizite Programmierung kaum nachvollziehbar, kaum steuerbar und kaum vorurteilsfrei sind.

         
         
      • Peter G. Kirchschläger27.06.2023 11:43

        Besten Dank für Ihren Kommentar! Ich sehe Ihren Punkt. Ich freue mich, dass Sie "datenbasiert" überzeugt. Was würden Sie für eine Alternative für "System" sehen? Ich würde vorschlagen, den Begriff "System" nicht allzu weit zu fassen. Dann wiederum kann der Begriff "datenbasierte Systeme (DS)" das erfassen, was Maschinen in diesem Bereich leisten können.