Ein unveröffentliches Interview zu KI [in German]

Vor etwa zwei Wochen erhielt ich eine Mail aus einer Schweizer Redaktion mit der Bitte, für eine Schweizer Sonntagszeitung auf vier Interviewfragen zum Thema KI und Ethik zu antworten. Anlass war offenbar eine polemische Aussage eines Angestellten bei Google (siehe 1. Frage). Meine Antworten wurden jedoch nie publiziert, denn der entsprechende Artikel wurde von der Redaktion erst verschoben, danach ganz aus dem “Programm” gekippt. Darum nun hier, mit freundlicher Genehmigung des Interviewers, meine paar schriftlichen Antwortsätze. Sie haben zum Ziel, den wissenschaftlichen Wissensstand dem breiten Publikum in einfachen Worten und Vergleichen zu vermitteln.

***

1. Blake Lemoine meint im Chatbot von Google ein eigenes Bewusstsein erkannt zu haben. Wäre es alleine aus technischer Sicht überhaupt möglich einer Maschine ein eigenes Bewusstsein und eigene Handlungsfähigkeit zu “geben”?

Ein Bewusstsein wie Menschen kann eine Maschine nie entwickeln. Sie kann natürlich so programmiert werden, dass sie menschliches Sprechen verblüffend ähnlich imitiert. Aber es ist gewollte Imitation, und auch der Datenraum wurde von Menschen definiert. Maschinen handeln nicht autonom. Zwar ist im Gegensatz zu anderen Automaten die sogenannte Künstlicher Intelligenz nicht von A bis Z durchprogrammiert, aber bei der Entwicklung wird ein Lernprozess oder ein Ziel festgelegt.

2. Warum versuchen ForscherInnen Künstliche Intelligenz zu entwickeln, die so menschlich wie möglich ist? Was für einen Vorteil verspricht man sich daraus?

Menschen entwickeln und benutzen seit Urzeiten technische Hilfsmittel zu ihrem Vorteil. Bei sogenannter Künstlicher Intelligenz handelt es sich um Softwareverfahren mit hochentwickelten Datenverarbeitungsmöglichkeiten. Der direkte Vergleich zum Menschen ist jedoch absurd. Wir machen ja auch keine Wettläufe gegen Rennautos oder bewerten Atomkraft wie Muskelkraft. Irreführende Begriffe wie “Intelligenz” verfälschen leider die Wahrnehmung der Handlungsfähigkeit und damit der Verantwortung.

3. Manche ExpertInnen sehe eine Zukunft voraus, in der ein kleiner Teil der Menschen am Computer sitzt und programmiert, während der Rest keine Arbeit mehr hat, weil Maschinen, Roboter und KI effektiver als Menschen geworden sind und alle Aufgaben erledigen. Sehen Sie ein solches Szenario als realistisch an?

Comic "dependency" by xkcdNein, denn zum einen können Software und Roboter nicht alle Tätigkeiten ersetzen, die von Menschen erbracht werden. Zudem unterschätzt ein solches Szenario den Aufwand, der für gut funktionierende Systeme erbracht werden muss. Programmieren ist nur ein Teil davon. Es braucht auch Hardware, Installation, Unterhalt und Wartung. Daten müssen gesammelt, erstellt oder aufbereitet werden, was heute schon oft unsichtbar von Menschen hinter den Kulissen gemacht wird.

4. Welche ethischen Grundsätze sollten bei der Entwicklung von Künstlicher Intelligenz niemals verletzt werden?

Dazu gibt es zahlreiche Vorschläge, aber keine Pauschalantwort, auch weil der Begriff Künstliche Intelligenz mehrere Technologien umfasst, die in den verschiedenen Gebieten unterschiedliche Auswirkungen haben können. Die Diskussion um solche ethischen Grundsätze ist aber zentral, insbesondere mit einem Fokus auf mögliche Anwendungen. Eine wichtige Frage stellt sich übrigens sogar noch vor der Entwicklung, nämlich jene der Verhältnismässigkeit. Eine KI-Lösung benötigt Zeit, Ressourcen, und nicht wenig Energie. Manchmal kann ein Problem oder eine Aufgabe auf alternative Weise zielbringender gelöst werden.

Leave a comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.