Towards an inclusive future in AI: was bedeutet “inklusive Künstliche Intelligenz”?

Dank Swissnex San Francisco, dem Think Tank foraus und AI Commons durfte ich bei der Ausarbeitung des Reports “Towards an inclusive future in AI. A global participatory process” mitarbeiten. (Hier geht es zum Report, sowie zu einem Kurzbeschrieb auf englisch.)

Am 22. Oktober 2019 fand in Bern eine Pressekonferenz stattfand, wo sowohl unser Report wie auch ein Positionspapier zum Thema AI, resp. zur Schnittstelle von AI Governance und der Schweiz (“Making Sense of Artificial Intelligence – Why Switzerland Should Support a Scientific UN Panel to Assess the Rise of AI”), vorgestellt wurde.

Untenstehend das Transkript meiner deutschen Vorstellung unseres Reports “Towards an Inclusive Future in AI: A Global Participatory Process“.


Künstliche Intelligenz geht uns alle etwas an.

Inklusion, Partizipation, Integration — all das sind wichtige Punkte für eine Technologie, die im Leben von allen Menschen eine immer wichtigere Rolle spielt. Das Prinzip der Inklusion ist tatsächlich sehr wichtig: Es taucht auch in ethischen Richtlinien für künstliche Intelligenz auf der ganzen Welt immer wieder auf. Auf Seite 6 und 7 des Reports sehen Sie einige Beispiele wo und wie “Inklusion” in bestehenden Berichten auftaucht.

Was genau jedoch Inklusion bedeutet, und wie sie erreicht werden kann, sprich: wie Partizipation umgesetzt werden kann, ist eine offene, nicht ganz einfache Frage. Anstelle einer theoretischen Abhandlung haben wir mit Hilfe der Policy Kitchen in einem bottom-up Prozess verschiedene Menschen aus der Zivilgesellschaft auf der ganzen Welt gefragt: “was bedeutet inklusive KI — inklusive künstliche Intelligenz — für euch, und wie kann sie erreicht werden?”

Das Ergebnis zeigt, dass Inklusion nicht mit einem einzigen magischen Rezept erreicht werden kann. Auch unsere Teilnehmenden verbinden mit Inklusion verschiedene, sich gegenseitig ergänzende Ansätze, die jeweils auf verschiedenen Niveaus wirken.

Ich werde die einzelnen Ansätze nun mit ein wenig mehr Details beschreiben. Im Report finden Sie die Zusammenfassung auf Seite 9 als Aufzählung, sowie ab Seite 22 als Schlussfolgerung (“Dessert”). Dabei möchte ich noch einmal betonen, wie wichtig aus gesellschaftpolitischer Perpektive der Prozess war, der zu diesen Ergebnissen geführt hat: Die Ansätze basieren auf Daten. Sie widerspiegeln die Auffassung von verschiedenen Menschen der Zivilgesellschaft in mehreren Ländern wieder.

Zum einen verbinden die Menschen mit Inklusion die Elimination von Bias. Bias — oder Verzerrung, Vorurteil oder Ungleichgewichtigkeit — innerhalb von Systemen mit künstlicher Intelligenz kommt zum Beispiel durch verzerrte Datenbestände zu Stande. Bestehende soziale Vorurteile werden in Daten widergespiegelt und danach durch Maschinen verstärkt.

Gemäss unseren Teilnehmenden muss inklusive KI Vorurteilen aktiv entgegenwirken. Zur Vorbeugung, aber auch Behebung wurden einerseits technische Massnahmen vorgeschlagen, aber auch zum Beispiel Qualitätskontrollen diesbezüglich. Diese sollen zu verschiedenen Zeitpunkten während der Entstehung, aber auch der Nutzung eines KI-Systems, systematisiert werden.

Auch erwähnt wurden organisatorische Neustrukturierung, zum Beispiel “inklusive Teams”, d.h. weniger sozial homogene Teams. Oder institutionalisierte Möglichkeiten für Nutzerinnen und Nutzer um Feedback über Bias geben zu können.

Weitere Vorschläge drehen sich um einen 2. Punkt: Datenzugang und offene Standards — Open Access und Open Standards. Inklusion wird verstanden als die Möglichkeit, Partizipation technisch zu ermöglichen. Denn wenn KI-Technologien in den Händen von Wenigen konzentriert sind, wird der Graben im Laufe der Zeit immer grösser: Je weiter fortgeschritten eine Organisation mit künstlicher Intelligenz bereits ist, umso grösser wird ihr Vorsprung.

Zugang zu Daten, offene Standards damit Daten — aber auch Systeme — genutzt, ja: weiterbenutzt werden können, verringern dieses Machtgefälle und führen zu vermehrter Partizipation bei der Herstellung.

A propos Machtgefälle, das bringt mich auch gleich zum dritten Punkt. Ab Seite 14 sehen Sie den wichtigen Punkt der Verringerung des Machtgefälles zwischen Unternehmen und Einzelpersonen. “User Rights and Transparency.”

Inklusion wird von vielen Menschen verstanden als aktives Arbeiten an der Verringerung dieses Machtgefälles. Die Vorschläge aus der Policy Kitchen in diesem Bereich betreffen vor allem Datensouveränität, Transparenz und Wahlmöglichkeit. Gerade der Wunsch nach Wahlmöglichkeit verbindet die Vorstellung von Inklusion mit einer weniger homogenen technischen Landschaft, wo Technologiehersteller nicht mehr unilateral die Funktionsweisen und Konditionen Ihre Systeme diktieren können.

Inklusion wurde von den Teilnehmenden an der policy Kitchen jedoch nicht nur auf der Ebene der Technologie strictly speaking verstanden. Ab Seite 15 sehen Sie das auch Teilhabe an Gewinn und am Wohlstand, der durch Systeme mit künstlicher Intelligenz erreicht wird, gefordert wird. Denn wenn künstliche Intelligenz im Leben von allen Menschen eine Rolle spielt, dann sollte Die Gesellschaft nicht nur unter den eventuellen Fehlern oder Störungen dieser Systeme leiden, sondern auch an deren Bereicherung teilhaben können. Konkrete Vorschläge in diesem Bereich waren zum Beispiel ein gesamtgesellschaftlicher Fonds, oder Umverteilung durch eine KI Steuer.

Eine weitere nichttechnische Auffassung von Inklusion betrifft die Bildung und den Zugang zu Bildung: Zum einen können vermehrte Akzente auf digitale Bildung allgemein grössere und vor allem auch bessere Partizipation im Arbeitsbereich — aber auch als Bürgerinnen und Bürger in einer zunehmend digitalen Welt — ermöglichen.

Die Teilnehmenden der Policy Kitchen streichen dabei hervor wie wichtig auch da Inklusion von potentiell oder tatsächlich marginalisierten Bevölkerungsschichten und -Gruppen sei. Das gilt sowohl regional wie auch global. Denn laut Teilnehmenden ist inklusive KI nur möglich, wenn diese Technologien nicht nur in der Hand von ökonomisch entwickelten Ländern bleiben. Und dazu gehört gerade auch die Bekämpfung von so genanntem “Brain drain” durch lokale Initiativen.

Zu guter Letzt — und gleichzeitig einer der wichtigsten Punkte — betrifft die Gouvernanz von KI. So sehr die Teilnehmenden der Policy Kitchen bestimmte Betrachtungsweisen, Normen oder “Rezepte” vorgeschlagen haben, so sehr wurde immer wieder unterstrichen, wie wichtig für sie auch ein inklusiver Prozess beim Erstellen solche Normen und Strukturen sei.

Anders formuliert: Bei der Definition und Umsetzung von Inklusion ist nicht nur wichtig, was diese Definition besagt und wie sie umgesetzt wird, sondern ebenso, wer mitreden und mitbestimmen darf, wie Inklusion verstanden und umgesetzt wird.

Dieser letzte Punkt, der partizipatorische Gouvernanz, ist deswegen so spannend, weil dies ja auch unseren Anspruch mit der Policy Kitchen widerspiegelt. Es gibt inzwischen viele Richtlinien zu ethischer oder inklusiver KI. Aber der Prozess selber, wie ethische oder inklusive KI bestimmt wird, ist dabei oft aus den Augen verloren. Dabei ist der inklusive Prozess bei einer Technologie, die uns alle etwas angeht, mindestens ebenso wichtig.

Wir sind deswegen überzeugt, dass unser Bericht als einer der wenigen, der Daten aus der Zivilgesellschaft über das Verständnis von KI und Inklusion liefert, zur Diskussion über die gesellschaftlichen Aspekte von KI, und welche Normen und Strukturen wir aufbauen wollen, viel beitragen kann.


Den ganzen Report gibt es auf der Webseite von foraus.

1 thought on “Towards an inclusive future in AI: was bedeutet “inklusive Künstliche Intelligenz”?

  1. Pingback: Inclusive AI: empirical data from the civil society | Sociostrategy

Leave a comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.