Die Ausgangslage, in einem Satz zusammengefasst: Am Dienstag letzte Woche publizierte das Future of Life Institute (FLI) einen offenen Brief, unterzeichnet sowohl durch respektable Wissenschaftler als auch Charaktere wie EIon Mvsk, der auf die Gefahr von “menschenähnlicher Künstlicher Intelligenz” hinweist und unter anderem einen sechsmonatigen Entwicklungsstop von allen KI-Systemen fordert, welche intelligenter seien als GPT-4.
Der offene Brief des Future of Life Instituts ist Augenwischerei: Er beschreibt eine Phantasiewelt, in der bisherige KI bis auf ein paar technische Updates problemfrei ist und sechs Monate Entwicklungsstopp genügen, um geeignete regulatorische Rahmenbedingungen für die angeblich unausweichliche Superintelligenz zu schaffen.
So werden die Probleme von heute existierenden Systemen nicht nur ignoriert, sondern verharmlost. Das Superintelligenz-Thema gehört in Philosophieseminare und nicht in die Politik.
Auch ist der alleinige Fokus des Briefs auf die Entwicklungsstufe von KI sehr kurzsichtig. Seltsamerweise wird keine Einschränkung beim Einsatz gefordert, obwohl bei KI der Kontext der Anwendung mindestens genauso wichtig ist wie die Entstehung.
Schon fast zynisch mutet die Erwähnung von grundsätzlich sinnvollen Massnahmen wie Audits oder Kennzeichnung an, wenn sich unter den Erstunterzeichner Entscheidungsträger finden, die solche selbst nie eingeführt haben.
Und obwohl im Brief richtigerweise steht, dass wichtige Entscheidungen nicht ungewählten Tech Leadern überlassen werden sollten, erreicht die Publikation nun genau das Gegenteil: Agenda Setting durch Tech Leader.
Ebenfalls am Freitag publizierten übrigens auch die Autorinnen des wegweisenden KI-Artikels “Stochastic parrots” ein Statement, das den offenen Brief des FLI ebenfalls kritisiert und zudem fundiert erklärt, warum die hypothetische Schwarzmalerei von zukünftiger machtvoller KI schädlich ist.
I have just found out that I have been named one of 100 brilliant women in AI ethics. The Women in AI Ethics (WAIE) list is a global “list of 100 brilliant and inspiring women” issued once a year, and of course I am honored by the nomination. But I am even more thrilled by the fantastic company I find myself in. I mean: I am on the same list as danah boyd. Gina Neff. Anna Lauren Hoffmann. Abeba Birhane. And I could go on. Ninety-nine outstanding experts and amazing role-models from all over the world… and I.
It is a vertiginuous feeling. My ambiguity towards “AI ethics” are not exactly helpful here. (But as AI ethics seems definitely have become a thing, I should perhaps just embrace it, and drop the scare quotes?) Add to that my ambiguity towards top-ranking lists of any kind — the sociologist in me tends to be more curious about e.g. the categorization criteria and selection processes than the outcome…
Then again, it is Sunday morning, before my first coffee. And I have just been named a brilliant women in AI ethics among great company. I guess I’ll take it. :)
Tomorrow (from where I am writing this) I will present some of my research at the joint conference of the European Association for the Study of Science and Technology and the Society for Social Studies of Science (4S). Originally planned in Prague from Aug 18-21, COVID-19 has made the conference move to virPrague, i.e. online. Unfortunately I had to miss out on the first day of the conference, but today I had the chance of attending a few presentations, all excellent by the way. I love to learn what others are working on and get new perspectives. Therefore, I am glad that I will again be able to be part of “my” conferences this autumn (also looking at you, AoIR2020). Despite the particular circumstances it is clear to me that virConference is always better than noConference.
More than anything else I owe my active participation at the EASST/4S 2020 conference to two fantastic scholarly colleagues. Elinor Carmi and Dan Kotilar masterfully responded to the conference theme “Locating and Timing Matters: Significance and Agency of STS in Emerging Worlds” by putting together a wonderful panel about “Contextualizing Algorithms in Time and Space” that I would want to attend even if I were not presenting. From the summary:
[W]hile the power of algorithms is unquestionably global, the exact temporal and spatial trajectories through which algorithms operate, and the specific socio-cultural contexts from which they arise, have been largely overlooked. This panel aims to address these gaps, and uncover the complex spatio-temporal contexts through which algorithms operate. We will ask: What is the role of locality, temporality, and culture in the creation and implementation of algorithms? How algorithms become localised to create ‘personalized’ experiences? What types of data are being used to contextualize people’s lives through platforms? and what gets filtered out in the process of datafication, and why?
Together with Taina Bucher (because, yes, I forgot to mention: the brilliant Taina Bucher is also part of our panel) we will talk about Facebook, Google, and a user-profiling company, about personalizing, profiling, and targeting, and about structures, timing, and practices. I am looking forward to it — if you intend to join, please say hi :)
Although half of the conference is already over, the program of the next two days is still extremely rich. Are you attending EASST4S and would like some pointers? Please let me recommend the following panels and presentations by my STS Lab/STS-CH colleagues from Switzerland and my ex-colleagues from S&TS Cornell (apologies in advance to anyone I may have overlooked):
Nachderm ich im Herbst 2018 aus den Vereinigten Staaten zurück in die Schweiz gezogen bin, dachte ich, ich würde mich nun wieder langsam an mein neues altes Zuhause gewöhnen und alles ein bisschen ruhiger angehen. So im Sinne von Work-Life-Balance und so. Wenn ich nun aber auf dieses Jahr zurückschaue merke ich, dass viel mehr los war als ich eigentlich vorhatte — und dass mir dabei pudelwohl war. “Ruhig angehen” scheint nicht unbedingt mein Ding zu sein…
Zusätzlich zu meiner Forschung und anderen arbeitsrelevanten Verpflichtungen habe ich nämlich begonnen, mich aktiver (und auch ohne direktes Forschungsimperatif) für Schweizer Wirschafts- und Innovationinitiativen zu interessieren. Denn homogene Umfelder sind selten förderlich, und Brücken bauen ist enorm wichtig. Daher nun diese persönliche, in einem Bereich fokussierte Zusammenfassung von 2019:
Swiss Economic Forum & Swiss Innovation Forum
Dank persönlicher Empfehlungen (merci!) und meiner Affinität für die sozialen Aspekte algorithmischer Systeme hatte ich die Gelegenheit, an beiden Foren in privilegierter Rolle teilzunehmen. Da es sich beide Male um sogenannte “closed door” Events handelte kann ich hier leider nicht viel mehr mitteilen.
Sowohl inhaltlich wie auch hinsichtlich der Teilnehmenden waren dies zwei überaus spannende Anlässe.
Shift 2019
An der Shift dreht sich alles um digital Ethik im Privatsektor. 2019 war die erste Ausgabe dieser Konferenz (und die Daten für 2020 stehen bereits fest). Auch wenn ich im Februar nicht in Topform war konnte ich persönlich doch viel von dieser einzigartigen Konferenz im deutschsprachigen Raum mitnehmen
Online Marketing Konferenz
An der Online Marketing Konferenz durfte ich über Datenethik sprechen und darüber, welche Ansätze heute wirklich innovativ wären… A propos Datenethik: welche Metapher ist wohl im obigen Bild illustriert? (Und a propos Metaphern: Mein Beitrag war stark inspiriert von der tollen Analyse von Metaphern der beiden sozialwissenschaftlichen Internetresearcher Luke Stark und Anna Lauren Hoffmann, deren wissenschaftliche Publikation hier und ein vielleicht etwas zugänglicherer Artikel hier gelesen werden können.)
Connecta
Auch an der Connecta liess man mich über Datenethik und Innovation sprechen. Was mich besonders freute: mein Vortrag fand im Claude-Nicollier-Raum statt.
Auf dem Foto sieht man Claude Nicollier leider nicht, da er zwar auch auf der Mauer aber weiter rechts von mir abgebildet ist.
Business Innovation Week
An der Business Innovation Week sass ich zusammen mit zwei Grünliberalen und einem Microsoftangestellten in einem Panel mit einem eher merk-würdigen Namen und brachte alle drei zum Lachen.
Was ich sagte, und warum ich meine Hand ausstreckte, weiss ich nicht mehr. Aber ich erinnere mich, dass vor dem Panel Andy Fitze einen tollen Vortrag über die Komplementarität von AI und Menschen hielt. (Andy, das Bild der “smartest” Kreuzung als Steigerung einer “smarten” Kreuzung hab ich immer noch im Kopf!)
Mal schauen, was 2020 in diesem Bereich so bringen wird… Bring it on!
Am 22. Oktober 2019 fand in Bern eine Pressekonferenz stattfand, wo sowohl unser Report wie auch ein Positionspapier zum Thema AI, resp. zur Schnittstelle von AI Governance und der Schweiz (“Making Sense of Artificial Intelligence – Why Switzerland Should Support a Scientific UN Panel to Assess the Rise of AI”), vorgestellt wurde.
Untenstehend das Transkript meiner deutschen Vorstellung unseres Reports “Towards an Inclusive Future in AI: A Global Participatory Process“.
Künstliche Intelligenz geht uns alle
etwas an.
Inklusion, Partizipation, Integration — all das sind wichtige Punkte für eine Technologie, die im Leben von allen Menschen eine immer wichtigere Rolle spielt. Das Prinzip der Inklusion ist tatsächlich sehr wichtig: Es taucht auch in ethischen Richtlinien für künstliche Intelligenz auf der ganzen Welt immer wieder auf. Auf Seite 6 und 7 des Reports sehen Sie einige Beispiele wo und wie “Inklusion” in bestehenden Berichten auftaucht.
Was genau jedoch Inklusion bedeutet, und wie sie erreicht werden kann, sprich: wie Partizipation umgesetzt werden kann, ist eine offene, nicht ganz einfache Frage. Anstelle einer theoretischen Abhandlung haben wir mit Hilfe der Policy Kitchen in einem bottom-up Prozess verschiedene Menschen aus der Zivilgesellschaft auf der ganzen Welt gefragt: “was bedeutet inklusive KI — inklusive künstliche Intelligenz — für euch, und wie kann sie erreicht werden?”
Das Ergebnis zeigt, dass Inklusion nicht mit einem einzigen magischen Rezept erreicht werden kann. Auch unsere Teilnehmenden verbinden mit Inklusion verschiedene, sich gegenseitig ergänzende Ansätze, die jeweils auf verschiedenen Niveaus wirken.
Ich werde die einzelnen Ansätze nun mit ein wenig mehr Details beschreiben. Im Report finden Sie die Zusammenfassung auf Seite 9 als Aufzählung, sowie ab Seite 22 als Schlussfolgerung (“Dessert”). Dabei möchte ich noch einmal betonen, wie wichtig aus gesellschaftpolitischer Perpektive der Prozess war, der zu diesen Ergebnissen geführt hat: Die Ansätze basieren auf Daten. Sie widerspiegeln die Auffassung von verschiedenen Menschen der Zivilgesellschaft in mehreren Ländern wieder.
Zum einen verbinden die Menschen mit Inklusion die Elimination von Bias. Bias — oder Verzerrung, Vorurteil oder Ungleichgewichtigkeit — innerhalb von Systemen mit künstlicher Intelligenz kommt zum Beispiel durch verzerrte Datenbestände zu Stande. Bestehende soziale Vorurteile werden in Daten widergespiegelt und danach durch Maschinen verstärkt.
Gemäss unseren Teilnehmenden muss inklusive KI Vorurteilen aktiv entgegenwirken. Zur Vorbeugung, aber auch Behebung wurden einerseits technische Massnahmen vorgeschlagen, aber auch zum Beispiel Qualitätskontrollen diesbezüglich. Diese sollen zu verschiedenen Zeitpunkten während der Entstehung, aber auch der Nutzung eines KI-Systems, systematisiert werden.
Auch erwähnt wurden organisatorische Neustrukturierung, zum Beispiel “inklusive Teams”, d.h. weniger sozial homogene Teams. Oder institutionalisierte Möglichkeiten für Nutzerinnen und Nutzer um Feedback über Bias geben zu können.
Weitere Vorschläge drehen sich um einen 2. Punkt: Datenzugang und offene Standards — Open Access und Open Standards. Inklusion wird verstanden als die Möglichkeit, Partizipation technisch zu ermöglichen. Denn wenn KI-Technologien in den Händen von Wenigen konzentriert sind, wird der Graben im Laufe der Zeit immer grösser: Je weiter fortgeschritten eine Organisation mit künstlicher Intelligenz bereits ist, umso grösser wird ihr Vorsprung.
Zugang zu Daten, offene Standards
damit Daten — aber auch Systeme — genutzt, ja: weiterbenutzt werden können,
verringern dieses Machtgefälle und führen zu vermehrter Partizipation bei der
Herstellung.
A propos Machtgefälle, das bringt mich auch gleich zum dritten Punkt. Ab Seite 14 sehen Sie den wichtigen Punkt der Verringerung des Machtgefälles zwischen Unternehmen und Einzelpersonen. “User Rights and Transparency.”
Inklusion wird von vielen Menschen verstanden als aktives Arbeiten an der Verringerung dieses Machtgefälles. Die Vorschläge aus der Policy Kitchen in diesem Bereich betreffen vor allem Datensouveränität, Transparenz und Wahlmöglichkeit. Gerade der Wunsch nach Wahlmöglichkeit verbindet die Vorstellung von Inklusion mit einer weniger homogenen technischen Landschaft, wo Technologiehersteller nicht mehr unilateral die Funktionsweisen und Konditionen Ihre Systeme diktieren können.
This is it: the study I had been working on all winter (together with my colleague Marcello and our professor Effy Vayena) was published in Nature Machine Intelligence. It is an in-depth review of a corpus of 84 documents consisting of (or containing) ethical principles for artificial intelligence. Although no single principles occurred in all documents, some are more prevalent than others — and others are strikingly underrepresented.
In the past five years, private companies, research institutions and public sector organizations have issued principles and guidelines for ethical artificial intelligence (AI). However, despite an apparent agreement that AI should be ‘ethical’, there is debate about both what constitutes ‘ethical AI’ and which ethical requirements, technical standards and best practices are needed for its realization. To investigate whether a global agreement on these questions is emerging, we mapped and analysed the current corpus of principles and guidelines on ethical AI. Our results reveal a global convergence emerging around five ethical principles (transparency, justice and fairness, non-maleficence, responsibility and privacy), with substantive divergence in relation to how these principles are interpreted, why they are deemed important, what issue, domain or actors they pertain to, and how they should be implemented. Our findings highlight the importance of integrating guideline-development efforts with substantive ethical analysis and adequate implementation strategies.
On twitter I have given a little more information about our findings in a short thread:
There are more tweets, and if you click on the date link you should be able to acces the whole thread.
Although we analyzed 84 documents, many more AI principles and ethics guidelines exist today. For one, there is the time difference between the time one submits the first version of an article to a journal and the moment it is published (peer-review and production take time, and I would like to add that NMI has been much faster than I, a qualitative social scientist, have been used to from other experiences). But there is also another catch-22, due to our research design: our in-depth analysis takes time, and while we were analyzing new guidelines, even more principles would be issued during that time. At one point we simply had to wrap up… This will also explain why our analysis only takes into account the version of the documents our methodology provided us with, and does not account for subsequent versions (the Montreal Declaration, for example, was in stakeholder consultation stage so our analysis is not about its final version).
Therefore, and for methodological reasons, we are only able to provide a snapshot in time. Yet we hope that our research can serve as an overview and a stepping stone for anyone involved with “ethical AI”, from researchers and scholars to technology developers to policy makers.
(*) FWIW we did post a pre-print version on arXiv.org, though I am compelled to highlight that the arXiv version is not identical with the NMI journal version: it is our author version, before peer-review, and in addition to the clarifying modifications we were able to make in the final version thanks to the reviewer comments, one document was initially wrongly attributed to the UK instead of the USA (something we were able to correct thanks to a generous reader comment).
Am 8. Mai 2019 durfte ich auf Einladung der EMEK/COFEM (der eidgenössischen Medienkommission, resp. der commission fédérale des médias) zusammen mit Friederike Tilemann den ersten Drittel eines überaus spannenden Nachmittagsprogramms zum Thema “Streamingdienste und Plattformen: Herausforderungen für Medien & Öffentlichkeit” bestreiten. Wir thematisierten Medien- und Digitalkompetenzen, danach sprachen Judith Möller und Sébastien Noir über die Relevanz von Algorithmen, und zuletzt widmeten sich Natascha Just und Wolfgang Schulz dem Thema Gouvernanz. Der Anlass war öffentlich und gut besucht. Im Folgenden nun ein subjektiver Allerkürzestbericht meinerseits, einschliesslich einer — wie ich doch hoffe — lesefreundlichen Version meiner Eingangspräsentation. Denn, wie heisst es so schön: sharing is caring.
Nach den Grussworten des EMEK/COFEM-Präsidenten Otfried Jarren stellte Manuel Puppis den derzeitigen Stand des Arbeitspapiers der Kommission vor. Die Erkenntnisse des Tages sollen in die bevorstehende neue Version des Dokuments einfliessen. Dies habe, zusammen mit dem Wille zur Förderung des öffentlichen Dialogs, den heutigen Anlass motiviert. Danach teilte Friederike Tilemann ihr Expertenwissen über Medienkompetenzen: gerade Heranwachsende brauchen sowohl Kompetenzen als auch Schutz, um gewinnbringend mit Medien umgehen zu können. Und erstere beinhalten nicht nur Nutzung, sondern auch Wissen, Kritikvermögen, reflektiertes Handeln und Gestaltungsfähigkeit.
Dadurch wurde mir natürlich ganz komfortabel ein Ball zugespielt, den ich nun ins Feld der Digitalisierung bringen konnte. Denn das meiste, was bisher zu Medienkompetenzen gesagt worden ist, bleibt wichtig und relevant. [Das ist übrigens auch aus Genners “Kompetenzen und Grundwerte im digitalen Zeitalter” ersichtlich.] Ich biete keinen Widerspruch sondern Ergänzung an.
Meine Präsentation ging ebenfalls auf die Frage ein, wie mit digitalen Medien umgegangen werden kann, aber aus einer etwas andern Perspektive. Mein Hintergrund ist einerseits in Soziologie, Volkswirtschaft und Wirtschaftsinformatik, andererseits bringe ich durch meine Vergangenheit als selbständige Social Media Beraterin auch praktische Erfahrungen mit. Untenstehend nun meine Folien — die ich, um der Mehrsprachigkeit der Schweiz an diesem gesamtschweizerischen Anlass wenigstens halbwegs gerecht zu werden, auf französisch verfasst hatte — sowie ein ungefähres Transkript meiner 10minütigen Präsentation, angereichert mit Klammerbemerkungen und ein paar Links. Continue reading →