Category Archives: Yours Truly

99 brilliant women in AI ethics… and I

I have just found out that I have been named one of 100 brilliant women in AI ethics. The Women in AI Ethics (WAIE) list is a global “list of 100 brilliant and inspiring women” issued once a year, and of course I am honored by the nomination. But I am even more thrilled by the fantastic company I find myself in. I mean: I am on the same list as danah boyd. Gina Neff. Anna Lauren Hoffmann. Abeba Birhane. And I could go on. Ninety-nine outstanding experts and amazing role-models from all over the world… and I.

It is a vertiginuous feeling. My ambiguity towards “AI ethics” are not exactly helpful here. (But as AI ethics seems definitely have become a thing, I should perhaps just embrace it, and drop the scare quotes?) Add to that my ambiguity towards top-ranking lists of any kind — the sociologist in me tends to be more curious about e.g. the categorization criteria and selection processes than the outcome…

Then again, it is Sunday morning, before my first coffee. And I have just been named a brilliant women in AI ethics among great company. I guess I’ll take it. ūüôā

Panel participation at the EASST/4S 2020 conference in virPrague (Aug 20)

Tomorrow (from where I am writing this) I will present some of my research at the joint conference of the European Association for the Study of Science and Technology and the Society for Social Studies of Science (4S). Originally planned in Prague from Aug 18-21, COVID-19 has made the conference move to virPrague, i.e. online. Unfortunately I had to miss out on the first day of the conference, but today I had the chance of attending a few presentations, all excellent by the way. I love to learn what others are working on and get new perspectives. Therefore, I am glad that I will again be able to be part of “my” conferences this autumn (also looking at you, AoIR2020). Despite the particular circumstances it is clear to me that virConference is always better than noConference.

More than anything else I owe my active participation at the EASST/4S 2020 conference to two fantastic scholarly colleagues. Elinor Carmi and Dan Kotilar masterfully responded to the conference theme “Locating and Timing Matters: Significance and Agency of STS in Emerging Worlds” by putting together a wonderful panel about “Contextualizing Algorithms in Time and Space” that I would want to attend even if I were not presenting. From the summary:

[W]hile the power of algorithms is unquestionably global, the exact temporal and spatial trajectories through which algorithms operate, and the specific socio-cultural contexts from which they arise, have been largely overlooked. This panel aims to address these gaps, and uncover the complex spatio-temporal contexts through which algorithms operate. We will ask: What is the role of locality, temporality, and culture in the creation and implementation of algorithms? How algorithms become localised to create ‚Äėpersonalized‚Äô experiences? What types of data are being used to contextualize people‚Äôs lives through platforms? and what gets filtered out in the process of datafication, and why?

Together with Taina Bucher (because, yes, I forgot to mention: the brilliant Taina Bucher is also part of our panel) we will talk about Facebook, Google, and a user-profiling company, about personalizing, profiling, and targeting, and about structures, timing, and practices. I am looking forward to it — if you intend to join, please say hi ūüôā

Although half of the conference is already over, the program of the next two days is still extremely rich. Are you attending EASST4S and would like some pointers? Please let me recommend the following panels and presentations by my STS Lab/STS-CH colleagues from Switzerland and my ex-colleagues from S&TS Cornell (apologies in advance to anyone I may have overlooked):

Thursday morning starts with food: at 10am (all times are Prague local times, i.e. CEST) you could attend The Follies of Scaling-up Processed Foods in India or Logics of Food Consumption, Choice and Politics on Digital Media, then Commercial and Temporal Logics of Digital Food at 12pm. In the afternoon, perhaps peek in on Comm Scholars in STS – Making it work as an interdisciplinary scholar before attending Locating And Timing Matters Of Attention Through Wikipedia: Technical, Epistemological And Political Considerations. (Re:the latest session, you need to know that it will be held in a flipped format, so you need to engage with the presentations beforehands.) At 8pm, in case you are not attending our panel, there are still at least two more Swiss STS presentations on offer: Charting the Political Epistemologies of Epigenetics and DOHaD and Architectonic Studies of Radio Signals: Reorganizing Archives of Data/Natures In Their Own Terms.

Friday starts at 10am with: New Patient‚Äôs Definition Shaped by Preventive Properties of HIV Drugs. At noon, there is Articulating Politics with Design and Technology: Public Space, Computation and Commoning, and a little later Scaling a ‚Äúglobal music platform‚ÄĚ: secret gigs, live music and the platform metaphor. At the end of the last conference day, a last difficult choice: between Another Type of Precision Oncology? Knowledge Production within a Platform of Cancer Immunotherapy in Switzerland, Cures, Harms & Medical Authority: Animating Side-Effects As Modes Of Resistance In Hepatitis C-Treatments and Locating South Asia in Social Studies of Science and Technology. All interesting, all relevant, although not necessarily linked to my immediate research topic. But even if I had to choose which session to attend based on topic or research area, I would hardly manage to come up with a satisfying schedule: there are so many parallel sessions happening! Impossible to attend everything I am interested in — just like with in-person conferences.

However, unlike in-person conferences there will be recordings available, it seems… great news!

Anna in action 2019: vom Swiss Economic Forum zur Business Innovation Week

Nachderm ich im Herbst 2018 aus den Vereinigten Staaten zur√ľck in die Schweiz gezogen bin, dachte ich, ich w√ľrde mich nun wieder langsam an mein neues altes Zuhause gew√∂hnen und alles ein bisschen ruhiger angehen. So im Sinne von Work-Life-Balance und so. Wenn ich nun aber auf dieses Jahr zur√ľckschaue merke ich, dass viel mehr los war als ich eigentlich vorhatte — und dass mir dabei pudelwohl war. “Ruhig angehen” scheint nicht unbedingt mein Ding zu sein…

Zus√§tzlich zu meiner Forschung und anderen arbeitsrelevanten Verpflichtungen habe ich n√§mlich begonnen, mich aktiver (und auch ohne direktes Forschungsimperatif) f√ľr Schweizer Wirschafts- und Innovationinitiativen zu interessieren. Denn homogene Umfelder sind selten f√∂rderlich, und Br√ľcken bauen ist enorm wichtig. Daher nun diese pers√∂nliche, in einem Bereich fokussierte Zusammenfassung von 2019:

Swiss Economic Forum & Swiss Innovation Forum

Dank pers√∂nlicher Empfehlungen (merci!) und meiner Affinit√§t f√ľr die sozialen Aspekte algorithmischer Systeme hatte ich die Gelegenheit, an beiden Foren in privilegierter Rolle teilzunehmen. Da es sich beide Male um sogenannte “closed door” Events handelte kann ich hier leider nicht viel mehr mitteilen.

Aber einen √∂ffentlichen Tweet einbinden darf ich schon, oder? ūüėČ

Sowohl inhaltlich wie auch hinsichtlich der Teilnehmenden waren dies zwei √ľberaus spannende Anl√§sse.

Shift 2019

Foto: Louis Rafael Rosenthal

An der Shift dreht sich alles um digital Ethik im Privatsektor. 2019 war die erste Ausgabe dieser Konferenz (und die Daten f√ľr 2020 stehen bereits fest). Auch wenn ich im Februar nicht in Topform war konnte ich pers√∂nlich doch viel von dieser einzigartigen Konferenz im deutschsprachigen Raum mitnehmen

Online Marketing Konferenz

An der Online Marketing Konferenz durfte ich √ľber Datenethik sprechen und dar√ľber, welche Ans√§tze heute wirklich innovativ w√§ren… A propos Datenethik: welche Metapher ist wohl im obigen Bild illustriert? (Und a propos Metaphern: Mein Beitrag war stark inspiriert von der tollen Analyse von Metaphern der beiden sozialwissenschaftlichen Internetresearcher Luke Stark und Anna Lauren Hoffmann, deren wissenschaftliche Publikation hier und ein vielleicht etwas zug√§nglicherer Artikel hier gelesen werden k√∂nnen.)


Auch an der Connecta liess man mich √ľber Datenethik und Innovation sprechen. Was mich besonders freute: mein Vortrag fand im Claude-Nicollier-Raum statt.

Auf dem Foto sieht man Claude Nicollier leider nicht, da er zwar auch auf der Mauer aber weiter rechts von mir abgebildet ist.

Business Innovation Week

An der Business Innovation Week sass ich zusammen mit zwei Gr√ľnliberalen und einem Microsoftangestellten in einem Panel mit einem eher merk-w√ľrdigen Namen und brachte alle drei zum Lachen.

Photo: Andreas Kriesi (via FB)

Was ich sagte, und warum ich meine Hand ausstreckte, weiss ich nicht mehr. Aber ich erinnere mich, dass vor dem Panel Andy Fitze einen tollen Vortrag √ľber die Komplementarit√§t von AI und Menschen hielt. (Andy, das Bild der “smartest” Kreuzung als Steigerung einer “smarten” Kreuzung hab ich immer noch im Kopf!)

Mal schauen, was 2020 in diesem Bereich so bringen wird… Bring it on!

Towards an inclusive future in AI: was bedeutet “inklusive K√ľnstliche Intelligenz”?

Dank Swissnex San Francisco, dem Think Tank foraus und AI Commons durfte ich bei der Ausarbeitung des Reports “Towards an inclusive future in AI. A global participatory process” mitarbeiten. (Hier geht es zum Report, sowie zu einem Kurzbeschrieb auf englisch.)

Am 22. Oktober 2019 fand in Bern eine Pressekonferenz stattfand, wo sowohl unser Report wie auch ein Positionspapier zum Thema AI, resp. zur Schnittstelle von AI Governance und der Schweiz (“Making Sense of Artificial Intelligence ‚Äď Why Switzerland Should Support a Scientific UN Panel to Assess the Rise of AI”), vorgestellt wurde.

Untenstehend das Transkript meiner deutschen Vorstellung unseres Reports “Towards an Inclusive Future in AI: A Global Participatory Process“.

K√ľnstliche Intelligenz geht uns alle etwas an.

Inklusion, Partizipation, Integration — all das sind wichtige Punkte f√ľr eine Technologie, die im Leben von allen Menschen eine immer wichtigere Rolle spielt. Das Prinzip der Inklusion ist tats√§chlich sehr wichtig: Es taucht auch in ethischen Richtlinien f√ľr k√ľnstliche Intelligenz auf der ganzen Welt immer wieder auf. Auf Seite 6 und 7 des Reports sehen Sie einige Beispiele wo und wie “Inklusion” in bestehenden Berichten auftaucht.

Was genau jedoch Inklusion bedeutet, und wie sie erreicht werden kann, sprich: wie Partizipation umgesetzt werden kann, ist eine offene, nicht ganz einfache Frage. Anstelle einer theoretischen Abhandlung haben wir mit Hilfe der Policy Kitchen in einem bottom-up Prozess verschiedene Menschen aus der Zivilgesellschaft auf der ganzen Welt gefragt: “was bedeutet inklusive KI — inklusive k√ľnstliche Intelligenz — f√ľr euch, und wie kann sie erreicht werden?”

Das Ergebnis zeigt, dass Inklusion nicht mit einem einzigen magischen Rezept erreicht werden kann. Auch unsere Teilnehmenden verbinden mit Inklusion verschiedene, sich gegenseitig ergänzende Ansätze, die jeweils auf verschiedenen Niveaus wirken.

Ich werde die einzelnen Ans√§tze nun mit ein wenig mehr Details beschreiben. Im Report finden Sie die Zusammenfassung auf Seite 9 als Aufz√§hlung, sowie ab Seite 22 als Schlussfolgerung (“Dessert”). Dabei m√∂chte ich noch einmal betonen, wie wichtig aus gesellschaftpolitischer Perpektive der Prozess war, der zu diesen Ergebnissen gef√ľhrt hat: Die Ans√§tze basieren auf Daten. Sie widerspiegeln die Auffassung von verschiedenen Menschen der Zivilgesellschaft in mehreren L√§ndern wieder.

Zum einen verbinden die Menschen mit Inklusion die Elimination von Bias. Bias — oder Verzerrung, Vorurteil oder Ungleichgewichtigkeit — innerhalb von Systemen mit k√ľnstlicher Intelligenz kommt zum Beispiel durch verzerrte Datenbest√§nde zu Stande. Bestehende soziale Vorurteile werden in Daten widergespiegelt und danach durch Maschinen verst√§rkt.

Gem√§ss unseren Teilnehmenden muss inklusive KI Vorurteilen aktiv entgegenwirken. Zur Vorbeugung, aber auch Behebung wurden einerseits technische Massnahmen vorgeschlagen, aber auch zum Beispiel Qualit√§tskontrollen diesbez√ľglich. Diese sollen zu verschiedenen Zeitpunkten w√§hrend der Entstehung, aber auch der Nutzung eines KI-Systems, systematisiert werden.

Auch erw√§hnt wurden organisatorische Neustrukturierung, zum Beispiel “inklusive Teams”, d.h. weniger sozial homogene Teams. Oder institutionalisierte M√∂glichkeiten f√ľr Nutzerinnen und Nutzer um Feedback √ľber Bias geben zu k√∂nnen.

Weitere Vorschl√§ge drehen sich um einen 2. Punkt: Datenzugang und offene Standards — Open Access und Open Standards. Inklusion wird verstanden als die M√∂glichkeit, Partizipation technisch zu erm√∂glichen. Denn wenn KI-Technologien in den H√§nden von Wenigen konzentriert sind, wird der Graben im Laufe der Zeit immer gr√∂sser: Je weiter fortgeschritten eine Organisation mit k√ľnstlicher Intelligenz bereits ist, umso gr√∂sser wird ihr Vorsprung.

Zugang zu Daten, offene Standards damit Daten — aber auch Systeme — genutzt, ja: weiterbenutzt werden k√∂nnen, verringern dieses Machtgef√§lle und f√ľhren zu vermehrter Partizipation bei der Herstellung.

A propos Machtgef√§lle, das bringt mich auch gleich zum dritten Punkt. Ab Seite 14 sehen Sie den wichtigen Punkt der Verringerung des Machtgef√§lles zwischen Unternehmen und Einzelpersonen. “User Rights and Transparency.”

Inklusion wird von vielen Menschen verstanden als aktives Arbeiten an der Verringerung dieses Machtgefälles. Die Vorschläge aus der Policy Kitchen in diesem Bereich betreffen vor allem Datensouveränität, Transparenz und Wahlmöglichkeit. Gerade der Wunsch nach Wahlmöglichkeit verbindet die Vorstellung von Inklusion mit einer weniger homogenen technischen Landschaft, wo Technologiehersteller nicht mehr unilateral die Funktionsweisen und Konditionen Ihre Systeme diktieren können.

Continue reading

Artificial Intelligence: how many AI principles or ethics guidelines are there and what do they say?

This is it: the study I had been working on all winter (together with my colleague Marcello and our professor Effy Vayena) was published in Nature Machine Intelligence. It is an in-depth review of a corpus of 84 documents consisting of (or containing) ethical principles for artificial intelligence. Although no single principles occurred in all documents, some are more prevalent than others — and others are strikingly underrepresented.

Here is a link to the article “The global landscape of AI ethics guidelines”: Unfortunately it is behind a paywall (and we were not able to select the option of having the article published Open Access), but if you get in touch via e-mail (anna.jobin at sociostrategy), on Social Media, or via ResearchGate, I will be more than happy to send you the article. (*)

This is what the abstract says:

In the past five years, private companies, research institutions and public sector organizations have issued principles and guidelines for ethical artificial intelligence (AI). However, despite an apparent agreement that AI should be ‚Äėethical‚Äô, there is debate about both what constitutes ‚Äėethical AI‚Äô and which ethical requirements, technical standards and best practices are needed for its realization. To investigate whether a global agreement on these questions is emerging, we mapped and analysed the current corpus of principles and guidelines on ethical AI. Our results reveal a global convergence emerging around five ethical principles (transparency, justice and fairness, non-maleficence, responsibility and privacy), with substantive divergence in relation to how these principles are interpreted, why they are deemed important, what issue, domain or actors they pertain to, and how they should be implemented. Our findings highlight the importance of integrating guideline-development efforts with substantive ethical analysis and adequate implementation strategies.

On twitter I have given a little more information about our findings in a short thread:

There are more tweets, and if you click on the date link you should be able to acces the whole thread.

Although we analyzed 84 documents, many more AI principles and ethics guidelines exist today. For one, there is the time difference between the time one submits the first version of an article to a journal and the moment it is published (peer-review and production take time, and I would like to add that NMI has been much faster than I, a qualitative social scientist, have been used to from other experiences). But there is also another catch-22, due to our research design: our in-depth analysis takes time, and while we were analyzing new guidelines, even more principles would be issued during that time. At one point we simply had to wrap up… This will also explain why our analysis only takes into account the version of the documents our methodology provided us with, and does not account for subsequent versions (the Montreal Declaration, for example, was in stakeholder consultation stage so our analysis is not about its final version).

Therefore, and for methodological reasons, we are only able to provide a snapshot in time. Yet we hope that our research can serve as an overview and a stepping stone for anyone involved with “ethical AI”, from researchers and scholars to technology developers to policy makers.

(*) FWIW we did post a pre-print version on, though I am compelled to highlight that the arXiv version is not identical with the NMI journal version: it is our author version, before peer-review, and in addition to the clarifying modifications we were able to make in the final version thanks to the reviewer comments, one document was initially wrongly attributed to the UK instead of the USA (something we were able to correct thanks to a generous reader comment).

Digitalkompetenzen im Kontext (uvm)

Am 8. Mai 2019 durfte ich auf Einladung der EMEK/COFEM (der eidgen√∂ssischen Medienkommission, resp. der commission f√©d√©rale des m√©dias) zusammen mit Friederike Tilemann den ersten Drittel eines √ľberaus spannenden Nachmittagsprogramms zum Thema “Streamingdienste und Plattformen: Herausforderungen f√ľr Medien & √Ėffentlichkeit” bestreiten. Wir thematisierten Medien- und Digitalkompetenzen, danach sprachen Judith M√∂ller und S√©bastien Noir √ľber die Relevanz von Algorithmen, und zuletzt widmeten sich Natascha Just und Wolfgang Schulz dem Thema Gouvernanz. Der Anlass war √∂ffentlich und gut besucht. Im Folgenden nun ein subjektiver Allerk√ľrzestbericht meinerseits, einschliesslich einer — wie ich doch hoffe — lesefreundlichen Version meiner Eingangspr√§sentation. Denn, wie heisst es so sch√∂n: sharing is caring.

Nach den Grussworten des EMEK/COFEM-Pr√§sidenten Otfried Jarren stellte Manuel Puppis den derzeitigen Stand des Arbeitspapiers der Kommission vor. Die Erkenntnisse des Tages sollen in die bevorstehende neue Version des Dokuments einfliessen. Dies habe, zusammen mit dem Wille zur F√∂rderung des √∂ffentlichen Dialogs, den heutigen Anlass motiviert. Danach teilte Friederike Tilemann ihr Expertenwissen √ľber Medienkompetenzen: gerade Heranwachsende brauchen sowohl Kompetenzen als auch Schutz, um gewinnbringend mit Medien umgehen zu k√∂nnen. Und erstere beinhalten nicht nur Nutzung, sondern auch Wissen, Kritikverm√∂gen, reflektiertes Handeln und Gestaltungsf√§higkeit.

Dadurch wurde mir nat√ľrlich ganz komfortabel ein Ball zugespielt, den ich nun ins Feld der Digitalisierung bringen konnte. Denn das meiste, was bisher zu Medienkompetenzen gesagt worden ist, bleibt wichtig und relevant. [Das ist √ľbrigens auch aus Genners “Kompetenzen und Grundwerte im digitalen Zeitalter” ersichtlich.] Ich biete keinen Widerspruch sondern Erg√§nzung an.

Meine Pr√§sentation ging ebenfalls auf die Frage ein, wie mit digitalen Medien umgegangen werden kann, aber aus einer etwas andern Perspektive. Mein Hintergrund ist einerseits in Soziologie, Volkswirtschaft und Wirtschaftsinformatik, andererseits bringe ich durch meine Vergangenheit als selbst√§ndige Social Media Beraterin auch praktische Erfahrungen mit. Untenstehend nun meine Folien — die ich, um der Mehrsprachigkeit der Schweiz an diesem gesamtschweizerischen Anlass wenigstens halbwegs gerecht zu werden, auf franz√∂sisch verfasst hatte — sowie ein ungef√§hres Transkript meiner 10min√ľtigen Pr√§sentation, angereichert mit Klammerbemerkungen und ein paar Links. Continue reading


Eine kurze Vorank√ľndigung in eigener Sache: Bald erscheint mein erster Essay in deutscher Sprache! Seit Jahren bin ich eher auf franz√∂sisch oder englisch unterwegs, und freue mich darum umso mehr √ľber die Gelegenheit, in meiner Muttersprache gelesen werden zu k√∂nnen.

Dies verdanke ich Politologin und Medienexpertin Adrienne Fichter, deren aktuelles Projekt ein Sachbuch √ľber die Schnittstelle von Digitalisierung und Politik ist. Als sie mich angefragt hat, ob ich zu ihrem Buch einen Text √ľber Algorithmen beisteuern w√ľrde, habe ich “Mein Steckenpferd!” geantwortet. “Gerne!”

Und so kommt es, dass im Buch “Smartphone-Demokratie”, das im Herbst im Verlag NZZ Libro erscheint, ein Kapitel von mir zu lesen sein wird.

“Smartphone-Demokratie” kann auf der Seite des Buchverlags vorbestellt werden. Offizielles Erscheinungsdatum ist der 16. September 2017.

Die Lekt√ľre der “Smartphone-Demokratie” lohnt sich bestimmt auch wegen der Vielzahl unterschiedlicher Themen, welche die Digitalisierung von unterschiedlichen Blickwinkeln aus angehen. Ein Vorgeschmack dazu gibt der Untertitel des Buches: #FakeNews #Facebook #Bots #Populismus #Weibo #Civictech

Spannend, nicht?