Author Archives: Anna Jobin

About Anna Jobin

I like considering the bigger picture while keeping in mind that details matter.

11 links to dive into the ethics of artificial intelligence

So many links… The Swiss start-up Refind proposes to deal with them in new ways. Refind offers not only social bookmarking, but also curation. In their section “Deep dives”, experts share a link selection of approximately 10 articles in their domain.

When I was asked to provide ten such links about the ethics of artificial intelligence, I was delighted to do so. Delighted… but also challenged. Because it is impossible to do justice [pun intended] to “AI ethics” via 10 websites.

Therefore, my selection is not meant to be exhaustive but to be just that: a selection. Its aim is to provide a rich overview of crucial issues, perspectives and criticisms in the field of “AI ethics” to people who have not already been studying them. I invite you to not simply evaluate each article linked in isolation, but to see my selection as a collection that derives value from being more than the sum of its parts. I have come up with a list of links where each one contributes a different piece to the puzzle, which should be even more insighful if read in the suggested order. Continue reading

La gouvernance des contenus en ligne [in French]

La Radio Télévision Suisse (RTS) a demandé récemment mon avis suite à la suppression d’une de leurs vidéos sur/par YouTube. Comme c’était mon premier entretien télévisé, je me suis préparée (“sur-préparée”, d’après l’équipe, que je remercie d’ailleurs de leur encadrement patient) avec quelques notes sur le sujet.

Screenshot 19h30 RTS Anna Jobin

Après plusieurs prises et montage, j’ai fini par avoir mes 15 secondes de gloire au téléjournal de 19h30, ce qui est évidemment trop peu pour rendre compte de la complexité des enjeux. C’est pourquoi je partage ci-dessous quelques paragraphes issus de mes notes.

Dans mes activités de recherche j’ai rencontré trois problématiques principales qui me semblent importantes par rapport à ce sujet:

La gouvernance privée d’un bien public

Premièrement, il faut reconnnaître que la supression d’une émission journalistique par une plateforme en ligne n’est pas qu’un enjeu juridique. Sous le seul angle légal, il semble logique qu’une entreprise privée puisse agir d’après ses propres termes et conditions. Cependant, Continue reading

Des résultats de recherche problématiques [in French]

Pourquoi les résultats de recherche de Google sont-ils parfois sexistes, racistes, ou autrement problématiques? En 2019, j’ai eu le plaisir de répondre à quelques questions de la professeure Stéphanie Pache à ce sujet. Avec son autorisation, je publie ci-dessous l’entretien qui, je l’espère, saura apporter quelques notions de base sur le fonctionement du moteur de recherche, mais aussi sur les enjeux y liés, toujours aussi actuels.

***

L’effet Google

Entretien avec Anna Jobin, sociologue du numérique, qui travaille notamment sur nos interactions avec les algorithmes et les dimensions sociales de l’intelligence artificielle. Propos recueillis par Stéphanie Pache.

Peux-tu décrire ce qu’est un moteur de recherche et pourquoi tout un chacun devrait s’y intéresser?

Un moteur de recherche nous assiste à localiser l’endroit où se trouve l’information que nous cherchons. En Suisse, et dans la plupart des pays européens, une majorité de personnes qui cherchent de l’information en ligne utilisent Google pour ce faire. Depuis sa conception il y a plus que vingt ans, le nom de l’entreprise a fini par servir de verbe, “googler”, pour désigner le fait même de faire des recherches en ligne – un reflet de sa place dans notre quotidien. Dans le contexte de l’explosion d’informations se trouvant en ligne dans une forme numérique ou numérisée, Google a réussi à nous rendre un immense service qui est celui de nous diriger vers des sources souvent légitimes qui répondent plus ou moins à ce que nous cherchions.

Deux grands aspects restent problématiques: premièrement, le modèle d’affaire. En effet, Google est une entreprise à but lucratif, donc nos recherches d’informations nourissent également un système publicitaire complexe, qui a rapporté plus que 100 milliards de dollars en 2018.

Deuxièmement, la position de l’entreprise et le manque d’alternatives. Il est impossible de surestimer le pouvoir actuel de Google (et, en occurrence, de quelques autres entreprises du numérique). La multinationale dispose désormais d’énormément de données, de puissance de calcul, d’argent pour racheter d’autres entreprises, et de connexions avec le monde politique. En plus, ses différents Bloomberk Businessweek issue with Google's income statement on the cover, showing the prevalence of advertisingservices (cartographie, webmail, navigateur web, système d’exploitation pour n’en nommer que quelques-uns) créent des synergies importantes qui ont des effets secondaires considérables.

Comment ce système contribue à la reproduction des inégalités sociales?

Dans le cas de Google Search, il y a au moins trois dimensions qui entrent en compte. D’abord, il y a le niveau de la production de contenus en ligne, car le moteur de recherche ne peut indexer et lister que ce qui existe. Toutes les inégalités reflétées dans et véhiculées par les contenus web se retrouvent alors reproduites. Ainsi, pour donner deux exemples simples, une recherche image du terme “PDG” vous montrera avant tout des images d’hommes blancs, et la recherche image “couple” résultera en une majorité de photos de couples hétérosexuels composés de personnes cis-genres et tout aussi blanches.

Ensuite, il y a une canalisation des usages basée sur les actions passées des personnes utilisant le moteur de recherche: par exemple, l’auto-remplissage, c’est-à-dire les propositions de recherche, s’appuient sur l’ensemble des recherches ayant été effectuées auparavant et tendent donc à reproduire des stéréotypes existants comme propositions de recherche désirables.

Finalement, la programmation et le design du moteur de recherche même agissent sur notre vie et la manière dont nous appréhendons le monde. Non seulement des décisions prises par des humains qui ont une influence, mais aussi des logiques algorithmiques. Un système d’identification de contenus web basé sur des mots-clés risque, par exemple, de perpétuer une stratification de l’accès à l’information en fonction du vocabulaire d’une personne. De plus, les algorithmes de Google favorisent les sites déjà bien connus, qui reçoivent encore davantage d’attention (et inversement).

Quelles actions peut-on imaginer contre ces effets et leur production?

De manière générale il faut davantage de diversité et créer des possibilités pour de vraies alternatives. Cela concerne Google tout autant que notre société, car les deux se nourrissent mutuellement. Davantage de diversité parmi les gens qui créent les outils que nous utilisons au quotidien, dans la production de contenus web, et là où les décisions sont prises. L’appel à de vraies alternatives quant à lui suggère une remise en question de notre rapport à l’information en ligne et de sa gouvernance.

Nos sociétés ont, il y a longtemps, reconnu l’accès à l’information comme valeur fondamental, et le meilleur exemple en sont nos bibliothèques publiques. Aujourd’hui, nous devons repenser comment nous souhaitons façonner non seulement l’accès, mais aussi la participation à la production et à la circulation des informations.

***

Cet entretien a paru en automne 2019 dans la publication Pages de gauche, no 173. Le numéro était dédié au sujet “Toute technique est politique” et est téléchargeable sur le site de la publication.

Why Dr. Timnit Gebru is important for all of us

Because its products and services permeate our lives, Google has tremendous power. If the company cannot even pretend to care about its internal “Ethical AI” co-leader, how much do you think they care about the rest of us?

***

Dr. Timnit Gebru and I do not know each other. I have never met her and she probably is not even aware I exist. And yet, she is very important in my life. Not only in my life, but in your life, too. Indeed, I believe Dr. Gebru is extremely significant for everyone and I will explain why below.

Before that, let me recap briefly what happened last week that inspired me to write this, in case you have never heard of Dr. Gebru before. (It is very well possible that you have not — as I may not have if I weren’t researching the social aspects of algorithmic systems for a living.) However, you certainly know Dr. Gebru’s former employer: Google. You may even have heard of her area of work: at Google, Dr. Gebru used to be the co-lead of the Ethical AI team. And maybe, just maybe, you have even heard of her ground-breaking research (with Joy Buolamwini) demonstrating how face recognition algorithms are most accurate for faces that are male and caucasian and perform terribly for people of color, especially women. [Dr. Gebru’s record goes far beyond this one example I picked. Yet it is the one I have heard and seen mentioned most frequently as the go-to example in industry, policy and public discussions of “algorithms are not neutral”.]

On the morning of December 3, I checked my twitter feed and discovered Timnit Gebru’s tweet, published a few hours prior, announcing her discovery that Google had fired her. She wrote that her employment had been terminated immediately with reference to an email to an internal mailing list.

The news spread like a wild fire and, within hours, disputes over details and definitions broke out. What exactly did her email to the mailing list say? Was this the real reason she was fired by Google? Was she actually fired or did she resign? And even if she was fired: did she deserve to be fired? But here’s the thing: although some of the answers to these questions are informative (and even the questions themselves are very telling!), I will not discuss internal e-mails and information about individual people at Google here. For the point I am trying to make, none of them really matter.

***

Google is still Continue reading

99 brilliant women in AI ethics… and I

I have just found out that I have been named one of 100 brilliant women in AI ethics. The Women in AI Ethics (WAIE) list is a global “list of 100 brilliant and inspiring women” issued once a year, and of course I am honored by the nomination. But I am even more thrilled by the fantastic company I find myself in. I mean: I am on the same list as danah boyd. Gina Neff. Anna Lauren Hoffmann. Abeba Birhane. And I could go on. Ninety-nine outstanding experts and amazing role-models from all over the world… and I.

It is a vertiginuous feeling. My ambiguity towards “AI ethics” are not exactly helpful here. (But as AI ethics seems definitely have become a thing, I should perhaps just embrace it, and drop the scare quotes?) Add to that my ambiguity towards top-ranking lists of any kind — the sociologist in me tends to be more curious about e.g. the categorization criteria and selection processes than the outcome…

Then again, it is Sunday morning, before my first coffee. And I have just been named a brilliant women in AI ethics among great company. I guess I’ll take it. :)

Das Sozialwesen und die Digitalisierung am Hack4SocialGood

Die Digitalisierung betrifft immer stärker immer mehr Lebensbereiche. Nicht überall jedoch ist die Digitalisierung mit ihren Eigenheiten, Möglichkeiten und Herausforderungen gleich bekannt. Und umgekehrt kennen sich auch jene mit Digitalisierungsexpertise nicht automatisch in allen Lebensbereichen aus. Diese Differenzen gilt es auszugleichen, und die Berner Fachhochschule (BFH) leisted mit der Organisation von Hack4SocialGood einen Beitrag genau dazu.

Warum ich darüber schreibe? Der Zufall will es, dass ich exakt einen Monat nach meiner Inputkeynote für #GovAfterShock wieder an die BFH zurückkehren darf. (Nur theoretisch, natürlich — coronabedingt findet auch dieser Anlass online statt.) Dieses Mal mit einem Kurzvortrag zum Thema “Digitale Ethik” bei ebendiesem Anlass: Hack4SocialGood.

Es handelt sich hierbei um einen Innovationsworkshop für eine inklusive Digitalisierung in der Form eines Hackathons, unterstützt von der Open Knowledge Foundation, Sozialinfo.ch, der Universität Bern, Caritas Schweiz und Innosuisse. Die Anmeldefrist läuft noch bis zum 06. Dezember 2020.

Illustrationsfoto des Events (von https://www.bfh.ch/de/aktuell/veranstaltungen/hack4socialgood/ )

Auf dem Blog Knoten & Maschen findet sich ein aufschlussreiches Interview zum Event, das auch mehr Informationen und Hintergründe liefert. Die Eventwebseite ist hier: https://www.bfh.ch/de/aktuell/veranstaltungen/hack4socialgood/.

Hack4SocialGood kann spannend sein für Menschen sowohl aus dem sozialen Umfeld wie auch für jene mit Expertise in Innovation und digitaler Technologie. Der Anlass selber ist ein Kooperationsprojekt der drei Departemente Soziale Arbeit, Wirtschaft sowie Technik und Informatik. Ich bin selber gespannt auf die Ergebnisse, die dank solcher Synergien entstehen werden. Denn die Digitalisierung geht einerseits alle etwas an und kann andererseits auch von allen etwas lernen.

#GovAfterShock: our digital future

In my research, I tend to focus more on the present than on the future. After all, I’m a sociologist, not a futurist. However, the present can tell us a lot about the future: our plans today indicate the future we are anticipating; our dreams today describe the future we are hoping for; our actions today contribute to creating the future that will be.

I’m not only a sociologist, but also a Internet researcher. The annual conference of AoIR (the Association of Internet Researchers), which has taken place during the past days and revived me to a point I am not able to put in words yet, was a stark reminder of that.

As society is, increasingly, also digital, so is our focus on digital futures: the ones we fear, the ones we create, and the ones we desire.

Following the beginning of the COVID-19 crisis in 2020, the OECD Observatory of Public Sector Innovation has created a global initiative called Government After Shock, inviting a global conversation on what we can learn from the COVID-19 crisis, what we want to keep, what we want to leave behind, and what we want do differently. The Bern University of Applied Sciences, together with Flux Compass (Hong Kong), contribute to #GovAfterShock with a workshop on the topic of Trust across borders.

The workshop on Nov 11, 2020, will invite us to stop and think about what we can learn from the COVID-19 crisis, and how we want to go forward with respect to our digital future. Its goal is to co-create a message to governments on the future we desire.

Organized and hosted by Angelina Dungga and Anna Simpson, the event includes two keynote inputs, one by Séverine Arsène and one by yours truly. I’m really excited about Dr. Arsène’s talk, because she will propose three directions for reflection, around concepts of scope, pace, and method: How much of our futures do we want to be digital? How fast, or slow, do we need to move towards our digital futures? And what kind of democratic procedures will ensure that we get the digital futures that we want?

In my own talk, I will present existing phenomena to show that people express their values and preferences in many ways. As I have already stated for this article on the Forum for the Future: To include civil society in policy-making also means actively accounting for the values and preferences of people whose voice may not usually be heard. I will therefore present some examples of what can we learn from today about a future that is desirable for civil society.

Because the future is, supposedly, already here, just not evenly distributed.