SGS-SSS: Call for papers // Appel à contributions

Tl;dr (in English): Together with a brilliant colleague of mine I organize a panel at the Congress of the Swiss Sociological Association (held in Zurich, June 21-23) about the political dimensions of digital platforms. Please consider contributing in English, German or French by February 20, 2017.

Cf. plus bas pour la version française.

Alle zwei Jahre findet der Kongress der Schweizerischen Gesellschaft für Soziologie statt, das nächste Mal am 21.-23. Juni in Zürich. Zusammen mit Loïse Bilat organisiere ich dort einen akademischen Workshop zum Thema der Informationsfragmentierung aus soziotechnischer Sicht. Der Workshop ist aus der Konvergenz unserer Forschungsinteressen heraus entstanden, denn meine Kollegin ist spezialisiert auf die Analyse ideologisches Gedankenguts, insbesondere der neoliberalen Ideologie. Dazu laden wir interessierte Forschende ein, ihre Ergebnisse und/oder Überlegungen auf englisch, deutsch oder französisch vorzustellen und zu diskutieren.

Common-Good-and-Self-Interest-Sociology-Switzerland-Conference

Hier unser “call for contributions”:

Politische Dimensionen digitaler Plattformen: ein soziotechnischer Ansatz der Informationsfragmentierung

Stichworte: Soziotechnik, STS, Medienepistemologie, Politische Soziologie, Ideengeschichte

Continue reading

[French] Algorithmes: entretien et suggestions de lectures

Prologue

Un magazine grand public paru cette semaine m’a cité dans le cadre d’un dossier sur les algorithmes. Intitulé “Les algorithmes veulent-ils notre peau?”, il ne donne pas de réponse définitive à la question posée mais aborde le sujet sous plusieurs angles en donnant la parole à des spécialistes de différents domaines.

L’article a été rédigé peu avant les élections américaines mais son sujet ne pourrait guère être davantage au coeur de l’actualité: parmi d’autres thématiques brulantes (telles que notamment la responsabilité des médias et de leur approche journalistique, la fonction des sondages, les facteurs sociaux qui favorisent l’extremisme et l’autoritarianisme) le résultat surprenant de cette élection présidentielle a également attiré l’attention sur le rôle potentiellement joué par les plateformes en ligne et leur gestion algorithmique des news, vraies ou fausses.

Pour son dossier dans Femina, le journaliste Nicolas Poinsot m’avait posé sept questions dont seule une petite partie des réponses s’est retrouvée dans la version finale faute de place. Il m’a gentiment donné la permission de reproduire l’entretien dans son intégralité, que vous pouvez lire ci-dessous. La question de l’influence des plateformes numériques sur la politique actuelle n’y est pas abordée, mais en vue de l’actualité il me semble bon d’ajouter quelques propositions de lecture à la fin de ce billet.

L’entretien

– Quels domaines de notre vie sont concernés par les algorithmes?
AJ: Dès que nous utilisons internet, un outil numérique ou simplement un appareil automatisé, nous interagissons directement avec des systèmes algorithmiques. S’y ajoute l’influence indirecte des algorithmes, par exemple le fait que nous habitions un monde de plus en plus optimisé pour une gestion algorithmique, que nous en fassions usage ou non.

– Observe-t-on une augmentation de l’usage de ces algorithmes depuis ces dernières années. Et si oui pourquoi?
AJ: Oui, clairement, et c’est lié à la numérisation. Il convient d’en distinguer deux caractéristiques principales: d’un côté, les algorithmes numériques permettent d’automatiser un grand nombre de tâches et processus à coût relativement faible. De l’autre côté, il y a l’optimisation: grâce au traitement automatique des données numériques ces dernières peuvent être récoltées, stockées et exploitées de manière exhaustive et très ciblée.

– Quelles sont les évolutions et les excès possibles avec le “deep learning”? Continue reading

Google Autocomplete revisited

Google autocomplete showing autocomplete suggestions for the search query "Google autocomplete re"«Did Google Manipulate Search for [presidential candidate]?» was the title of a video that showed up in my facebook feed. In it, the video host argued that upon entering a particular presidential candidate’s name into Google’s query bar, very specific autocomplete suggestions are not showing up although – according to the host – they should.

I will address the problems with this claim at a later point, but let’s start by noting that the argument was quickly picked up (and sometimes transformed) by blogs and news outlets alike, inspiring titles such as «Google searches for [candidate] yield favorable autocomplete results, report shows», «Did [candidate]’s campaign boost her image with a Google bomb?», «Google is manipulating search results in favor of [candidate]», and «Google Accused of Rigging Search Results to Favor [candidate]». (The perhaps most accurate title of the first wave of reporting is by the Washington Times, stating «Google accused of manipulating searches, burying negative stories about [candidate]».)

I could not help but notice the shift of focus from Google Autocomplete to Google Search results in some of the reporting, and there is of course a link between the two. But it is important to keep in mind that manipulating autocomplete suggestions is not the same as manipulating search results, and careless sweeping statements are no help if we want to understand what is going on, and what is at stake – which is what I had set out to do for the first time almost four years ago.

Indeed, Google Autocomplete is not a new topic. For me, it started in 2012, when my transition from entrepreneurship/consultant into academia was smoothed by a temporary appointment at the extremely dynamic, innovative DHLab. My supervising professor was a very rigorous mentor all while giving me great freedom to explore the topics I cared about. Between his expertise in artificial intelligence and digital humanities and my background in sociology, political economy and information management we identified a shared interest in researching Google Autocomplete algorithms. I presented the results of our preliminary study in Lincoln NE at DH2013, the annual conference of Digital Humanities. We argued that autocompletions can be considered “linguistic prosthesis” because they mediate between our thoughts and how we express these thought in written language. Furthermore, we underlined how mediation by autocompletion algorithms acts in a particularly powerful way because it intervenes before we have completed formulating our thoughts in writing and may therefore have the potential to influence actual search queries. A great paper by Baker & Potts, published in 2013, has come to the same conclusion and questions “the extent to which such algorithms inadvertently help to perpetuate negative stereotypes“.

Back to the video and its claim that, upon entering a particular presidential candidate’s name into Google’s query bar, very specific autocomplete suggestions are not showing up although they should. But why should they show up? The explanation Continue reading

Researching advertising algorithms

Almost two years ago, I published my personal contribution to the “Google’s Autocompletion algorithms discriminate against women” debate by adding some context about Google and about algorithms.

Today, I could write something very similar regarding the headlines informing us that, according to a recent study, Google’s advertising algorithms discriminate against women. And it is probably a handy opportunity to let you know that my phd research in social sciences – still ongoing – is precisely about interaction with Google’s advertising algorithms…

However, this blog post is not going to be about my research. But when I saw the headlines about “discriminating advertising algorithms” I simply couldn’t *not* blog about it.

Luckily, WIRED has already taken care of asking the very same question I asked in my 2013 blog post about Google’s autocompletion algorithms: who or what is to blame? In a short but discerning piece WIRED explains the complex configuration of Google AdSense:

Who—or What’s—to Blame?
While the study’s findings would suggest Google is enabling discrimination, the situation is much more complicated.

Currently, Google allows advertisers to target their ads based on gender. That means it’s possible for an advertiser promoting high-paying job listings to directly target men. However, Google’s algorithm may have also determined that men are more relevant for the position and made the decision on its own. And then there’s the possibility that user behavior taught Google to serve ads in this manner. It’s impossible to know if one party here is to blame or if it’s a combination of account targeting from all sources at play.

This configuration has allowed powerful companies to present their services as ‘platforms’, phenomenal and simultaneously neutral vessels of communication filled by numerous individual users’ actions only. Continue reading

Technology, innovation and society: five myths debunked

Recently, I held a lecture about the digital transformation for the franco-swiss CAS/EMBA program in e-tourism. The tourism industry not being my specialty, and the “social media” aspects having been thoroughly covered by colleagues,Media Technology old and new I had been specifically asked to convey a big picture view.

I chose to address some overall issues related to ICT (information & communication technology), innovation and society by debunking the following five myths:

  1. Ignoring the digital transformation is possible
  2. Technological progress is linear
  3. Connectivity is a given
  4. Virtual vs. “real” life
  5. Big Data – the answer to all our questions

Each of these points would deserve an treatise on its own, and I will not be able to go into much details in the scope of this article. I nevertheless wanted to share some of the links and references mentioned during my lecture and related to these issues. If you prefer reading the whole thing in French, please go to Enjeux technologiques et sociaux: cinq idées reçues à propos du numérique, which is the corresponding (but not literally translated) article in French.

Myth no. 1: Ignoring the digital transformation is possible

While discussions of online social networks have become mainstream, the digital transformation goes way beyond social media. It is about more than visible communication. It is about automation, computation, and algorithms. And as I have written before: algorithms are more than a technological issue because they involve not only automated data analysis, but also decision-making. In 1961 already, C.P. Snow said:

«Those who don’t understand algorithms, can’t understand how the decisions are made.»

In order to illustrate the vastness of computation and algorithmic automation I mentioned Frédéric Kaplan’s information mushroom (“champignon informationnel”), my explorations of Google Autocomplete, as well as the susceptibility of a job to be made redundant in the near future by machine learning and mobile robotics (cf. this scientific working paper, or the interactive visualisation derived from it).

Myth no. 2: Technological progress is linear

This point included a little history including sociology of knowledge and innovation studies.

Continue reading

[French] Enjeux technologiques et sociaux: 5 idées reçues à propos du numérique

Exceptionally, this article is in French. English speaking readers might want to head over to Technology, innovation and society: five myths debunked.

Cet article esquisse mon intervention dans un module de formation EMBA / CAS il y a quelques jours. Le but était de sensibiliser les participants aux enjeux des technologies de l’information comme sources d’innovations majeures et de les rendre attentifs à quelques enjeux sociaux des TIC. Afin qu’un tour d’horizon aussi vaste soit un tant soit peu digeste, j’ai décidé de le présenter en cinq chapitres qui démontent certaines idées reçues à propos du numérique:

  1. Il est possible d’ignorer le numérique
  2. Le progrès technologique est linéaire
  3. La connectivité est un acquis
  4. Il y a le virtuel et il y a la “vraie vie”
  5. Les “big data”: la solution à tout

En voici ci-dessous la présentation, et ensuite quelques phrases explicatives avec liens/références.

La présentation:

Idée reçue no. 1: Il est possible d’ignorer le numérique

Le domaine du numérique est souvent considéré uniquement dans une perspective communication/marketing, une perspective parfois réduite aux seuls sujets des sites web et des réseaux sociaux en ligne. Et alors qu’il est possible pour une entreprise notamment de se passer d’une page facebook en toute cohérence avec sa stratégie, il n’en est pas de même avec la dynamique et l’évolution numérique au sens large. Ce parce que la révolution numérique ne concerne de loin pas que les “social media”. Elle comprend toute sorte d’automatisation algorithmique. Une citation parlante à ce sujet a été dit par C.P. Snow en 1961 déjà et je l’avais reprise dans un billet précédent (en anglais) il y a deux ans et demi:

«Those who don’t understand algorithms, can’t understand how the decisions are made.»

Illustrant quelques enjeux d’automatisation algorithmique, j’ai mentionné le “champignon informationnel” de Frédéric Kaplan, mes explorations de Google Autocomplete, et les calculs de la “probabilité de remplaçabilité” d’un emploi (provenant d’un working paper scientifique, transformés en visualisation interactive) grâce aux avancées dans les domaines du machine learning et de la robotique mobile.

Idée reçue no. 2: Le progrès technologique est linéaire

Pour ce point, une petite plongée dans la sociologie de la connaissance et de la technologie:

Continue reading