[French] Algorithmes: entretien et suggestions de lectures

Prologue

Un magazine grand public paru cette semaine m’a cité dans le cadre d’un dossier sur les algorithmes. Intitulé “Les algorithmes veulent-ils notre peau?”, il ne donne pas de réponse définitive à la question posée mais aborde le sujet sous plusieurs angles en donnant la parole à des spécialistes de différents domaines.

L’article a été rédigé peu avant les élections américaines mais son sujet ne pourrait guère être davantage au coeur de l’actualité: parmi d’autres thématiques brulantes (telles que notamment la responsabilité des médias et de leur approche journalistique, la fonction des sondages, les facteurs sociaux qui favorisent l’extremisme et l’autoritarianisme) le résultat surprenant de cette élection présidentielle a également attiré l’attention sur le rôle potentiellement joué par les plateformes en ligne et leur gestion algorithmique des news, vraies ou fausses.

Pour son dossier dans Femina, le journaliste Nicolas Poinsot m’avait posé sept questions dont seule une petite partie des réponses s’est retrouvée dans la version finale faute de place. Il m’a gentiment donné la permission de reproduire l’entretien dans son intégralité, que vous pouvez lire ci-dessous. La question de l’influence des plateformes numériques sur la politique actuelle n’y est pas abordée, mais en vue de l’actualité il me semble bon d’ajouter quelques propositions de lecture à la fin de ce billet.

L’entretien

– Quels domaines de notre vie sont concernés par les algorithmes?
AJ: Dès que nous utilisons internet, un outil numérique ou simplement un appareil automatisé, nous interagissons directement avec des systèmes algorithmiques. S’y ajoute l’influence indirecte des algorithmes, par exemple le fait que nous habitions un monde de plus en plus optimisé pour une gestion algorithmique, que nous en fassions usage ou non.

– Observe-t-on une augmentation de l’usage de ces algorithmes depuis ces dernières années. Et si oui pourquoi?
AJ: Oui, clairement, et c’est lié à la numérisation. Il convient d’en distinguer deux caractéristiques principales: d’un côté, les algorithmes numériques permettent d’automatiser un grand nombre de tâches et processus à coût relativement faible. De l’autre côté, il y a l’optimisation: grâce au traitement automatique des données numériques ces dernières peuvent être récoltées, stockées et exploitées de manière exhaustive et très ciblée.

– Quelles sont les évolutions et les excès possibles avec le “deep learning”?
Quand les algorithmes sont programmés pour décider eux-mêmes quelles données seront traitées, et quelle procédure de traitement y convient le mieux, il peut y avoir des résultats innovants et inattendus. Mais le processus pour obtenir ces résultats est devenu opaque, ce qui rend très difficile leur remise en question.

– Sur le web, les algorithmes n’ont-ils pas tendance à nous orienter, à nous conditionner, voire à nous enfermer?
AJ: Bien sûr, les algorithmes du web nous orientent, et ce n’est pas une mauvaise chose, bien au contraire. En vue de la masse d’informations il serait difficile de se repérer autrement.
Mais il est vrai également que ces algorithmes sont optimisés pour notre profil numérique et risquent donc effectivement de nous enfermer dans la bulle de ce que nous connaissons et/ou aimons déjà.

– Quelle part de libre-arbitre nous reste-t-il avec ces algorithmes qui nous proposent qui suivre, qui voir, qui aimer (comme sur Tinder)?
En tant que sociologue je ne peux pas me prononcer sur les aspects cognitifs, mais il est clair que nous dépendons des options offertes par les plateformes et services. Et souvent, les soucis ne résident pas forcément dans ce que ces algorithmes font, mais dans ce qu’ils ne font pas. Par exemple, vous n’avez aucune possibilité de savoir quelles suggestions (d’achat, de mise en contact, de résultat de recherche etc.) vous n’avez pas reçues.

– En quoi les algorithmes peuvent-ils s’avérer sexistes et causer du tort aux femmes?
AJ: De manière générale, tout préjudice ou inégalité sociale peut se retrouver encodé dans les algorithmes. Souvent, cela s’explique par le fait que les données qui informent les algorithmes ont été récoltées dans un monde inégal. Si vous automatisez, par exemple, le premier tri de votre recrutement sur la base de vos engagement antérieur, et que les dernières personnes engagées ont toutes été des hommes entre 30 et 40 ans, il y a peu de chances qu’un algorithme performant vous laissera le dossier d’une femme de 45 ans dans sa sélection pour le prochain tour. Et on pourrait citer un nombre infini d’exemples de ce type. Cependant, il faut garder en tête que ce ne sont pas les algorithmes qui s’inventent discriminatoire, mais qu’il y a des actions d’humains – des décisions individuelles mais aussi des actions collectives – qui les informent.

– Que sauront faire les algorithmes dans dix ans?
AJ: Je n’ai malheureusement pas ma boule de cristal sur moi, mais je crois qu’il y a en principe peu de limites à ce qui est techniquement possible. Donc au lieu de se demander ce que sauront faire les algorithmes je préférerais réfléchir à ce que nous voudrions qu’ils fassent.

Quelques propositions de lectures supplémentaires

 

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.