
Des restaurants tendances aux plans des villes, en passant par les flux TikTok et Netflix qui envahissent le monde entier, les recommandations algorithmiques dictent nos expériences et nos choix. L’algorithme est présent dans les enseignes au néon et les briques apparentes des cafés Internet, que ce soit à Nairobi ou à Portland, ainsi que dans le mobilier moderne et épuré des Airbnb dans les grandes et petites villes. Au cours de la dernière décennie, ce réseau de décisions mathématiquement déterminées a pris le dessus, presque sans qu’on s’en rende compte, influençant les chansons que nous écoutons, les amis avec qui nous restons en contact alors que nous sommes de plus en plus habitués à notre nouvelle normalité insipide.
Cette toile de plus en plus serrée tissée par les algorithmes s’appelle « Filterworld ». Kyle Chayka nous montre comment les espaces en ligne et hors ligne ont été conçus pour une consommation fluide, devenant ainsi une source d’anxiété omniprésente. Les utilisateurs de la technologie ont été contraints de composer avec des équations pilotées par les données qui tentent d’anticiper leurs désirs—et échouent souvent. Le résultat est un état de docilité qui permet aux entreprises technologiques de restreindre les expériences humaines, les vies humaines, pour le profit. Mais faire en sorte que nos goûts, comportements et émotions soient régis par des ordinateurs, bien que pratique, ne fait rien de moins que remettre en question la notion même de libre arbitre.
Dans Filterworld, Chayka retrace cette curation insidieuse guidée par la machine à mesure qu’elle s’infiltre dans les recoins les plus éloignés de nos espaces numériques, physiques et psychologiques. Avec des algorithmes influençant de plus en plus non seulement la culture que nous consommons, mais aussi celle qui est produite, des questions urgentes se posent : Que se passe-t-il lorsque la possibilité de partager prime sur le désordre, l’innovation et la créativité – les qualités qui nous rendent humains ? Que signifie faire un choix lorsque les options ont été soigneusement disposées pour nous ? La liberté personnelle est-elle possible sur Internet ?
Kyle Chayka est chroniqueur au journal The New Yorker. Il y tient une rubrique sur la technologie digitale et y étudie l’impact d’Internet et des réseaux sociaux sur la culture. En 2020, il publie The Longing for Less et propose une exploration du minimalisme dans la vie et les arts. En tant que journaliste et critique, il a contribué à de nombreux articles dans The New York Times, Harper’s, The New Republic et Vox. Il est également le cofondateur de Study Hall, une communauté en ligne pour journalistes. Il est le créateur de Dirt, une newsletter qui traite de la culture digitale. Il vit à Washington, D.C.
INTRODUCTION : Welcome to Filterworld
CHAPTER 1 : The rise of Algorithmic Recommendations
CHAPTER 2 : The Disruption of Personal Taste
CHAPTER 3 : Algorithmic Globalization
CHAPTER 4 : The Influencer Economy
CHAPTER 5 : Regulating Filterworld
CHAPTER 6 : In Search of Human Curation
CONCLUSION
Acknowledgments
Nombre de pages
292
Langue
Anglaise
Année de publication
2024
Éditeur
VINTAGE
ISBN
978-0-593-466797
Filterworld est un vaste réseau interconnecté et pourtant diffus d’algorithmes qui influencent nos vies aujourd’hui, et qui a eu un impact particulièrement dramatique sur la culture et les façons dont elle est distribuée et consommée.
Les recommandations algorithmiques ont peu à peu remplacées les éditeurs responsables de l’information, les galeristes, les conservateurs de musée, les agences matrimoniales, les DJ radio… les personnes à-même de nous révéler l’inhabituel et le non-consensuel.
D’après Kyle Chayka, nous subissons les priorités dictées par les recommandations des entreprises de la Tech, qui sont assujetties à la génération de profit à travers la publicité. Dans Filterworld, la culture la plus rependue est la culture la plus insipide. Les cafés instagrammables se développent autour du monde et adoptent des codes esthétiques similaires, les expériences touristiques et culturelles se normalisent, les appartements Airbnb s’équipent des mêmes mobiliers neutres et épurés. A travers cette limitation de nos experiences, de nos goûts, de nos comportements et de nos émotions, c’est notre libre arbitre même qui est attaqué.
Dans l’ouvrage, on y apprend également que Netflix modifie les vignettes de ses films selon les préférences des utilisateurs, quitte à les tromper sur la nature même du contenu. Ou alors comment Google et Amazon mettent en avant leurs propres produits et services, ne reflétant pas forcement l’intérêt premier de l’Internaute. L’effet bulles de filtre théorisé par Eli Pariser joue à plein, limitant nos perspectives, nos goûts personnels et notre capacité à être ému, choqué, par une offre culturelle standardisée et nivelée vers le bas.
Et difficile de blâmer les créateurs de contenu qui doivent jouer avec les règles imposées par les plateformes, qui poussent à la création de contenu culturel conçu pour générer de l’engagement digital et de l’attention, au détriment de la qualité et de la pluralité.
Pour résister à Filterworld, nous devons redevenir nos propres éditeurs (i.e. curators) et prendre la responsabilité des contenus que nous consommons. Reprendre le contrôle n’est pas forcement compliqué. Nous avons la possibilité de faire des choix personnels en étant plus intentionnel afin de ne pas nous égarer culturellement (et ainsi éviter le fameux » rabbit hole « ). La curation est un processus lent et exigeant. Il est l’inverse de la facilité. Mais c’est le prix à payer pour ne plus être docile et subir l’offre proposée (imposées?) par les plateformes.
Et l’auteur de finir sur une note d’espoir en citant Walter Benjamin « Chaque époque, en réalité, non seulement rêve de celle qui suit, mais en rêvant, précipite son éveil. Elle porte sa fin en elle-même ». Il ne tient qu’à nous de refuser la passivité, et de réveiller et entretenir notre curiosité culturelle en adoptant une forme d’indépendance et de pro-activité sur les contenus culturels existants.
Filterworld, le titre de ce livre, est mon terme pour désigner le vaste réseau interconnecté et pourtant diffus d’algorithmes qui influencent nos vies aujourd’hui, et qui a eu un impact particulièrement dramatique sur la culture et les façons dont elle est distribuée et consommée. Bien que Filterworld ait également transformé la politique, l’éducation, et les relations interpersonnelles, entre autres aspects de la société, mon focus se porte sur la culture. Que ce soit l’art visuel, la musique, le cinéma, la littérature ou la chorégraphie, les recommandations algorithmiques et les fils qu’elles peuplent médiatisent notre relation à la culture, guidant notre attention vers les éléments qui s’intègrent le mieux dans les structures des plateformes numériques. (p.4)
Je pense souvent au Turc Mécanique ces derniers temps, car il me rappelle le spectre technologique qui hante notre propre époque au début du XXIe siècle. Ce spectre porte le nom d’algorithme. L’algorithme est généralement un raccourci pour « recommandations algorithmiques », ces mécanismes numériques qui absorbent des tas de données utilisateur, les traitent à travers un ensemble d’équations et produisent un résultat jugé le plus pertinent pour des objectifs préétablis. Les algorithmes dictent les sites Web que nous trouvons dans les résultats de recherche Google ; les histoires que nous voyons sur nos fils Facebook ; les chansons que Spotify joue dans des flux incessants ; les personnes que nous voyons comme des partenaires potentiels sur les applications de rencontre ; les films recommandés par la page d’accueil de Netflix ; le fil personnalisé de vidéos présenté par TikTok ; l’ordre des publications sur Twitter et Instagram ; les dossiers dans lesquels nos emails sont automatiquement triés ; et les publicités qui nous suivent partout sur Internet. Les recommandations algorithmiques façonnent la grande majorité de nos expériences dans les espaces numériques en tenant compte de nos actions précédentes et en sélectionnant les contenus qui conviennent le mieux à nos comportements. Elles sont censées interpréter puis nous montrer ce que nous voulons voir. (p.3)
Ada Lovelace, la fille de Lord Byron, est aujourd’hui largement reconnue comme la première programmeuse informatique ; elle a écrit des algorithmes pour la machine telle que Babbage l’avait conçue, y compris un processus pour calculer les nombres de Bernoulli. Lovelace a également compris que les processus mécaniques répétitifs que la machine permettait pouvaient être appliqués à des domaines au-delà des mathématiques. En 1843, Lovelace écrivait que l’Analytical Engine « pourrait agir sur d’autres choses que des nombres, si l’on trouvait des objets dont les relations fondamentales mutuelles pouvaient être exprimées par celles de la science abstraite des opérations, et qui seraient également susceptibles d’adaptations à l’action de la notation opératoire et du mécanisme de la machine. » En d’autres termes, tout ce qui peut être transformé en quelque chose ressemblant à des données — une série de nombres — pourrait être manipulé de manière formulée. Cela pourrait inclure des textes, de la musique, de l’art, ou même un jeu comme les échecs. (p.13)
Lorsque les algorithmes de recommandation sont basés uniquement sur les données concernant ce que vous et les autres utilisateurs de la plateforme aimez déjà, ces algorithmes sont moins capables d’offrir ce genre de surprise qui pourrait ne pas être immédiatement agréable, celle que Montesquieu décrivait. La structure des fils de contenu décourage également les utilisateurs de passer trop de temps avec un seul contenu. Si vous trouvez quelque chose d’ennuyeux, peut-être trop subtil, vous continuez simplement à faire défiler, et il n’y a pas de temps pour qu’un véritable sentiment d’admiration se développe — on est de plus en plus encouragé à se plier à l’impatience et à la superficialité dans tous les domaines. Comme l’a soutenu le philosophe coréen Byung-Chul Han dans son livre de 2017 In the Swarm, la simple exposition de tant de gens les uns aux autres en ligne, sans barrières — la « démédiatisation » d’Internet — fait en sorte que « la langue et la culture se nivelent et deviennent vulgaires. » (p.51)
Il existe des personnes qui travaillent à déterminer quelle culture nous devrions découvrir et ce que nous pourrions apprécier, en adaptant leurs approches au moment présent et en élargissant les frontières de ce qui est considéré comme de bon goût. Vous pourriez les trouver dans une boutique, dans un musée d’art, sur une station de radio, ou en coulisses dans un cinéma. Ces professionnels de la recommandation s’appellent des curateurs. Ils veillent à ce que l’exposition soit réservée à ce qui le mérite. (p.239)
Le processus lent de la curation va à l’encontre du manque de contexte, de la rapidité et de l’éphémère qui caractérisent Internet. « Quand on pense aux réseaux sociaux, c’est ce bruit blanc, c’est un espace mort », a déclaré Antonelli. (Une description appropriée de Filterworld dans son ensemble, où rien ne se distingue.) « C’est là que l’algorithme devient votre antagoniste », a-t-elle ajouté. Les fils algorithmiques perturbent les juxtapositions soignées et rendent d’autant plus difficile l’interprétation de l’énorme éventail de la culture, de déterminer quels thèmes lient les éléments ensemble et quels aspects les distinguent. (p.247)
D’où la décision de Hallie de quitter les réseaux sociaux. Elle continue de créer beaucoup d’autres œuvres, mais elle ne les publie pas. Avant, son processus créatif était inévitablement influencé par ce qui plaisait en ligne, grâce à la boucle de rétroaction constante. Maintenant, c’est différent. « Je suis passée d’artiste « ballon d’essai » à artiste « je travaille sur plein de trucs dont je ne parle à personne sauf à mes amis artistes », a-t-elle déclaré. « Si je ne fais pas de l’art pour cette plateforme, je le fais juste pour moi-même, ou pour l’humanité. » (p.181)
D’autres exemples de personnalisation corrompue incluent Amazon suggérant ses propres marques avant d’autres résultats sur son marché, et Google Search priorisant les autres produits de l’entreprise, comme Google Maps, comme les meilleures sources d’information. L’entreprise en profite, mais l’utilisateur peut en souffrir, ce qui dégrade l’écosystème culturel global. Comme l’a écrit Sandvig : « Au fil du temps, si les gens se voient offrir des choses qui ne correspondent pas à leurs intérêts assez souvent, on peut leur apprendre ce qu’ils doivent vouloir… Ils peuvent en venir à croire à tort que ce sont leurs intérêts authentiques, et il peut être difficile de voir le monde autrement. » Internet a de plus en plus été enfermé dans une série de bulles, des espaces auto-renforcés dans lesquels il devient plus difficile de trouver une gamme diversifiée de perspectives. Cette idée est familière dans le domaine politique — les libéraux consomment principalement du contenu numérique qui reflète leurs croyances, tout comme les conservateurs — mais elle s’applique également à la culture. En matière de goût personnel, savoir ce que l’on aime est difficile, mais il est tout aussi difficile de savoir ce que l’on n’aime pas ou ne veut pas lorsque cela est présenté de manière aussi insistante comme étant « Pour Vous ». Dans Filterworld, il devient de plus en plus difficile de se faire confiance ou de savoir qui « vous » êtes dans les perceptions des recommandations algorithmiques. (p.71)
Les utilisateurs ont observé, avec une anxiété justifiée, comment la page d’accueil de Netflix n’affiche que des vignettes avec des personnes de leur même couleur de peau, malgré le fait que Netflix ne traque théoriquement pas la race de ses utilisateurs. En 2018, une controverse a éclaté lorsque certaines personnes ont remarqué que la comédie romantique Love Actually leur était recommandée avec une image très visible de l’acteur noir Chiwetel Ejiofor, qui joue un rôle secondaire dans le film. En modifiant de manière aussi agressive la vignette du film, la plateforme manipule les utilisateurs, non pas en recommandant ce qu’ils pourraient aimer, mais en modifiant la présentation du même contenu pour le rendre plus similaire à leurs préférences. (p.68)
Alors que les recommandations algorithmiques personnalisées mettent l’accent sur ce qui est familier et reconnaissable, en orientant le contenu vers les options les moins contestables, les DJ cherchent à mettre en valeur l’inconnu et l’inhabituel. Il n’y a aucune garantie que vous aimiez ce qu’ils passent, mais l’espoir est que vous y serez au moins intéressé. Cette distinction est également importante dans la culture en général. Il est tout à fait possible d’être intéressé par quelque chose sans l’aimer, dans le cas d’une œuvre musicale difficile ou d’une peinture abstraite. Une œuvre d’art peut vous provoquer et vous laisser confus ou perturbé, mais tout de même vous attirer. Peut-être plus couramment dans Filterworld, vous pouvez aussi aimer quelque chose sans le trouver intéressant, comme dans le cas de Emily in Paris sur Netflix : c’est assez agréable à regarder, mais une fois que c’est terminé, l’expérience disparaît immédiatement de votre esprit, comme les bulles effervescente dans l’eau gazeuse. (p.255)
Les réseaux sociaux devraient-ils être traités comme des journaux et des chaînes de télévision, responsables de tout ce qui est hébergé dans leurs domaines ? Ils ont longtemps échappé à cette responsabilité. Ou devraient-ils être classés plutôt comme des lignes téléphoniques, des transmetteurs d’informations théoriquement neutres ? Mais ils ne sont décidément pas neutres, étant donné leurs jugements algorithmiques. Ou peut-être que les réseaux sociaux devraient appartenir à la catégorie des industries du vice, avec des limites strictement régulées destinées à la sécurité des individus qui risqueraient autrement d’en abuser. Après tout, tant d’utilisateurs sont accros. (p.195)