Les technologies numériques sont présentes partout autour de nous. De nouveaux usages émergent quotidiennement. Elles changent notre rapport au savoirs, aux apprentissages, à la construction de l’identité et aux formes de la sociabilité. Les plus optimistes d’entre-nous prévoient qu’elles permettront de répondre aux grands enjeux de notre civilisation.
Pourtant, cette course à l’innovation technologique ne se fait pas sans heurt. Comment gérer notre dépendance croissante aux nouveaux outils technologiques ? Comment protéger notre vie privée numérique face au Capitalisme de la Surveillance ? Comment rester maître de ses jugements et de ses décisions et conserver un esprit critique à l’heure de la Captologie ?
Longtemps inébranlable, le consensus sur les bienfaits de la numérisation du monde semble aujourd’hui se fissurer. Ce petit traité de la dissonance technologique, antithèse du Petit Manifeste pour une Harmonie Technologique, propose de questionner – à travers une approche lexicale et conceptuelle – la voie dominante de l’innovation, le techno-solutionnisme et le narratif commercial de la révolution permanente promus par les grands acteurs du numérique.
Le système de notifications nous encourage à consulter notre smartphone. L’enchainement de vidéos en lecture automatique sur Youtube ou Netflix prolongent les durées de visionnage sur les plateformes. Le flux d’actualité sans fin de Facebook mobilise notre cerveau. La peur de manquer quelque chose (Fear Of Missing Out – FOMO) nous incite à revenir, les streaks de snapchat (nombre de jours consécutifs de conversation avec un contact) deviennent une mesure de nos amitiés. Autant de mécanismes qui entretiennent notre addiction numérique.
Un biais algorithmique est le fait que le résultat d’un algorithme ne soit pas neutre, loyal ou équitable, pour des raisons inconscientes ou délibérées de la part de ses auteurs. Les biais algorithmiques ont été identifiés et critiqués pour leur impact sur les résultats des moteurs de recherche, les réseaux sociaux, le respect de la vie privée, et le profilage racial. Il est important d’avoir conscience que la conception et l’usage d’un algorithme peut reproduire ou amplifier certains biais. La transparence algorithmique et l’auditabilité algorithmique sont des éléments permettant de combattre certains de ces biais. On voit naître aujourd’hui certains mouvements de résistance aux algorithmes.
Le bug informatique nous bloque, nous empêche de continuer à faire ce que nous étions en train de faire, mais il nous dit et nous apprend aussi des choses, sur la matérialité des environnements numériques et la spécificité du modèle utilisé (le code par exemple). Faire l’éloge du bug, c’est refuser la passivité technologique et reprendre en main les dispositifs que nous utilisons au quotidien, c’est faire naitre l’esprit critique en favorisant la bricole, c’est défaire, démonter, pour mieux comprendre les dispositifs et ne plus les subir. Marcello Vitali-Rosati
Alors que les entreprises du Web s’efforcent d’adapter leurs services (y compris les actualités et les résultats de recherche) à nos goûts et préférences personnelles, on observe une conséquence involontaire dangereuse : nous sommes piégés dans des « bulles de filtre » en n’étant plus exposés à des informations qui pourraient remettre en question ou élargir notre vision du monde. Confortés dans nos opinions par des contenus alignés avec nos valeurs, nos convictions et nos croyances, nous serions plus enclin à défendre nos convictions, nous isolant ainsi dans des chambres d’écho idéologiques. En façonnant notre perception du monde, ces bulles de filtres polarisent nos points de vue, tendent à radicaliser les débats, alimentent les théories complotistes et fragilisent nos démocraties. Pour contrer ce phénomène, il est recommandé de diversifier consciemment ses sources d’information et d’adopter une approche critique envers les médias et sources d’information suivis.
Ensemble de tactiques addictives notamment utilisées par les acteurs de la Tech et les géants du Web pour cambrioler l’attention de nos contemporains : stimulation des réseaux dopaminergiques (par les likes, les notifications diverses), enchaînement des vidéos qui, lorsqu’elles ne sont pas vues en entier, créent un sentiment d’incomplétude cognitive, incitation à faire défiler sans fin un fil d’actualité, incitations à la peur de manquer une information cruciale…Tout est organisé pour notre faire prendre le vide ou le pas grand-chose pour un événement. Gérald Bronner
En 2019, Shoshana Zuboff publie un ouvrage majeur, l’Age du Capitalisme de la Surveillance, concept dont elle détient la paternité et qui naît au moment où la bulle Internet a explosé en 2001. A l’époque, les géants du web comme Google ne savaient pas encore comment monétiser les données de leurs utilisateurs. En jouant avec les signaux laissés par les internautes, les ingénieurs du moteur de recherche se sont aperçus qu’ils pouvaient commencer à prédire le comportement des gens à partir des traces laissées derrière eux (i.e. « le surplus comportemental »), et ce, sans même en avoir conscience, constitutuant la matière première d’une toute nouvelle industrie : une économie de la surveillance. Avec l’IA qui nécessite toujours plus de données, une nouvelle phase de collecte est en cours : il faut scanner tous les visages, tous les ouvrages, tous les films…. Plus
La captologie est l’acronyme de « Computer As Persuasive TechnOLOGIE », c’est-à-dire l’étude des technologies numériques comme outil d’influence et de persuasion des individus. On parle également de design de l’attention. L’objectif de la captologie est de rendre les consommateurs de plus en plus dépendants des outils connectés. L’un des premiers experts à révéler cette science nouvelle au grand public fut Nir Eyal, dans son livre intitulé Hooked. Comment créer un produit ou un service qui ancre des habitudes.
L’expression Dark Pattern est apparue pour la première fois en 1994 dans le magazine Wired. Elle désigne les interfaces (considérées comme non éthiques) destinées à obtenir l’action recherchée de la part de l’utilisateur d’une manière trompeuse. Ces stratégies visent à l’obtention de données, l’inscription à des services ou les achats impulsifs, et agissent souvent par la captation de l’attention. Elles illustrent clairement la façon dont le design d’éléments interactifs peut, en exploitant des failles attentionnelles, leurrer ou forcer les personnes à agir d’une manière contraire à leurs intentions. Les applications de réseaux sociaux sont connues pour utiliser des techniques d’interfaces truquées.
Le deepfake est un mot-valise provenant de Deep Learning (apprentissage profond) et de Fake (faux) et qui pourrait se traduire en Français par hypertrucage. C’est une technique de synthèse multimédia reposant sur l’IA et qui permet de produire des images, vidéos et bandes son, dont l’objectif premier est de créer de faux contenus qui semblent authentiques. Depuis quelques années et grâce à la démocratisation de la technologie et des applications de créations, nous voyons émerger notamment sur les réseaux sociaux des contenus humoristiques, pornographiques ou politiques de plus en plus réalistes, créant ainsi le doute sur l’authenticité du média. Ce phénomène est également amplifié par les problèmes récurrents liés au manque de modération sur les réseaux sociaux et une algorithmisation toujours plus importante des services Internet visant à maximiser l’engagement au détriment de la véracité des faits.
Les IA conversationnelles pourraient nous affranchir de nos limites physiologiques en nous permettant un délestage cognitif (Cognitive offloading), nous permettant de nous concentrer sur d’autres tâches et potentiellement de réduire l’effort cognitif qu’il nous aurait fallu déployer pour répondre à notre tâche. En augmentant note dépendance à la technologie et en déléguant aux Chatbots IA certaines tâches faisant traditionnellement appellent à nos fonctions exécutives, nous pourrions prendre le risque de voir notre cerveau remodeler nos connections neuronales (Werhahn et al., 2002) au risque d’affecter nos capacités de réflexion, d’analyse, de décision,…et ainsi réduire notre capacité d’adaptation et de réaction à des circonstances nouvelles ou imprévues (Kayes & Yoon, 2022).
Tension interne qu’une personne ressent lorsque l’un de ses comportements entre en contradiction avec ses idées ou croyances. Serge Tisseron dans son petit traité de cyber-psychologie relate l’exemple suivant : Il y a quelques années, l’état-major américain a été étonné de découvrir que des soldats utilisant des robots démineurs en Irak et en Afghanistan pouvaient s’attacher à eux comme à des animaux domestiques, voir comme à des êtres humains. L’état-majeur pensa d’abord qu’une mauvaise compréhension de la nature du robot était la cause de cette confusion. Tous les soldats furent encouragés à démonter et à remonter leurs robots démineurs.
Certaines applications de nos smartphones fondent leur addiction sur la mécanique de récompense variable (certaines fois vous « gagnez » un like ou un tag et d’autres fois vous « perdez » sans nouvelle notification) qui stimulent notre cerveau et transforment notre smartphone en pompe à dopamine (l’hormone du plaisir). Des concepteurs et des designers d’applications pour smartphone, des architectes de notifications et autres spécialistes de l’algorithmie, dont une part de leur bonus de fin d’année dépend de leur capacité à nous garder sur leurs plateformes, utilisent des mécaniques jouant sur nos fragilités cognitives pour nous rendre accro.
Le fingerprinting, ou « prise d’empreinte » est une technique probabiliste visant à identifier un utilisateur de façon unique sur un site web ou une application mobile en utilisant les caractéristiques techniques de son navigateur.
Le matériel dont se sert l’utilisateur pour se connecter fournit un certain nombre d’informations au serveur, par exemple la taille de l’écran ou le système d’exploitation. Ces informations, si elles sont suffisamment nombreuses, peuvent permettre distinguer les individus entre eux et de les suivre de manière similaire aux cookies. Les mécanismes de gestion ou blocage des cookies ne permettent pas de s’opposer à cette technique : il faut mobiliser d’autres techniques peu accessibles (comme une extension qui modifie aléatoirement les paramètres transmis par le navigateur). Source CNIL.fr
La fenêtre d’Overton est une allégorie qui désigne l’ensemble des idées, opinions ou pratiques considérées comme plus ou moins acceptables par l’opinion publique d’une société donnée. Pour David Colon, cette gamme d’idée que le public est prêt à accepter est susceptible d’évoluer si l’on propose une proposition à ce point extrême que des propositions moins extrême semblent, par effet de contraste, plus acceptables.
La gamification est une stratégie qui utilise les mécanismes du jeu (game en anglais) pour influencer le comportement des participants afin d’atteindre un but précis. Bien connus des fans de jeux vidéo, ces mécanismes utilisent les points, les niveaux, les missions, les badges, les tableaux de scores et visent à augmenter l’engagement et la motivation des individus. Cette stratégie se voit appliquée à de plus en plus de domaines comme l’éducation, la santé, le travail… Il est quelque fois utilisé à bon escient, mais il est malheureusement le plus souvent utilisé contre l’intérêt premier de l’individu.
Pour le journaliste Guillaume Pitron, les grands acteurs du numérique adoptent une stratégie délibérée d’invisibilisation de leurs opérations pour faire oublier l’impact écologique du numérique. Dans son enquête, il nous détaille une infrastructure mondiale incroyable faite de câbles sous-marins, de centres de données, de microprocesseurs, dont le coût et la consommation énergétique ne font qu’augmenter…Outre le fait d’être plus sexy (la représentation préféré des réseaux est sans fil : wireless), la rhétorique de l’immatérialité a un autre avantage: elle cache les véritables enjeux et limite la capacité de compréhension – et surtout de critique – du public. Selon Starosielski « le fait de cacher la matérialité des infrastructure réduit la conscience que le public a de l’infrastructure et donc semble réduire la possibilité de la détruire et semble protéger le flux de pouvoir ancré tout le long des câbles » . Elle cache une stratégie de dissimulation. Pour Marcello Vitali-Rosati, dès que le numérique est associé à l’immatérialité, il acquiert une valeur symbolique très élevée.
Injonction caractérisant formellement tout système psychique. Comme tout impératif, celui-ci engendre des transgressions qui se manifestent dans une sorte d’appel de l’irrationnel, et ces transgressions, du fait de leur caractère inacceptable, font l’objet d’un refoulement. […] On devient rationnel à la suite d’un long apprentissage et d’une soumission progressive à l’impératif rationnel. Dans notre époque numérique, en tant qu’époque capitalistique […] cet impératif semble avoir trouvé un allié parfait dans un certain discours technologique : la technologie est ce qui doit fonctionner et, en même temps, ce qui permet que tout fonctionne au mieux. Marcello Vitali-Rosati
La publicité s’est imposée comme le modèle économique dominant sur Internet et les réseaux sociaux, en raison notamment de la philosophie de l’accès libre aux origines de l’Internet et à notre réticence à accepter les modèles par abonnement. Cette situation a conduit à privilégier l’engagement des utilisateurs et le temps passé par dessus tout autre mesure. Pour maximiser ces taux engagements, certains acteurs de la Tech se sont lancés dans une collecte des données et un profilage des utilisateurs toujours plus invasifs pour mieux cibler les messages publicitaires, au détriment de la vie privée.
L’affaire Cambridge Analytica a révélé l’ampleur de cette pratique utilisant les outils et la mécanique de la publicité personnalisée.
Les publicités optimisées par l’IA sont présentées comme une amélioration significative, capables d’ajuster le contenu publicitaire en temps réel et de personnaliser les campagnes pour maximiser le succès. Toutefois, l’intégration de publicités par des IA, notamment dans les chatbots, soulève des inquiétudes quant aux risques de manipulation potentielle pour les utilisateurs.
La théorie du nudge est un concept des sciences du comportement qui fait valoir que des suggestions indirectes peuvent influencer les motivations et inciter de manière détournée à la prise de décision des individus. De nombreux nudges sont mis en place pour influencer de façon inconsciente et automatique nos comportements lors de notre utilisation des interfaces numériques, par opposition à des situations qui apportent des indices épistémiques (c’est-à-dire qui aident à comprendre), permettant à l’usager de délibérer consciemment avant de décider […] Une alternative aux nudges repose sur la méthode appelée boost.
Fake news, infox, post-vérité, nous sommes confrontés quotidiennement aux enjeux de l’information de masse. La propagande à l’ère de la révolution numérique et des réseaux sociaux est plus présente et plus efficace que jamais. Chaque jour apporte ainsi son lot de désinformation, de manipulation, de rumeurs et de théories du complot. Certaines élites au pouvoir, décideurs économiques, experts en relation publique influencent la masse, fabriquent du consentement, du doute, modifient notre perception du réel et utilisent les supports (cinéma, télé, sondages, réseaux sociaux…) à leur disposition pour promouvoir un narratif qui exclu toute réflexion et annihile notre esprit critique. Le tout amplifié par la disparition des gatekeepers de l’information (journalistes, universitaires, institutionnels…) et l’utilisation des IA génératives qui facilite la production de campagne de propagande et de désinformation. Pour Gustave Le Bon, l’individu dans une foule n’obéit plus à une conduite rationnelle et est plus susceptible d’être manipulé.
Pour faire face à la profusion d’information disponible, les systèmes de recommandation utilisés par les services et applications Internet permettent de filtrer l’information et ainsi proposer un contenu personnalisé (fils d’actualité, vidéo, groupe…) à chaque utilisateur. Malheureusement, cette mécanique n’est pas sans risque.
Il y a encore quelques années, l’algorithme de recommandation de Youtube recommandait à 90% des vidéos qui prônait la théorie platiste. L’algorithme de Spotify est accusé de réduire la créativité musicale. En 2016, un rapport interne de Facebook parvenait à cette conclusion : « 64% de toutes les adhésions à des groupes extrémistes sont dus à nos outils de recommandation. […] Nos systèmes de recommandation amplifient le problème. » Dans une note interne confidentielle de Facebook datée d’août 2019, divulguée par la lanceuse d’alerte Frances Haugen, on peut lire : « Nous disposons d’éléments provenant de différentes sources indiquant que les discours haineux, les discours politiques clivants, et la désinformation sur Facebook et [sa] famille d’applications affectent les sociétés partout dans le monde. Nous disposons également de preuves irréfutables que les mécanismes fondamentaux de notre produit, tels que la viralité, les recommandations et l’optimisation de l’engagement, sont l’une des principales raisons pour lesquelles ces types de discours prospèrent sur la plateforme. »
Aujourd’hui, on assiste à la naissance d’une forme de résistance aux algorithmes.
Les services numériques nous plongent dans leur propre schizophrénie, nous sommant de nous déconnecter tout en concevant des services qui renforcent toujours plus l’addiction et la compulsion. Cette schizophrénie ressemble trait pour trait aux propos des industriels du plastique qui culpabilisent ces pollueurs de consommateurs sans remettre en cause leur propre responsabilité dans la surproduction de plastiques. fing.org
Un système social basé sur le nombre de likes et de partages favorise la superficialité et l’impulsivité, au détriment du contenu de fond.
Une approche selon laquelle tous les besoins sociaux sont, de fait, transformables et façon unique, claire et non ambiguë en « problèmes » qui peuvent ensuite être résolus par de bons algorithmes. Marozov dénonce cette idéologie parce qu’elle cache la complexité et la pluralité des besoins sociaux, et parce qu’elle fait passer pour transparentes, neutres et « naturelles » les stratégies de réponses mises en place par les GAFAM pour répondre à ces besoins.
À l’heure où Instagram, TikTok et Snapchat prennent une place importante dans notre vie, le désir de documenter, prendre en photo et filmer chaque événement et de montrer tout ce que l’on vit à ses abonnés est devenu de plus en plus pressant. Entre le besoin d’être «validé» par ses amis et le manque de confiance en soi, ce phénomène génère un narcissisme de masse (tous influenceurs) pouvant provoquer dépression et pousser aux suicides les personnes les plus fragiles.
En moyenne, nous vivrons 27 000 jours, ou 650 000 heures. Si l’on retire les heures consacrées au travail et au sommeil, il reste 350 000 heures que nous pouvons consacrer à nos loisirs. En théorie, car ces dernières années, des nouveaux voleurs de temps ont réussi à faire un hold-up de notre temps.
Les conditions d’utilisations des plateformes numériques (CGU) ont remplacé le contrat de travail. Nous payons avec nos données personnelles et notre temps. On passe en moyenne 4h par jour sur nos téléphones à travailler. Car nous travaillons pour l’économie de l’attention, celle qui vend nos données aux annonceurs. La valeur est générée par les cliques et les likes, la nano-monétisation. Le circuit de la récompense agit comme une pompe à dopamine qui volent notre temps numérique et nous plonge dans un perpétuel présent, qui se concentre sur l’immédiat. L’auteur Olivier Babeau parle de la Tyrannie du divertissement qui s’oppose à la skholè, l’oisiveté créatrice. Pour Hannah Arendt, le temps libre sur le mode du loisir studieux a été détourné.
De plus en plus de taches d’enregistrement sont laissées aux consommateurs. Libre services, restauration, alimentation, aéroport (seulement 20% des tâches d’enregistrement à l’aéroport sont effectuées par des humains)… Nous travaillons aujourd’hui gratuitement à la place des entreprises en répondant aux injonctions des machines et des algorithmes.