Les technologies numériques sont présentes partout autour de nous. De nouveaux usages émergent quotidiennement. Elles changent notre rapport au savoirs, aux apprentissages, à la construction de l’identité et aux formes de la sociabilité.
Pourtant, derrière les progrès permis par les innovations technologiques et les discours rassurants des acteurs de la Tech, se cache des conséquences délétères sur les utilisateurs et la société : influence dans nos prises de décisions, polarisation des points de vue, monétisation de notre temps de cerveau, exploitation de nos biais cognitifs, manipulation, surveillance à grande échelle, extraction de données personnelles…
Ce petit manifeste, antithèse du Petit Traité de Dissonance Technologique, ambitionne de lister les concepts, les mécanismes et les initiatives permettant de remettre l’humain au centre du jeu, afin de favoriser son autonomie et sa capacité de choisir son usage du numérique, en conscience et sans influence néfaste des acteurs de la Tech dont les objectifs ne sont pas nécessairement alignés avec ceux des utilisateurs.
L’agentivité correspond à la capacité à agir sur le monde, donc à produire des effets causaux sur lui par nos propres actions. Un enfant en bas age va comprendre que bouger ses bras devant son visage produit un mouvement visible, pousser un objet le déplace, toucher certains objets produit un son, sourire éclanche un sourire en retour. Cet apprentissage est essentiel pour acquérir la capacité à agir de manière orientée vers un but. Patrick Haggard, spécialiste de l’agentitivé, considère qu’elle est, avec l’intention, un ingrédient central de l’action volontaire (qui s’oppose à l’action involontaire, donc aux automatismes comme les comportements déclenchés par association stimulus-réponse). Pour que l’action volontaire puisse se produire, il faut que l’agent se sente en contrôle de ses actions et qu’il connaisse les effets probables de ses actions, donc qu’il ait un sentiment d’agentivité. Tout l’enjeu est donc de retrouver un sentiment d’agentivité dans nos interactions avec les interfaces numériques.
Les algorithmes s’immiscent dans chaque segment de notre société. Dans la ville intelligence (smart city) ou ils permettent d’optimiser le trafic routier ou l’éclairage public ; dans les applications de rencontre, dans nos assistants virtuels, dans les centres fiscaux pour détecter les piscines non déclarées, dans les voitures autonomes, les centres de tri. Et naturellement dans nos poches avec nos smartphones hébergeant nombre d’applications algorithmisées. Malheureusement, ces algorithmes reproduisent bien souvent les biais des données ayant servies à alimenter le modèle. Pour en confirmer la neutralité et la non dangerosité, il devient essentiel que des associations, chercheurs et universitaires indépendants puissent auditer les algorithmes des organisations publiques et privées.
La méthode appelée boost consiste en des interventions et outils cognitifs (par exemple, ajout d’indices informationnels visibles) visant à favoriser les compétences cognitives et motivationnelles des utilisateurs. L’idée du boost s’oppose au nudge (i.e. influencer de façon inconsciente et automatique nos comportements) en cela qu’il vise à préserver l’autonomie décisionnelle des utilisateurs en les rendant plus réflexifs et conscients à l’égard des choix qu’ils font. Par exemple, redesigner les environnements numériques en ajoutant des indices de qualité épistémique (i.e. qui aide à comprendre) de l’information.
Avant de mettre sur le marché un nouveau modèle, les constructeurs automobiles doivent prouver que celui-ci respecte un certain nombre de normes (pollution, sécurité, etc.). Il en va de même pour l’industrie pharmaceutique lors de la mise sur le marché de médicaments. Dans le champ technologique et numérique, en revanche, c’est le Far West. Pour Nguyên Hoang, chercheur au MIT, « aujourd’hui, l’IA profite d’une régulation du numérique arriérée. Dans les industries matures comme l’aviation, la présomption de non-conformité s’applique. C’est un principe précieux qui interdit la commercialisation de produits n’ayant pas été préalablement validés par les autorités. Aujourd’hui, dans la jingle numérique, la charge de la preuve de non-conformité retombe trop souvent sur la partie civile. Un renversement vicieux qui explique qu’il y ait un vrai problème de confiance ».
Et si pour mieux protéger les données personnelles des utilisateurs, on requérait des acteurs de l’IA qu’ils se conforment à un certain seuil d’exigence avant de pouvoir commercialiser leurs outils ?
Les Nokia 3310 et autres fameux téléphones à clapet sont les dignes représentants des dumbphones. Antithèses des smartphones comme leur nom l’indique, ils peuvent constituer une expérience intéressante pour tous ceux qui en possèdent encore dans leurs tiroirs. Ils n’affichent ni Tiktok, ni Instagram et possèdent un clavier physique qui mettra à rude épreuve votre patience avant d’envoyer un SMS (chaque touche pouvant représenter plusieurs lettres). Son usage sera généralement associé à un smartphone pour ceux qui ont besoin de louer des vélos en libre services, d’utiliser une authentification multi-facteurs ou se déplacer en train avec un QR code. Sans parler du travail qui peut l’imposer.
Développez notre esprit critique semble être l’une des compétences les plus importantes à développer dans le monde contemporain. Pour être compétitif à l’air de l’Intelligence Artificielle et préparer au mieux nos enfants, il faudra leur donner une solide culture générale pour avoir une compréhension globale et holistique des enjeux. Pour Jean-Michel Besnier, la culture générale doit favoriser la réflexion, privilégier une certaine lenteur, un lieu de conversation, à l’opposé de la réactivité demandée par société dominée par des machines et des automatismes, sans préoccupation utilitaire immédiate. Pour Marcello Vitali-Rosati, il est aujourd’hui indispensable de refuser la passivité technologique et il est plus que jamais nécessaire de reprendre en main les dispositifs que nous utilisons au quotidien. Faire l’éloge du bug, c’est faire naitre l’esprit critique en favorisant la bricole, c’est défaire, démonter, pour mieux comprendre les dispositifs et ne plus les subir. Pour David Colon, il est nécessaire d’œuvrer au renforcement de l’esprit critique en exposant les ressorts et les techniques de la manipulation pour permettre au plus grand nombre de mieux s’en prémunir et éviter une propagande totale. Cependant, cela ne se fera pas sans effort. Gérald Bronner nous rappelle très justement que l’usage de la pensée analytique, de l’esprit critique et de ce que nous appelons en général notre rationalité nécessite une voie mentale plus lente, plus énergivore et donc plus douloureuse, qui ne peut pas toujours concurrencer avec succès les plaisirs cognitifs instantanés. Le développement de l’esprit critique sera l’un des éléments clefs pour mieux appréhender et naviguer dans le monde de demain.
Notre téléphone a absorbé les objets du quotidien pour devenir tout à la fois : réveil, carte routière, carnet de notes, agenda, appareil photo, montre, lampe torche et même un téléphone ! La première étape de la fragmentation vise à favoriser des temps de déconnexion pour regagner en autonomie, comme la méthode des « quatre pas ». La deuxième étape vise la fragmentation de l’objet en lui-même : racheter une carte routière et abandonner le GPS, conserver sa platine CD et abandonner son appli Deezer… voir lorsque l’on peut, séparer les usages via plusieurs téléphones. Avoir un smartphone pour le partage de connexion, un dumbphone pour gérer les appels et pour laisser le smartphone à la maison de temps en temps…Bref, se servir de la technologie plutôt que laisser la technologie se servir de nous.
Consiste à introduire dans les outils numériques des mécanismes déjouant les automatismes, par exemple en ajoutant des étapes de confirmation avant de repartager une information. Par exemple : « êtes-vous sûr d’avoir bien vérifié la véracité de cette information avec de la partager ? » , l’utilisateur restant in fine libre de procéder au partage ou non. Voir « Données et Design » de la CNIL et la notion de « frictions désirables ». Il existe d’autres frictions volontaires comme le fait de passer son écran de téléphone en noir et blanc, ou « nuances de gris » afin de le rendre moins désirable. Des applications comme One Sec propose d’ajouter une étape intermédiaire à chaque lancement d’application et qui vous demande si vous souhaitez vraiment consulter votre réseau social préféré alors que votre dernière consultation date de….17min. Enfin, le sevrage collectif ou des amis décident de supprimer ensemble les applis réseaux sociaux de leurs téléphones.
Si les acteurs de la tech ont à cœur d’entretenir la rhétorique de l’immatérialité, il devient de plus en plus difficile, même pour eux de fermer les yeux sur l’appétit grandissant des modèles d’Intelligence Artificielle. Il semble aujourd’hui impératif d’imposer des limites à cette technologie forte consommatrice de ressources énergétiques et au point de constituer une menace grandissante pour le climat. Entre l’électricité nécessaire pour faire tourner les vastes centres de données, où les algorithmes moulinent à plein régime, et l’extraction des matériaux pour fabriquer les serveurs et semi-conducteurs, le bilan carbone de Microsoft a bondi de 30% en quatre ans, à même de mettre à risque ses engagements. La consommation des data centers à travers le monde représente déjà 2% de toute l’énergie utilisée dans le monde en 2022. Une requête sur chatGPT consomme 10x plus qu’une recherche sur Google. Enfin, la société TSMC, leader dans la fabrication de micro-processeurs à consommé 77M de m3 d’eau douce (soit l’équivalent de 70 piscines olympiques par jour) pour polir les tranches de silicium dans ses fonderies.
Devrions-nous ainsi conditionner la consommation d’un modèle à son utilité sociale (lister une priorité des usages)? Ou développer un éco-score ou un système de bonus-malus sur les produits et services utilisant l’IA? Ou encore décider au niveau d’un État le taux de consommation maximal de production électrique qui pourrait être alloué à l’IA (i.e. 10% de la consommation nationale)? Source Usbek&Rica.
Les gatekeepers sont des professionnels de l’information qui sont des intermédiaires de l’espace public. Journalistes, médias indépendants, et dans une certaine mesure chercheurs et universitaires, ils sont chargés de gérer l’accès à une information (et la valider) pour la rendre visible auprès de la population, des institutions et du monde médiatique. Le journalisme télévisé et de presse écrite est chargé d’une fonction de hiérarchisation de l’information et de sélection de ce qui est digne ou pas d’être médiatisé. En tant que gatekeepers (« portiers » ou « gardiens »), les journalistes comme les éditeurs sont donc des rouages fondamentaux de la relation de confiance établie entre le public et les médias. Aujourd’hui, les médias qui vivent de la publicité doivent résister à devenir des produits d’appel à l’attention (résister à la pression pour produire des formats courts). Leur rôle est essentiel pour pouvoir construire un débat serein sur la base de la confrontation de l’interprétation des faits (voir « post-vérité« ).
En assurant la compatibilité de services de manière à ce qu’ils puissent mutuellement échanger et exploiter des informations issues d’un autre service, cela pourrait constituer le moyen de faciliter le transfert des utilisateurs vers d’autres plateformes aux modèles d’affaires alternatifs, plus respectueux de l’attention des individus, sans pour autant perdre leurs liens sociaux et/ou l’accès aux contenus souhaités.
La lecture pour le plaisir est un antidote majeur à l’émergence du « crétin digital ». Des centaines d’études montrent le bénéfice massif de cette pratique sur le langage, la culture générale, la créativité, l’attention, les capacités de rédaction, les facultés d’expression orale, la compréhension d’autrui et de soi-même, ou encore l’empathie, avec, in fine, un impact considérable sur la réussite scolaire et professionnelle. Aucun autre loisir n’offre un éventail de bienfaits aussi large. À travers la lecture, l’enfant nourrit les trois piliers fondamentaux de son humanité : aptitudes intellectuelles, compétences émotionnelles et habiletés sociales. La lecture est tout bonnement irremplaçable.
Capacité critique, fondée sur l’analyse, la compréhension et la maîtrise. La littératie numérique doit être une manière de nous rendre libres en nous permettant d’être les véritables protagonistes de nos actions. Trois principes qui devraient fonder cette littératie numérique: 1) la conscience de la multiplicité des modèles 2) la recherche de technologies adéquatement complexes (ne pas se contenter de dispositifs trop simples) et 3) la maitrise de l’activité via sa capacité à modeler son environnement (et éviter la passivité) […] Ainsi, l’usage de tablettes ou de téléphones ne peut absolument pas favoriser le développement d’une littératie numérique.
« Présupposer un rapport au réel qui ne demande pas de médiation signifie croire qu’un seul rapport au monde est possible : l’immédiateté détermine l’unicité. Il y aurait donc un seul monde et un seul accès possible à ce monde. Cet accès serait complètement transparent parce qu’il se ferait sans aucune médiation. Face à une médiation, il n’y a aucune pensée possible […] C’est cette même logique que nous vendent les GAFAM : l’outil parfait serait celui qui nous donne un accès immédiat au monde. Cette immédiateté ne peut qu’être fondée sur l’unicité : il existe une et une seule manière de saisir ce que le monde est en soi – car, s’il y en avait plusieurs, il serait nécessaire de justifier cette multiplicité avec différentes médiatisations ». Marcello Vitali-Rosati
En psychologie, la métacognition est la « cognition sur la cognition ». Autrement dit, la métacognition consiste à avoir une activité mentale sur ses propres processus mentaux, c’est-à-dire « penser sur ses propres pensées »
L’otium est un terme latin qui décrit le temps durant lequel une personne profite du repos pour s’adonner à la méditation, au loisir studieux. Il s’oppose au negotium, l’activité marchande, la production. Dans notre société, l’otium, c’est-à-dire l’oisiveté est vue comme négative. L’auteur et philosophe Marcello Vitali-Rosati revendique quant à lui dans son Éloge du Bug une oisiveté militante. Il prône un changement de paradigme et milite pour redonner l’envie de s’impliquer et de s’engager dans des activités qui ne servent à-priori à rien, qui ne produit rien, qui ne sont pas dans le système du négoce, de l’activité commerciale. Pourtant, cette oisiveté est essentielle pour développer son esprit critique et comprendre le monde dans lequel nous évoluons.
Le droit au paramétrage permettrait à l’utilisateur de faire un seul paramétrage une fois pour toutes qui soit opérant sur toutes les plateformes, et d’y revenir seulement quand il le souhaite. À titre d’exemple, cela limiterait les demandes actuellement répétées des interfaces au même utilisateur de reconfigurer son choix de cookies à chaque visite (ou presque). Ensuite lui offrir la possibilité d’accéder à un tableau de bord ergonomique au sein de ses paramètres récapitulant ses choix et permettant d’effectuer des réglages plus généraux.
Le Privacy Information Management System permet à l’utilisateur d’administrer ses données et de contrôler leur utilisation sans pour autant que celles-ci quittent le dispositif. Par exemple, un individu disposant d’un PDMS doit pouvoir payer sa facture énergétique sans transmettre au fournisseur d’énergie sa consommation d’électricité détaillée. Cela permet ainsi à l’individu de contrôler l’ensemble du cycle de vie de ses données personnelles, de leur collecte à leur destruction. Voir SOLID de Tim Berners-Lee.
Éléments internes (nos comportements, nos routines de pensée), externes (les mécanismes de l’interface, ses propriétés, les intentions derrière les contenus) et collectifs (partage d’information, communautés d’échanges, procédures de vérification) qui favorisent chez l’utilisateur une prise de recul. D’une part via des temps d’analyse de son propre comportement, de ses propres pensées (métacognition = quels sont les buts que l’individu se fixe mentalement ?). Ce recul et ces temps d’analyses peuvent avoir lieu pendant ou après l’usage. L’utilisateur est-il satisfait de sa façon d’interagir avec les interfaces, du temps qu’il y passe? D’autre part, un recul vis-à-vis du dispositif qu’il a face à lui (quelles sont les intentions des concepteurs ? Quelles sont ses possibilités d’agir sur l’interface et de la paramétrer ?…). Enfin un recul à l’égard du comportement et des intentions des autres utilisateurs afin de favoriser la collaboration, l’attention conjointe, le dialogue et le débat constructif.
Les algorithmes sont tout autour de nous, imprégnant de plus en plus d’aspects de notre vie quotidienne. Subissant souvent leurs impacts négatifs, certains utilisateurs des plateformes numériques ont décidé de mener la résistance. Travailleurs des plateformes (Uber Eats, Deliveroo, Amazon…), influenceurs et créateurs de produits culturels sur les réseaux sociaux, fans, ou militants politiques développent des stratégies toujours plus ingénieuses (Instagram Engagement Pod, attaquer les notes d’une application…), quelquefois à la limite de la légalité (technique Shuadan, hack de hashtag), pour contrecarrer cette domination et résister à l’algorithmisation de nos sociétés.
Demain, nos usines à rêves pourraient être entièrement automatisées. Aujourd’hui, à partir d’une simple idée, il est possible de produire des images, des textes et même des vidéos en les décrivant en quelques mots à des outils comme Midjourney, Stable Diffusion ou Sora. Comme par magie? Pas tout à fait. Les IA pompent allégrement dans le répertoire créatif des artistes, sans leur consentement. On peut légitimement se demander à partir de quand l’IA cesse-t-elle d’être un outil pour devenir un auteur? Quand 20% d’une œuvre a été générée par une machine? 50%? Et quid des droits d’auteurs lorsque l’œuvre d’un artiste en chair et en os a été partiellement ou complétement générée par l’IA, elle-même alimentée par des contenus sous copyright? La résistance s’organise enfin. La SACEM par exemple demande aux plateformes d’adopter un principe d’opt-out pour permettre aux artistes de refuser que leurs œuvres figurent dans les jeux de données utilisés par les IA. D’autres solutions, techniques, comme NightShade ou PhotoGuard se développent pour empêcher les systèmes d’apprentissage automatique de moissonner les œuvres postées en ligne, notamment au travers de la technique de « data poisoning ».
La guerre entre les artistes et les machines ne fait que commencer…Source Usbek&Rica.
Notre logement est au cœur de notre intimité. Son toit, ses murs, ses portes, sa stabilité et la sécurité qu’il offre sont nécessaire à la découverte de notre identité et de notre soi. Ses endroits secrets – placards, coffres, tiroirs, verrous et clés – répondent à notre besoin de mystère et d’indépendance. Ce refuge répond à nos besoins primitifs de sécurité et de quiétude. Malheureusement, pour satisfaire à l’impératif d’abondance de données comportementales exigé par le Capitalisme de la Surveillance, les murs de nos sanctuaires doivent tomber (assistants vocaux, frigo, lampes, cameras de surveillances, brosse à dent, tout objet doit maintenant être connecté…).
Gaston Bachelard est probablement celui qui décrit le mieux ce sanctuaire que doit être notre maison dans La poétique de l’espace (1957) : « La maison abrite la rêverie, la maison protège le rêveur, la maison nous permet de rêver en paix… La maison est une des plus grandes puissances d’intégration pour les pensées, les souvenirs et les rêves de l’homme… Elle est corps et aime. Elle est le premier monde de l’être humain. Avant d’être « jeté au monde »… l’homme est déposé dans le berceau de la maison … La vie commence bien, elle commence enfermée, protégée, toute tiède dans le giron de la maison. »
La skholé est un mot grec qui définit une occupation oisive. Il a donné comme déclinaison le mot français « école », qui signifie initialement oisiveté, temps libre. Il s’oppose à ascholia, le temps occupé, les affaires. Il est nécessaire d’être libre pour pouvoir se dédier à la philosophie et aux arts […], se dédier à cultiver notre jardin. Elle s’oppose radicalement à l’impératif fonctionnel. Être libre de cultiver sa propre autonomie en se dédiant à des tâches matérielles qui sont normalement méprisées par l’impératif fonctionnel. Marcello Vitali-Rosati
En agissant sur notre cerveau, le sommeil favorise nos capacités à apprendre, à mémoriser et à prendre des décisions logiques et rationnelles. Il réajuste nos émotions, réapprovisionne notre système immunitaire et règle avec précision notre métabolisme. Quant aux rêves, ils apaisent nos souvenirs douloureux et créent un espace de réalité virtuelle favorable à la créativité. Pourtant, dans notre monde toujours plus connecté, la technologie s’immisce dans nos vies quotidiennes, accapare de plus en plus de notre temps – de manière plus ou moins volontaire -, reléguant le sommeil en variable d’ajustement de nos distractions numériques. Le fondateur de Netflix, Reed Hastings, déclarait en 2017 à ses investisseurs que son principal concurrent était le sommeil… Une illustration parfaite des enjeux contradictoires et du désalignement entre des entreprises qui veulent capturer notre attention et nos besoins physiologiques qui nous pousse à débrancher. Pour aller plus loin, lire Pourquoi nous dormons de Matthew Walker.
Consiste à expliciter et documenter le fonctionnement d’un modèle algorithmique et à partager les sources de données ayant servies à nourrir le modèle. Dans ce cadre, il est impératif de pouvoir mettre à disposition des chercheurs, autorités, et autres institutions académiques, les données brutes et les API permettant d’effectuer des recherches plus poussées pour en mesurer les externalités négatives, les biais potentiels… Par exemple, lorsque certains chercheurs affirment que 70% des vidéos sur le climat vues par les Américains sont climatosceptiques, à cause de l’algorithme de YouTube, cette entreprise devrait être contrainte par la loi à confirmer cette statistique ou à démontrer qu’elle est fausse.
L’impératif d’extraction des données personnelles pousse les acteurs du numérique à remettre en cause le principe même de vie privée, au travers de conditions d’utilisation abusives, de rhétoriques et de l’inévitabilité de l’innovation (assistants vocaux, objets connectés…). Pourtant, il est plus que jamais nécessaire de préserver nos sanctuaires nécessaires à notre existence. On a tous un jardin secret à protéger.
Darhl Pederson dans son étude empirique Psychological Functions of Privacy identifie 6 catégories de comportements intervenant dans la vie privée – la solitude, l’isolation, l’anonymat, la réserve, l’intimité avec ses amis et l’intimité en famille. Les conclusions de son étude indiquent que ces différents comportements jouent un rôle essentiel dans la santé mentale et le bon développement : contemplation, autonomie, rajeunissement, confiance, liberté, créativité, récupération, catharsis et occultation. Ces différents états psychologiques et émotionnelles étant nécessaires pour prospérer et contribuer aux bien être de nos familles, de nos communautés et de notre société.