Jour : 11 juin 2024

  • Meta prévoit d’utiliser nos données personnelles pour entrainer son IA

    Meta prévoit d’utiliser nos données personnelles pour entrainer son IA

    Meta prévoit d’utiliser nos données personnelles pour entrainer son IA

    L’association NOYB porte plainte pour empêcher Meta d’utiliser les données personnelles de ses 400M d’utilisateurs en Europe.

    Meta prévoit d'utiliser nos données personnelles pour entrainer son IA

    Deux chercheurs de la Carnegie Mellon University avaient calculé qu’il fallait 76 jours (à raison de 8h par jour) pour lire l’intégralité des politiques de confidentialité correspondant aux services que nous utilisons en ligne sur une seule année. (McDonald, Cranor, 2012). Cette étude datant d’une dizaine d’années, il est très probable que ce chiffre soit bien supérieur aujourd’hui, d’autant plus que les mises-à-jour des politiques sont régulières et ne comportent que très rarement un résumé des modifications apportées. La nouvelle politique de confidentialité de Meta, maison mère de Facebook ne fait pas exception, et devrait rentrer en vigueur le 26 juin 2024. Heureusement pour nous, l’association NOYB (None Of Your Business) veille sur nos intérêts à travers l’activisme de son fondateur Max Schrems et de ses militants et experts en protection de la vie privée, nous permettant ainsi l’économie de 76 jours de lecture fastidieuse.

    La nouvelle politique de confidentialité de Meta en violation du RGPD

    Visiblement, une lecture attentive de la nouvelle politiquesde confidentialité de Meta était plus que jamais nécessaire. En effet, cette dernière vise à « ingérer de manière irréversible l’ensemble des données de plus de 400 millions de personnes concernées au sein de l’UE/EEE pour des technologies  » d’intelligence artificielle » non définies, sans aucune indication quant aux finalités de ces systèmes « , indique la plainte déposée par l’association auprès de onze autorités de contrôle nationales compétentes en matière d’application du RGPD eu Europe (dont la CNIL en France).

    Violant plusieurs articles du Règlement Général sur la Protection des Données (RGPD), NOYB identifie dans sa plainte six motifs principaux :

    1. Aucun intérêt légitime de Meta à traiter des quantités de données à caractère personnel aussi importantes pour des finalités indéterminées.
    2. Meta tente d’obtenir l’autorisation de traiter des données à caractère personnel pour des moyens techniques larges et non définis sans jamais préciser la finalité.
    3. L’utilisation par Meta de Dark Patterns considérables pour dissuader les personnes concernées d’exercer leurs droits en s’appuyant sur le droit d’opposition (opt-out) et non du consentement (opt-in).
    4. Meta ne fournit pas les informations nécessaires en des termes clairs et simples.
    5. Meta déclare ne pas être en mesure de différentier correctement (!) entre les personnes pouvant s’appuyer sur des bases légales pour traiter les données à caractère personnel et les autres.
    6. Enfin, Meta déclare elle-même que le traitement des données à caractère personnel est irréversible.

    Utilisation massive de dark patterns par Meta – Facebook

    Les Dark Patterns sont des techniques de manipulation par interface utilisateur. En passant par des schémas de navigation complexes, des étapes inutiles, des interfaces utilisateurs compliquées, les géants de la Technologie peuvent influencer grandement le comportement des utilisateurs et impacter leur capacité de jugement et de décision (voir le concept d‘ingénierie cognitive).

    Et dans ce domaine, Meta est l’un des acteurs les plus cyniquement brillant. NOYB, dont la persévérance va bien au-delà de l’utilisateur lambda, a identifié l’introduction par Meta de pas moins de onze étapes (!) pour exercer son droit d’opposition en vertu de l’Article 21(1) du RGPD, alors que cela aurait pu être fait avec un seul bouton de désinscription.

    Les différentes étapes ont été cartographiées par NOYB sous forme « d’entonnoir de conversion ». En marketing, nous avons tendance à vouloir réduire au maximum le nombre d’étapes pour minimiser les frictions et conserver une bonne expérience client. A la vue de cet entonnoir, il est évident que l’objectif de Meta est tout autre. Les étapes inutiles, ennuyeuses ou trompeuses sont indiquées en rouge.

    L'entonnoir d'opposition de Meta est conçu pour désengager les personnes concernées par un optout
    L’entonnoir d’opposition à l’utilisation de ses données pour entrainer les modèles IA de Meta est conçu pour désengager les personnes concernées par un opt-out

    Les recommandations de NOYB contre Facebook – Meta

    En conséquence, l’association NOYB s’appuie sur le RGPD et demande aux différentes autorités compétentes de prendre les mesures urgentes suivantes:

    Ça pourrait vous intéresser :

    • Premièrement, d’émettre une décision d’urgence pour empêcher le traitement immanent des données personnelles de 400 millions de résidents de l’UE/EEE sans le consentement des personnes concernées.
    • Deuxièmement, de mener une enquête approfondie en vertu de l’Article 58(1) du RGPD.
    • Troisièmement, d’interdire l’utilisation de données à caractère personnel pour une « technologie d’intelligence artificielle » non définie sans consentement opt-in

    NOYB montre une nouvelle fois toutes ces compétences juridiques, techniques et argumentaires pour documenter sa plainte et la déposer dans pas moins de onze pays européens !

    De votre côté, si vous souhaitez vous opposer au traitement des données à caractère personnel vous concernant pour entrainer les modèles d’IA Facebook, j’ai bien peur qu’il ne faille suivre le douloureux process mis en place par Meta, en espérant que la plainte soit entendue et que Meta soit ainsi contraint par les autorités compétentes à revoir urgemment sa politique de confidentialité.

    La dernière option étant de quitter les réseaux sociaux comme Facebook, même si cela ne constituera malheureusement pas une technique infaillible au traitement de certaines de vos données par Meta.

  • Influence des IA génératives sur la propagande et la désinformation

    Influence des IA génératives sur la propagande et la désinformation

    Influence des IA génératives sur la propagande et les campagnes de désinformation

    Affiche de propagande russe pour encourager les citoyens à fabriquer des tanks durant la seconde guerre mondiale et gagner contre l'Allemagne Nazi

    Affiche de propagande Russe pour encourager les citoyens à fabriquer des tanks durant la Seconde Guerre Mondiale et gagner contre l’Allemagne Nazi.

     

    Les IA génératives actuelles sont-elles utilisées dans le cadre de campagnes de désinformation et de propagande? La propagande, écrit le sociologue Jacques Ellul, est l’ensemble des méthodes utilisées par un groupe organisé en vue de faire participer activement ou passivement à son action une masse d’individus psychologiquement unifiés par des manipulations psychologiques et encadrés par une organisation. En ce sens, les différentes campagnes de désinformation orchestrées par des groupes APT (Advanced Percistant Threat) comme le groupe Russe Doppelganger qui s’appuient sur les derniers outils d’IA génératifs constituent une nouvelle menace pour la stabilité de nos démocraties. Facebook et OpenAI jouent la transparence et publient des rapports sur l’état de la menace en ligne et les opérations d’influence.

    OpenAI publie son premier rapport sur les opérations d’influence amplifiées par l’IA génératif

    Une opération d’influence peut être définit comme une tentative frauduleuse visant à manipuler les opinions publiques ou à influencer les décisions politiques sans révéler l’identité ou les intentions des acteurs à la manœuvre. Mais quelles influences peuvent avoir les IA génératives sur la désinformation qui opère sur Internet ?

    Fin mai 2024, OpenAI publiait pour la première fois de sa jeune histoire un rapport sur l’utilisation par des acteurs malveillants de son IA générative à des fins d’opérations d’influence.

    D’après ce rapport, certains acteurs malveillants utilisent les outils d’IA génératifs pour créer du contenu destiné à être partagé par des personnes ou des organisations fictives ou réelles (i.e. impersonification) ou créer des systèmes d’interactions autonomes (voir la section CounterCloud à la fin du post).

    Sur les trois derniers mois, les équipes OpenAI ont ainsi identifié cinq réseaux propagandistes provenant de Russie, Chine, Iran et Israël, utilisant principalement les modèles d’IA pour produire de nombreux commentaires dans plusieurs langues en réponse à des posts sur les réseaux sociaux (X, Télégram, Facebook, Instagram, Youtube et autres sites et forums), ou encore générer et corriger de longs articles en Anglais et en Français.

    On apprend également dans ce rapport qu’ OpenAI travaille en mode Red Team pour torturer ses modèles et s’assurer de la résistance de ses protections et filtres aux tentatives d’utilisations frauduleuses.

    Prenons le cas de Doppelganger, acteur Russe et auteur de l’une des cinq campagnes de propagandes identifiées ces trois derniers mois par les équipes OpenAI.

    Doppelganger, un acteur APT Russe à la manœuvre pour influencer les opinions

    Doppelganger est un acteur Russe qualifié d’acteur APT (pour Advanced Persistant Threat, ou Menaces Persistantes Avancées) dont l’objectif est de manipuler les opinions publiques au travers de campagnes de désinformation anti-Ukrainienne via les médias et les réseaux sociaux.

    OpenAI a ainsi identifié que ses propres services avaient été utilisés pour générer des commentaires en Anglais, Français, Allemand, Italien et Polonai, postés sur le forum 9GAG et sur X/Twitter, en étant associés à d’autres liens, mèmes et vidéos. Sur 9GAG, les contenus faux ou malveillants ont été publiés dans un grand nombre de catégories dédiées aux animaux de compagnies, sports, humour et rencontres amoureuses.

    Ci-dessous une des vidéos postées par un compte attribué à Doppelganger et dont le message a été écrit via l’outil d’OpenAI, ChatGPT.

    Le groupe ATP Russe Doppleganger utilise OpenAI pour faire de la propagande
    Le groupe ATP Russe Doppelganger utilise OpenAI pour faire de la propagande. Dans cette publication sur le site 9GAG, la référence à l’Ukraine et la frontière US a été générée via ChatGPT. La vidéo est un montage de plusieurs extraits de vidéos d’actualité.

    A chaque fois que qu’une vidéo ou un mème sur 9GAG était posté, plusieurs comptes nouvellement créés sur la plateforme répondaient avec des messages simples comme « hahaha » ou « lol ». Le comportement de ces comptes étant assimilable à des bots (comptes nouvellement créés, aucune autre interaction sur les autres posts).

    Commentaires postés par des bots dans le cadre d'une campagne de désinformation pilotée par le groupe ATP Russe Doppelganger
    Commentaires issus de la vidéo ci-dessus, postés par des bots dans le cadre d’une campagne de désinformation pilotée par le groupe ATP Russe Doppelganger. Les trois premiers commentaires proviennent de comptes créés fin avril 2024 qui ont de manière répétée commentés, postés ou « votés pour »

    Sur le réseau X / Twitter, les commentaires étaient très souvent accompagnés d’un lien externe pointant vers des sites trompeurs comme “solarpanelfor[.]sale” ou autres sites, attribués à Doppelganger. Ces sites utilisent des restrictions géographiques limitant leurs accès à certaines IP de pays, comme l’Allemagne, l’Italie, la France, la Pologne.

    Publication sur X - Twitter incluant un commentaire généré par l'IA d'OpenAI
    Publication sur X – Twitter incluant un commentaire généré par l’IA d’OpenAI et comprenant un lien renvoyant vers un site attribué à Doppelganger.

    Les équipes d’OpenAI ont également identifié d’autres usages comme l’utilisation de leurs services d’AI génératif pour créer et corriger des articles destinés à la communauté française et publiée sur franceeteu[.]today, site également attribué à Doppelganger.

    Doppelganger est également à la manœuvre sur Facebook. Dans son rapport trimestriel, la maison mère du réseau social Meta identifie six campagnes de désinformation dont une mentionne les tentatives des propagandistes russes à promouvoir les contenus de désinformation au travers notamment des outils de publicité.

    On y découvre comment Doppelganger tente de détourner les systèmes de détection par mot-clef mis en place par le réseau social en créant des techniques d’obscurcissement de texte, comme la création d’espaces ou de ponctuations particulières (U. kr. ai. n. e” au lieu de “Ukraine”).

    Exemples de publicités de propagande Russe tournant sur Facebook et utilisant la technique d'obscurcissement de texte pour contourner les systèmes de détection de la plateforme.
    Exemples de publicités de propagande Russe tournant sur Facebook et utilisant la technique d’obscurcissement de texte pour contourner les systèmes de détection de la plateforme.

    La majorité des efforts publicitaires de Doppelganger s’est tournée vers du contenu pro-russe et ne cachant pas ses objectifs de critique des Ukrainiens et des alliés dans le contexte de la guerre. La propagande ne s’est pas limitée à la zone Europe / Amérique du Nord. Ci-dessous des publicités ayant ciblé les audiences Algériennes, Pakistanaises et Indiennes.

    Publicités de propagande Russe sur facebook et ciblant l'Algérie (première image), le Pakistan (deuxième image) et l'Inde (troisième image)
    Publicités de propagande Russe sur facebook et ciblant l’Algérie (première image), le Pakistan (deuxième image) et l’Inde (troisième image)

    Dans son rapport, Meta n’indique cependant pas quel contenu en lien avec les campagnes de désinformation Russes a pu être généré par IA. Nous pouvons légitimement penser que certains contenus produits par les IA génératives se retrouvent sur l’ensemble des plateformes de réseaux sociaux, y compris Facebook comme le mentionne OpenAI dans son rapport.

    A la lumière de ces rapports, nous ne pouvons que souligner les efforts de transparence des plateformes Meta et OpenAI qui semblent réaliser le formidable potentiel de nuisance que peuvent constituer les outils qu’ils mettent à disposition des utilisateurs du monde entier.

    Il est encourageant de voir que l’un des principaux acteurs de l’IA aujourd’hui se saisisse de la question en publiant son premier rapport et propose notamment de fermer chaque compte impliqué dans la création de contenu de désinformation.

    Meta dans son rapport encourage les gouvernements, chercheurs et entreprises de technologies à travailler de manière collaborative et à échanger sur l’état de la menace, notamment dans le cadre des campagnes de propagandes comme celles activées par la Russie.

    Il est important de noter que dans les onze campagnes analysées par OpenAI (cinq) et Facebook (six), aucune ne semble avoir eu un impact significatif sur les audiences des plateformes. La création de contenus efficaces via les outils d’IA génératifs ne semblent pas suffisants pour assurer la viralité. Le porteur du message qui en assure la diffusion est clef. C’est là ou la stratégie du gouvernement chinois de travailler avec des influenceurs authentiques semble payante. En bénéficiant d’audiences larges, les influenceurs génèrent des engagements importants via leurs communautés qui poussent avec enthousiasme les éléments de langage du PCC et le narratif officiel qui semblent bien plus efficaces que les fakes générés par l’IA (pour aller plus loin, voir « ingénierie cognitive« ). 

    L’effort de transparence des plateformes doit être salué. Cependant, il est impératif que les chercheurs et les institutions puissent avoir accès à plus de données afin de pouvoir analyser les propagations et tentatives de manipulation et confirmer ou infirmer les dires des acteurs technologiques. Meta à travers son Influence Operations Research Archive permet déjà d’étudier certaines données mettant en lumière des récits narratifs alternatifs et des comportements qui vont au delà des résumés proposés par les rapports des plateformes. Il est également critique que le régulateur puisse s’appuyer sur ces données et sur les chercheurs (via l’audit des algorithmes) pour comprendre comment fonctionnent les plateformes et les systèmes de détection et de régulation, afin de proposer des réglementations pertinentes.

    Je vous propose de terminer cet article avec un petit bonus, le projet CounterCloud. Projet absolument passionnant. A défaut de rassurer, il nous alerte sur les risques et propose des pistes de remédiations. 

    CounterCloud, système de propagande automatisé et autonome géré par des IA

    Le projet CounterCloud a consisté à produire un système de propagande 100% automatisé et autonome géré par des IA, le tout pour $400.

    Dans cette expérimentation, les chercheurs ont réussi à générer des articles de presse contradictoires, des tweets, à inventer des journalistes fictifs et des sites en utilisant ChatGPT de OpenAI et d’autres modèles d’IA en open source.

    Nea Paw, l’auteur du projet a souhaité alerter sur les risques faisant peser les IA génératives sur la production en masse de contenu de désinformation.

    Je vous propose de découvrir le projet en vidéo. A voir absolument :