Plus que sur la production de fausses informations, cette dernière semble reposer avant tout sur des armées de faux comptes, ou de comptes corrompus, pour donner une impression de popularité à certains contenus. Artificielle, celle-ci permet de manipuler les IA de recommandations afin qu’elles amplifient ensuite massivement ces contenus.
Or, l’avènement d’algorithmes génératifs comme ChatGPT risque de grandement faciliter la production et la crédibilisation de ces armées de faux comptes. Grâce aux algorithmes génératifs d’images et de textes, l’activité en ligne d’un faux profil engendré par un algorithme pourra être rendue presque indiscernable de celle d’un humain4. Parallèlement, une étude estime que ces algorithmes sont déjà plus efficaces que nous pour créer de la désinformation. Il s’agit peut-être là du plus grand danger des algorithmes génératifs.
Les plateformes ont sciemment et régulièrement pratiqué le lobbying politique pour ralentir toute tentative de régulation à leur encontre. Il a été constaté à maintes reprises que les PDG des Big Techs ont menti ou bien omis des informations dont ils avaient connaissance, notamment face au Congrès américain.Les plateformes déploient un lobbying scientifique dont le but est de cadrer le récit scientifique pour qu’il aille le plus possible dans leur sens. Dit de manière plus directe, elles saccagent la science et desservent la connaissance au nom de leurs intérêts économiques et juridiques
Les plateformes ont sciemment suscité de l’obsession chez leurs utilisateurs. Elles ont été conçues dans cet objectif.
Les industries n’ont pas à corrompre des scientifiques pour qu’ils défendent des opinions qui les arrangent. Comme dans le cas de la Chine et de ses TikTokeurs, il suffit d’amplifier les voix qui vont dans le sens souhaité ; et Big Tech n’aura aucun mal à trouver des chercheurs en IA techno-enthousiastes
Comme le résument Naomi Oreskes et Erik M. Conway dans leur excellent livre Les Marchands de doute :Le doute est crucial en science – dans la version que nous nommons « curiosité » ou « scepticisme de bon aloi », il pousse la science vers l’avant –, mais cette notion peut aussi rendre la science vulnérable à des mésinterprétations, car il est facile de sortir ces incertitudes de leur contexte et de donner l’impression que tout est incertain. Ce fut la trouvaille de l’industrie du tabac : vous pouviez utiliser cette incertitude scientifique normale pour miner le statut de la connaissance scientifique véritable. Comme au jiu-jitsu, vous pouviez utiliser la science contre elle-même.
« Nous devenons ce que nous voyons. » Autrement dit, « nous devenons ce vers quoi nous portons notre attention »
Quoi de plus « engageant » émotionnellement qu’un appel à la haine et à la colère ? Pas grand-chose, on le sait depuis une étude qui révélait dès 2015 que le sentiment de « colère » était le plus efficace quand il s’agissait de rendre un contenu viral.
Jean-Luc Mélenchon illustre la mécanique du « bruit et de la fureur » des réseaux sociaux. Le 4 juin, il écrit dans un premier temps : « La peine de mort pour un refus d’obtempérer. Le préfet approuve ? Le ministre félicite ? » Puis, il « monte le ton » en publiant dans un second tweet : « La police tue et le groupe factieux Alliance \[le syndicat de policiers\] justifie les tirs et la mort pour “refus d’obtempérer”. »Mélenchon justifiera son message plus polarisant au micro de France Inter : « Ce que je disais ne rencontrait aucun écho », plaide-t-il en évoquant son premier tweet. Il enchaîne : « Comme cela n’a rien donné, j’ai monté le ton. Et j’obtiens ce que je veux puisque des milliers de gens entendent qu’il y a au moins une personne dans ce pays, un responsable politique, qui n’accepte pas l’évolution de l’usage de la force »
La plateforme Pinterest avait par exemple envoyé des e-mails à Molly [adolescente qui s'est suicidée] avec des titres certainement choisis par son IA de recommandation tels que : « 10 images de dépression que tu pourrais aimer. »
L’entité qui contrôle l’IA de recommandation a donc un double pouvoir : d’abord sur l’attention des utilisateurs ; ensuite sur l’« attention numérique » que recevront les créateurs de contenus.