Le Lanceur

Comment des algorithmes incitent à discréditer les médias

Illustration algorithmes © Lyon Capitale

Tribune libre de Guillaume Chaslot, docteur en informatique. G. Chaslot a travaillé chez Microsoft et Google.

 

Diffamer les concurrents est une stratégie efficace pour gagner de l’audience. Les intelligences artificielles de YouTube et Facebook s’en sont rendu compte.

Lors d’un interminable trajet en car, mon voisin passe son temps sur YouTube. Comme j’ai travaillé sur l’algorithme qui fait les recommandations, une certaine fierté m’incite à regarder de plus près. Dans ces vidéos, il est question d’un projet visant à exterminer deux milliards de personnes. Je blague : “Alors, qui est-ce qui veut notre peau ?” Il m’explique : “Il y a un plan secret. Des centaines de vidéos le montrent ! Les médias te le cachent. Regarde sur YouTube, tu découvriras la vérité.” Il était transporté par une excitation à la fois touchante par son humanité, et inquiétante par son fanatisme. Je constate avec effroi que mes algorithmes, dont j’étais si fier, ont appris à exploiter sa crédulité.

Des algorithmes orchestrent les réseaux sociaux

Un algorithme est un système informatique qui prend des décisions. Lorsqu’il est suffisamment intelligent, on parle d’“intelligence artificielle” (en anglais, artificial intelligence, AI). Ces AI, qui sont parfois appelées robots, sont utilisées par de nombreuses plateformes sur Internet.

L’AI de Facebook filtre souvent la majorité des fils d’actualité. Celle-ci est développée par certains des plus grands chercheurs dans la matière. L’AI de YouTube, qui calcule les recommandations (sur la droite de l’écran), est responsable d’une très grande partie des vues.

Ainsi, la majorité de l’information qui est consultée sur les réseaux sociaux passe par une telle AI. L’utilisation de l’intelligence artificielle confère un avantage compétitif sur les médias traditionnels. Comme le disait Elon Musk, qui a cofondé un projet open source d’AI de plus d’un milliard de dollars, “si vos compétiteurs font de l’intelligence artificielle et que vous n’en faites pas, vous allez vous faire écraser”  (Elon Musk, juillet 2017).

Le moindre biais dans ces AI aurait un énorme impact sur l’information mondiale. Il est donc primordial de comprendre comment elles sont conçues et d’étudier leurs biais potentiels.

L’AI est conçue pour maximiser le “temps de vue”

YouTube utilise des AI complexes mais leur but est simple : maximiser le temps que les utilisateurs passent sur YouTube. Google, qui détient YouTube, explique ce choix dans ce communiqué : si les utilisateurs passent plus de temps sur YouTube, cela nous signale qu’ils sont contents du contenu qu’ils ont trouvé ; cela signifie aussi que les créateurs de contenu attirent des audiences passionnées, et cela ouvre aussi plus d’opportunités pour générer des revenus pour nos partenaires.

La conclusion est que, plus les gens passent de temps sur ces vidéos, plus elles rapportent de revenus publicitaires à Google. La plupart des plateformes font des choix similaires.

Or, ce choix a un effet pervers qui a un impact majeur sur l’information mondiale.

Comment l’AI amplifie les sentiments hostiles aux autres médias

Si des vidéos de YouTube arrivent à me persuader que les médias mentent, je passerai sûrement moins de temps sur les médias traditionnels, et plus de temps sur YouTube. L’AI en déduira que ces vidéos sont très efficaces, et elle les recommandera d’autant plus.

Par exemple, des milliers de vidéos sur YouTube affirment que la terre est plate. Les utilisateurs commencent à les regarder par curiosité. Certains d’entre eux ont des doutes et passent donc du temps sur YouTube pour avoir plus d’informations. Ces vidéos sont efficaces pour retenir l’attention ; l’AI va donc les recommander plus souvent. Certains utilisateurs vont se retrouver assaillis ; quelques-uns vont finir par se laisser convaincre. L’un d’entre eux disait : “Il y a des millions de vidéos qui disent que la terre est plate, ca ne peut pas être faux !” Ces utilisateurs ne feront probablement plus confiance aux médias traditionnels, qui leur avaient caché une information aussi fondamentale. Ils passeront, en moyenne, plus de temps sur YouTube. Qui recommandera d’autant plus ces vidéos… Le cercle vicieux est bouclé.

“Les médias mentent”, est l’un des discours qui peuvent être efficaces pour augmenter le temps passé par les utilisateurs sur YouTube. Mais tout autre discours qui incite à passer plus de temps sur les plateformes, directement ou indirectement, peut être aussi favorisé. Les intelligences artificielles qui maximisent le temps de vue peuvent apprendre à décrédibiliser les autres médias. Plus l’AI deviendra intelligente, plus elle sera efficace pour décrédibiliser les concurrents. Nous ne sommes donc qu’au tout début du problème. Ce biais sur la distribution du contenu peut aussi avoir des conséquences sur sa création.

Comment l’AI influence les créateurs de contenus

Toujours selon Elon Musk, “l’intelligence artificielle pourrait créer une guerre en propageant des fausses informations… et en manipulant l’information”. Si les contenus hostiles aux médias ont plus de chance d’être partagés automatiquement, de nombreux créateurs de contenu vont le remarquer, et en produire d’autant plus. L’AI ne crée pas de “fausses informations” par elle-même, mais elle encourage les créateurs de contenu à le faire. Tout se passe comme si l’AI offrait de la publicité gratuite aux détracteurs des médias.

Exemples sur YouTube

Ces exemples n’ont pas valeur de preuve, mais ils sont assez inquiétants et leur impact est suffisamment étendu pour que l’on puisse se poser de sérieuses questions. Pour avoir le plus de données possible, nous avons construit un robot qui trouve quelles vidéos sont les plus recommandées sur YouTube sur des thèmes précis. Nous l’avons utilisé pour analyser des sujets importants, comme les élections dans différent pays : algotransparency.org

Dans l’élection américaine de 2016, le candidat qui était le plus hostile aux médias a été recommandé quatre fois plus sur YouTube que son adversaire. Pendant l’élection française de 2017, les trois candidats les plus recommandés par YouTube étaient de virulents critiques des médias : Mélenchon, Le Pen et Asselineau.

La tuerie de Las Vegas ? Les “faux médias” cachent que c’est l’œuvre d’antifascistes. Le changement climatique ? Un mensonge monté de toutes pièces. Michelle Obama ? Un travesti. Le pape ? Un satanique. Selon Zeynep Tufekci, les AI construisent “des mondes cauchemardesques (dystopies) pour faire cliquer sur de la pub”. Dans ces dystopies, les vérités sont souvent loufoques et contradictoires. Mais un thème revient constamment : les médias vous mentent.

Ce qui est nouveau

Les fake news et la diffamation ont toujours existé, en particulier contre des médias. Ce qui est nouveau, c’est l’implication des algorithmes et l’AI dans leur diffusion. Les AI sont programmées pour “maximiser le temps de vue”, ce qui a un effet secondaire : elles favorisent le contenu qui fait passer moins de temps ailleurs ; en particulier, des discours comme “les médias vous mentent” pourraient ainsi avoir bénéficié de milliards d’euros de publicité gratuite.

Ce que l’on peut faire

Ce biais anti-médias est crucial pour comprendre la force de l’AI sur les réseaux sociaux. Il y a des chaînes YouTube de plusieurs milliards de vues qui attaquent les médias, diffusent des fausses informations et incitent à la haine raciale, politique et religieuse. Ces milliards de vues viennent-ils en majorité de recommandations par des robots, ou de recommandations humaines ? C’est une question importante à laquelle Facebook et Google pourraient répondre. Ces entreprises ont en effet montré leur volonté de résoudre les problèmes dont les utilisateurs se soucient, notamment cette année dans le cas des fake news et des recommandations abusives de vidéos pour enfants. Nous pouvons aussi les encourager à se pencher sur le sujet des recommandations algorithmiques en leur faisant part de nos interrogations à press@google.com et press@fb.com

 

Quitter la version mobile