La semaine dernière à Bruxelles, le Digital Growth Summit organisé par Twipe réunissait sur scène de nombreux médias du monde entier - The Atlantic, le Financial Times, The Economist, Die Zeit, entre autres - pour des partages d’expérience très riches.
Pourtant, de toutes ces interventions, il y en avait une qui sortait clairement du lot… et ce n’était pas celle d’un représentant de média. Mais celle d’un entrepreneur britannique, venu conclure la journée avec une keynote haletante de plus d’une heure.
Généralement, ce genre d’exercice de conclusion est plutôt destiné à retenir l’attention et à inspirer le public, pressé de rejoindre le cocktail final (ou de rentrer chez lui)… Mais là, il aurait plutôt réussi à nous déprimer, puisque le sujet de l’intervention portait sur la désinformation boostée à l’IA, en allant bien au-delà du discours souvent superficiel sur les “fake news”.
Le speaker, Sean Gourley, est en effet le fondateur de Primer, une startup spécialiste de l’analyse du langage par l’IA, pour les secteurs de la défense, du renseignement et de l’intelligence économique, notamment. Son constat est clair, mais pas nouveau : la guerre de l'information et les opérations d'influence sont devenues de plus en plus sophistiquées, alors que l'IA et les médias sociaux sont mobilisés pour orienter les récits et les opinions.
Là où il a soulevé un point intéressant - et inquiétant - est dans son explication du concept de “dividende du menteur” (“Liar’s Dividend”).
Ce "dividende du menteur", c’est le bénéfice que tirent les acteurs malveillants de la suspicion généralisée qui entoure désormais le monde de l’information. L'idée est simple mais redoutable : plus il y a de fausses informations en circulation, plus il devient difficile de distinguer le vrai du faux. Et dans ce brouillard informationnel, les menteurs en sortent vainqueurs, puisque dans un environnement où la méfiance est de mise, toute critique peut être balayée d'un revers de main !
Fortes de ce principe, les opérations d'influence ne visent donc pas toujours à promouvoir un agenda spécifique, mais plutôt à polluer l'espace informationnel au point où la vérité devient indiscernable du mensonge.
Le cas des opérations d'influence russes illustre parfaitement ce concept. En manipulant les informations des deux côtés des débats politiques et sociaux, la Russie cherche non pas à soutenir une cause en particulier, mais à éroder la confiance dans l'ensemble du système d'information et, in fine, dans la démocratie.
L'IA vient désormais amplifier ce phénomène à une échelle inédite. Ce qui se passe actuellement est particulièrement inquiétant, avec la multiplication des textes produits avec des LLM, les images générées par des algorithmes désormais plus réalistes que les vraies ou encore l’apparition de podcasts avec des conversations totalement naturelles entre interlocuteurs pourtant bien virtuels - ce que permet NotebookML de Google, d’un simple clic.
Pire, les algorithmes peuvent non seulement générer du contenu crédible, mais aussi le personnaliser pour correspondre aux préjugés et aux croyances de chaque individu. Et l’IA permet aussi d’orchestrer les campagnes de désinformation de façon beaucoup plus efficace et systématique que par le passé…
Bref, nous sommes entrés dans une zone de dangers, dont on ne sortira que par une prise de conscience collective et des efforts concertés. Parmi les pistes évoquées par Sean Gourley, figurent naturellement l’éducation et la sensibilisation, la transparence algorithmique, le développement de technologies de détection pour les contenus générés par l’IA ou manipulés, la régulation ou encore une coopération accrue entre Etats.
Néanmoins, en tant qu’entrepreneur de l’IA, il a bien conscience que si l’intelligence artificielle peut aussi contribuer à nous éclairer et à lutter contre la désinformation, il y aura toujours une course sans fin entre ces solutions et les technologies utilisées pour créer des faux toujours plus convaincants…
Autre point intéressant : l’importance de créer des incitations pour la production et la diffusion d'informations vérifiées et fiables, plutôt que de récompenser uniquement l'engagement et la viralité… Un changement de modèle pour les médias, les plateformes et tous les “producteurs de contenus” qu’il va falloir encourager à l’avenir.
Benoit Zante
Merci pour cet article. Cela m'a permis de mettre un mot sur un concept que l'on intuite, que l'on perçoit mais qu'on a du mal à nommer. Savez vous s'il existe des groupes de réflexion sur le sujet traité par Sean Gourley ?