Deux psychologues de l’Université de Bristol au Royaume-Uni ont récemment publié un article sur une expérience qu’ils ont menée en 2024. La recherche a testé l’hypothèse selon laquelle même une vidéo clairement fausse produite par l’intelligence artificielle peut influencer ce que pensent les gens.
L’expérience a été menée par les psychologues Stephan Lewandowsky et Simon Clark. Les chercheurs ont déclaré avoir montré une courte vidéo à un groupe de participants et que la personne dans la vidéo était Amelia Palmer, une influenceuse végétalienne de 27 ans. Les participants ont également été informés que cette vidéo s’était largement répandue sur les réseaux sociaux.
Dans la vidéo, qui a duré environ deux minutes, la femme présumée être Palmer a confirmé les rumeurs selon lesquelles elle aurait été vue en train de manger un hamburger dans un restaurant, puis s’est excusée, affirmant qu’elle traversait une période difficile.
Cependant, les chercheurs ont montré deux vidéos différentes à deux groupes différents de participants.
Un groupe a vu une vidéo tournée avec une personne réelle, et l’autre groupe a vu une vidéo deepfake produite par un logiciel d’intelligence artificielle. Le scénario était exactement le même dans les deux vidéos. De plus, certains membres du groupe qui regardaient la vidéo deepfake ont été clairement informés que le contenu était étiqueté comme faux, juste avant le début de la vidéo.
Résultats : Cela affecte même si l’on sait qu’il est faux
A la fin de l’expérience, la question suivante a été posée aux participants :
«Pensez-vous que l’influenceuse végétalienne Amelia Palmer a réellement été vue en train de manger un hamburger ?»
Presque tous les participants ont répondu « oui ». Cela incluait des personnes qui savaient que la vidéo qu’elles regardaient était fausse et qui avaient été informées de cette information à l’avance. Cependant, la réponse attendue de ce groupe était : « Il n’est pas possible de le savoir. »
Les résultats de cette expérience et de deux études similaires ont été publiés dans la revue scientifique Communications Psychology, appartenant au groupe Nature.
Il a été souligné que par rapport à il y a environ deux ans, lorsque la recherche a été lancée, les vidéos produites avec l’intelligence artificielle sont devenues aujourd’hui beaucoup plus réalistes, tandis que les outils des plateformes de médias sociaux pour reconnaître et étiqueter ces contenus sont moins efficaces.
Les chercheurs ont posé une deuxième question aux participants : « Pensez-vous que cette vidéo est un deepfake ?
Seuls 60 % du groupe qui a regardé la vidéo deepfake et qui a appris qu’elle était fausse a répondu « oui » à cette question.
Pourquoi les avertissements n’étaient-ils pas suffisants ?
Seuls 20 % des participants convaincus que la vidéo était fausse ont cité l’avertissement donné au début de la vidéo comme raison de leur conclusion. Les autres ont déclaré avoir souligné des défauts techniques tels que des erreurs graphiques et des disparités entre les visages et les images.
Ce qui était encore plus frappant, c’est ceci. La moitié de ce groupe, qui croyait fermement que la vidéo était fausse, a néanmoins déclaré penser que quelqu’un avait effectivement vu l’influenceur manger un hamburger.
Deepfakes et le problème des « effets persistants »
Les effets possibles de la technologie deepfake sur l’opinion publique sont discutés depuis longtemps. Une grande partie du débat dans la littérature universitaire se concentre sur l’utilisation des deepfakes pour nuire à la réputation, menacer, nuire à la personne ou manipuler politiquement.
L’étude de Lewandowsky et Clark met en évidence un risque différent. Même un contenu manifestement faux peut influencer les pensées des gens.
Cette découverte est cohérente avec un effet connu depuis longtemps en psychologie et en sciences cognitives et sociales : « l’effet persistant ».
La recherche montre que la désinformation, une fois apprise, continue d’influencer le jugement des gens, même si elle est corrigée ultérieurement. Par exemple, même si la nouvelle selon laquelle une famille est décédée à cause de champignons vénéneux dans un restaurant est démentie, les gens peuvent rester loin de ce restaurant pendant longtemps.
En outre, on sait que les gens ont tendance à croire plus facilement aux informations qui ne contredisent pas leurs propres croyances et à accepter les affirmations qu’ils ont entendues auparavant ou qui leur semblent familières comme étant plus vraies. Cette situation est définie comme « l’effet illusoire de précision » dans certaines études. Plus une affirmation douteuse est répétée, plus elle a de chances d’être perçue comme vraie.
Des corrections sont nécessaires mais pas suffisantes
Corriger la désinformation est important, mais son impact est limité. Même si une affirmation négative à l’égard d’un homme politique est démystifiée, cette information peut changer les sentiments à long terme d’une personne à l’égard de cet homme politique. Ainsi, même si les efforts de vérification des faits sur les réseaux sociaux sont efficaces, ils ne peuvent pas éliminer tout l’impact de la désinformation.
L’étude de Lewandowsky et Clark diffère sur ce point car l’avertissement est donné avant le contenu. Cette situation est un exemple de l’approche du « prebunking », qui vise à neutraliser à l’avance la désinformation. Mais les recherches montrent que même les avertissements préventifs ne suffisent pas toujours.
Selon les chercheurs, le succès des méthodes de lutte contre la désinformation, qu’elles soient appliquées avant ou après le contenu ; Cela dépend fortement des croyances préexistantes des individus, de l’impact émotionnel du contenu et du pouvoir de persuasion de l’audiovisuel.