Les journalistes, les médecins, les avocats et les éducateurs utiliseront les brouillons générés par l’IA comme point de départ, mais la vérification finale, le filtre éthique et la responsabilité resteront toujours du ressort de l’humain.
Une étude à grande échelle menée par l’Union européenne de radiodiffusion (UER) et la BBC a révélé que près de la moitié des réponses données par les assistants de chat basés sur l’IA aux questions d’actualité contenaient des erreurs « importantes ». L’étude a évalué des milliers de réponses provenant de systèmes de pointe tels que ChatGPT, Google Gemini, Microsoft Copilot et Perplexity pour en vérifier l’exactitude, l’attribution, la distinction entre l’interprétation et les faits et le contexte. À la suite de cette recherche, environ 45 pour cent ont indiqué que la réponse contenait au moins un problème grave. Ce résultat indique que nous devons repenser le rôle de l’intelligence artificielle dans la production d’informations sur l’actualité et l’actualité. Partant de là, l’intelligence artificielle productive, considérée comme la puissance la plus transformatrice de l’ère numérique, présente une dangereuse oscillation sur la frontière ténue entre l’utopie qu’elle promet et la dystopie potentielle.
Ce constat nous heurte à une froide réalité, au-delà des présentations brillantes de la Silicon Valley et des milliards de dollars d’investissements. Ce « signal d’alarme », qui intervient après des mois d’intégration rapide, laisse non seulement les ingénieurs, mais aussi les journalistes, les universitaires, les hommes politiques et le grand public, seuls face à des questions fondamentales. L’intelligence artificielle est-elle en train de dérailler, hors de notre contrôle ? La notion d’« information correcte » est-elle en train de disparaître irrévocablement dans le bruit algorithmique ?
L’« hallucination » définie comme la pierre angulaire du problème n’est pas en réalité une erreur, mais une caractéristique inhérente du système. Alors que le taux d’erreur de 50 % de l’UER alimente les craintes populistes selon lesquelles l’IA a « déraillé », du point de vue d’un technologue, le problème semble être plus fondamental et structurel. Le problème n’est pas que l’IA acquiert une « conscience » et choisisse de mentir, le problème est que ces systèmes ne connaissent pas la différence entre « connaissance » et « probabilité ».
Les grands modèles linguistiques (LLM) sont des « moteurs de prédiction statistique » entraînés sur d’énormes données Internet. Comme tout système électronique, ces modèles ne connaissent pas toutes les « vérités », ils calculent simplement quel mot est le plus susceptible de suivre le suivant dans un contexte donné. Ce processus donne naissance au phénomène dit « d’hallucination » : le modèle n’hésite pas face à un manque de connaissances. Au contraire, il utilise des données complètement fabriquées, de faux articles universitaires, invente des événements historiques qui n’existaient pas ou des précédents juridiques qui semblent valables.
Le danger commence ici. L’IA pourrait utiliser le même ton « expert » qu’elle utilise pour expliquer une équation de physique nucléaire et défendre une théorie du complot selon laquelle « le monde est plat ». L’enquête de l’UER a douloureusement démontré que cette « ignorance confiante » n’est pas une panne rare du système mais un sous-produit naturel du principe de fonctionnement fondamental de la technologie existante. Cette situation a mis en évidence la nécessité de reconnaître à quel point l’utilisation incontrôlée de ces outils peut être destructrice, en particulier dans des secteurs critiques tels que la médecine, le droit et la finance.
L’érosion de l’information s’accélère-t-elle avec l’industrialisation de la désinformation ?
Bien avant l’intelligence artificielle, le concept d’« information exacte » avait déjà subi un coup dur en raison des chambres d’écho créées par les médias sociaux et de la polarisation politique de l’ère de la « post-vérité ». Mais l’intelligence artificielle ne se contente pas d’accélérer cette érosion ; cela le porte à un niveau industriel.
Le rôle de l’IA est double. Alors qu’auparavant, il fallait des équipes organisées, du temps et un budget important pour mener une campagne de désinformation avec « l’automatisation du bruit » ; Aujourd’hui, un seul acteur malveillant peut produire des milliers de faux articles de blog, des reportages déformés dans des centaines de langues différentes et des dizaines de milliers de commentaires manipulateurs sur les réseaux sociaux en quelques minutes. Cela signifie que les « vraies » informations se noient dans un immense océan de « fausses » informations.
Avec « l’effondrement de la confiance », la technologie « Deepfake » n’est plus seulement une innovation amusante, mais un facteur de risque qui menace la sécurité nationale. De faux enregistrements audio et vidéo d’hommes politiques disant des choses qu’ils n’ont pas dites, présentés comme la preuve d’actions qui n’ont pas été entreprises, rendent la vérité elle-même suspecte. Pour reprendre les mots d’un sociologue des médias de l’université de Stanford, «le plus grand danger posé par l’intelligence artificielle n’est pas que les gens croiront aux mensonges, mais qu’ils ne pourront plus rien croire». Il s’agit de l’élément le plus important qui détruit le socle commun de réalité qui constitue la base de la société civile et du débat démocratique.
L’antidote se transforme-t-il en poison ?
Ironiquement, dans le cycle du « Model Crash », les algorithmes d’IA ont été pendant de nombreuses années notre meilleur espoir pour détecter et nettoyer la pollution informationnelle (spam, discours de haine, fausses nouvelles) sur Internet. Mais peut-on aujourd’hui affirmer que ces systèmes risquent de devenir l’une des principales sources de pollution ?
Plus inquiétant encore est un scénario catastrophique théorique que les experts appellent « effondrement de modèle » ou « cycle autocatalytique ». Le processus fonctionne comme ceci :
« Phase 1 : les modèles d’IA sont entraînés avec des données Internet générées par l’homme (et de qualité relativement élevée).
Phase 2 : Ces modèles d’IA inondent Internet de quantités massives de contenu synthétique.
Phase 3 : Lorsque les modèles d’IA de nouvelle génération collectent des données sur Internet pour être entraînés, ils trouvent désormais principalement des données produites par l’IA précédente.
Si ces données sont très inexactes, le nouveau modèle traite ces erreurs comme « réelles ». En d’autres termes, l’information qui capte la majorité de 51 pour cent est considérée comme « vérité », qu’elle soit vraie ou non (même si la machine l’examine, elle n’est pas le décideur). Ceci est similaire à la re-photocopie d’une photocopie à partir d’un photocopieur. À chaque cycle, la qualité de l’image diminue et la réalité s’éloigne. Bref, en s’empoisonnant avec les données erronées qu’elle crée, l’intelligence artificielle peut entrer dans un cycle d’hallucinations déconnectée des connaissances humaines réelles et s’effondrer complètement sur elle-même.
Comment parvenir à une intelligence artificielle fiable ?
Tout comme la mère traverse des douleurs à l’accouchement à la naissance d’un bébé, et que nous élevons le bébé doté d’une intelligence artificielle tout au long de son existence, nous sommes dans une position similaire pour traverser ensemble les douleurs de croissance. Sommes-nous en train d’abandonner la naissance ? Non. De même, tout comme nous élevons ensemble le bébé que nous avons mis au monde à la suite de ces douleurs, de la rampe aux premiers pas, de la position debout à l’individu, l’intelligence artificielle gagnera des personnalités directement proportionnelles à la manière dont nous l’élevons.
Si nous envisageons l’avenir des processus d’intelligence artificielle d’un œil positif, le sombre tableau dressé par les recherches de l’UER ne marque pas la fin de l’intelligence artificielle, mais plutôt une « douleur de croissance » critique et un appel à une « transition urgente vers l’âge adulte ». Ce taux d’erreur de 50 pour cent définit clairement les limites actuelles de la technologie. L’industrie doit désormais se concentrer sur des solutions pour surmonter ces limites.
Les solutions techniques sont l’un des éléments les plus importants qui nous permettront de progresser vers une intelligence artificielle fiable. L’intelligence artificielle du futur reposera sur la « recherche » de connaissances plutôt que sur leur « invention », grâce à la fabrication augmentée par feedback (RAG). Les systèmes RAG recherchent activement sur Internet (ou mieux encore, dans une base de données vérifiée et fermée, comme les archives d’une agence de presse ou une bibliothèque médicale) avant de répondre à une question. Il base sa réponse sur ces sources vérifiées et surtout, il donne du crédit. Cela transforme le modèle d’un « oracle » en un « assistant de recherche » contrôlable.
Avec « Digital Watermark » et « Content Origin » (C2PA), les efforts se sont accélérés pour ajouter un « acte de naissance numérique » (filigrane), invisible à l’œil humain mais lisible par les machines, à chaque texte, image ou fichier audio produit par l’intelligence artificielle. Des initiatives telles que C2PA visent à fournir un système d’enregistrement immuable qui indique où, quand et comment (intelligence humaine ou artificielle) un contenu a été créé.
Lorsque nous examinons les solutions axées sur l’humain et la réglementation, du point de vue de « l’humain dans la boucle », l’industrie technologique s’éloigne rapidement de l’idée de l’intelligence artificielle en tant qu’« agent autonome » et passe à un modèle de « second pilote compétent » (copilote). Un pilote peut mettre l’avion en pilote automatique mais n’abandonne pas les commandes. De même, les journalistes, les médecins, les avocats et les éducateurs utiliseront les brouillons générés par l’IA comme point de départ, mais la vérification ultime, le filtre éthique et la responsabilité resteront toujours du ressort de l’humain.
En termes de réglementation mondiale et de transparence, des réglementations telles que la loi européenne sur l’intelligence artificielle (loi sur l’IA) visent à introduire des normes strictes de transparence, d’auditabilité et d’exactitude pour les systèmes d’IA à haut risque. De cette manière, les entreprises ne pourront plus cacher la manière dont leurs modèles sont formés et leurs taux d’erreur.
Pouvons-nous parvenir à une renaissance à partir du chaos ?
La recherche qui nous permet de faire face à ce type de négativité n’est pas une déclaration de fin, mais un appel à un plan d’action urgent. Oui, l’IA dans sa forme actuelle semble être un « moteur de probabilité » susceptible d’accroître la désinformation. Il s’agit cependant d’une limite de notre approche actuelle et non d’un défaut permanent inhérent à la technologie.
Le processus à venir portera sur la manière dont nous gérons l’intelligence artificielle plutôt que sur l’intelligence artificielle elle-même. À mesure que nous évoluons vers des systèmes basés sur des bases de données fiables (RAG), transparentes (C2PA) et contrôlées par l’homme (HITL), cette technologie peut cesser d’être un outil de désinformation et ouvrir la voie à une « renaissance » sans précédent de l’accès de l’humanité à l’information.
Notre tâche désormais n’est pas de libérer de manière irresponsable cet outil puissant mais imparfait, mais de l’apprivoiser, de l’ancrer dans des faits vérifiables et, plus important encore, de ne pas céder notre capacité à y réfléchir de manière critique. Il est de notre responsabilité collective de garantir que les systèmes développés pour nettoyer la pollution informationnelle ne sont pas eux-mêmes polluants.
(Devrim Danyal est le fondateur de la Blockchain & Artificial Intelligence Academy et instructeur Future Technologies.)