L’intelligence artificielle d’Elon Musk ment sur Gok Gaza: ses mensonges ont été révélés un par un

Contrairement aux affirmations de Gok, les photographies du regard de famine sont réelles. Le sénateur américain Bernie Sanders a partagé deux photos d’un enfant qui a montré des signes de faim dans X le 28 juillet et a affirmé qu’ils avaient été vus à Gaza. Dans un utilisateur commente en anglais, «Grok, quelle année appartient ces photos?» il a demandé. Intelligence artificielle, «Images 2016» et «Yémen, Hudeyde’deki Hudayde’deki Hospitalized Children», a-t-il déclaré.

Dans un autre partage daté du 23 juillet, nous voyons une femme tenant un enfant souffrant de malnutrition, et nous voyons un message qui dit: «C’est l’une des images qui sera l’une des images des livres d’histoire». Encore une fois, un utilisateur demande à GOK si l’image est réelle et l’intelligence artificielle prétend que l’image appartient au «Yémen du Yémen en 2017».

De même, le député du Parti islamique libéral (LFI), Aymet Caron, a partagé une photo d’une fille qui a été malnutrée avec sa mère le 3 août. Un utilisateur d’Internet a interrogé Grok sur la «source et la précision» de la photo en Français, et l’intelligence artificielle, la photo a été prise par le photographe Tyler Hicks en Yemen en 2018 pour le New York Times. Intelligence artificielle, «Gaza n’a rien à voir avec les événements récents», a-t-il affirmé. Cependant, cette affirmation n’est pas vraie; Toutes les photos étaient réelles, à jour et prises à Gaza.

Les messages de Gok incluent les affirmations non fondées selon lesquelles ces images de malnutrition n’ont rien à voir avec le conflit à Gaza.

Ces images d’enfants de malnutrition étaient réelles, à la hauteur et enregistrées à Gaza. Les deux premières photos ont été prises le 23 juillet par le photographe EP Jehad Alshrafi. Les photographies montrent un enfant nommé de deux ans qui a posé avec sa mère dans le camp de réfugiés de Gaza à Gaza. Le contrôleur d’information de la BBC, Shayan Sardarizadeh, en réponse au message de Gok, a déclaré que l’intelligence artificielle a de nouveau affirmé que «les photos récemment prises à Gaza étaient anciennes et ailleurs», a-t-il déclaré.

C’était mal pour Gok décrit cette photo prise lors d’une distribution alimentaire d’une fille comme une fausse. Cette photographie est également incluse dans l’article d’Associated Press le 29 juillet, qui se concentre sur la crise alimentaire à Gaza.

La troisième photographie publiée dans X, lors de la fausse déclaration de Gok, a été prise par le photographe Ahmed Alini de l’agence Anadolu le 21 juillet. Dans cette archive, il existe d’autres images instantanées qui montrent la même scène sous différents angles. Sous la photo, Gaza Muhammad a une aggravation de la situation humanitaire en raison des attaques et du blocus israéliens. La BBC a également transmis cette nouvelle et a rencontré la mère de Muhammad.

Une autre photo déformée par Gok a été prise par le photographe de l’AFP, Ömer al-Kattaa, à Gaza le 2 août. Au contraire, la recherche visuelle montre la photo publiée dans Getty Images.

Selon la photo, la photo est vue sur la photo des bras de sa mère, la Palestinienne de 9 ans, Mariam Dawwas. La propre plate-forme de vérification des informations de l’AFP AFP Factal a nié le message de Gok et confirmé l’écriture et le contexte de la photographie.

Pourquoi Elon Musk ment-il sur Gaza sur Gaza?

Les experts en conseil conviennent que les préjugés dans lesquels ce modèle et la base de données sont formés sont d’une importance essentielle. L’analyste de données Javier Barriuso dit que cette intelligence artificielle est «basée sur tout sur Internet et X,» si ce réseau social est plein de fausses informations, «en supposant l’existence de fausses informations». Parfois, Barriuso ajoute que «il répondra d’une manière ou d’une autre» ou «peut donner une réponse correcte ou mauvaise», selon la façon dont vous répondez à vos questions d’une manière ou d’une autre.

L’expert en communication numérique Carlos Guadián explique que RTVE montre que le statut de Gok est «différent de tous les autres modèles d’intelligence artificielle». Guadián estime que le GOK est biaisé et qu’il peut affecter de manière significative «certaines réactions». Il souligne également qu’Elon Musk est «obsession d’avoir un modèle d’intelligence artificielle qui n’est pas politiquement très précis».

Guadián dit qu’il a posé des questions comme «Qu’est-ce que Elon Musk pense …» tout en menant les enquêtes de Gok. L’analyste dit que ce qui est fait par l’intelligence artificielle signifie «prendre l’idée d’Elon Musk tout en façonnant la réaction».

Javier Barriuso réfléchit au rôle des utilisateurs dans les mauvaises informations. Selon Barriuso, nous sommes dans un monde polarisé; Nous recherchons les réponses que nous voulons voir, pas la vérité.

«Une intelligence artificielle est toujours un programme qui cherche des informations, mais pas parfait et jamais» et ne manquera jamais plusieurs fois.

Carlos Guadián accepte que nous nous retrouverons lentement sur le même bateau avec des modèles d’intelligence artificielle, ainsi que des utilisateurs qui préfèrent consommer des médias progressifs ou conservateurs.

Cet expert révèle que le véhicule de base dans la lutte contre les fausses informations est une «pensée critique». Si nous voulons utiliser l’intelligence artificielle pour la vérification, il recommande que nous devions le faire avec plus d’un modèle d’intelligence artificielle «. L’expert souligne qu’il est préférable de ne pas vous limiter à GOK et de consulter d’autres modèles tels que GPT. En fonction du modèle, il est possible de» vous donner des réponses complètement différentes «.