L’utilisation par le gouvernement néerlandais de l’intelligence artificielle pour accélérer les services publics a conduit à une crise majeure. L’utilisation de l’intelligence artificielle dans les services publics du pays a commencé en 2020. Les algorithmes installés sur l’intelligence artificielle ont commencé à identifier les fraudeurs fiscaux, mais il s’est avéré que les personnes condamnées à une amende pour fraude fiscale étaient mal identifiées par l’intelligence artificielle. Selon les informations révélées par The Parliament, publication connue pour sa proximité avec l’Union européenne (UE), des responsables gouvernementaux ont chargé l’intelligence artificielle d’algorithmes racistes, tels que « ceux qui ont des noms et prénoms à consonance étrangère », « ceux qui ont une double citoyenneté » et « minorités ». Il a également été déclaré que des dizaines de milliers de personnes avaient été injustement condamnées à des amendes en raison de ce système d’algorithme incorrect et que de nombreux Turcs figuraient parmi les personnes punies.
L’UE PEUT PUNIR
De nombreuses familles auraient été « dévastées » par le scandale du racisme basé sur l’intelligence artificielle aux Pays-Bas. Alors qu’il est souligné que l’intelligence artificielle opère une discrimination raciste tant en matière d’évasion fiscale que de pension alimentaire pour enfants, des milliers de familles restent endettées et perdent même leur logement ; Aux Pays-Bas « 4. Le scandale, qui aurait contribué à la chute du gouvernement appelé « Cabinet Mark Rutte », est également sous le feu des projecteurs de l’Union européenne.
DÉCLARATION OFFICIELLE DEMANDÉE
Dans l’Union européenne ; Suite au scandale qui a éclaté dans le pays, le gouvernement néerlandais a demandé une déclaration officielle indiquant si l’algorithme raciste était utilisé par les agents de l’immigration, les forces de l’ordre, l’armée ou les écoles. Chloé Berthelemy, l’une des expertes de l’organisation non gouvernementale européenne des droits numériques, basée à Bruxelles, a déclaré : « Après le scandale,«Le racisme contre les minorités en Europe, qui s’est récemment accru, est devenu de plus en plus incontrôlable et plus violent en raison des algorithmes de l’intelligence artificielle.» Il a fait une déclaration.
LES MINORITÉS SONT-ELLES IDENTIFIÉES ?
AP, une organisation de surveillance des droits de l’homme basée aux Pays-Bas, a affirmé que le codage raciste de l’intelligence artificielle dans les institutions publiques s’est poursuivi tout au long de l’année 2023. Selon l’étude de la Commission européenne de 2022, 686 plaintes officielles concernant l’algorithme discriminatoire de l’intelligence artificielle ont été reçues par la Commission en provenance de 27 pays membres de l’UE. Dans le rapport sur la transparence du gouvernement néerlandais publié en 2020, il était indiqué que des avertissements concernant le codage et l’utilisation raciste de l’intelligence artificielle par les fonctionnaires étaient lancés depuis 2016. Le rapport souligne également que certains groupes minoritaires à travers le pays sont constamment ciblés par des algorithmes.

LES GOUVERNEMENTS SONT SILENTS
Selon une étude publiée en 2023 par Lighthouse Reports, une plateforme de journalisme d’investigation indépendante basée aux Pays-Bas, au Danemark, en France, en Espagne et en Serbie fait partie des pays qui imposent des sanctions pénales à leurs citoyens avec des algorithmes tout aussi discriminatoires. Alors qu’il est affirmé que les personnes appartenant au groupe à faible revenu dans ces pays sont classées comme des « groupes à fort potentiel criminel », Contrairement aux Pays-Bas, aucune enquête n’a été ouverte sur cette question.
1,4 MILLION DE FAMILLES SONT TOUCHÉES
Selon des informations concernant le scandale de discrimination aux Pays-Bas, 1,4 million de familles du pays ont été perçues comme des « criminels potentiels » par l’intelligence artificielle. 71 pour cent des familles soumises à des sanctions pénales en matière d’impôts et d’allocations familiales sont soit des immigrés directs, soit des familles de la première génération d’immigrés. 44 pour cent appartiennent au groupe à faible revenu. Les experts révèlent que l’un des plus grands dangers des algorithmes discriminatoires de l’intelligence artificielle est qu’ils « ont une attitude raciste invisible ».
(email protégé)