Le nouveau règlement, qui impose des restrictions sur l’application de chat basée sur l’intelligence artificielle ChatGPT, est entré en vigueur le 29 octobre. Le nouveau règlement inclut la définition de l’outil d’intelligence artificielle comme un « outil de formation » plutôt que comme un « conseiller ». La raison de ce changement de définition est que les grandes entreprises technologiques évoquent des risques de responsabilité et de litige.
RESTRICTION SUR LES QUESTIONS DANS LE DOMAINE DE LA MÉDECINE, DU DROIT ET DES FINANCES
Les grandes entreprises technologiques qui ne veulent pas prendre de risques limitent les questions dans les domaines de la médecine, du droit et de la finance. Désormais, ChatGPT expliquera uniquement les principes généraux, expliquera des exemples de mécanismes et dirigera les utilisateurs vers un médecin, un avocat ou un conseiller financier.
Selon l’actualité de NEXTA, ChatGPT ne sera plus en mesure de donner les noms et dosages des médicaments, de préparer des modèles de dossiers, et de donner des conseils en investissement ou des recommandations d’achat/vente.
Cette étape répond aux préoccupations exprimées depuis longtemps par les experts qui soulignent la possibilité d’une intelligence artificielle trompeuse.