Danger de «l’intelligence artificielle» en thérapie: aucune sécurité des données

Il a souligné que le chat avec l’intelligence artificielle ne pouvait pas remplacer les séances de thérapie et expliqué les raisons.

Hôpitaux universitaires de Yeditepe, exp. Le psychologue clinicien Merve Öz a souligné que les personnes qui recherchent un soutien spirituel devraient consulter des thérapeutes experts au lieu de solutions basées sur l’intelligence artificielle.

‘Je ne peux pas établir l’empathie’

Soulignant que la communication avec l’intelligence artificielle n’est pas une relation de thérapie, a déclaré: «L’intelligence artificielle a des phrases programmées; empathie, un cœur, aucune perspicacité. Ainsi, l’intelligence artificielle peut simuler l’empathie, pas vraiment la sensation», a-t-il déclaré.

Expliquant que l’intelligence artificielle ne réagit qu’aux commandes écrites ou vocales et ne pouvait pas comprendre la complexité émotionnelle, Öz a déclaré:

«Les experts de cette question sont des individus à forte intelligence émotionnelle et leurs capacités d’observation sont très développées. Ils peuvent faire des inférences sur la personne qui se sent à partir de signaux fins tels que le ton sonore et le langage corporel. Le bénéfice personnel se produit après ce point.»

L’un des principaux objectifs de la psychothérapie est de confronter la personne lui-même et de donner une nouvelle perspective face aux événements Öz, des conversations d’intelligence artificielle selon le côté de la réponse de la personne selon le côté de la personne a dit que la personne avait dit qu’elle ne voulait que l’entendre. Bien qu’il y ait eu de confrontation en psychothérapie, il a souligné que le but de l’intelligence artificielle est de rendre la personne justifiée.

«La sécurité des données ne peut pas être réalisée»

Rappelant que les thérapies sont faites sur la base de la confidentialité et de l’engagement envers les règles éthiques est extrêmement important à cet égard, Öz a déclaré qu’il n’y avait pas une telle confidentialité dans l’utilisation de l’intelligence artificielle et a déclaré:

«Étant donné que les systèmes d’intelligence artificielle traitent une grande quantité de données, il existe un risque de fuite ou d’abus de ces données entre les mauvaises mains. En particulier le traitement, le stockage et le partage de données sensibles sur la santé mentale comporte de grands risques.»

«Il y a un manque de connexion individuelle»

Soulignant que les thérapies ne sont pas seulement une proposition, mais avec une analyse en profondeur et une relation mutuelle, et qu’elles sont basées sur la relation de confiance entre les deux personnes, a déclaré Öz: «L’intelligence artificielle ne peut pas copier la relation thérapeutique profonde et significative avec l’homme. Cependant, les thérapeutes ont activement écouté le monde intérieur de la personne.

«Il ne peut pas prendre de décisions éthiques dans des situations psychologiques complexes et des moments de crise»

Les troubles de la personnalité, la dépression majeure tels que les troubles psychologiques graves tels que l’intelligence artificielle ne seront pas suffisants, indiquant que quelques recommandations, «en outre, les pensées de suicide, la violence, le traumatisme dans des cas tels que l’intelligence artificielle sont insuffisantes. Dans de tels cas, si nécessaire, si nécessaire, la crise intervenue.

‘Aucune responsabilité juridique’

Déclarant que l’un des points les plus importants est que l’intelligence artificielle n’a pas la responsabilité juridique de l’intelligence artificielle, Öz a déclaré: «Les thérapeutes sont soumis à l’éthique professionnelle, au contrôle et à la responsabilité juridique. Même si l’intelligence artificielle fait des erreurs, la responsabilité éthique ne porte pas un environnement sûr et éthique pour la thérapie.

«Cela vous fait des problèmes avec l’intelligence artificielle»

Rappelant que parfois les informations peuvent être obtenues à partir de l’intelligence artificielle, manquante, manquante ou déconnectée du contexte, ce qui peut provoquer des conséquences négatives en particulier dans des questions sensibles telles que la santé mentale, Öz a averti les avertissements suivants concernant les dangers possibles de l’intelligence artificielle:

«En raison de la conversation constante avec l’intelligence artificielle, les gens de l’intelligence artificielle des gens me comprennent, je n’ai pas besoin de personnes qui peuvent se développer. Cependant, la guérison émotionnelle se produit généralement par des relations entre les personnes. L’intelligence artificielle peut approfondir la solitude. Elle peut également empêcher l’approfondissement, même si cela peut créer une capacité d’estime de soi de consulter le cerveau.