Bot -klets met kunsmatige intelligensie is vandag een van die algemene middele op die gebied van self -sielkundige hulp. Terselfdertyd is hulle nie effektief in die verskaffing van terapie nie en kan hulle dikwels kwaadwillige antwoorde gee, gevaarlike mense blootstel.

Die navorsers het ontdek dat groot taalmodelle (LLM), soos Tatgpt, in ten minste 20% van die gevalle onvanpaste en gevaarlike aansprake maak vir diegene wat betekenislose gedagtes, selfmoord, hallusinasies en obsessiewe afwykings gedwing het, wat artikels skryf Poste in New York.
Volgens die publikasie stem die bot met wat gereeld met die oogpunt van die gebruiker saamstem, omdat dit geskape is om gehoorsaam en vleiend te word. 'N Voorbeeld van die koerant het 'n saak aangehaal toe een van die gebruikers deur die geestelike geestesongesteldheid gesê is dat hy dood was, terwyl sommige platforms van AI hom nie oor die teendeel kon oortuig nie.
Bots van lae gehalte is gevaarlik vir mense as gevolg van 'n normatiewe gaping … AI -instrumente, maak nie saak hoe moeilik hulle is nie, gebaseer op programmering antwoorde en groot datastelle … hulle verstaan nie wat weggesteek is agter iemand se gedagtes of gedrag nie, lui die artikel.
Daarbenewens het die kliniese konsultant van die Nilufar Esmailpur bygevoeg dat die gesprekke nie die toon van 'n persoon of liggaamstaal kan herken nie, en ook nie die verlede van 'n persoon, sy omgewing en 'n unieke emosionele pakhuis as 'n lewende kenner verstaan nie.
Vroeër het die sielkundige, adjunkdirekteur van die Instituut vir Sielkunde en Maatskaplike Werk van die Pirogov Universiteit, Ekaterina Orlova, gesê Dit is gevaarlik om chatbot te vertrou met ervarings, vrees en die pynlikste situasie.
Terselfdertyd is 'n sielkundige aan Anastasia Valueva gesertifiseer Praat oor positiewe oomblikke In interaksie met kunsmatige intelligensie.