Potrivit Mediafax,
Inteligența artificială în locul terapeutului? Un nou studiu dezvăluie riscuri etice grave Prima pagină » Life-Inedit » Inteligența artificială în locul terapeutului? Un nou studiu dezvăluie riscuri etice grave Inteligența artificială în locul terapeutului? Un nou studiu dezvăluie riscuri etice grave Pe măsură ce tot mai multe persoane solicită sfaturi în materie de sănătate mintală de la ChatGPT și alte modele lingvistice de mari dimensiuni (LLM), noi cercetări sugerează că aceste chatboturi bazate pe inteligență artificială ar putea să nu fie pregătite pentru acest rol. Sursa foto: Pixabay 02 mart. 2026, 17:47, Life-Inedit Alexandra-Valentina Dumitru SHARE: Studiul a constatat că, chiar și atunci când li se cere să utilizeze abordări psihoterapeutice consacrate, sistemele nu reușesc în mod constant să respecte standardele de etică profesională stabilite de organizații precum American Psychological Association, potrivit Science Daily . În cadrul testelor, chatbot-urile au gestionat greșit situațiile de criză, au dat răspunsuri care au întărit convingerile dăunătoare despre utilizatori sau alte persoane și au folosit un limbaj care crea aparența empatiei, fără a manifesta o înțelegere autentică. „În această lucrare, prezentăm un cadru bazat pe informații furnizate de practicieni, care cuprinde 15 riscuri etice, pentru a demonstra modul în care consilierii LLM încalcă standardele etice în practica sănătății mintale, prin corelarea comportamentului modelului cu încălcări etice specifice”, au scris cercetătorii în studiul lor. Lockheed Martin a testat pe F-35 un sistem de identificare în luptă bazat pe inteligență artificială Inteligența artificială ne face să muncim mai puțin? Un studiu arată exact contrariul „Solicităm ca în viitor să se creeze standarde etice, educaționale și juridice pentru consilierii LLM – standarde care să reflecte calitatea și rigoarea îngrijirii necesare pentru psihoterapia facilitată de oameni”. Cum influențează prompturile răspunsurile terap
Sursa: Mediafax




