• Chatboții din domeniul sănătății mintale bazați pe inteligență artificială devin din ce în ce mai populari din cauza lipsei de resurse medicale.
  • Bazați pe inteligența artificială, Woebot și alți chatboți specializați în sănătate mintală îi pot ajuta pe utilizatori să facă față stresului, anxietății și depresiei.
  • Cu toate acestea, există preocupări legate de confidențialitatea datelor și de etica consilierii, spun experții din tehnologie.

Bazați pe inteligența artificială, Woebot și alți chatboți specializați în sănătate mintală îi pot ajuta pe utilizatori să facă față stresului, anxietății și depresiei.

Nicole Doyle, consilier în sănătate mintală, a fost luată prin surprindere când șeful Asociației Naționale pentru Tulburări de Alimentație din SUA s-a prezentat la o întâlnire a personalului pentru a comunica că organizația va înlocui linia de asistență telefonică cu un chatbot.

După câteva zile de la dezactivarea liniei de asistență telefonică, s-a luat decizia de a întrerupe și robotul, numit Tessa, din cauza faptului că oferea sfaturi care erau dăunătoare pentru persoanele cu afecțiuni mintale.

Recomandări

LE-O DĂM ÎN VOT!
CE SCRIE PRESA INTERNAȚIONALĂ
SURSE: CIUCĂ DEMISIONEAZĂ
CINE ESTE CĂLIN GEORGESCU
ALEGERI 2024
GEOANĂ RUPE TĂCEREA

,,Dădea sfaturi de slăbire persoanelor care îi spuneau că se luptau cu o tulburare de alimentație” , a declarat Doyle, în vârstă de 33 de ani, unul dintre cei cinci lucrători care au fost concediați în martie, la aproximativ un an de la lansarea chatbotului.

Pot chatboții să îmbunătățească sănătatea mintală?

,,Deși Tessa ar putea simula empatia, nu este același lucru cu empatia umană reală” , a spus Doyle.

Asociația Națională pentru Tulburări de Alimentație (NEDA) a declarat că, deși cercetările din spatele robotului au produs rezultate pozitive, aceștia determină ce s-a întâmplat cu sfaturile oferite și ,,analizează cu atenție” următorii pași.

NEDA a declarat că chatbotul nu a fost niciodată menit să înlocuiască linia de asistență telefonică.

Din SUA până în Africa de Sud, chatbot-urile de sănătate mintală care folosesc inteligența artificială sunt din ce în ce mai populare într-un moment în care resursele de sănătate sunt întinse, în ciuda preocupărilor experților în tehnologie cu privire la confidențialitatea datelor și etica consilierii.

În timp ce instrumentele digitale de sănătate mintală există de mai bine de un deceniu, în prezent există peste 40 de chatbot-uri de sănătate mintală la nivel global, potrivit International Journal of Medical Informatics, scrie Japan Times.

Jonah, un student la antropologie din New York, a apelat de-a lungul anilor la medicamente psihiatrice și linii de asistență diferite pentru a-l ajuta să facă față tulburării sale obsesiv-compulsive (TOC).

El a adăugat acum ChatGPT la lista sa de servicii de sprijin, ca supliment la consultațiile sale săptămânale cu un terapeut.

Deși tânărul în vârstă de 22 de ani a descris ChatGPT ca oferind ,,sfaturi standard”, el a spus că este încă util ,,dacă ești foarte agitat și ai nevoie să auzi ceva de bază … în loc să te îngrijorezi singur” .

Startup-urile din domeniul tehnologiei sănătății mintale au strâns 1,6 miliarde de dolari în capital de risc până în decembrie 2020, când pandemia de COVID-19 a pus în centrul atenției sănătatea mintală, potrivit firmei de date PitchBook.

,,Nevoia de asistență medicală la distanță a fost evidențiată și mai mult de pandemia COVID” , a declarat Johan Steyn, cercetător în domeniul inteligenței artificiale și fondator al AIforBusiness.net, o companie de consultanță în domeniul educației și managementului A.I..

Cost și abandon

Sprijinul pentru sănătatea mintală este o provocare tot mai mare la nivel mondial, spun avocații din domeniul sănătății.

Potrivit Organizației Mondiale a Sănătății, se estimează că 1 miliard de persoane din întreaga lume trăiau cu anxietate și depresie înainte de pandemia de COVID 19 – 82% dintre aceștia în țările cu venituri mici și medii.

Pandemia a crescut acest număr cu aproximativ 27%, estimează OMS.

Tratamentul pentru sănătate mintală este, de asemenea, împărțit în funcție de venituri, costul fiind o barieră majoră în calea accesului.

Cercetătorii avertizează că, în timp ce accesibilitatea terapiei cu IA poate fi seducătoare, companiile de tehnologie trebuie să fie atente la aplicarea disparităților în materie de asistență medicală.

Persoanele care nu au acces la internet riscă să fie abandonate, sau pacienții cu asigurare de sănătate ar putea avea acces la vizite de terapie față în față, în timp ce cei care nu au acces la ea rămân cu opțiunea mai ieftină a chatbot-ului, potrivit Brookings Institution.

Protejarea vieții private

Institutul de cercetare Distributed AI Research Institute (DAIR) a avertizat că utilizarea inteligenței artificiale pentru nevoi intime și interpersonale, cum ar fi terapia, „reproduce sistemele de opresiune și pune in pericol ecosistemul nostru informational” din cauza tendintei sale de a genera raspunsuri bazate pe date părtinitoare sau discriminatorii.

În ciuda creșterii popularității chatbot-urilor pentru suportul de sănătate mintală la nivel mondial, preocupările legate de confidențialitate reprezintă încă un risc major pentru utilizatori, a constatat Fundația Mozilla în cadrul unei cercetări publicate în mai 2022.

Dintre cele 32 de aplicații de sănătate mintală analizate de organizația nonprofit de tehnologie, precum Talkspace, Woebot și Calm, 28 au fost semnalate pentru ,,preocupări puternice privind gestionarea datelor utilizatorilor” , iar 25 nu au reușit să îndeplinească standardele de securitate.

Misha Rykov, cercetător Mozilla, a descris aplicațiile ca fiind ,,mașini de supt date cu o aspect de aplicație de sănătate mintală” , care deschid posibilitatea ca datele utilizatorilor să fie colectate de agenții de asigurări și de date și de companii de social media. De exemplu, Woebot pentru sănătate mintală a fost evidențiată în cercetare pentru că ,,împărtășește informații personale cu părți terțe”b.

Woebot spune că, deși promovează aplicația folosind reclame targetate pe Facebook, ,,nu sunt partajate sau vândute date personale acestor parteneri de marketing/publicitate” și că oferă utilizatorilor opțiunea de a-și șterge toate datele la cerere.

Fundația Mozilla și-a revizuit evaluarea în aprilie, afirmând pe site-ul său că ,,după ce am publicat evaluarea noastră, Woebot a luat legătura cu noi și a deschis o conversație pentru a răspunde preocupărilor noastre” .

,,Rezultatul acestor conversații au fost actualizări ale politicii lor de confidențialitate care clarifică mai bine modul în care protejează confidențialitatea utilizatorilor lor. Așa că acum … ne simțim destul de bine în ceea ce privește confidențialitatea Woebot. „

Experții în inteligență artificială au avertizat împotriva companiilor de terapie virtuală care pierd date sensibile din cauza unor încălcări cibernetice.

,,Roboții de chat cu inteligență artificială se confruntă cu același risc de confidențialitate ca și roboții de chat mai tradiționali sau orice serviciu online care acceptă informații personale de la un utilizator” , a declarat Eliot Bendinelli, tehnolog senior la grupul de drepturi Privacy International.

În Africa de Sud, aplicația de sănătate mintală Panda urmează să lanseze un ,,însoțitor digital” generat de inteligența artificială care să discute cu utilizatorii, să ofere sugestii de tratament și, cu acordul utilizatorilor, să ofere scoruri și informații despre utilizatori terapeuților tradiționali, de asemenea, accesibili pe aplicație.

,,Însoțitorul nu înlocuiește formele tradiționale de terapie, ci le sporește și îi sprijină pe oameni în viața lor de zi cu zi” , a declarat fondatorul Panda, Alon Lits.

Experții în tehnologie, precum Steyn, speră că o reglementare solidă va putea, în cele din urmă, să ,,protejeze împotriva practicilor imorale ale A.I., să consolideze securitatea datelor și să mențină standardele de îngrijire a sănătății consecvente” .

Din Statele Unite până în UE, legislatorii se grăbesc să reglementeze instrumentele de A.I. și împing industria să adopte un cod de conduită voluntar în timp ce sunt elaborate noi legi.

Empatie

Cu toate acestea, anonimatul și lipsa unei judecăți sunt motivele pentru care persoane precum Tim, în vârstă de 45 de ani, un manager de depozit din Marea Britanie, a apelat la ChatGPT în locul unui terapeut uman.

,,Știu că este doar un model lingvistic mare și că nu «știe» nimic, dar acest lucru face de fapt mai ușor să vorbesc despre probleme despre care nu vorbesc cu nimeni altcineva” , a declarat Tim, sub anonimat, care a apelat la robot pentru a alunga singurătatea cronică.

Cercetările arată că empatia chatboților poate fi mai mare decât cea a oamenilor.

Un studiu realizat în 2023 în revista americană de medicină internă JAMA a evaluat răspunsurile chatbot-urilor și ale medicilor la 195 de întrebări ale pacienților extrase aleatoriu de pe un forum de social media.

Aceștia au constatat că răspunsurile robotului au fost evaluate ,,semnificativ mai bine atât pentru calitate, cât și pentru empatie” în comparație cu cele ale medicului.

Cercetătorii au dedus că ,,asistenții bazați pe inteligență artificială ar putea fi capabili să ajute la redactarea răspunsurilor la întrebările pacienților” , nu să înlocuiască cu totul medicii.

Dar, deși roboții pot simula empatia, aceasta nu va fi niciodată la fel ca empatia umană pe care oamenii o doresc cu ardoare atunci când apelează la o linie de asistență telefonică, a declarat Doyle, fost consilier NEDA.

,,Ar trebui să folosim tehnologia pentru a lucra alături de noi, oamenii, nu pentru a ne înlocui” , a spus ea.

Citește și

Raport WSJ: Marina americană auzise acum câteva zile ceea ce se credea a fi o implozie a Titanului: „Au bănuit ce s-a întâmplat, dar nu au putut fi siguri”

Un prezentator TV a refuzat o excursie cu submersibilul Titan cauza unor temeri privind siguranța: „Există informații care nu au fost făcute publice”

FOTO. Dua Lipa, ședință foto sexy într-un costum de baie din colecția făcută în colaborare cu Donatella Versace