main logo
1788

Capcanele ChatGPT, explicate de un psiholog: Nu e Mafalda și nici Guru

În timp ce OpenAI anunță noi măsuri de „igienă digitală” pentru cei aproape 700 de milioane de utilizatori săptămânali ai ChatGPT, psihologii trag un semnal de alarmă: folosirea frecventă a inteligenței artificiale în contexte personale poate afecta autonomia cognitivă, încrederea în sine și chiar echilibrul emoțional.

Capcanele ChatGPT, explicate de un psiholog: Nu e Mafalda și nici GuruFoto: adevarul.ro

În România, psihologul clinician Luminița Tăbăran descrie clar riscurile invizibile care pot apărea în spatele unei conversații aparent inofensive cu un chatbot, transmite Știri.md cu referire la adevarul.ro.

„Tehnologia este la îndemână, facilă și rapidă pentru oricine are un telefon smart sau un computer. Iar ChatGPT răspunde prompt la orice întrebare, oricât de personală ar fi. Este extrem de tentant să-i ceri părerea și nu e nimic greșit. Periculos este să te bazezi doar pe aceste informații”, declară Luminița Tăbăran, pentru „Adevărul”.

Potrivit acesteia, una dintre cele mai mari capcane este confundarea inteligenței artificiale cu o autoritate absolută. „ChatGPT nu este un Guru, nu este Mafalda. Nu este decât o inteligență artificială care prelucrează rapid și sumarizează informațiile găsite pe net, în acest cazan informatic unde nu ai siguranța că toate informațiile sunt corecte, verificate științific sau complete. Prin urmare, poți obține un punct de vedere eronat, trunchiat sau irelevant”, explică ea.

Pericolul delegării gândirii

Un alt risc major identificat de specialistă este delegarea completă a responsabilității către AI. Mai precis, cei care apelează frecvent la ChatGPT pentru a rezolva sarcini sau dileme riscă să își „atrofieze” gândirea critică.

„Cei care aleg să-și rezolve sarcinile cu acest AI iau totul de-a gata și renunță să-și mai pună mintea la contribuție. Iar creierul este și el un mușchi care trebuie antrenat în fiecare zi. În plus, rezultatul obținut prin forțe proprii stimulează creativitatea, ceea ce poate însemna un conținut revoluționar și o creștere a stimei de sine”, este de părere Luminița Tăbăran.

Psihologul subliniază că procesul de căutare, învățare și descoperire contribuie nu doar la starea de bine (prin dopamină), ci și la formarea unor noi conexiuni neuronale, utile în rezolvarea problemelor pe termen lung.

AI, dar în doze mici

Deși nu respinge tehnologia, ea atrage atenția și asupra lipsei de adaptare culturală și lingvistică a chatbotului: „AI-ul traduce practic din toate limbile informațiile găsite și le adaptează într-un mod, de multe ori, amuzant și prea puțin adaptat limbii tale.”

În final, Luminița Tăbăran recomandă utilizarea moderată, conștientă și consultativă a ChatGPT: „AI-ul poate fi prețios în unele situații. Poate fi folosit consultativ sau ca divertisment. Nu uita că doza face otrava. Așa că ai grijă la igiena digitală!”

ChatGPT, la nivel global: între revoluție și vulnerabilitate

În timp ce lumea așteaptă lansarea GPT-5, OpenAI mărturisește că versiunea actuală a chatbotului, GPT-4o, nu a reușit să recunoască semnele de iluzie sau dependență emoțională ale unor utilizatori în anumite interacțiuni, transmite The Verge. Compania admite că, pentru utilizatorii vulnerabili, ChatGPT poate părea „mai personal și mai empatic” decât tehnologiile anterioare, o impresie care poate deveni riscantă în lipsa unor măsuri de protecție.

Mai precis, în unele situații, AI-ul a răspuns cu prea multă indulgență la idei periculoase, întărindu-le în loc să le tempereze. În aprilie, OpenAI a fost nevoită să retragă o actualizare care făcea ca ChatGPT să devină excesiv de „drăguț” și docil, chiar și atunci când i se cereau opinii sau sfaturi dăunătoare. Compania a descris acele interacțiuni drept „lingușitoare, inconfortabile și potențial tulburătoare”. Pentru a evita repetarea acestor erori, OpenAI lucrează în prezent cu o rețea de experți și consilieri în sănătate mintală din peste 30 de țări. Scopul este clar: ChatGPT ar trebui să detecteze mai bine semnele de suferință psihică și să poată redirecționa utilizatorii către resurse validate științific, acolo unde este cazul.

Anunțul vine după mai multe cazuri raportate public în care oameni aflați în stare de confuzie mentală au folosit chatbotul într-un mod care le-a agravat starea. 

„Ai stat cam mult. Nu vrei o pauză?”

Ca parte a acestui efort, OpenAI introduce o serie de notificări discrete, menite să încurajeze pauzele în conversațiile prelungite. Dacă o sesiune se întinde prea mult, ChatGPT va afișa un mesaj de tipul: „Vorbiți de ceva vreme, este un moment bun pentru o pauză?”, cu opțiuni de continuare sau încheiere.

Este o măsură inspirată de alte platforme online: YouTube, Instagram, TikTok sau Xbox, care folosesc notificări similare pentru a limita consumul compulsiv al userilor. Platforma Character.AI, deținută de Google, a mers și mai departe: informează părinții cu ce boți vorbesc copiii lor, după ce a fost dată în judecată pentru că anumite conversații sugerau autovătămarea.

OpenAI spune că va ajusta în continuare modul și frecvența cu care apar aceste mesaje, în funcție de comportamentul utilizatorilor și de tipul sesiunii.

Fără răspunsuri categorice la întrebări sensibile

De asemenea, compania a anunțat și că ChatGPT nu va mai răspunde direct la întrebări cu miză emoțională mare, precum „Ar trebui să mă despart de partener?”. În locul unui răspuns tranșant, chatbotul va propune o analiză a opțiunilor și o explorare mai atentă a contextului, evitând poziționările autoritare sau deciziile „în locul tău”.

Așadar, OpenAI pare să recunoască nu doar impactul tehnologic pe care îl are AI-ul, ci și responsabilitatea morală care vine odată cu puterea de a influența viețile oamenilor.

Expediați-ne o știre

Ați aflat ceva interesant? Împărtășiți știrea cu toată lumea!
Prin apăsarea butonului «Adăugați» D-vstră acceptați condițiile publicării