main logo
726

OpenAI va implementa noi măsuri de securitate în ChatGPT

Compania OpenAI a anunțat că va începe să redirecționeze conversațiile confidențiale ale utilizatorilor către așa-numitele „modele de raționament”, inclusiv GPT-5, și că va lansa funcția de control parental chiar din luna următoare.

OpenAI va implementa noi măsuri de securitate în ChatGPTFoto: point.md

Acești pași au fost o reacție la incidentele în care ChatGPT nu a reușit să recunoască conversațiile despre tulburări mentale și sinucidere, transmite Știri.md cu referire la point.md.

Tragedia adolescentului Adam Rhein a fost motivul introducerii noilor restricții. Tânărul discuta cu ChatGPT despre intenția de a-și pune capăt vieții, iar sistemul i-a oferit informații detaliate despre metodele de sinucidere. Părinții lui Rhein au dat în judecată OpenAI, acuzând compania de moartea nejustificată a fiului lor.

Săptămâna trecută, OpenAI a recunoscut pe blogul său vulnerabilitățile din sistemul de siguranță, inclusiv dificultățile de a menține limitele în conversațiile lungi. Potrivit experților, problema constă în însăși arhitectura: modelele analizează declarațiile utilizatorului și construiesc răspunsurile pe principiul anticipării următorului cuvânt, ceea ce face ca chatbot-urile să continue dialogul în loc să întrerupă la timp subiectele periculoase.

Această tendință s-a manifestat cel mai clar în cazul lui Stein-Erik Zelberg, despre uciderea și sinuciderea căruia a relatat ziarul The Wall Street Journal. Zelberg, care suferea de o afecțiune psihică, folosea ChatGPT pentru a-i confirma și a-i amplifica paranoia, crezând că a devenit victimă a unei conspirații grandioase.

OpenAI consideră că una dintre modalitățile de rezolvare a acestor probleme ar putea fi redirecționarea automată a mesajelor confidențiale către „modele de raționament”.

Potrivit companiei, noile modele de raționament alocă mai mult timp analizei și oferă răspunsuri mai consistente în scenarii de stres. În plus, controlul parental va permite conectarea conturilor părinților și adolescenților, dezactivarea istoricului chatului și primirea de notificări dacă sistemul detectează semne de „stres acut”.

Între timp, avocații familiilor victimelor consideră că măsurile companiei sunt insuficiente.

„OpenAI nu are nevoie de o comisie de experți pentru a determina dacă ChatGPT este periculos. Ei știau acest lucru încă din ziua lansării produsului și știu și astăzi. Sam Altman nu ar trebui să se ascundă în spatele departamentului de PR al companiei. Sam trebuie fie să declare clar că consideră ChatGPT sigur, fie să îl retragă imediat de pe piață”, a declarat avocatul familiei Rhein, Jay Edelson.

Expediați-ne o știre

Ați aflat ceva interesant? Împărtășiți știrea cu toată lumea!
Prin apăsarea butonului «Adăugați» D-vstră acceptați condițiile publicării