Un american s-a îmbolnăvit de o boală rară din cauza AI: Ce a făcut
ChatGPT poate fi de ajutor în multe privințe, nu și atunci când vine vorba de sfaturi medicale. Un american a ajuns la spital, în stare extrem de gravă, după ce a cerut sfaturi de la Inteligența Artificială.

Un american în vârstă de 60 de ani a vrut să slăbească așa că a cerut diete de la ChatGPT. Inteligența Artificială i-a recomandat să înlocuiască sarea normală cu bromură de sodiu. Fără să stea prea mult pe gânduri, omul a urmat sfatul AI-ului și a ajuns la spital cu paranoia și halucinații, potrivit Economic Times, transmite Știri.md cu referire la observatornews.ro.
Ce le-a spus medicilor
Omul a avut nevoie de nu mai puțin de trei săptămâni de spitalizare până a fost pus din nou pe picioare. Medicii i-au pus diagnosticul de „bromism”, o afecțiune din secolul 19 care este atât de rară încât pur și simplu nu mai există în manualele moderne de medicină. Medicii au fost obligați să caute în literatura veche de specialitate și au regăsit simptomele în manualele de medicină din epoca victoriană.
Cazul bărbatul a fost atât de rar, încât a fost publicat pe 5 august și în revista de specialitate Annals of Internal Medicine Clinical Cases. După ce și-a revenit, omul a fost întrebat cum a ajuns într-o asemenea stare, iar el a spus inițial că a fost otrăvit de un vecin. Cum nicio anchetă desfășurată de autorități nu a putut proba acest lucru, bărbatul a revenit asupra declarațiilor și a spus că ChatGPT i-a recomandat să folosească bromura de sodiu în mâncare, în loc de sarea obișnuită. Bromura de sodiu e o substanță chimică extrem de periculoasă, folosită cu preponderență la întreținerea și curățarea piscinelor.
Bărbatul de 60 de ani nu avea antecedente de natură psihiatrică, dar după ce a folosit bromură de sodiu timp de 3 luni a început să aibă insomnie, paranoia și halucinații puternice. El le-a spus medicilor că nu a considerat că e o mare diferență între clorura de sodiu (n.red. sarea) și bromura de sodiu, motiv pentru care a luat în serios sfatul ChatGPT și l-a urmat fără să se gândească la consecințe.