Expert: Ce poate face AI pentru noi și împotriva noastră
OpenAI tocmai a lansat GPT-5, modelul de inteligență artificială considerat „cel mai inteligent, rapid și util de până acum”. Dar pe măsură ce uneltele AI devin tot mai performante, provocarea se mută de la capacități la competență: cum le folosim, ce întrebări știm să punem și, mai ales, cât de conștienți suntem de limitele și riscurile acestor instrumente?

De la recrutări ratate și erori automate cu impact devastator asupra unor familii, până la elevi și decidenți care confundă fluența cu inteligența, AI-ul își arată din ce în ce mai clar colții, transmite Știri.md cu referire la adevarul.ro.
„Riscurile reale ale hiper-automării se văd clar în exemple concrete. Amazon a testat un sistem AI de recrutare care, pe baza datelor istorice, a învățat să discrimineze candidații femei, deoarece modelele erau antrenate pe CV-uri dintr-un mediu tehnologic dominat de bărbați. Rezultatul: algoritmul a perpetuat și amplificat biasul existent”, explică, Alexandru Dan, expert în inteligență artificială, CEO TVL Tech și profesor în cadrul Academiei de Studii Economice (ASE) din București, pentru Adevărul.
Un alt caz, adaugă el, este cel din Olanda, unde un sistem automat de acordare a creditelor și de detectare a fraudelor în beneficii sociale a discriminat sistematic familii cu origini străine. Acest lucru a dus la mii de acuzații false și la consecințe dramatice pentru cei afectați, inclusiv pierderea locuințelor sau a locurilor de muncă. „Astfel de situații au accelerat nevoia unui cadru legislativ clar. AI Act, reglementarea europeană privind inteligența artificială, va impune cerințe stricte de transparență, audit și evaluare a riscurilor, tocmai pentru a preveni repetarea acestor cazuri și pentru a proteja drepturile fundamentale ale cetățenilor”, atrage atenția specialistul.
În opinia sa, exista un risc suficient de mare ca profesori, elevi, atrenprenori sau decidenți să confunde fluența lingvistică a GTP-5 cu înțelegerea autentică, discernământul sau conștiința. „Este un risc semnificativ, pentru că fluența lingvistică a GPT-5 poate crea iluzia unei competențe reale. Modelul nu gândește, nu are experiență și nu înțelege conceptele ca un om. El prezice cuvinte pe baza unor pattern-uri din date, fără o înțelegere autentică a subiectului. Acest lucru se leagă de fenomenul numit halucinație a modelelor, când AI inventează informații false, dar le prezintă cu încredere maximă. Aceste halucinații pot arăta perfect credibile și pot trece neobservate, mai ales în rândul utilizatorilor fără pregătire în verificarea surselor”, spune Alexandru Dan
El atrage atenția asupra consecințelor, care pot fi cât se poate de serioase. „Oamenii pot integra aceste erori în proiecte, documente oficiale sau decizii critice. Fără alfabetizare AI și gândire critică, publicul riscă să ia drept adevăruri absolute afirmații fabricate, cu impact potențial negativ asupra educației, economiei și guvernării”, semnalează profesorul.
În același timp, Alexandru Dan crede că România nu este pregătită să gestioneze aceste riscuri, nici instituțional, nici educațional. „La nivel legislativ, există cadrul european AI Act, dar lipsesc proceduri locale clare pentru aplicarea lui în administrație, educație și justiție. Majoritatea instituțiilor publice nu au specialiști capabili să auditeze sau să verifice sistemele AI înainte de implementare. În educație, alfabetizarea digitală și gândirea critică nu sunt încă integrate sistematic în programele școlare. Majoritatea profesorilor nu au formare specifică pentru a folosi AI în mod responsabil sau pentru a identifica halucinațiile și biasurile modelelor. Astfel, si elevii și profesorii pot deveni utilizatori pasivi, fără mecanisme de verificare”, este de părere acesta.
În mediul juridic și administrativ, adaugă expertul, delegarea deciziilor critice către AI, fără evaluare umană, poate genera erori cu efecte grave. Lipsa unor protocoale obligatorii de validare a conținutului generat automat face ca aceste riscuri să fie amplificate, mai ales în contexte unde rapiditatea e prioritizată în detrimentul acurateții.
„Problema se agravează pentru că AI-ul evoluează acum în luni de zile, cu salturi exponențiale de capacitate, în timp ce instituțiile se adaptează în ritmul clasic, de ani de zile. Această diferență de viteză creează un decalaj periculos și impune o schimbare fundamentală de abordare. Fără o adaptare rapidă și coordonată, România si Europa va fi puternic impactată la nivel economic, social și politic”, completează el.
Totuși, în mâinile potrivite, GPT-5 poate fi un instrument puternic. „Acum trei ani, eram la un nivel comparabil cu școala generală. Astăzi, GPT-5 atinge performanțe echivalente cu cele ale unui student de facultate sau chiar doctorat în multe domenii”, spune Alexandru Dan.
Modelul poate sintetiza rapid date, redacta documente de business, elabora strategii complete (cu SWOT, proiecții financiare, scenarii) și automatiza comunicarea profesională. Și nu numai.
„De asemenea, poate automatiza comunicarea profesională, generând e-mailuri de negociere, răspunsuri personalizate pentru clienți și mesaje pentru parteneri, cu ton și structură adaptate fiecărei situații. De altfel, poate simula scenarii de risc și oportunitate, oferind recomandări proactive pentru reducerea vulnerabilităților și maximizarea avantajelor competitive ale companiei. În plus, excelează în crearea de conținut educațional personalizat, fie pentru școală, facultate sau programe de formare în business, adaptând materialele la nivelul de cunoștințe, obiectivele și ritmul de învățare al fiecărui cursant”, susține Alexandru Dan.
Promptul care schimbă tot
Puțini știu acest lucru: ChatGPT poate fi învățat să își scrie singur promptul înainte de a răspunde. Dacă îi ceri să facă asta, calitatea răspunsurilor crește vizibil, devin mai clare, mai precise și adaptate exact nevoilor tale, conform spuselor specialistului, care subliniază faptul că, de cele mai multe ori, oamenii tastează direct întrebarea. „Dar dacă în loc de asta îi ceri mai întâi să creeze „promptul ideal” pentru el însuși, îți va da un răspuns mult mai bine structurat”.
De exemplu, poți scrie: „ChatGPT, creează un prompt perfect folosind acest cadru: rol, obiectiv, audiență, ton, sarcină, format, constrângeri, umanizare.
Context: vreau să fac o strategie de marketing pentru compania mea, rolul meu este de strateg B2B, obiectivul este creșterea engagement-ului cu 50%, audiența este formată din fondatori tech, tonul este îndrăzneț, iar constrângerile sunt: fără sfaturi generice, doar idei aplicabile.”
Rezultatul? „Un set de instrucțiuni gata de folosit într-o conversație nouă, care îi permite AI-ului să îți livreze idei și soluții mai relevante. Secretul este simplu: oferă cât mai mult context despre ce vrei să obții. Cu cât știe mai multe despre tine, obiectivele și limitările tale, cu atât îți poate răspunde mai bine,” conchide Alexandru Dan.
Personal, sunt fan Linux de când mă știu. Când scriu prompturi pentru GPT-5, nu pot să nu mă gândesc la terminalul clasic și la comanda „sudo” din CrunchBang, Ubuntu sau Manjaro. În lumea open-source, circulă o glumă veche: „sudo make me a sandwich.” Pare că totul se reduce la comanda potrivită. Dar ca să dai o comandă bună, trebuie mai întâi să înțelegi cum funcționează sistemul.
La fel e și cu AI-ul. Dacă nu știi să-l folosești, nu e un instrument, e o capcană. În lipsa unui cadru legal, a alfabetizării digitale și a gândirii critice, tehnologia devine o lamă cu două tăișuri: poate scrie rapoarte impecabile... sau poate distruge vieți.
România și, de fapt, omenirea, are de ales: fie învață să controleze inteligența artificială, fie va fi controlată de ea.