ONU: Utilizarea dronelor autonome poate fi periculoasă pentru oameni
Organizația Națiunilor Unite avertizează că dronele de luptă care funcționează fără control uman direct pot fi periculoase pentru oameni. Potrivit ONU, aceste dispozitive pot confunda țintele și pot răni civili nevinovați, inclusiv persoane vulnerabile, cum ar fi cele cu dizabilități.

Potrivit ONU, utilizarea acestora ridică serioase probleme etice și juridice legate de responsabilitatea pentru crimele de război, transmite Știri.md cu referire la moldova1.md.
Poziția ONU: tehnologiile trebuie interzise prin drept internațional
„Secretarul general a afirmat întotdeauna că utilizarea mașinilor cu autoritate pe deplin delegată pentru a decide chestiuni de viață și de moarte este o perspectivă respingătoare din punct de vedere moral”, a precizat Izumi Nakamitsu, Înaltul Reprezentant al ONU pentru probleme de dezarmare.
El a sugerat că „astfel de tehnologii ar trebui să fie interzise prin dreptul internațional. Aceasta este poziția Organizației Națiunilor Unite”.
Human Rights Watch: risc de „dezumanizare digitală”
Organizația Human Rights Watch susține că folosirea armelor autonome ar însemna un nou pas spre „dezumanizarea digitală”, în care deciziile de viață și de moarte sunt luate de algoritmi.
„Mai multe țări bogate în resurse investesc masiv în inteligența artificială și în tehnologiile conexe pentru a dezvolta sisteme de arme autonome terestre și maritime. Acesta este un fapt", a declarat Mary Wareham de la Human Rights Watch. Ea menționează că „Statele Unite, Rusia, China, Israel și Coreea de Sud, investesc masiv în sisteme de arme autonome”.
Sunt mașinile mai bune decât oamenii?
Susținătorii acestor tehnologii susțin că mașinile ar fi mai eficiente decât oamenii: nu obosesc, nu au emoții și pot fi mai precise. Potrivit ONU, „soldații pot judeca greșit situațiile, pot acționa sub influența emoțiilor, au nevoie de odihnă și de recompense pentru serviciu, în timp ce mașinile sunt precise și imparțiale și devin mai bune în identificarea amenințărilor în fiecare zi. Următorul pas va fi probabil acela de a permite sistemelor autonome să decidă când să apese pe trăgaci”.
ONU și organizațiile pentru drepturile omului identifică două pericole principale:
Tehnologia este încă imperfectă – poate face greșeli în identificarea țintelor.
Nu este etic să lăsăm o mașină să decidă cine trăiește și cine moare.
„În special, persoanele cu handicap sunt expuse unui risc deosebit. Un scaun cu rotile ar putea fi identificat de AI ca fiind o armă. Există, de asemenea, îngrijorări legate de faptul că tehnologia de recunoaștere facială poate identifica greșit persoanele cu anumite nuanțe de piele. Inteligența artificială este încă imperfectă și conține prejudecățile oamenilor care o programează”, avertizează Mary Wareham.
Cine răspunde pentru o crimă de război comisă de un robot?
Un alt semnal de alarmă îl trage Nicole Van Rooyen, directoarea organizației Stop Killer Robots. „Cine va fi tras la răspundere pentru astfel de acte? Producătorul? Persoana care a creat algoritmul? Există o serie întreagă de întrebări fără răspuns”, afirmă aceasta.
ONU însă insistă asupra necesității unor reguli clare și urgente, deoarece sistemele autonome sunt deja folosite pe câmpul de luptă. În 2014 a avut loc prima discuție internațională pe acest subiect, iar în mai 2025 a fost organizată o dezbatere informală la sediul ONU din New York. Atunci, secretarul general António Guterres a cerut statelor membre să adopte până în 2026 un acord internațional obligatoriu pentru interzicerea dronelor autonome.
„Cel puțin 120 de țări au sprijinit pe deplin apelul de a începe un dialog pentru a dezvolta o lege internațională privind sistemele de arme autonome. Vedem mult interes și sprijin, inclusiv din partea experților în inteligență artificială și a liderilor religioși”, spune Mary Wareham.
În concluzie, potrivit ONU, „apare treptat un consens conform căruia sistemele de arme complet autonome ar trebui interzise”, iar „când vorbim despre chestiuni de viață și de moarte, cineva trebuie să fie tras la răspundere”, a mai precizat Izumi Nakamitsu.