The Guardian relevă că utilizarea tot mai intensă a inteligenței artificiale în conflictele militare, precum cel din Iran, arată că modul în care sunt purtate războaiele se schimbă rapid. Specialiștii avertizează că această transformare tehnologică necesită urgent reguli clare și control democratic asupra folosirii AI în operațiunile militare, în special în contextul în care tehnologiile avansate se dezic tot mai intens de intervenția, responsabilitatea și moralitatea umană în luarea deciziilor.
Publicația britanică ilustrează că unul dintre cele mai bune exemple ale estompării limitelor de siguranță este disputa izbucnită între companii tehnologice și Departamentul american al Apărării privind modul în care pot fi utilizate aceste tehnologii. Compania Anthropic a refuzat să elimine anumite măsuri de siguranță menite să împiedice folosirea tehnologiei sale pentru supraveghere în masă sau arme autonome letale. Pentagonul a declarat că, deși nu ar avea niciun interes în astfel de utilizări, asemenea decizii nu ar trebui luate de companii private. În consecință, Administrația Trump a desemnat compania drept “risc pentru lanțul de aprovizionare”. În schimb, OpenAI a anunțat, la începutul lunii martie, o înțelegere cu Pentagonul prin care acesta poate folosi tehnologiile sale avansate de AI, inclusiv în “sisteme clasificate“. Sam Altman, directorul executiv al companiei, a recunoscut recent că nu controlează utilizarea produselor sale de către Pentagon și că modul în care a fost gestionată tranzacția a făcut ca OpenAI să pară “oportunistă și neglijentă“.
Specialiștii și organizațiile care militează pentru controlul armelor autonome avertizează că problema nu este doar dacă aceste arme vor fi folosite, ci și modul în care sistemele bazate pe inteligență artificială schimbă deja felul în care sunt duse războaiele. Există temeri că s-ar putea ajunge la nivelul la care controlul uman va deveni pur formal.
De altfel, schimbarea de paradigmă în război a început deja. Potrivit experților citați de The Guardian, sistemul de AI Claude, dezvoltat de Anthropic, a fost folosit pentru a sprijini ofensiva militară din Iran, în care au murit peste o mie de civili. “AI poate identifica și prioritiza ținte, recomanda armament și evalua justificarea legală a unui atac, făcând posibilă desfășurarea bombardamentelor <<mai rapid decât viteza gândului>>”, avertizează specialiștii.
Oficiali ai serviciilor de informații israeliene spun că, în operațiunile asistate de AI din Gaza, numărul potențialelor ținte este uriaș, iar evaluarea lor poate dura doar câteva zeci de secunde, rolul oamenilor limitându-se uneori doar la aprobarea formală a deciziilor luate de sistem. Avertizează asupra “ușurării uciderilor în masă, în toate sensurile, prin creșterea distanțării morale și emoționale și prin reducerea responsabilității”, în acest fel.
Secretarul general al ONU, António Guterres, a declarat că dezvoltarea tehnologică avansează într-un ritm fără precedent și că este esențial ca utilizarea inteligenței artificiale să fie reglementată. Potrivit acestuia, diferența dintre discuțiile teoretice despre AI și aplicarea acesteia în situații reale devine din ce în ce mai mică.
Experții și organizațiile internaționale solicită introducerea urgentă a unor mecanisme de control democratic și a unor reguli internaționale privind utilizarea AI în conflictele armate.
sursa: biziday
