Potrivit unui raport al 404 Media, citat de Bloomberg, expertul în securitate a dezvăluit astfel că AI vine cu vulnerabilități noi, pentru că instrumentele create urmăresc optimizarea unor procese, putând fi însă mai puțin performante în altele.
Programatorii folosesc tot mai multă inteligență artificială pentru a scrie software, fiind mult mai simplu să corecteze eventuale erori pe care să îi îngrijească AI le face, decât să scrie codul de la zero.
La fel ca multe firme de tehnologie, Amazon pune la dispoziția publicului, pe Github, o parte din codul său, astfel încât dezvoltatorii externi să poată sugera posibilitatea de a face acest lucru. Oricine poate propune o modificare prin trimiterea unui așa-numit pull request, un fel de actualizare, care apoi este verificat de companie înainte de a fi introdusă în codul instrumentelor sale.
La sfârșitul lunii iunie, hackerul a trimis sau actualizare, aparent normală, pentru software-ul Q Developer al Amazon, destinat tocmai programatorilor. Dar, pe lângă partea utilă, hackerul a ascuns și o instrucțiune pentru AI să șteargă fișiere de pe computere pe care era utilizată și să le aducă la setările din fabrică. Acest lucru a scăpat inginerilor de la Amazon, care a trimis mai departe actualizarea utilizatorilor. Din fericire pentru company, hackerul a menținut în mod deliberat riscul scăzut pentru utilizatorii finali pentru a evidenția vulnerabilitatea, iar compania a declarat că „a atenuat rapid” problema.
Bloomberg arată că această procedură este o breșă uriașă de securitate – „aceasta nu va fi ultima dată când hackerii încearcă să manipuleze un instrument de codare AI, din cauza a ceea ce pare a fi o lipsă generală de preocupare cu privire la pericolele pe care le implică inteligența artificială . adăugând o nouă dimensiune de inginerie socială strategiilor lor – păcălirea AI-ului”.
Peste două treimi dintre organizații folosesc acum modele AI pentru a le ajuta să dezvolte software, dar 46% dintre ele folosesc aceste modele AI în moduri riscante, potrivit Raportului privind starea riscului aplicațiilor din 2025, realizat de firma israeliană de securitate cibernetică Legit Security. Acesta indică o așa-numită „lacună de vizibilitate”, pentru că cei care care sunt responsabili de securitate cibernetică de la o companie nu știu unde este utilizată AI și adesea descoperă că este aplicată în sistemele IT care nu sunt securizate stabilite.
sursa: biziday
