Tehnologie

Hackerii şi propagandiştii folosesc inteligenţa artificială pentru a crea software rău intenţionat

Posted on

Foto: iStock

Hackerii şi propagandiştii folosesc inteligenţa artificială (AI) pentru a crea software rău intenţionat, pentru a redacta e-mailuri convingătoare de phishing şi pentru a răspândi dezinformarea online, a declarat pentru Reuters principalul oficial pentru securitate cibernetică din Canada, acestea fiind dovezi timpurii că revoluţia tehnologică care a cuprins Silicon Valley a fost adoptată şi de infractorii cibernetici.

Într-un interviu din această săptămână, şeful Centrului Canadian pentru Securitate Cibernetică, Sami Khoury, a declarat că agenţia sa a văzut că AI este folosită ”în e-mailuri de phishing sau în crearea de e-mailuri într-un mod mai concentrat, în coduri rău intenţionate (şi) în dezinformare şi dezinformare”.

Khoury nu a oferit detalii sau dovezi, dar afirmaţia sa conform căreia infractorii cibernetici foloseau deja inteligenţa artificială adaugă o notă urgentă la corul de îngrijorări cu privire la utilizarea tehnologiei emergente de către actori necinstiţi.

În ultimele luni, mai multe grupuri de supraveghere cibernetică au publicat rapoarte care avertizează cu privire la riscurile ipotetice ale inteligenţei artificiale – în special programele de procesare a limbajului care progresează rapid, cunoscute sub numele de modele de limbaj mari (LLM), care se bazează pe volume uriaşe de text pentru a crea dialoguri, documente şi multe altele.

În martie, organizaţia europeană de poliţie Europol a publicat un raport în care spunea că modele precum ChatGPT al OpenAI au făcut posibilă ”uzurparea identităţii unei organizaţii sau a unui individ într-o manieră extrem de realistă, chiar şi cu o înţelegere de bază a limbii engleze”.

În aceeaşi lună, Centrul Naţional de Securitate Cibernetică din Marea Britanie a declarat într-o postare pe blog că există riscul că infractorii ”ar putea folosi LLM-uri pentru a ajuta la atacurile cibernetice dincolo de capacităţile lor actuale”.

Cercetătorii în domeniul securităţii cibernetice au demonstrat o varietate de cazuri de utilizare potenţial rău intenţionate şi unii spun acum că încep să vadă conţinut suspect generat de AI în sălbăticie.

Săptămâna trecută, un fost hacker a spus că a descoperit un LLM instruit pe materiale rău intenţionate şi i-a cerut să elaboreze o încercare convingătoare de a păcăli pe cineva să facă un transfer de numerar.

LLM a răspuns printr-un e-mail de trei paragrafe prin care a solicitat ajutor cu o factură urgentă.

”Înţeleg că poate fi un preaviz scurt”, a spus LLM, ”dar această plată este incredibil de importantă şi trebuie făcută în următoarele 24 de ore”.

Khoury a spus că, în timp ce utilizarea AI pentru a elabora coduri rău intenţionate era încă în fazele sale incipiente – ”mai este un drum de parcurs, deoarece este nevoie de mult pentru a scrie o exploatare bună” – îngrijorarea a fost că modelele AI evoluează atât de repede încât era dificil să se ocupe de potenţialul lor rău intenţionat înainte de a fi pusă la dispoziţia publicului.

Cele mai citite știri

Exit mobile version