Până nu demult, inteligența artificială era folosită mai ales pentru analiza pieței și predicții, însă aceasta devine tot mai autonomă și ajunge să execute singură tranzacții. Totuși, odată cu migrarea de la recomandare la acțiune efectuată de AI, apare și o nouă categorie de risc, pentru care modelele tradiționale de securitate nu au fost concepute încă, arată un raport realizat de Bitget și SlowMist, companie specializată în securitate pe blockchain.
În momentul în care inteligența artificială nu se mai limitează la recomandări și ajunge să execute tranzacții, erorile sau breșele de securitate pot produce efecte financiare imediate. În piața crypto, unde tranzacțiile sunt procesate aproape instant, un agent compromis sau direcționat greșit poate lua decizii înainte ca oamenii să poată interveni.
„Inteligența artificială trece de la rolul de observator la cel de participant activ în piețe. Acest lucru schimbă fundamental natura riscurilor. Întrebarea esențială nu mai este cât de inteligente sunt aceste sisteme, ci în ce condiții de siguranță le permitem să opereze?” subliniază Gracy Chen, CEO în cadrul Bitget.
Sistemele AI autonome deschid noi puncte vulnerabile în privința securității, de la datele pe care le primesc până la modul în care execută tranzacții. Concret, aceste sisteme pot fi influențate de comenzi înșelătoare, aplicații periculoase sau API-uri prea permisive, ceea ce poate duce la acțiuni nedorite. Astfel, pentru că acest tip de agenți funcționează continuu, fără supraveghere din partea utilizatorului, riscul ca o eroare sau un atac să producă efecte negative este și mai mare.
Aceste vulnerabilități nu sunt cazuri izolate, ci fac parte dintr-un risc sistemic. Așadar, în această nouă etapă, securitatea nu mai poate fi gândită doar ca măsuri de protecție la nivelul aplicației, ci trebuie integrată în întreaga arhitectură prin care sistemele AI interacționează cu capitalul.
Platformele digitale, forțate să regândească securitatea
Pe fondul acestor riscuri, platformele care folosesc agenți AI sunt nevoite să regândească măsurile de siguranță adoptate, subliniază raportul menționat. Una dintre soluțiile tot mai des invocate este separarea clară între analiză, execuție și accesul la fonduri, pentru a evita situațiile în care o singură vulnerabilitate poate declanșa tranzacții neintenționate.
Permisiunile sunt structurate pe principiul accesului minim necesar, iar înainte ca execuția să fie finalizată sunt introduse procese de simulare și verificare a tranzacțiilor. Aceste controale sunt concepute pentru a garanta că, deși agenții AI operează autonom, aria lor de acțiune rămâne clar definită și limitată.
Potrivit raportului, este nevoie de un model de securitate care să funcționeze în toate etapele unei tranzacții, adică înainte, în timpul și după execuție. Monitorizarea continuă, permisiunile limitate și verificarea fiecărei tranzacții sunt elemente de bază într-un astfel de cadru, iar securitatea nu mai este doar o reacție, ci un sistem integrat.
Datele indică o realitate mai amplă, în care agenții AI devin tot mai integrați în activitățile de tranzacționare, administrare a activelor și operațiuni on-chain, iar granița dintre intenția utilizatorului și execuția sistemului devine din ce în ce mai abstractă. În acest context, gradul de încredere nu mai este determinat exclusiv de performanță, ci și de capacitatea sistemelor de a funcționa cu limite controlate.
Activitatea financiară devine tot mai automatizată, însă infrastructura trebuie să fie concepută nu doar pentru viteză și acces, ci și pentru control și reziliență.
Raportul realizat de Bitget și SlowMist este un punct de referință pentru platformele de tranzacționare cu active digitale, dezvoltatori și utilizatori care navighează această tranziție. Următoarea etapă a inovației financiare va depinde în egală măsură de execuția sigură și de sistemele inteligente.
Raportul complet poate fi citit accesând acest link.