Tehnologie

De ce Elon Musk consideră că utilizarea AI reprezintă o amenințare?

chatgpt

După entuziasmul care a cuprins întreaga lume, sau aproape întreaga lume după cum se observă în ultima vreme, odată cu anunțurile providerilor de soluții bazate pe inteligența artificială (engl. Artificial Inteligence – AI), traversăm momentul în care o serie de voci influente la nivel global par că trag un semnal de alarmă cu privire la expansiunea exponențială a acestor soluții. Recent, a fost dat publicității un moratoriu (https://futureoflife.org/open-letter/pause-giant-ai-experiments), semnat de personalități ale spațiului public, în frunte cu Elon Musk, fondatorul Tesla, prin care acestea cred că e oportună suspendarea utilizării AI pe scara largă, datorită lipsei de reglementare și a pericolelor pe care le reprezintă utilizarea liberă a Inteligenței Artificiale (IA).
Întrebarea este cum s-a ajuns aici și care sunt argumentele acestor oameni influenți la nivel global, profund implicați în schimbările economice din ultimii ani, cunoscuți ca avangardiști și inovatori ai vremurilor prezente?

Apariția ChatGPT a schimbat lucrurile

Chat GPT este un machine learning model, adică funcționează aidoma creierului uman, folosind „neuroni” interconectați, care pot învăța să identifice modele în date și să facă predicții despre ceea ce urmează să se întâmple în continuare.

Apariția soluției de la OpenAI, denumită ChatGPT este considerată o adevărată revoluție, întrucât este pentru prima dată când un chatbot ce are integrat inteligența artificială este antrenat (și încărcat) pe cantități uriașe de date de pe Internet, astfel încât să formuleze răspunsuri care pot părea că sunt formulate de oameni.
ChatGPT a câștigat un milion de utilizatori doar în prima săptămână de la lansare, iar website-ul ChatGPT primește în prezent aproximativ un miliard de vizitatori lunar, cu o valoare estimată de 100 milioane de utilizatori activi, potrivit comunicatelor OpenAI.

Statusul reglementărilor AI

Odată cu apariția ChatGPT din ce în ce mai multe persoane au acces și utilizează inteligenta artificială atât pentru uz personal cât și în scop de business, dar domeniul a rămas încă nereglementat. În acest moment nu există nici un sistem de guvernanță a inteligenței artificiale, ceea ce înseamnă că nu există nicio pedeapsă în cazul în care un astfel de software este creat sau utilizat cu rea-intenție.

Deși există destul de multe inițiative de reglementare a zonei AI, nu există niciuna care să se afle într-un stadiu suficient de avansat. Uniunea Europeană, de exemplu, lucrează la Regulamentul privind Inteligența Artificială (AI Act), fiind primul act normativ ce are ca scop principal reglementarea AI-ul, pornind de la riscurile pe care acesta le prezintă pentru consumatori. Pe lângă acest demers, încă în lucru, există mai multe inițiative care încearcă să stabilească cadrul etic de dezvoltare a soluțiilor AI, încercând să traseze un cadru de principii morale ce trebuie transpuse în scrierea de cod a AI-ului.

Motivul principal pentru care Elon Musk și alți actori importanți au semnat moratoriul de suspendare a utilizării AI-ului pentru o perioada de șase luni, este pentru că nu există încă un cadru legislativ aplicabil și nici o matrice după care să stabilim care soluție AI lucrează în detrimentul oamenilor și care nu.

Cum pot fi afectați oamenii de utilizarea AI-ului?

În timp ce AI-ul are un potențial imens neexploatat, utilizarea nereglementată poate duce la a încălcarea drepturilor omului, mai ales în ceea ce privește discriminarea anumitor segmente ale societății ca urmare a „algoritmilor părtinitori – biased”.

Deși AI-ul a devenit un trend abia acum, prin intermediul Chat GPT, poate și pentru că ChatGPt este atât de simplu de utilizat încât oricine are o adresă de e-mail își face un cont în platformă și poate transmite mesaje către chatbot, nu trebuie să uităm că algoritmii de inteligență artificială sunt utilizați deja în foarte multe arii din viață noastră. În lipsa acestor reglementări clare de acces și utilizare este foarte probabil că va utilizarea soluțiilor AI, necontrolat și nereglementat, va afecta în primul rând grupurile vulnerabile, care sunt deja profilate și hărțuite în spațiul non-digital, cum este cazul minorităților.

Riscurile la adresa drepturilor fundamentale ale omului apar în special când AI-ul stă la baza unor decizii automate ce au un impact masiv în viața de zi cu zi, cum ar fi: prelucrarea automată a datelor despre sănătatea unei persoane, prelucrarea datelor despre locul de muncă sau despre creditare. De exemplu, în 2015, Algoritmul de angajare al Amazon s-a dovedit a fi părtinitor cu femeile „pentru că algoritmul se baza pe număr de cv-uri depuse în ultimii zece ani și la vremea respectivă cei mai mulți dintre solicitanți au fost bărbați, astfel că AI-ul a fost instruit pentru a favoriza bărbați înaintea femeilor. (Real-life Examples of Discriminating Artificial Intelligence | by Terence Shin | Towards Data Science ). Și acesta este doar un exemplu.

La ce riscuri se pot expune businessurile prin utilizarea AI-ului?

Când vorbim despre riscurile la care se expun companiile prin utilizarea AI am identificat cel puțin patru aspecte de care trebuie să ținem cont.

Un obstacol important în calea adoptării AI este lipsa de competențe și disponibilitatea personalului tehnic cu experiența și instruirea necesare pentru a implementa în mod eficient o astfel de soluție tehnică.

În al doilea rând, pornind de la datele la care compania oferă acces inteligenței artificiale pentru a învăța, aici se ridică problema legată de acuratețea datelor pe care va fi învățat algoritmul.

Următoarea problemă importantă este modul în care soluția tehnologică utilizează acele date, din punct de vedere al regulilor de confidențialitate și transparență. Întrucât conform regulilor de prelucrare a datelor din GDPR, companiile trebuie să asigure confidențialitatea datelor personale ale clienților (utilizatorilor) care intră în contact cu AI-ul.

Nu în ultimul rând, vorbim despre transparența în ceea ce privește modul în care a fost codat algoritmul, întrucât fără respectarea regulilor minimale de etică în dezvoltarea tehnologică, AI-ul poate genera răspunsuri ori soluții nepotrivite sau părtinitoare, care pot genera probleme de încredere pentru brandul ce îl utilizează.

Întrebarea care se naște este însă dacă sunt suficiente șase luni pentru ca un set de reglementări de bază să fie create și adoptate la nivel global, astfel încât să fie evitate, pe termen lung, aceste riscuri.

Cristiana Deca, fondator&CEO Decalex

Click to comment

Leave a Reply

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

Cele mai recente știri

To Top