Startupurile pentru inteligenţă artificială OpenAI şi Anthropic au semnat contracte cu guvernul Statelor Unite pentru cercetare, testare şi evaluare a modelelor lor de inteligenţă artificială, a anunţat joi Institutul pentru Siguranţă a Inteligenţei Artificiale din SUA, transmite Reuters.
Primele acorduri de acest fel vin într-un moment în care companiile se confruntă cu un control al autorităţilor de reglementare privind utilizarea sigură şi etică a tehnologiilor de AI.
Legislatorii din California urmează să voteze un proiect de lege cel mai devreme săptămâna aceasta, pentru a reglementa în linii mari modul în care AI este dezvoltată şi implementată în stat.
”Inteligenţa artificială sigură şi de încredere este crucială pentru impactul pozitiv al tehnologiei.
Colaborarea noastră cu U.S. AI Safety Institute foloseşte expertiza sa vastă pentru a testa riguros modelele noastre înainte de implementarea pe scară largă”, a declarat Jack Clark, cofondator şi şef de politici la Anthropic, startup susţinut de Amazon şi Alphabet.
Conform ofertelor, U.S. AI Safety Institute va avea acces la noi modele majore, atât de la OpenAI, cât şi de la Anthropic, înainte şi după lansarea lor publică.
Acordurile vor permite, de asemenea, cercetarea în colaborare pentru a evalua capabilităţile modelelor AI şi riscurile asociate acestora.
”Credem că institutul are un rol esenţial de jucat în definirea conducerii SUA în dezvoltarea responsabilă a inteligenţei artificiale şi sperăm că munca noastră împreună oferă un cadru pe care restul lumii poate construi”, a declarat Jason Kwon, director de strategie la OpenAI, producătorul ChatGPT.
”Aceste acorduri sunt doar începutul, dar sunt o piatră de hotar importantă, deoarece lucrăm pentru a ajuta la gestionarea responsabilă a viitorului AI”, a declarat Elizabeth Kelly, director al Institutului de Siguranţă AI din SUA.
Institutul, care face parte din Institutul Naţional de Standarde şi Tehnologie (NIST) al Departamentului pentru Comerţ al SUA, va colabora, de asemenea, cu Institutul pentru Siguranţă AI din Regatul Unit şi va oferi feedback companiilor cu privire la potenţialele îmbunătăţiri ale siguranţei.
U.S. AI Safety Institute a fost lansat anul trecut, ca parte a unui ordin executiv al administraţiei preşedintelui Joe Biden, pentru a evalua riscurile cunoscute şi emergente ale modelelor de inteligenţă artificială.