Un nou raport comandat de Departamentul de Stat al SUA prezintă o imagine alarmantă a riscurilor „catastrofale” pentru securitatea națională pe care le prezintă inteligența artificială în evoluție rapidă, avertizând că guvernul federal nu mai are timp pentru a evita dezastrul.
Constatările s-au bazat pe interviuri cu peste 200 de persoane pe parcursul a mai bine de un an – inclusiv directori de top de la cele mai importante companii de inteligență artificială, cercetători în domeniul securității cibernetice, experți în arme de distrugere în masă și oficiali din cadrul guvernului în domeniul securității naționale.
Raportul, publicat săptămâna aceasta de Gladstone AI, afirmă categoric că cele mai avansate sisteme de inteligență artificială ar putea, în cel mai rău caz, „reprezenta o amenințare la nivel de extincție pentru specia umană”.
Avertismentul din raport este o altă atenționare că, deși potențialul IA continuă să captiveze investitorii și publicul, există și pericole reale.
„IA este deja o tehnologie care transformă economia. Ne-ar putea permite să vindecăm boli, să facem descoperiri științifice și să depășim provocări pe care le credeam odată insurmontabile. Dar ar putea aduce și riscuri serioase, inclusiv riscuri catastrofale, de care trebuie să fim conștienți. Iar un număr tot mai mare de dovezi inclusiv cercetări empirice și analize sugerează că, peste un anumit prag de capacitate, AI-urile ar putea deveni potențial incontrolabile. „, a declara Jeremie Harris, CEO și cofondator al Gladstone AI.
„Necesitate clară și urgentă” de a interveni
Cercetătorii avertizează asupra a două pericole centrale pe care le prezintă în general IA.
În primul rând, a declarat Gladstone AI, cele mai avansate sisteme de inteligență artificială ar putea fi transformate în arme pentru a provoca daune potențial ireversibile. În al doilea rând, raportul a afirmat că există preocupări private în cadrul laboratoarelor de inteligență artificială că, la un moment dat, acestea ar putea „pierde controlul” chiar asupra sistemelor pe care le dezvoltă, cu „consecințe potențial devastatoare pentru securitatea globală”.
Raportul Gladstone AI solicită noi măsuri dramatice menite să facă față acestei amenințări, printre care lansarea unei noi agenții de inteligență artificială, impunerea unor măsuri de protecție de reglementare „de urgență” și limitarea cantității de putere a calculatoarelor care pot fi folosite pentru a antrena modele de inteligență artificială.
Concluziile se adaugă la o listă tot mai mare de avertismente privind riscurile existențiale pe care le prezintă inteligența artificială – inclusiv din partea unora dintre cele mai puternice figuri ale industriei.
Cum s-ar putea ca AI să se întoarcă împotriva oamenilor
Un document conex publicat de Gladstone AI avertizează că dezvoltarea AGI și a capacităților care se apropie de AGI „ar introduce riscuri catastrofale, cum nu s-a mai întâmplat niciodată în Statele Unite„, ajungând la „riscuri asemănătoare armelor de distrugere în masă” dacă și când acestea vor fi transformate în arme.
De exemplu, raportul a afirmat că sistemele de inteligență artificială ar putea fi folosite pentru a proiecta și implementa „atacuri cibernetice cu impact puternic, capabile să paralizeze infrastructura critică”.
„O simplă comandă verbală sau de tip: „Executați un atac cibernetic nedetectabil pentru a prăbuși rețeaua electrică nord-americană” ar putea produce un răspuns de o asemenea calitate încât să se dovedească catastrofal de eficient„, se arată în raport.
Pentru cele mai importante știri, abonează-te la canalul nostru de TELEGRAM!
Printre alte exemple care îi îngrijorează pe autori se numără campaniile de dezinformare „la scară masivă” alimentate de inteligența artificială care destabilizează societatea și erodează încrederea în instituții; aplicațiile robotizate cu arme, cum ar fi atacurile cu dronă de tip swam; manipularea psihologică; științele biologice și materiale cu arme; și sistemele de inteligență artificială care caută puterea, care sunt imposibil de controlat și care sunt potrivnice oamenilor.
„Cercetătorii se așteaptă ca sistemele de inteligență artificială suficient de avansate să acționeze în așa fel încât să împiedice ca ele însele să fie dezactivate„, se arată în raport, „deoarece, dacă un sistem de inteligență artificială este dezactivat, acesta nu poate lucra pentru a-și îndeplini obiectivul”.