Laureații premiului Nobel s-au întâlnit luna trecută cu experți în domeniul nuclear pentru a discuta despre AI și sfârșitul lumii.
Conform Wired, experții reuniți păreau să fie în general de acord că este doar o chestiune de timp până când o inteligență artificială va pune mâna pe codurile nucleare. Este greu de stabilit exact de ce acest lucru trebuie să fie adevărat, dar sentimentul de inevitabilitate — și anxietate — este palpabil în reportajul revistei, scrie adevarul.ro.
„Este ca și electricitatea”, a declarat pentru Wired Bob Latiff, general-maior în rezervă al Forțelor Aeriene ale SUA și membru al Consiliului pentru Știință și Securitate al Bulletin of the Atomic Scientists. „Va pătrunde în toate domeniile.”
Este o situație bizară. S-a demonstrat deja că AI prezintă numeroase tendințe negative, recurgând la șantajarea utilizatorilor umani într-un ritm uimitor atunci când sunt amenințate cu închiderea.
În contextul unei AI sau al rețelelor de AI care protejează stocurile de arme nucleare, aceste riscuri puțin înțelese devin imense. Și asta fără a intra în preocuparea reală a unor experți, care se întâmplă să fie și subiectul filmului „Terminatorul”: o AI supraumană ipotetică care devine rebelă și întoarce armele nucleare ale umanității împotriva ei.
La începutul acestui an, fostul CEO al Google, Eric Schmidt, a avertizat că o AI la nivel uman ar putea să nu mai fie motivată să „ne asculte”, argumentând că „oamenii nu înțeleg ce se întâmplă când ai o inteligență la acest nivel”.
Acest tip de pesimism legat de AI este în mintea liderilor din domeniul tehnologiei de mulți ani, pe măsură ce realitatea joacă un joc de-a prinselea în slow-motion. În forma lor actuală, riscurile ar fi probabil mai banale, deoarece cele mai bune modele de AI de astăzi suferă încă de halucinații rampante care subminează în mare măsură utilitatea rezultatelor lor.
Apoi, există amenințarea unei tehnologii AI defectuoase care lasă lacune în securitatea cibernetică, permițând adversarilor – sau chiar AI adversare – să acceseze sistemele care controlează armele nucleare.
A fost dificil să se ajungă la un consens între toți membrii reuniunii neobișnuite de luna trecută cu privire la un subiect atât de încărcat precum AI, directorul pentru riscuri globale al Federației Oamenilor de Știință Americani, Jon Wolfsthal, recunoscând pentru publicație că „nimeni nu știe cu adevărat ce este AI”.
Au găsit totuși cel puțin un punct comun.
„În acest domeniu, aproape toată lumea spune că vrem un control uman eficient asupra luării deciziilor privind armele nucleare”, a adăugat Wolfsthal. Latiff a fost de acord că „trebuie să poți asigura oamenii pentru care lucrezi că există cineva responsabil”.
Dacă toate acestea sună ca un spectacol de clovni, nu te înșeli. Sub președinția lui Donald Trump, guvernul federal s-a ocupat intens de introducerea AI în toate domeniile posibile, deși experții îi avertizează că tehnologia nu este încă – și s-ar putea să nu fie niciodată – la înălțimea sarcinii. Subliniind bravada, Departamentul Energiei a declarat anul acesta că AI este „următorul Proiect Manhattan”, referindu-se la proiectul din perioada celui de-al Doilea Război Mondial care a dus la crearea primelor bombe nucleare din lume.
Subliniind gravitatea amenințării, producătorul ChatGPT, OpenAI, a încheiat la începutul acestui an un acord cu Laboratoarele Naționale ale SUA pentru a utiliza AI în scopul securității armelor nucleare.
Anul trecut, generalul Forțelor Aeriene Anthony Cotton, care este efectiv responsabil de stocul de rachete nucleare al SUA, s-a lăudat la o conferință pe tema apărării că Pentagonul mizează tot mai mult pe AI, argumentând că aceasta „ne va îmbunătăți capacitățile de luare a deciziilor”.
Din fericire, Cotton nu a mers până la a declara că trebuie să lăsăm tehnologia să preia controlul total.
„Dar nu trebuie să permitem niciodată inteligenței artificiale să ia aceste decizii în locul nostru”, a adăugat el la momentul respectiv.
! Acest articol este proprietatea SafeNews.md și este protejat de legea drepturilor de autor. Orice preluare a conținutului se poate face DOAR în limită maximă de 1000 de semne. În mod OBLIGATORIU cu indicarea în TITLU a sursei citate, iar în text cu LINK ACTIV către pagina acestui articol. Preluarea integrală se poate realiza doar în condițiile unui ACORD prealabil întocmit cu redacția portalului.