Iliustracija
Tehnologija se razvija brže od politike ili diplomatije, posebno kada je vodi intenzivna tržišna konkurencija u privatnom sektoru. Kada je u pitanju rješavanje potencijalnih bezbjednosnih rizika povezanih sa vještačkom inteligencijom, kreatori politika moraju da ubrzaju svoj rad
Piše: Joseph S. Nye
Ljudi su vrsta koja pravi alate. Ali, da li možemo da kontrolišemo te alate? Kada su Robert Openhajmer i drugi fizičari 1940-ih razvili prvo nuklearno oružje, brinulo ih je to što bi njihov pronalazak mogao da uništi čovječanstvo. To se do sada nije desilo, ali kontrola atomskog oružja je od tada uporan izazov.
Alatom koji isto tako transformiše naše živote danas mnogi naučnici i vještačku inteligenciju (AI), odnosno algoritme i programe koji omogućavaju mašinama da obavljaju zadatke koji obično zahtijevaju ljudsku inteligenciju. Kao i prethodne tehnologije opšte namjene, vještačka inteligencija ima ogroman potencijal i za dobro i za zlo. Na primjer, u oblasti istraživanja raka, može analizirati i sumirati više analiza za nekoliko minuta nego što to može tim ljudi za nekoliko mjeseci. I može pouzdano da predvidi obrasce savijanja proteina za šta bi naučnicima bile potrebne godine.
Istovremeno, AI smanjuje troškove i prepreke za aktivnosti ekscentrika, terorista i drugih nedobronamjernih aktera koji žele da nanesu štetu. Autori nove studije iz korporacije RAND upozoravaju da bi „granični trošak ponovnog stvaranja opasnog virusa sličnog velikim boginjama mogao biti samo 100.000 dolara, dok bi razvoj sveobuhvatne vakcine mogao koštati više od milijardu dolara”.
Pored toga, neki stručnjaci strahuju da će napredna vještačka inteligencija postati toliko pametnija od ljudi da će nas i kontrolisati, a ne obrnuto. Procjene vremena potrebnog razvoj za takve superpametne mašine – poznate kao vještačka inteligencija opšte namjene – kreću se od nekoliko godina do nekoliko decenija. U svakom slučaju, povećani rizici čak i današnje vještačke inteligencije „uske namjene“ već zahtijevaju veću pažnju.
Već 40 godina Aspen Strategy Group (koja uključuje bivše zvaničnike, naučnike, biznismene i novinare) sastaje se svakog ljeta povodom određenog pitanja nacionalne bezbjednosti. Na prethodnim sastancima razgovaralo se o temama kao što su nuklearno oružje, sajber napadi i uspon Kine. Ove godine u fokusu su implikacije vještačke inteligencije na nacionalnu bezbjednost, analiza i koristi i rizika.
Prednosti su poboljšanje sposobnosti da se analiziraju ogromne količine obavještajnih podataka, jačanje sistema ranog upozorenja, poboljšanje složenih logističkih sistema i validacija kompjuterskih kodova za poboljšanje sajber bezbjednosti. Ali, postoje i veliki rizici, među kojima je razvoj autonomnog oružja, slučajne greške u softverskim algoritmima i protivnički sistemi vještačke inteligencije koji bi mogli da potkopaju sajber bezbjednost.
Kina ulaže ogromna sredstva u trku u naoružanju u sferi vještačke inteligencije, i može se pohvaliti nekim strukturalnim prednostima. Vještačka inteligencija zahtijeva tri ključna resursa: podatke za obuku modela; pametne inženjere koji razvijaju algoritme; računarsku snagu koja obezbeđuje njihov rad. Kina ima malo zakonskih ograničenja ili ograničenja privatnosti u pogledu pristupa podacima (iako su neki skupovi podataka ograničeni iz ideoloških razloga), a zemlja ima mnogo pametnih mladih inženjera. Kina najviše zaostaje u odnosu na Sjedinjene Države u sferi naprednih mikročipova, koji obezbjeđuju računarsku snagu za AI.
Američka kontrola izvoza ograničava pristup Kine ne samo ovim naprednim čipovima već i skupim holandskim mašinama za litografiju koje ih prave. Prema mišljenju stručnjaka u Aspenu, Kina zaostaje iza SAD godinu ili dvije, ali je situacija svakako nestabilna. Iako su se predsjednici Džo Bajden i Si Đinping tokom susreta prošle jeseni složili da održe bilateralne razgovore o vještačkoj inteligenciji, Aspen nije naročito optimističan u pogledu izgleda za kontrolu naoružanja sa vještačkom inteligencijom.
Posebno ozbiljna prijetnja dolazi od autonomnog oružja. Ni poslije više od decenije diplomatskih napora u UN, zemlje svijeta nisu uspjele da se dogovore o zabrani smrtonosnog autonomnog oružja. Međunarodno humanitarno pravo zahtijeva od vojske da pravi razliku između vojnika i civila, a Pentagon odavno ima pravilo da u odlučivanju o upotrebi oružja moraju učestvovati ljudi. Ipak, u nekim situacijama (na primjer, odbrana od nadolazećih projektila) jednostavno nema vremena za ljudsku intervenciju.
Pošto su specifični uslovi važni, ljudi moraju čvrsto definisati (kodeksom) šta oružje može, a šta ne može raditi. Drugim riječima, čovjek mora biti uključen u kontrolu “odozgo” ako ne može direktno učestvovati “iznutra”. Ovo nisu prazna razglabanja. Tokom ukrajinskog rata, Rusi ometaju signale ukrajinske vojske, pa su Ukrajinci prinuđeni da programiraju svoje uređaje za autonomno donošenje konačnih odluka o tome kada će pucati.
Jedna od opasnosti od vještačke inteligencije koja najviše plaši je njena primjena u biološkim ratovima ili terorističkim napadima. Kada su se zemlje širom svijeta 1972. godine saglasile da zabrane biološko oružje, vjerovalo se da takvo oružje nije od velike koristi zbog rizika od „bumeranga“, odnosno udarca i na onog ko ga je upotrijebio. Sintetička biologija, međutim, omogućava stvaranje oružja koje će uništiti jednu grupu stanovništva, a da pritom ne utiče na drugu. Ili terorista koji ima pristup laboratoriji možda jednostavno da poželi da ubije što više ljudi, kao što je sekta “Aum Šinrikjo” uradila u Japanu 1995. (Iako su oni koristili neinfektivni sarin, savremeni ekvivalenti ovog kulta mogu upotrijebiti vještačku inteligenciju za razvoj infektivnog virusa).
Što se tiče nuklearnih tehnologija, države svijeta su 1968. godine potpisale „Sporazum o neširenju nuklearnog oružja“, kome je do danas pristupila 191 država. Međunarodna agencija za atomsku energiju redovno provjerava nacionalne energetske programe kako bi osigurala da se koriste isključivo u miroljubive svrhe. Uprkos intenzivnom rivalstvu tokom Hladnog rata, vodeće zemlje u nuklearnoj tehnologiji su se 1978. godine dogovorile o određenim ograničenjima izvoza najopasnije opreme i tehničkog znanja. Ova prekretnica otvara moguće puteve napretka u oblasti vještačke inteligencije, iako, naravno, postoje očigledne razlike između ovih tehnologija.
Sasvim je očigledno da tehnologija napreduje brže od politike ili diplomatije, posebno ako je stimulisana intenzivnom tržišnom konkurencijom u privatnom sektoru. Ako treba izvući jedan važan zaključak sa ovogodišnjeg sastanka u Aspenu, to je da vlade moraju da ubrzaju tempo svog rada.
Autor je profesor emeritus na Univerzitetu Harvard
Project Syndicate, 2024.
Prevod: N.R., Vijesti.me