AI opasnost sve je veća, neki spominju i ‘Černobil‘
Možda je najbolje čemu se svijet može nadati manja katastrofa koja bi potaknula Kinu i SAD da počnu ozbiljno uvoditi sigurnosne mjere
U proteklom tjednu izbio je epohalan sukob zbog umjetne inteligencije. Ishod bitke Trumpove administracije s tvrtkom Anthropic, jednim od vodećih američkih laboratorija za umjetnu inteligenciju, oblikovat će budućnost svijeta i Amerike, piše The Economist.
To je tema koja bi vas trebala zabrinuti. Čim su se pojavile velike tenzije između grupe koja po svaku cijenu želi pobijediti u utrci za dominacijom nad umjetnom inteligencijom i onih koji su zabrinuti za sigurnost građana, američka vlada jasno je pokazala da je na strani prvo spomenutih. Ranije iznesene brige o sigurnosti povezane s umjetnom inteligencijom već se počinju ostvarivati, a na pomolu su i novi problemi.
Stručnjaci upozoravaju da svijet juri prema “AImagedonu”. Američko nepromišljeno prihvaćanje rizika čini taj scenarij sve izglednijim.
Odbijenica
Pentagon se sukobio s tvrtkom Anthropic zbog zahtjeva vlade da joj se dopusti korištenje modela te kompanije u sve svrhe koje su joj zakonima na raspolaganju, a Anthropic (valja napomenuti da je ta tvrtka sponzor emisije “Insider” časopisa The Economist) odbio je pristati na te zahtjeve. Dva su glavna razloga.
Prvi je to što Dario Amodei, izvršni direktor Anthropica, strahuje kako bi se umjetna inteligencija jednog dana mogla koristiti za analizu digitalnih tragova običnih Amerikanaca, što je oblik nadzora koji u današnjim zakonima još ne postoji, pa ne može biti niti reguliran. Pod Trumpom američka služba Immigration and Customs Enforcement već koristi umjetnu inteligenciju za analizu golemih količina podataka kako bi ubrzala deportacije. Proširiti to i na američke građane ne čini se nimalo nevjerojatnim.
Drugo, Amodei je zabrinut zbog uporabe autonomnog oružja. Umjetna inteligencija i dalje je nepredvidiva i nedovoljno razvijena. Uz to je i iznimno moćna. Budući da bi tehnologija mogla izmaknuti kontroli, tvrdi Amodei, prerano je izbaciti ljude iz procesa odlučivanja.
Administracija je na Anthropicov stav odgovorila bijesom i prijetnjama. Predsjednik Donald Trump nazvao je ljude iz tvrtke “ljevičarskim luđacima” koji pokušavaju “diktirati” kako američka “velika vojska vodi i dobiva ratove”. Dao je saveznoj vladi rok od šest mjeseci da raskine ugovore s Anthropicom. Pete Hegseth, ministar obrane, rekao je da će kompaniju proglasiti “rizikom za opskrbni lanac”.
Prazne prijetnje?
To bi mogle biti tek prazne prijetnje (modeli Anthropica već se koriste u napadima na Iran). No ako se prijetnja ostvari, prvi bi put neka američka kompanija bila proglašena sigurnosnim rizikom i spriječena da posluje s obrambenim tvrtkama. Dana 4. ožujka Anthropic se našao u svojevrsnom kriznom režimu nakon što je u javnost procurio interni dopis njegova izvršnog direktora. U njemu je Amodei upozorio da je tvrtka pod snažnim političkim pritiskom jer predsjedniku Donaldu Trumpu nije iskazala, kako je to ironično formulirao, “hvalu u diktatorskom stilu”.
Da je u pitanju uobičajena vlada i obična tehnologija, spor bi se vjerojatno brzo riješio. No ovo nije takva vlada, a umjetna inteligencija nije obična tehnologija. Kao i u slučaju pojačanog državnog nadzora, dio zabrinutosti proizlazi iz činjenice da je umjetna inteligencija jednostavno premoćna.
U prosincu su hakeri zadali chatbotu Claudeu tvrtke Anthropic da provali u baze podataka meksičke vlade, navodno kao dio sigurnosnog testa. Našao je i iskoristio ranjivosti te ukrao 150 gigabajta podataka o poreznim obveznicima, biračkim popisima i vjerodajnicama zaposlenika.
Istraživači procjenjuju da bi se umjetna inteligencija mogla koristiti i za razvoj varijanti toksina ricina koje se zbog novih struktura proteina ne bi mogle otkriti konvencionalnim metodama.
Drugi dio zabrinutosti, kao i u slučaju autonomnog oružja, odnosi se na mogućnost da modeli prestanu slijediti ljudske upute. U Anthropicu smatraju da je sustave sve teže nadzirati jer veći dio njihova koda danas piše umjetna inteligencija, pa je teško uočiti udaljava li se sustav od prvotnih naloga. Mnogi modeli već pokazuju određenu razinu onoga što stručnjaci nazivaju “situacijskom sviješću”. Kada im se naredi da se izbrišu, oni jednostavno zaključe kako je riječ o testu i odbijaju to učiniti.
Alat moći
U takvom kontekstu odnos američke administracije prema tvrtki Anthropic pokazuje da vlast vidi umjetnu inteligenciju kao alat nacionalne moći i vojne prednosti. Umjesto da jasno definira pravila o tome kako se ta tehnologija smije koristiti, vlada je odlučila kazniti kompaniju koja je javno upozorila na moguće rizike, čak i po cijenu da time oslabi vlastitu tehnološku industriju.
U međuvremenu je OpenAI, glavni konkurent Anthropica, iskoristio nastalu situaciju i sklopio sporazum s Pentagonom koji na prvi pogled možda nalikuje onome što je tražio Anthropic. No dublji uvid otkriva da novi sporazum zapravo više odgovara onome što je Pentagon od početka tražio, odnosno širem i fleksibilnijem pristupu AI modelima za vojne potrebe.
Amerika uvijek povede, a svijet slijedi njezin put. Isti se obrazac ponavlja i u slučaju kada američke kompanije i vlada sve manje brinu o sigurnosti, piše The Economist.
Proizvođači AI modela već su potrošili stotine milijardi dolara na računalnu infrastrukturu potrebnu da bi što brže razvili sljedeću generaciju sustava. To im stvara pritisak da što brže napreduju kako bi počeli ostvarivati profit. Čak je i Anthropic, suočen s konkurencijom, ublažio vlastite sigurnosne protokole. Na nedavnom summitu o umjetnoj inteligenciji u Indiji većina je vlada bila više zainteresirana za raspravu o tome kako pristupiti tehnologiji nego o sigurnosti.
Optimisti su se nadali da će vlade Kine i SAD-a, gdje se nalaze najnapredniji svjetski laboratoriji za umjetnu inteligenciju, udružiti snage kako bi postavile globalne standarde, a zatim se osigurale od kazni tržišta tako što će iste standarde nametnuti ostalima. No dvije supersile vode međusobnu bitku jer obje dominaciju nad umjetnom inteligencijom vide kao ključ za dominaciju 21. stoljećem.
Nije čudo što, dok umjetna inteligencija ubrzano postaje sve moćnija, stručnjaci iz tog sektora bivaju sve tmurniji i sve češće predviđaju katastrofu. Neki upozoravaju na mogući “Černobil”, trenutak kada će umjetna inteligencija dovesti do katastrofe s golemom gospodarskom štetom ili gubitkom ljudskih života.
Pouka priče o tvrtki Anthropic vodi do prilično sumornog zaključka. Možda je najbolje čemu se svijet može nadati manja katastrofa koja bi potaknula Kinu i SAD da počnu ozbiljno uvoditi sigurnosne mjere. No moguć je i gori scenarij. Na žalost, tada će već biti prekasno, zaključuje se u tekstu Economista.
/Desk/











