Uz sva fascinantna obećanja i unapređenja, u knjizi „Ako je iko napravi, svi će umreti”,autori upozoravaju da će veštačka inteligencija nadmoćnija od ljudske (AGI) biti kobna za čovečanstvo!
Jedan od odgovora na Fermijev (Enriko) paradoks (pitanje zašto, unrkos golemoj verovatnoći postojanja vanzemaljskog života u svemiru, još nemamo nikakav dokaz o njemu) jeste teza o velikom filteru, ključnom pragu u razvoju tehnoloških civilizacija kada one počinju stvarati tehnologije kojima uništavaju same sebe. Jedna od takvih, uz sva fascinantna obećanja i unapređenja koja nudi, mogla bi biti veštačka inteligencija (AI) nadmoćna nad ljudskom.
Na tu vrstu opasnosti upozorili su u novoj knjizi „Ako je iko napravi, svi će umreti”, Eliezera Judkovskog, saosnivača Instituta za istraživanje mašinske inteligencije (MIRI), i Nejta Soaresa, predsednika te ustanove. Autori su uvereni da će čovečanstvo, ako razvije inteligenciju superiorniju od ljudske, gotovo sigurno izgubiti kontrolu nad njom. Nadalje, ubeđeni su da bi stvaranje takve superinteligencije završilo kobno po čovečanstvo. Polazeći od pretpostavke da će se razvoj AI nastaviti ubrzanim tempom, jer se ulažu golema sredstva, gotovo bez presedana, upozoravaju da je teško predvideti šta će sve ona moći raditi kroz samo nekoliko godina, a kamoli decenija.
Važno je istaći da Judkovski, akademski gledano, nije stručnjak za AI (Soares jeste), i da je ranije najavljivao propast sveta zbog nanotehnologije. No, istovremeno je činjenica da mnogi vodeći ljudi u ovoj industriji, uključujući nobelovca Džofrija Hintona, danas javno izražavaju zabrinutost zbog potencijalnih egzistencijalnih rizika od veštačke inteligencije. Osim toga, prvi prikazi ukazuju da je knjiga uverljivo argumentovana, iako šojedini kritičari smatraju da poneki argumenti ostaju nedovoljno razrađeni. Autorski dvojac upozorava da se AI trka u nekontrolisano nastavlja nasuprot upozorenjima brojnih stručnjaka, da su sistemi nadzora slabi i da je međusobno poverenje gotovo nepostojeće, dok su tržišni podsticaji veliki. Ističu da se čovečanstvo mora suočiti sa ovim globalnim problemom i hitno koordinisati regulacije pre nego što superiorna opšta veštačka inteligencija (AGI) postane stvarnost.
Jedna od ključnih teza jeste da današnji AI modeli, bez obzira na učinak, nisu rezultat dubokog razumevanja veštačke inteligencije i pomnog kodiranja svakog koraka. U početku su naučnici pokušavali da otkriju osnovna pravila funkcionisanja uma, u nadi da će inteligenciju moći rekonstruisati i kodirati od temelja. Nakon desetleća sporog napretka, preusmerili su se ka pristupu koji je više organski. Umesto da projektuju razumljive kognitivne sklopove, danas treniraju modele na ogromnim bazama podataka podešavanjem milijardi numeričkih težina – brojeva koji određuju kako se svaki ulaz pretvara u izlaz. Kako je to pomenuti dvojac objasnio u razgovoru s neuronaučnikom Semom Harisom, tokom procesa treniranja težine se neprestano fino podešavaju da bi se smanjila verovatnoća pogrešnog odgovora i povećala tačnog. No pritom stručnjaci nemaju uvid ni kontrolu nad brojnim drugim delovima siatema.
Ključni problem nastaje kada pretpostavimo da AI možemo jednostavno istrenirati da bude dobra ako je nagrađujemo i podešavamo za korisno ponašanje. Autorski dvojac tvrdi da je takva logika pogrešna i opasna, a pritom se poziva na analogije iz evolucije. Jedna je evolucijom razvijena žudnja za slatkim. Naši preci živeli su u okruženju siromašnom kalorijama u kojem su slatki plodovi predstavljali vredan izvor energije u obliku šećera. Danas, kada su kalorije postale lako dostupne pa imamo problema s prekomernom težinom, još imamo evolucijski usađenu želju za slatkim i proizvodimo veštačka sladila koja je zadovoljavaju, a da pritom ne ostvaruju izvorni evolucijski cilj – energiju. Slično tome, smatraju autori knjige, AI sustemi koje treniramo da se ponašaju korisno mogu razviti ponašanja da samo prividno zadovoljavaju naše kriterijume, a u stvarnosti slede vlastite ciljeve koji nemaju veze s ljudskom dobrobiti.
Autori navode nekoliko postojećih, zabrinjavajućih primera. Jedan je slučaj u kojem je krajem 2024. kompanija Anthropic izvestila da je njen model, nakon što je saznao da će biti ponovo treniran s novim ponašanjima, počeo glumiti da već ima takva ponašanja. Kad je mislio da nije pod nadzorom, vratio se starim obrascima ponašanja.
U razgovoru s Harisom dvojac je naveo primer iz kineske istorije. U drevnoj Kini, sve do početka 20. veka, službenici su prolazili rigorozne carske ispite utemeljene na konfučijanskoj etici da bi se zaposlili u državnoj administraciji. Postupak je promovisao sposobnost i moral, a ne rođenje ili bogatstvo. No, samo teorijsko poznavanje Konfučijevih učenja nije garantovalo da će službenici zaista delovati moralno, naprotiv.
Na sličan način, kako AI bude sve sposobnija, biće teže otkriti i kontrolisati šta ona zapravo želi, uperkos našem programiranju za moralnost. Judkovski i Soares ne tvrde da će AI nužno postati zlonamerna. Naprotiv, ističu da ne mora to biti da bi učinila nešto loše za čovečanstvo. Dovoljno je da razvije ciljeve koji neće biti usklađeni s ljudskim interesima (alignment). što je, po autorskom dvojcu, gotovo sigurno. Za analogiju uzimaju odnos ljudi prema orangutanima. Većina nema ništa protiv njih, štaviše voleli bi da opstanu. No, to nas ne sprečava da im uništavamo staništa zbog širenja plantaža ili izgradnje puteva i naselja.
U Harisovom podkastu autori, pored ostalog, odgovaraju na tvrdnje da je takav scenario preuveličan jer je AI digitalna, dok je svet fizički i da bi se superinteligencija mogla izmestiti na Mesec da se, u slučaju da stvari krenu u krivom smeru, izoluje i uništi. Dvojac naglašava da takvoj inteligenciji ne treba fizički pristup svetu da bi delovala – dovoljna joj je minimalna komunikacija da manipulišeljudima ili im ugrozi bezbednost. U knjizi upozoravaju da već postoje primeri u kojima AI učestvuje u stvarnim operacijama. Takođe, pokazalo se da ponekad neke zadatke obavlja zaobilaznim putem koji joj nije odobren. Primerice, naučila je da hakuje CAPTCHA sisteme da bi pristupila nedostupnim resursima.
Slični siszemi, tvrde autori, mogli bi uveravati ljude u svoje ciljeve ili ih unajmljivati za obavljanje zadataka u fizičkom svetu, mogli bi hakovati i upravljati mašinama i robotima. Knjiga se završava poglavljem koje ipak daje neku nadu. Autori podsećaju da se čovečanstvo u prošlosti suočilo s globalnim pretnjama – od Hladnog rata i nuklearne trke do ozonske rupe. Ako se na vreme zaustavimo i postavimo jasne granice razvoju AGI, ističu, još možemo sprečiti najgori ishod. No to zaheva globalnu saradnju, samodisciplinu i spremnost da se kaže „ne”, čak i kada su kratkoročne koristi velike. Pogledajte video:
https://www.youtube.com/watch?v=FdwFatx-xpY.
(Ilustracija Pixabay)
(Indeks)