ARGUSOV POGLED

PROBLEM BELOG MUŠKARCA

266 pregleda
Pixabay

Najglasnija upozorenja o navodnom egzistencijalnom riziku dolaze iz Silicijumske doline. Na prvi pogled, to deluje nespojivo sa interesima koje krupne kompanije imaju od ulaganja u inovacije i razvoj veštačke inteligencije (AI).

Dr Mari Ejtken

Mesecima nas upozoravaju na superinteligentne modele veštačke inteligencije (AI) koji bi jednog dana mogli da izazovu uništenje ljudske vrste. Sem Altman, izvršni direktor kompanije Open AI, kaže da bi ova tehnologija mogla da označi „naš kraj”, dok pionir veštačke inteligencije Džefri Hinton svoj otkaz u Google-u obrazlaže strahom od pretnje koju AI predstavlja po budućnost čovečanstva. Centar za bezbedan AI objavio je saopštenje o opasnosti od izumiranja civilizacije.

To bi trebalo da nas zabrine, jer se nudi malo ili nimalo dokaza koji potkrepljuju te emotivne i senzacionalističke izjave, dok ponuđeni primeri padaju već na prvoj probi.

Ove tvrdnje su zastrašujuće – ali ne zato što su tačne, nego stoga što preusmeravaju razgovor o uticajima veštačke inteligencije i smislu odgovornog razvoja AI.Priča da bi tehnologija jednog dana mogla samostalno da razvije nadljudsku inteligenciju i postane pretnja čovečanstvu poznat je filmski zaplet, duboko utisnut u naše predstave o veštačkoj inteligenciji. Odavno smo navikli na taj narativ u medijima, ali je ove godine ušao i u političke i pravne diskusije o veštačkoj inteligenciji.

To bi trebalo da nas zabrine, jer se nudi malo ili nimalo dokaza koji potkrepljuju te emotivne i senzacionalističke izjave, dok ponuđeni primeri padaju već na prvoj probi. Recimo, tvrdnje da veliki jezički modeli pokazuju takozvana emergentna svojstva (sposobnosti za koje nisu trenirani, ali su se nekako pojavile) obično se tiču nepredviđenih, mada ipak objašnjivih funkcija modela. Kada je izvršni direktor Google-vematične kompanije Alphabet, Sundar Pačai, rekao da Google-ov četbot Bard odgovara na upite na bengalskom, iako nije bio treniran za taj jezik, verovatnije objašnjenje dala je bivša zaposlenica Google-a, Margaret Mičel, koja je navela da su u Bard-ovrazvoj bili uključeni aspekti njegovog prethodnika, jezičkog modela PaLM, u čijim se podacima za trening nalazio i bengalski jezik.

Ideja da bi AI mogla da razvije vlastitu svest pomera fokus na buduću odgovornost tehnologije, umesto na aktuelnu odgovornost krupnih tehnoloških kompanija. Sve to stvara iluziju neizbežnosti, jer sugeriše da svedočimo evoluciji veštačke inteligencije, a ne nizu svesnih odluka organizacija i ljudi podložnih kontroli.

To je još jedan podsetnik da AI modeli rade samo ono za šta su programirani. Tvrdnje o emergentnim svojstvima služe da se ućutkaju zahtevi za transparentnošću i prekinu rasprave o odgovornosti programera. Najglasnija upozorenja o navodnom egzistencijalnom riziku dolaze iz Silicijumske doline. Na prvi pogled, to deluje nespojivo sa interesima koje krupne kompanije imaju od ulaganja u inovacije i razvoj AI. Međutim, ovi narativi upravo štite njihove interese tako što pažnju javnosti sa onoga što kompanije rade danas, skreću na nagađanja o hipotetičkim budućim kapacitetima AI.

Ideja da bi AI mogla da razvije vlastitu svest pomera fokus na buduću odgovornost tehnologije, umesto na aktuelnu odgovornost krupnih tehnoloških kompanija. Sve to stvara iluziju neizbežnosti, jer sugeriše da svedočimo evoluciji veštačke inteligencije, a ne nizu svesnih odluka organizacija i ljudi podložnih kontroli.

Važno je imati u vidu ne samo ono što se govori, već i ko će biti saslušan. Videli smo kako regulatori širom Evrope srdačno dočekuju Sema Altmana, dok ljudi na koje AI negativno utiče jedva da se čuju. To je simptom onoga što je profesorka Kejt Kroford nazvala „problemom belog muškarca”: tvrdnje o egzistencijalnom riziku uglavnom iznose imućni belci na pozicijama moći, oni koji su danas najmanje izloženi šteti zbog veštačke inteligencije, dok za nju snose najveću odgovornost.

Zaista se nalazimo u kritičnom trenutku dok vlade sveta pokušavaju da izađu na kraj sa izazovima efikasnog regulisanja veštačke inteligencije. Umesto da se bavimo interesima krupnih tehno-kompanija i njihovim fantazijama o opštoj AI, ključno je suprotstaviti se narativima o superinteligenciji i egzistencijalnom riziku i usredsrediti ove diskusije na ljude i zajednice koje već trpe stvarne uticaje zbog primene novih tehnologija.

(Pulse)

O autoru

administrator

Ostavite komentar