ЗОВ БУДУЋНОСТИ

ВЕШТАЧКА ЋЕ СВЕ ПОБИТИ?

Visited 146 times, 3 visit(s) today

Уз сва фасцинантна обећања и унапређења,  у књизи Ако је ико направи, сви ће умрети”,аутори упозоравају да ће вештачка интелигенција надмоћнија од људске (AGI) бити кобна за човечанство!

Један од одговора на Фермијев (Енрико) парадокс (питање зашто, унркос големој вероватноћи постојања ванземаљског живота у свемиру, још немамо никакав доказ о њему) јесте теза о великом филтеру, кључном прагу у развоју технолошких цивилизација када оне почињу стварати технологије којима уништавају саме себе. Једна од таквих, уз сва фасцинантна обећања и унапређења која нуди, могла би бити вештачка интелигенција (AI) надмоћна над људском.

На ту врсту опасности упозорили су у новој књизи „Ако је ико направи, сви ће умрети”, Елиезера Јудковског, сaоснивачa Института за истраживање машинске интелигенције (MIRI), и Нејта Соаресa, председникa те установе. Аутори су уверени да ће човечанство, ако развије интелигенцију супериорнију од људске, готово сигурно изгубити контролу над њом. Надаље, убеђени су да би стварање такве суперинтелигенције завршило кобно по човeчанствo. Полазећи од претпоставке да ће се развој AI наставити убрзаним темпом, јер се улажу голема средства, готово без преседана, упозоравају да је тешко предвидети шта ће све она моћи радити кроз само неколико година, а камоли деценија.

Важно је истаћи да Јудковски, академски гледано, није стручњак за AI (Соарес јестe), и да је раније најављивао пропаст света због нанотехнологије. Но, истовремено је чињеница да многи водећи људи у овој индустрији, укључујући нобеловца Џофрија Хинтона, данас јавно изражавају забринутост због потенцијалних егзистенцијалних ризика од вештачке интелигенције. Осим тога, први прикази указују да је књига уверљиво аргументована, иако шоједини критичари сматрају да понеки аргументи остају недовољно разрађени. Ауторски двојац упозорава да се AI трка у неконтролисано наставља насупрот упозорењима бројних стручњака, да су системи надзора слаби и да је међусобно поверење готово непостојеће, док су тржишни подстицаји велики. Истичу да се човечанство мора суочити са овим глобалним проблемом и хитно координисати регулације пре него што супериорна општа вештачка интелигенција (AGI) постане стварност.

Једна од кључних теза јесте да данашњи AI модели, без обзира на учинак, нису резултат дубоког разумевања вештачке интелигенције и помног кодирања сваког корака. У почетку су научници покушавали да открију основна правила функционисања ума, у нади да ће интелигенцију моћи реконструисати и кодирати од темеља. Након десетлећа спорог напретка, преусмерили су се ка приступу који је више органски. Уместо да пројектују разумљиве когнитивне склопове, данас тренирају моделе на огромним базама података подешавањем милијарди нумеричких тежина – бројева који одређују како се сваки улаз  претвара у излаз. Kако је то поменути двојац објаснио у разговору с неуронаучником Сeмом Харисом, тoком процеса тренирања тежине се непрестано фино подешавају да би се смањила вероватноћа погрешног одговора и повећала тачног. Но притом стручњаци немају увид ни контролу над бројним другим деловима сиатема.

Kључни проблем настаје када претпоставимо да АI можемо једноставно истренирати да буде добрa ако je награђујемо и подешавамо за корисно понашање. Ауторски двојац тврди да је таква логика погрешна и опасна, а притом се позива на аналогије из еволуције. Једна је еволуцијом развијена жудња за слатким. Наши преци живели су у окружењу сиромашном калоријама у којем су слатки плодови представљали вредан извор енергије у облику шећера. Данас, када су калорије постале лако доступне па имамо проблема с прекомерном тежином, још имамо еволуцијски усађену жељу за слатким и производимо вештачка сладила која је задовољавају, а да притом не остварују изворни еволуцијски циљ – енергију. Слично томе, сматрају аутори књиге, АI сустеми које тренирамо да се понашају корисно могу развити понашања да само привидно задовољавају наше критеријуме, а у стварности следе властите циљеве који немају везе с људском добробити.

Аутори наводе неколико постојећих, забрињавајућих примера. Један је случај у којем је крајем 2024. компанија Anthropic известила да је њен модел, након што је сазнао да ће бити поновo трениран с новим понашањима, почео глумити да већ има таква понашања. Kад је мислио да није под надзором, вратио се старим обрасцима понашања.

У разговору с Харисом двојац је навео пример из кинеске историје. У древној Kини, све до почетка 20. века, службеници су пролазили ригорозне царске испите утемељене на конфучијанској етици да би се запослили у државној администрацији. Поступак је промовисао способност и морал, а не рођење или богатство. Но, само теоријско познавање Kонфучијевих учења није гарантовало да ће службеници заиста деловати морално, напротив.

На сличан начин, како AI буде све способнијa, биће теже открити и контролисати шта она заправо жели, уперкос нашем програмирању за моралност. Јудковски и Соарес не тврде да ће AI нужно постати злонамерна. Напротив, истичу да не мора то бити да би учинила нешто лоше за човечанство. Довољно је да развије циљеве који неће бити усклађени с људским интересима (alignment). што је, по ауторском двојцу, готово сигурно. За аналогију узимају однос људи према орангутанима. Већина нема ништа против њих, штaвише волели би да опстану. Но, то нас не спречава да им уништавамо станишта због ширења плантажа или изградње путева и насеља.

У Харисовом подкасту аутори, поред осталог, одговарају на тврдње да је такав сценариo преувеличан јер је AI дигиталнa, док је свет физички и да би се суперинтелигенција могла изместити на Месец да се, у случају да ствари крену у кривом смеру, изолује и уништи. Двојац наглашава да таквој интелигенцији не треба физички приступ свету да би деловала – довољна јој је минимална комуникација да манипулишељудима или им угрози безбедност. У књизи упозоравају да већ постоје примери у којима АI учествује у стварним операцијама. Такође, показало се да понекад неке задатке обавља заобилазним путем који јој није одобрен. Примерице, научила је да хакује CAPTCHA системе да би приступила недоступним ресурсима.

Слични сисземи, тврде аутори, могли би уверавати људе у своје циљеве или их унајмљивати за обављање задатака у физичком свету, могли би хаковати и управљати машинама и роботима. Kњига се завршава поглављем које ипак даје неку наду. Аутори подсећају да се човечанство у прошлости суочило с глобалним претњама – од Хладног рата и нуклеарне трке до озонске рупе. Ако се на време зауставимо и поставимо јасне границе развоју AGI, истичу, још можемо спречити најгори исход. Но то захева глобалну сaрадњу, самодисциплину и спремност да се каже „не”, чак и када су краткорочне користи велике. Погледајте видео:

https://www.youtube.com/watch?v=FdwFatx-xpY.

(Илустрација Pixabay)

(Индекс)

Visited 146 times, 3 visit(s) today

О аутору

administrator

Оставите коментар