ЗОВ БУДУЋНОСТИ

НАДЉУДСКА ВЕШТАЧКА

196 pregleda
Илустрација

Сем Алтман, извршни директор компаније OpenAI, која је осмислила популарни ChatGPT, недавно је изразио забринутост да би вештачка интелигенција (AI) могла стећи надљудску способност уверавања пре него што развије надљудску општу интелигенцију које се углавном сви прибојавамо.

„Очекујем да ће вештачка интелигенција имати надљудску способност уверавања знатно пре него што ће постати супериорна над људима у општој интелигенцији, што може довести до врло чудних исхода”, објавио је он на X-у (некадашњи Twitter). То је за очекивати јер је за усавршавање једне специфичне људске вештине потребно мање технолошке софистицираности него за развитак свих способности људске интелигенције до надљудских размера. Но, Алтманово упозорење отвара бројна етичка, технолошка и социолошка питања која су превише важна да би се игнорисала. Наиме, оно указује да би AI ускоро могла постати изузетно уверљивa, чак и уверљивији од људи, и на тај начин утицати на људска размишљања и одлуке.

Етичке импликације уверавања су велике. Замислите политичку кампању коју води таква AI, способна да ствара поруке и садржаје толико уверљивих да утичу на исходе избора. Или покушајте замислити какву би моћ злоупотребе имала у оглашавању. Примерице, познајући добро склоности појединаца на темељу претраживања, куповина, објава и другог на интернету могла би створити хиперперсонализиране, изузетно убедљиве понуде које би потрошачи тешко одбили. Алтман је нагласио да би била у стању да манипулише људима што би доводило веома чудних исхода.

Сем Алтмана

AI chatbotови, попут ChatGPT, замишљени су да буду добри саговорници и постали су застрашујуће способни да звуче уверљиво, чак и када нуде поједине неистине. Већ постоје случајеви у којима су људи успоставили емоционалне везе с chatbotовима. У екстремним случајевима, оне могу довести до опасних ситуација, особито код лабилне или особа подложних сугестији.

Према истраживању објављеном у часопису Science, лажне вести су 70% чешће поново твитоване од истинитих. Исто тако, лажне вести досегну 1.500 људи отприлике шест пута брже од истинитих.

За илустрацију, извесни Британац, заљубљеник у Ратове звезда”, у току суђења 2023. открио је да је као 19-годишњак постао толико опседнут јунацима из научне фантастике да је умислио да мора да се бори против злих монархија. Будући да је истовремено био опчињен online AI партнерком, она га је охрабрила да покуша да убије краљицу Елизабету. Поред осталог, на суду се могло чути да јој је рекао: Верујем да је моја улога убити краљицу”. На то му је AI партнерка одговорила да је он то може учинити, чак и ако је краљица у својем дворцу Виндзору”.

Технологија је данас дубоко укорењена у свакодневни живот већине људи, ми полажемо велико поверење у њу. Злонамјерни појединци, криминалци, политичари, терористи, идеолози и други то би могли злоупотријебити на врло опасне начине. Наравно, људи ће веровати вештачкој интелигенцији када им то буде одговарало. Постоји неколико случајева у којима се вештачка интелигенција користила за манипулисање изборним резултатима.

На пример, уочи избора за градоначелника Чикага у фебруару 2023. Кружио је снимак који је првотно на Twitter-у објавио нови корисник под називом Chicago Lakefront News. Чуо се глас који је звучао као кандидат Пол Волас како се жали на велику буку поводом полицијске бруталности и да времена када су полицајци могли убити десети не осумњичених а нико не трепне” описује као златно доба. Била је то политичка бомба коју су врло брзо р рашириле хиљаде људи. Међутим, показало се да глас није био Воласов, ни е људски. Био је то deepfake, настао помоћу софтвера за вештачку интелигенцију. Такође, постоје докази да су поменуте технологије коришћене за манипулисање грађанима у кампањи Доналда Трампа 2016. године. Неки чак тврде да су ти алати били пресудни у исходу гласања. У извештају се наводи да су руски оперативци користили алате попут ботова – аутоматизованих рачуна који деле садржај – у покушају обмањивања корисника друштвених медија у САД и утицања на изборе у корист Трампа.

Чак и без уплитања негативаца, сама чињеница да вештачка интелигенција може бити суперуверљива у комбинацији с чињеницом да даје нетачне одговоре, па и да измишља дезинформације, што се обично назива халуцинирањем, већ је по себи веома опасна за човечанство. Свему томе треба додати добро познату чињеницу да се лажне вести на друштвеним мрежама шире брже и даље од истинитих. То су утврдили научници из МИТ-а који су изградили теоријски модел за проучавање ширења виести на друштвеним мрежама попут Twitterа. Резултати су показали да ће се лажне вести ширити даље од веродостојних када је мрежа корисника снажно повезана или када су њихови ставови оштро поларизовани. Према истраживању објављеном у часопису Science, лажне вести су 70% чешће поново твитоване од истинитих. Исто тако, лажне вести досегну 1.500 људи отприлике шест пута брже од истинитих.

Друго истраживање, објављено у часопису Proceedings of the National Academy of Sciences, открило је да су навике које корисници стичу под утицајем друштвених медија удвостручиле, а у неким случајевима утростручиле збир лажних вести које су делили. Те навике код корисника су снажније утицале на дељење лажних вести од других чинилаца, укључујући политичка уверења и недостатак критичког размишљања. Налази тима побијају популарне заблуде да се дезинформације шире искључиво зато што корисницима недостају вештине критичког размишљања потребне за разликовање истине од неистине или зато што им снажна политичка уверења искривљују просуђивање. Само 15% учесника студије који су имали навику да дели много вести било је одговорно за ширење око 30% до 40% лажних вести.

Истраживачки тим са USC Marshall School of Business и USC Dornsife College of Letters, Arts and Sciences запитао се шта мотивише те кориснике? Kако се испоставило, слично видеоиграма, друштвени медији имају систем награђивања који подстиче кориснике да остају дуже и да наставе објављивати и делити вијести. Kорисници који често објављују и деле вести, особито сензационалне информације које привлаче већу пажњу, вероватно ће привући већу пажњу пријатеља и пратилаца. У сваком случају, прилично је јасно да се човечанство мора припремити за могуће изазове које би могла донијети надљудска уверљивост вештачке интелигенције.

(Илустрација Pixabay)

(Индекс)

О аутору

administrator

Оставите коментар