ЗОВ БУДУЋНОСТИ

ВАНЗЕМАЉЦИ МЕЂУ НАМА

525 pregleda
Pixabay

Најугледнији амерички листови преносе запањујућу прогнозу Института за истраживање вештачке интелигенције. Да ли можемо да уништимо једни друге или је решење у уништењу вештачке интелигенције?

„Највероватнији резултат стварања надљудски паметне вештачке интелигенције јесте тај да ће сваки поједини члан људске врсте и сав биолошки живот на Земљи – дословце сви – умрети”, ову црну прогнозу минулих дана је у магазину „Тајм“ написао Елизер Јудковски, први човек Института за истраживање вештачке интелигенције (непрофитна организација у Берклију), који је и раније опсежно писао о вештачкој интелигенцији (AI).

Чека нас потпуни слом

Управо је Јудковски својевремено упозорио на то како би неко могао да несвесно створи вештачку интелигенцију (AI) која би се окренула управо против човечанства. А пре неколико година предложио је модификован Муров закон, према којем минимални коефицијент интелигенције потребан за уништење света сваких 18 месеци пада за један бод. Али, сада је отишао корак даље: „Верујем да се приближавамо опасној тачки у којој стварамо AI од нас самих, која не ради оно што ми желимо и нимало не мари за нас, а вероватни резултат суочавања човечанства с надљудском интелигенцијом биће потпуни слом… Таква вештачка интелигенција лако би могла да побегне са интернета и изгради вештачке облике живота, водећи биолошки рат против нас. Стога нам треба потпуни и глобални мораторијум на развој вештачке интелигенције.

Недавно су, потрд осталих, Илон Маск (власник „Тесле” и „Твитера”) и Стив Вознијак (суоснивач „Епла”) у писму позвали на шестомесечну паузу у усавршавању AI. И они сматрају да развој вештачке интелигенције с надљудским способностима у недостатку било каквог међународног регулаторног оквира може да доведе до катастрофе. Али Јудковски, за разлику од потписника поменутог писма, не верује да се ово може решити за само шест месеци.

Свет је у прошлости већ имао искуства са потенцијално смртоносним научним истраживањима – реч је о нуклеарном оружју и биолошком ратовању. Знало се да је потенцијал за катастрофу огроман, али истраживања се нису смањила. Све то, заправо, говори да шестомесечна пауза у развоју вештачке интелигенције вероватно неће постићи пуно тога. С друге стране, нереално је очекивати да ће позив Јудковског на потпуно замрзавање истраживања наићи на одобравање и да ће бити прихваћен.

Проблем је у томе што већину истраживања о вештачкој интелигенцији спроводи приватни сектор. Према последњем извештају Стенфордског института за вештачку интелигенцију усмерену на човека, глобална приватна улагања у AI у 2022. години износила су 92 милијарде долара, од чега је више од половине у САД. Приватне компаније су произвеле 32 значајна модела машинског учења, у поређењу са три која су произвеле академске институције, пренео је „Јутарњи лист”.

Другачија мишљења

Али многи критичари Јудковског, међу којима је Мет Парлмер, оснивач компаније за алатне машине „ГенФаб”, оптужују га за стварање „тврдокорног антиAI култа”. „Заустављање истраживања вештачке интелигенције лишило би болесне људе потенцијалних открића у медицини”, упозорава Парлмер, а преноси „Блумберг”. И Николас Томсон, главни извршни директор „Атлантика”, слаже се с тим да Јудковски у многочему претерује:

„Недавно сам направио дечју књигу за синовљев девети рођендан, користећи Dall-E и GPT-4, о Светском првенству његових плишаних животиња. Медведи су победили и њему се то свидело… Одвојимо сви мало времена за експериментисање. Направићемо супер ствари и учити док то радимо.

Тајлер Ковен из „Блумберг опиниона” мисли слично, а поставио је нека хипотетичка питања: „Шта да смо 2006. године колективно одлучили да обуставимо развој друштвених медија на шест месеци док смо размишљали о могућим штетама због широке употребе? Ти лоши учинци у то време једва да су били очигледни и још се оспоравају. У међувремену, након шестомесечног одлагања, колико бисмо још били у процесу евалуације? Чак и ако америчке компаније уведу шестомесечну паузу, ко може рећи да ће кинеске учинити исто?”

Међу браниоцима вештачке интелигенције је и Рид Хофман, оснивач „Линкедина”. Он не оспорава чињеницу да постоји барем одређени ризик у развоју интелигенције супериорније од људске, али истовремено каже: „Верујте нам да ћемо ово направити врло етички, јер ако нас обуздате, негативци ће бити ти који ће радити на развоју те исте вештачке интелигенције, а то би онда збиља могло да доведе до праве катастрофе”. Чињеница је да већина AI ради ствари које човечанству нуде добробит, а не претње. На пример, „Дип Мајндов” Алфа Фолд одредио је структуре око 200 милиона протеина, што је велики научни корак напред.

Како онда вештачка интелигенција може уништити човечансто? Не производећи андроиде убице налик Арнолду Шварценегеру у „Терминатору”, већ само користећи његову моћ да нас опонаша да би нас појединачно излудела и колективно отерала у грађански рат. Као што каже Мени Ринкон-Круз из Института Хувер: AI модели који могу генерисати текстове на природном језику из великих количина података не манипулишу атомима или битовима, они манипулишу – нама. Неће нас вештачка интелигенција избрисати, овде је једини стваран ризик у томе да ћемо се ми као врста распасти коришћењем AI алата за неплемените или подле циљеве.”

(Спутњик)

О аутору

administrator

Оставите коментар