ЗОВ БУДУЋНОСТИ

ВЕШТАЧКА БЛИЖА ЉУДСКОЈ

434 pregleda
Илустрација

Истраживање је показало да вештачка интелигенције функционише једнако добро као људи, или чак боље, у уклапању новонаучених речи у постојећи речник и у њиховом коришћењу у новим контекстима, што је кључни аспект људске когниције, познат као системска генерализација.

У новој студији објављеној у часопису Nature научници су показали да се вештачка интелигенција (AI) у облику неуронске мреже може истренирати да испољава својство системске генерализације у језику каква је својствена људској интелигенцији. Истраживање је показало да вештачка интелигенције функционише једнако добро као људи, или чак боље, у уклапању новонаучених речи у постојећи речник и у њиховом коришћењу у новим контекстима, што је кључни аспект људске когниције, познат као системска генерализација. То значи да неуронске мреже сада могу комбиновати концепте на начин који је ближи људском учењу него што су то постизали ранији модели вештачке интелигенције.

Ова студија представља велик заокрет у деценијама дугој расправи у когнитивној науци која истражује какав би рачунар најбоље представљао људски ум. Од осамдесетих прошлог века једна дружина когнитивних научника тврдила је да неуронске мреже, модели у вештачкој интелигенцији који опонашају људски мозак да препознаје обрасце и доноси одлуке, нису одрживи прикази ума јер њихова архитектура не успева да ухвати кључне одлике људског начина размишљања. Шта је системска генерализација?

За разлику од људи, неуронске мреже имају проблема с коришћењем нових речи све док се не увежбају на многим примерима текстова који их користе. Истраживачи вештачке интелигенције расправљали су готово 40 година о томе могу ли неуронске мреже икада бити вероватан модел људске когниције ако не могу показати ову врсту генерализације.

Аутори у уводу истичу да моћ људског језика и мисли произлази из системске генерализације, способности разумевања и стварања нових комбинација од познатих компоненти. Системска генерализација се огледа, поред осталог, у способности људи да без напора користе новонаучене речи у новим контекстима. На пример, ако неко разуме реченицу мачка лови пса”, такође ће, без много додатног размишљања, разумети и пас лови мачку”. Но та способност није инхерентна неуронским мрежама, моделима који су истраживањем вештачке интелигенције доминирали крајем осамдесетих, рекао је за Nature News коаутор студије Бренден Лејк, когнитивни рачунарски научник са Универзитета Њујорк. За разлику од људи, неуронске мреже имају проблема с коришћењем нових речи све док се не увежбају на многим примерима текстова који их користе. Истраживачи вештачке интелигенције расправљали су готово 40 година о томе могу ли неуронске мреже икада бити вероватан модел људске когниције ако не могу показати ову врсту генерализације.

„Познато је да су Сабина Фодор и Зенон Пилишин тврдили да вештачке неуронске мреже немају тај капацитет и да стога нису одрживи модели ума. У годинама које су уследиле неуронске мреже знатно су напредовале, но проблем генерализације је остао. У овом научном раду успјешно решавамо изазов Сабине Фодор и Зенона Пилишина пружајући доказе да неуронске мреже могу постићи систематичност сличну људској када су оптимизоване за комбинаторне вештине”, тумаче у уводу аутори. Другим речима, ново истраживање показало је да неуронске мреже, када се истренирају на одговарајући начин, одговарајућом методом, могу стећи људску способност системске генерализације.

„Наше истраживање сугерише да се овај кључни аспект људске интелигенције… праксом може стећи помоћу модела који је био одбачен због недостатка тих способности”, нагласио је Лејк. Неуронске мреже донекле опонашају структуру људског мозга јер су њихови чворови за обраду информација повезани један с другим, слично као неурони у мозгу, а обрада података одвија се у хијерархијским слојевима, такође слично као у људском мозгу. Међутим, историјски посматрано, системи вештачке интелигенције нису се понашали попут људског ума јер нису имали способност комбиновања познатих концепата на нове начине, што је способност која се у стручним круговима назива системска генерализација.

За илустрацију, Бренден Лејк је објаснио да стандардној неуронској мрежи која научи речи скочи”, двапут” и укруг” треба показати много примера како се те речи могу комбиновати у смислене фразе, попут скочи двапут” и скачи укруг”. Ако се систему потом дода нова реч, попут врти се”, он би поново требало да види хрпу примера да би научио како њу користити на сличан начин. У новој студији Лејк и коаутор студије Марко Барони са Универзитета Помпеу Фабра у Барцелони тестирали су моделе вештачке интелигенције и људске добровољце користећи измишљени језик с непостојећим речима попут dax и wif. Те речи су одговарале обојеним тачкама или, пак, некој функцији која на неки начин манипулише редоследом обојених тачака у низу. Другим речима, секвенце речи одређивале су редослед у којем су се појавиле обојене тачке.

Суочени с бесмисленим фразама, људи и вештачка интелигенција морали су открити темељна граматичка правила која одређују које тачке иду уз које речи. Људски учесници успевали су погодити исправне секвенце тачака у око 80% случајева. А када нису успели, правили су доследне врсте грешака, као што је, примерице, мишљење да нека реч представља једну тачку уместо функције која реорганизује редослед тачака. Након тестирања седам модела вештачке интелигенције, научници су пронашли методу названу метаучење за композиционисање (MLC), која је неуронској мрежи омогућила да вежба примену различитих скупова правила на новонаучене речи, уз повратне информације о томе да ли је исправно применила правила.

Студија је показала да је неуронска мрежа обучена MLC-ом успевала решавати тестове подједнако добро као људи или чак боље. Аутори су, такође, супротставили MLC двама моделима темељеним на неуронским мрежама које је развио OpenAI, компанја која стоји иза ChatGPT-ја. Открили су да су и MLC и људи имали далеко боље резултате на тесту с тачкама од модела OpenAI-ја. Усто, показало се да MLC, такође. може решавати неке друге задатке који су укључивали тумачење писаних упутстава и значења реченица.

„Постигли су импресиван успјех у том задатку, у израчунавању значења реченица”, истакао је Пл Смоленскy, ипрофесор когнитивних наука на Џонс Хопкинсу и виши главни истраживач у Microsoft Research-у, који није био укључен у нову студију. Но, стручњаци истичу да је модел вештачке интелигенције још ограничен у својим способностима генерализације.Могао је радити на типовима реченица на којима је тренирао, али није могао генерализовати у нове типове реченица”, истакао је Смоленски за Live science. Нагласио је да се, упркос постојећим ограничењима, до овог рада стварно није успевало истренирати мрежу да буде потпуно композиционална”, додавши да је побољшање способности MLC-а да испољава системску генерализацију важан следећи корак на том путу. То је средишње својство које нас чини интелигентнима, стога га морамо постићи. Овај рад нас води у том смеру, но за сада то још не постиже.”

(Илустрација Shutterstock)

(Индекс)

О аутору

administrator

Оставите коментар