ЗОВ БУДУЋНОСТИ

БУМ ВЕШТАЧКОГ РАЗУМА?

211 pregleda
Pixabay

Од вештачке интелигенције у 2023. можемо очекивати фасцинантна остварења, али не и изједначавање рачунара с људима у општим когнитивним способностима; још ћемо причекати на суперинтелигентног робота у свему једнаког или супериорнијег од човека.

Развој вештачке интелигенције (AI) остварио је у 2022. години голем напредак који је истовремено изазвао и одушевљење и забринутост. Одушевљење, јер су системи вештачке интелигенције, као што су генератори слика DALL-E и Stable Diffusion, генератори видеа као што су Stable Diffusion Videos, Deforum Stable Diffusion и Make-A-Video (видео доле) и нарочито генератори текста као што су LaMDA, ChatGPT, Godel, Sparrow и Galactica демонстрирали запањујуће способности какве је мало ко очекивао. Забринутост, зато што се појавио страх да би још напреднија вештачка интелигенција и аутоматизација које ће се појавити у наредних неколико година многим људима могле одузети бројне послове, особито онима који се неће прилагодити и научити како да је користе.

Један од проблема је то што су се неки системи почели користити за стварање штетних садржаја попут лажних вести или непримјерених слика, укључујући порнографске. Постоји, такође, забринутост да ће AI своје садржаје креирати на темељу проучавања огромне количине људских креација попут уметничких дела не поштујући ауторска права. Примерице, модели који стварају уметност попут Stable Diffusion-a, покренули су развој нових апликација с фасцинантним креативним могућностима, укључујући чак и научне примене и настајање потпуно нових пословних модела. С друге стране, уметници се буне да они изравно профитирају на њиховом раду. Kоначно, постоји страх да би вештачка интелигенција у скорој будућности могла достићи и претећи људе, постати свесна и отети се контроли. Погледајте видео Stable Diffusion-a https://www.youtube.com/watch?v=_NfEC6wWhqI

Мало јасних одговора

Намеће се питање што се може очекивати у 2023? Хоће ли увођење нових прописа пратити развој вештачке интелигенције и обуздати оно најгоре што би она могла донети? Хоће ли се појавити нови облици и уздрмати индустрије за које се некада сматрало да су сигурне од аутоматизације? Хоће ли она постати замена за људе или користан алат за оне који ће пратити трендове и учити да је користе?

(Pixabay)

За тренутно најпознатију генератор текста ChatGPT, који се темељи на моделу GPT-3.5, одговор је отприлике следећи:GPT-4 (Generative Pre-trained Transformer 4) је најсавременији AI модел за обраду језика који развија OpenAI. Има потенцијал помоћи људима или побољшати њихов рад у различитим задацима који укључују језичку обраду, као што је сажимање, превод, генерисање садржаја и више. Важно је напоменути да GPT-4 није намењен да замени људе, већ да им помогне у задацима који укључују обраду природног језика и креирање садржаја на темељу проучених, постојећих садржаја. Вероватно је да ће се GPT-4 донекле користити у разним индустријама, укључујући новинарство, маркетинг, службу за кориснике итд. Међутим, тешко је тачно предвидети како ће се GPT-4 користити у будућности, јер је то нова технологија која се још развија и истражује.” Да ли је ово истина или је компанија OpenAI програмирала и увежбала ChatGPT да отклања људски страх од AI, показаће време и пракса.

Шта у 2023. можемо очекивати од вештачке интелигенције утемељене на обради и стварању текста, понајбоље илуструју пројекције развоја ChatGPT-а који се крајем 2022. нашао у фокусу као највеће изненађење на технолошкој сцени. Он ради на темељу програма GPT-3,5 а довршавање измена GPT-4 очекује се кроз неколико месеци. Међу пословима које би GPT-4 могао добро обављати наводе се и адвокатски. За илустрацију, GPT-3,5 је показао неочекивано добар успех у решавању правосудног испита познатог као Bar који је у САД за адвокате услов за добијање професионалне дозволе. Полагањем тог испита они се примају у адвокатску комору.

Научници су, стога, недавно спровели студију у којој су GPT-3,5 тестирали на овим питањима. Показало се да он још није способан да га положи, али је врло близу. У студији објављеној у Arxiv аутори истичу да кандидати, да би могли приступити испиту, морају након средње школе завршити још најмање седам година образовања, укључујући три године на акредитованом правном факултету.Осим тога, већина полазника проводи седмице или месеце у даљим припремама за испит. Упркос знатним улагањима времена и капитала, отприлике један од пет полазника има резултат испод потребног за полагање испита из првог покушаја”, истичу аутори у уводу.

Поменути налази показали су да је GPT-3,5 најуспешнији био у испитима који су тражили да рангира понуђене одговоре. Без икаквог финог подешавања он тренутно постиже пролазност у две категорије адвокатског испита и једнаку стопу са испитаницима у једној категорији”, наглашавају аутори. Будући да би GPT-4 требало да буде моћнији и боље увежбан, увјерени су да ће без проблема проћи тај тест. У чему ће GPT-4 бити напреднији од старијих модела?

Kомпанија OpenAI за сада не излази с детаљима унапређења која ће садржати GPT-4 у односу на раније моделе. Намеће се питање: у чему ће све бити напреднији? Сигурно је да ће бити моћнији од претходних верзија у способности обраде и генерисања природног језика. И то због бројних чинилаца, као што је повећање броја параметара, што би му омогућило тачније препознавање узорака у подацима. Томе би, такође, могла придонети побољшања у методама обуке. Kоначно, требало би му омогућити слободан приступ већем броју података преко интернета који GPT за сада нема. Он тренутно може пружити само информације на којима је обучен, а темеље се на фиксном скупу података прикупљених до 2021. године.

У технолошким круговима нагађа се да Мајкрософт”, који је уложио велики новац у OpenAI, планира верзију веб претраживача Bing који ће користити ChatGPT за одговарање на упите претраживања. То би се, наводно, догодило пре краја марта у настојању да га учини конкурентнијим Гуглу”. С друге стране, нема двојбе да и Гугл” има скривеног аса у рукаву. За очекивати је да ће 2023. бити нових бацања рукавица у лице.

(Youtube)

Шта значи то што ће GPT-4 имати знатно више параметара? Од 2018. године, када је објављен GPT-1, OpenAI је следио стратегију што веће, то боље”. У складу с тим GPT-1 имао је 117 милиона параметара, GPT-2 око 1,2 милијарде, а GPT-3, чак, 175 милијарди. Шта ти параметри значе у контексту вештачке интелигенције и машинског учења? Параметри су вредности које контролишу понашање. AI модел је скуп алгоритама дизајнираних за извођење одређених задатака, као што је препознавање узорака у подацима или стварање предвиђања, а параметри су вредности које су постављене пре тог увежбавања и користе се за контролу понашања модела током увежбавања и закључивања. Могло би се рећи да су параметри коефицијенти модела, које он одабире у току процеса учења.

То значи да алгоритам, док учи, оптимизује коефицијенте према задатој стратегији и враћа низ параметара који минимизују погрешку. Постоји много различитих врста параметара који се могу користити у моделу вештачке интелигенције, а специфични параметри и њихове вредности зависиће од специфичног задатка за који је модел дизајниран и врсте модела који се користи. Неки примери параметара који се могу користити у моделу вештачке интелигенције укључују брзину учења (контролише колико брзо модел учи из података о обуци), број слојева у моделу и број рачунарслих неурона у сваком слоју. Прилагођавање вредности параметара у AI моделу може имати значајан утицај на његово извеђење, а проналажење оптималних вредности често је важан део обуке и финог подешавања.

Хоће ли се GPT-4 у 2023. изједначити с људским мозгом? У интервјуу за часопис „Вајерд из августа 2021, Ендру Фелдман, оснивач и извршни директор Cerebrasa, компаније која је партнер OpenAI-ја за обучавање GPT модела, рекао је да би GPT-4 могао имати око 100 хиљада милијарди параметара, што би значило да ће бити стотинак пута моћнији од GPT-3, али и да ће се по броју параметара приближити броју неуронских веза у људском мозгу. Наиме, процењује се да људски мозак има око 100 милијарди неурона а око 100 хиљада милијарди веза с другим неуронима преко синапси. То звучи врло узбудљиво, међутим неки стручњаци истичу да није све у величини.

Примерице, главни уредник UX Planeta Ник Бабич истиче да величина модела у пракси није непосредно повезана с квалитетом исхода који он ствара. Број параметара само је један фактор који утиче на перформансе вештачке интелигенције. Већ сада постоје много већи модели него што је GPT-3, но они нису најбољи у смислу перформанси. Тренутно највећи модел Megaton-Turing NLG, који су развили „Енвидија и Мајкрософт”, има више од 500 милијарди параметара. Упркос томе, он није најбољи у погледу перформанси; неки мањи модели су бољи. Осим тога, што је већи модел, то је скупље његово фино подешавање. GPT-3 је био прилично захтеван и скуп за обуку. Ако се број параметара модела повећа за 100 пута, то ће бити изузетно скупо у смислу рачунарске снаге и количине података потребних за обуку модела.

Другим речима, мала је вероватноћа да ће GPT-4 уистину имати 100 хиљада милијарди параметара како неки најављују, јер само повећање броја параметара неће изазвати драстично побољшање његових перформанси, ако се подаци потребни за обуку такође не повећају пропорционално. А тренирање модела је врло скупо. Све наведено указује да ће OpenAI вероватно почети избегавати приступ веће је боље” и фокусирати се више на квалитет модела за тачно одређене намене. Другим речима, GPT-4 вероватно неће бити знатно већи по броју параметара од модела GPT-3.

Стручњаци предвиђају да би се фокус компанија које развијају вештачку интелигенцију могао помаћо ка другим аспектима који утичу на перформансе модела, као што су специјализације, тренирање и унапређење алгоритама. Примерице, GPT-4 би, поред осталог, могао постати први велики модел у којем неће сви неурони у сваком тренутку бити активни. У том смислу нови би модели могли бити сличнији људском мозгу у којем се за различите функције активирају различити специјализирани делови.

Размишљају ли chatbot-ови као људи? Чињеница да вештачка интелигенција у неким задацима постаје боља од људи и да се својим неурнским мрежама и бројем рачунарских операција приближава људском мозгу навела је бројне лаике, али и стручњаке, да поверују да су chatbot-ови постали способни мислити, учити и осећати слично као људи и да би можда ускоро могли постати чак и свесни. У јуну 2022. Гуглов” рачунарски инжењер Блејк Лемоин објавио је да је LaMDA, на којој је и сам радио, свесна и да има осећаје попут људског бића. Колеге у компанији и већина стручњака за вештачку интелигенцију нису се сложили с тиме и објава је завршила као једна цртица у овој индустрији.

Занимљиво је да сам ChatGPT у својем моделу има следећу информацију:Не, chatbot-ови не размишљају на исти начин као људи. Они су програмирани за обављање специфичних задатака и немају способност размишљања или расуђивања на начин како то раде људи. Дизајнирани да опонашају разговор с људима при чему користе технике вештачке интелигенције, али немају властите мисли или осећаје. Они могу пружити корисне информације и помоћи у одређеним задацима, али нису свесна бића и не поседују исте когнитивне способности као људи.”

(Youtube)

Бројни стручњаци тврде да програми попут LaMDA и ChatGPT заправо не мисле, већ само симулирају мишљење, што није исто. Захваљујући својим алгоритмима и информацијама које су им стављене на располагање током тренинга, chatbot-ови проналазе могуће низове појмова, реченица и речи којима придају одређену статистичку вероватноћу према којој их избацују када им се постави питање што садржи одређене речи повезане са одређеним темама. То што одговоре формулишу тако да изгледају као сувисле реченице не значи да стварно размишљају, нити да су одговори тачни и проверени. Напротив, искуства с GPT показују да он, када греши, стално понавља исте грешке, не промишља нити проверава истинитост својих одговора и за сада не учи из својих грешака.

Другим речима, од chatbot-овa и других модела вештачке интелигенције у 2023. можемо очекивати фасцинантна остварења, али не и изједначавање рачунара с људима у општим когнитивним способностима; још ћемо причекати на суперинтелигентног робота у свему једнаког или супериорнијег човека.

(Индекс)

О аутору

administrator

Оставите коментар