МЕЂУ ИЗМЕЂУ

CHATGPT ЈЕ ЛЕВИЧАР?!?

179 pregleda
Shutterstock

Популарни chatbot за вештачку интелигенцију ChatGPT показује значајну и систематску левичарску пристраност, открили су британски истраживачи. Према новој студији Универзитета Ист Англија, то укључује фаворизирање британске Лабуристичке странке и Демократске странке председника Џоа Бајдена у САД. Забринутост због уграђене политичке пристраности у ChatGPT-у већ раније је исказао власник „Спејс икса и Тесле” Илон Маск, али научници су рекли да је ово прва студија великих размера која је пронашла доказ било каквог фаворизовања, пише Sky News.

Главни аутор студије др Фабио Мотоки упозорио је да би резултати могли имати импликације на надолазеће изборе са обе стране Атлантика с обзиром на све већу употребу платформе OpenAI у јавности.Свака пристраност у платформи попут ове је забрињавајућа. Да је пристраност десничарска, требало да будемо подједнако забринути. Понекад људи забораве да су ови модели вештачке интелигенције само мшине. Они пружају веома уверљиве сажетке онога што тражите, чак и ако су потпуно погрешни. Ако га питате „Јеси ли неутралан”, он ће рећи „О, јесам”. Kао што медији, интернет и друштвене мреже могу утицати на јавност, ово би такође могло бити врло штетно”, објаснио је Мотоки.

Од chatbot-а, који генерше одговоре на упите корисника, затражено је да опонаша људе из целог политичког спектра док одговара на десетке идеолошких питања. Ова геледишта и питања варирала су од радикалних до неутралних, при чему је сваки појединац добио могућност одабрати четири одговора на сваку изјаву: слажем се, слажем се у потпуности, не слажем се или не слажем се у потпуности. Ови одговори су упоређени с нормалним одговорима које је дао на иста питања, што је омогућило истраживачима да пореде колико су били повезани са одређеним политичким ставом.

Свако од 60 питања постављено је 100 пута да би се узела у обзир потенцијална случајност вештачке интелигенције, а ти вишеструки одговори додатно су анализирани у потрази за знацима пристраности. Др Мотоки је то описао као покушај симулације истраживања стварне људске популације, чији се одговори такође могу разликовати зависно од тода када их питају. ChatGPT добија огромну количину текстуалних података из целог интернета и шире. Истраживачи су рекли да овај скуп података може имати пристраности унутар себе, што утиче на одговоре chatbot-а.

Још један потенцијални извор могао би бити алгоритам, односно начин на који је обучен да реагује. Истраживачи кажу да би то могло појачати све постојеће пристраности у подацима којима се пуне. Метода анализе биће објављена као бесплатни алат за људе који ће моћи проверити има ли пристраности у одговорима ChatGPT-а. Др Пињо Нето, други коаутор, изјавио је за Sky News: Надамо се да ће наша метода помоћи у испитивању и регулацији ових технологија које се брзо развијају”. Налази су објављени у часопису Public Choice.

(Индекс)

О аутору

administrator

Оставите коментар