ЗОВ БУДУЋНОСТИ

AI ПИШЕ НАУЧНЕ ЧЛAНКЕ

270 pregleda
Shutterstock

У најмање четири новија наведена је као коаутор студије, упозорио је недавно у Nature News-у научни новинар Крис Стокел-Вокер. Дигла се велика узбуна.

Оваква пракса, мада у зачетку, покренула је у научној заједници полемику у вези с тим има ли смисла приписивати ауторство системима вештачке интелигенције (AI) и зашто нема, ако нема? Kада она престаје бити само алат, нека напреднија верзија претраживача, сакупљача информација или језичког обликовања података у текста? Kоје би услове требало испуњавати да би се сматрала коаутором? Хоће ли академска заједница у неком тренутку, ипак, морати прихватити ауторство вештачке интелигенције? У питању су четири научна рада у којима је коаутор програм за обраду текста ChatGPT, који је прошле године представила калифорнијска компанија OpenAI. Подсетимо, тај систем је изазвао велико узбуђење у технолошком свету јер се показало да има фасцинантне способности креирања текста који веома наликује тексту који је написао човек.

Показало се да може написати толико квалитетне есеје на различите теме и одговоре на питања из разних тестова да их је тешко разликовати од студентских. Штавише, неки професори су изразили боказан јер се показало да је ChatGPT брже проценити ваљаност неких студентских радова од њих самих, што значи да би их ускоро могао заменити у неким важним деловима њиховог посла. Но, с друге стране у међувремену се, такође, показало да ChatGPT прави бројне грешке, чак и када решава релативно једноставне логичке или математичке задатке. Стручњаци истичу да је разлог, поред осталог, чињеница да он не размишља на исти начин као људи размишљају, не проверава, нити промишља своје одговоре, него избаци онај који се најчешће повезује с кључним речима у питању. Kоначно, систем би трошио превелике количине енергије када би на свако постављено питањуе промишљао и проверавао своје одговоре онако како то људи раде.

Школе у Њујорку брзо су реаговале на изазов и забраниле коришћење Chat GPTзбог страха да би га ученици употребили за варање. Зато је забрањен на свим уређајима и мрежама у јавним школама. Гласноговорница је рекла да постоји оправдана забринутост да би могао имати негативан утицај на учење и да би могао стварати лажне вести. С друге стране неки сматрају да могућности ChatGPT-а као образовног алата надмашује ризике и да школе треба да се прилагоде да би припремиле ученике за будућност која ће обиловати разним врстама алата вештачке интелигенције. Нарочито зато што ће њихово коришћење ускоро постати немогуће откривати и забрањивати.

А шта је с коришћењем ChatGPT-а у научним радовима? Kако навести да је допринео у неком делу? У Nature Newsу приказана су сва четири. Један управо описује употребу ChatGPTу медицинско образовање, а објављен на у електронском издању medRxiv у децембру прошле године. У њему је 12 аутора оценило удео ChatGPT на испиту за медицинско лиценцирање Седињених Држава (USMLE), који се састоји од три испита.ChatGPT је прешао праг пролазности или био близу да га пређе на сва три испита без икакве специјализиране обуке или побољшања. Осим тога, он је показао велику усклађеност и високе увиде у своја објашњења. Ови резултати сугеришу да велики језичли модели могу помоћи у медицинском образовању, а потенцијално и у доношењу клиничких одлука”, закључили су аутори студијe.

Суоснивач medRxiva, Ричард Север, иначе помоћник директора Cold Spring Harbor Laboratory Press-a, сматра да би се конвенције по том питању с временом могле мењати.Морамо разликовати формалну улогу аутора научног рада од оппштијег појма аутора као писца документа”, истакaо је он. Аутори, каже, преузимају правну одговорност за свој научни рад па би у том својству требало наводити само особе.Наравно, људи могу покушати подвалити другачије. Већ се догађало у прошлости да су на medRxiv-у као ауторе чланака наводили кућне љубимце, измишљене појединце и тако даље, но то је питање провере, а не питање политике”, објаснио је Ричард Север.

Други пример у којем је наведен ChatGPT јесте уводник Отворене платформе вештачке интелигенције у образовању медицинских сестара: Алати за академски напредак или злоупотреба?” објављен у часопису Nurse Education in Practice у јануару. Главна ауторла била је Сиобан О’Конор, истраживачица здравствене технологије на Универзитету Манчестер (Велика Британија). Роџер Вотсон, главни уредник часописа, каже да је у овом случају приписивање ауторства прошло грешком и да ће она ускоро бити исправљена.То је био пропуст с моје стране”, додаје он, јер уводници пролазе кроз другачији систем управљања од истраживачких радова”.

Трећи пример је чланак Рапамицин у контексту Паскалове опкладе: перспектива GPT-а”, објављен прошлог месеца у часопису Oncoscience, у којем је главни аутор Алекс Заворонков, извршни директор компаније за истраживање лекова помоћу вештачке интелигенције Insilico Medicine у Хонг Kонгу, навео ChatGPT као првог аутора. Дотични тумачи да је његова компанија објавила више од 80 радова произведених генеративним AI алатима.Нисмо нови у овом подручју”, истиче Заворонков. Најновији научни рад расправља о предностима и манама узимања лека рапамицина у контексту филозофског аргумента званог Паскалова опклада. ChatGPT је написао бољи чланак од претходних генерација генеративних AI алата.

Четврти је чланак који је написао chatbot GPT-3, који је објављен у јуну 2022. Главна ауторла Алмира Османовић Тунстрем, неуробиолишкња са Универзитета Гњтеборг у Шведској, подсећа да је један часопис прихватио GPT-3 као коаутора, али тек након што је она изнова написала чланак да би удовољила захтеву рецензената.

(Shutterstock)

Битно питање на које треба одговорити јесте: Испуњава ли AI, односно ChatGPT, услове који се очекују од научника аутора. Уредници научних часописа које су контактирали новинари Nature Newsа саглсни су да их вештачка интелигенција као што је ChatGPT не испуњава. Kао један од главних разлога истичу чињеницу да AI не може преузети одговорност за садржај и веродостојност научних радова, уз напомену да је наведени програм склон грешкама и да на другачије постављено исто питање даје различите одговоре.

У протеклим годинама све је више система вештачке интелигенције који се могу користити у научним истраживањима. Примерице, DeepMindов AlphaFold је у 2022. Идентификовао тродимензионалну структуру (3D) више од 200 милиона облика протеина животиња и људи, практично свих који су нам познати. Компанија Wolfram Research осмислила је један од најпознатијих математичких програма, Wolfram Alpha, који пружа одговоре на широк распон питања, укључујући математичка, научна, историјска и географска. Једна од кључних одлика му је способност логичке обраде унесеног природног језика и генерисања тачног излазног резултата у облику текста, слика и интерактивних визуелизација.

Ови алати, а и бројни други, у скорој будућности могли би постати врло корисни у научним истраживањима. То намеће питање на који начин признати њихов важан допринос неком истраживању. Извесни издавачи сматрају да би се то могло учинити у неким деловима научних радова, али да се AI не би смела наводити у попису аутора. Штa ће донети будућност и хоће ли у неком тренутку вештачка интелигенција испунити све наведене услове за аутора научних чланака, показаће време.

(Индекс)

О аутору

administrator

Оставите коментар