ZOV BUDUĆNOSTI

AI PIŠE NAUČNE ČLANKE

266 pregleda
Shutterstock

U najmanje četiri novija navedena je kao koautor studije, upozorio je nedavno u Nature News-u naučni novinar Kris Stokel-Voker. Digla se velika uzbuna.

Ovakva praksa, mada u začetku, pokrenula je u naučnoj zajednici polemiku u vezi s tim ima li smisla pripisivati autorstvo sistemima veštačke inteligencije (AI) i zašto nema, ako nema? Kada ona prestaje biti samo alat, neka naprednija verzija pretraživača, sakupljača informacija ili jezičkog oblikovanja podataka u teksta? Koje bi uslove trebalo ispunjavati da bi se smatrala koautorom? Hoće li akademska zajednica u nekom trenutku, ipak, morati prihvatiti autorstvo veštačke inteligencije? U pitanju su četiri naučna rada u kojima je koautor program za obradu teksta ChatGPT, koji je prošle godine predstavila kalifornijska kompanija OpenAI. Podsetimo, taj sistem je izazvao veliko uzbuđenje u tehnološkom svetu jer se pokazalo da ima fascinantne sposobnosti kreiranja teksta koji veoma nalikuje tekstu koji je napisao čovek.

Pokazalo se da može napisati toliko kvalitetne eseje na različite teme i odgovore na pitanja iz raznih testova da ih je teško razlikovati od studentskih. Štaviše, neki profesori su izrazili bokazan jer se pokazalo da je ChatGPT brže proceniti valjanost nekih studentskih radova od njih samih, što znači da bi ih uskoro mogao zameniti u nekim važnim delovima njihovog posla.No, s druge strane u međuvremenu se, takođe, pokazalo da ChatGPT pravi brojne greške, čak i kada rešava relativno jednostavne logičke ili matematičke zadatke. Stručnjaci ističu da je razlog, pored ostalog, činjenica da on ne razmišlja na isti način kao ljudi razmišljaju, ne proverava, niti promišlja svoje odgovore, nego izbaci onaj koji se najčešće povezuje s ključnim rečima u pitanju.Konačno, sistem bi trošio prevelike količine energije kada bi na svako postavljeno pitanjue promišljao i proveravao svoje odgovore onako kako to ljudi rade.

Škole u Njujorku brzo su reagovale na izazov i zabranile korišćenje Chat GPT-a zbog straha da bi ga učenici upotrebili za varanje. Zato je zabranjen na svim uređajima i mrežama u javnim školama. Glasnogovornica je rekla da postoji opravdana zabrinutost da bi mogao imati negativan uticaj na učenje i da bi mogao stvarati lažne vesti.S druge strane neki smatraju da mogućnosti ChatGPT-a kao obrazovnog alata nadmašuje rizike i da škole treba da se prilagode da bi pripremile učenike za budućnost koja će obilovati raznim vrstama alata veštačke inteligencije. Naročito zato što će njihovo korišćenje uskoro postati nemoguće otkrivati i zabranjivati.

A šta je s korišćenjem ChatGPT-a u naučnim radovima? Kako navesti da je doprineo u nekom delu? U Nature Newsu prikazana su sva četiri.Jedan upravo opisuje upotrebu ChatGPT-a u medicinsko obrazovanje, a objavljen na u elektronskom izdanju medRxiv u decembru prošle godine. U njemu je 12 autora ocenilo udeoChatGPT-a na ispitu za medicinsko licenciranje Sedinjenih Država (USMLE), koji se sastoji od tri ispita.ChatGPTje prešao prag prolaznosti ili bio blizu da ga pređe na sva tri ispita bez ikakve specijalizirane obuke ili poboljšanja. Osim toga, on je pokazao veliku usklađenost i visoke uvide u svoja objašnjenja. Ovi rezultati sugerišu da veliki jezičli modeli mogu pomoći u medicinskom obrazovanju, a potencijalno i u donošenju kliničkih odluka”, zaključili su autori studije.

Suosnivač medRxiva, Ričard Sever, inače pomoćnik direktora Cold Spring Harbor Laboratory Press-a, smatra da bi se konvencije po tom pitanju s vremenom mogle menjati.Moramo razlikovati formalnu ulogu autora naučnog rada od oppštijeg pojma autora kao pisca dokumenta”, istakao je on. Autori, kaže, preuzimaju pravnu odgovornost za svoj naučni rad pa bi u tom svojstvu trebalo navoditi samo osobe.Naravno, ljudi mogu pokušati podvaliti drugačije. Već se događalo u prošlosti da su na medRxiv-u kao autore članaka navodili kućne ljubimce, izmišljene pojedince i tako dalje, no to je pitanje provere, a ne pitanje politike”, objasnio je Ričard Sever.

Drugi primer u kojem je naveden ChatGPT jeste uvodnik Otvorene platforme veštačke inteligencije u obrazovanju medicinskih sestara: Alati za akademski napredak ili zloupotreba?” objavljen u časopisu Nurse Education in Practice u januaru. Glavna autorla bila je Sioban O’Konor, istraživačica zdravstvene tehnologije na Univerzitetu Mančester (Velika Britanija).Rodžer Votson, glavni urednik časopisa, kaže da je u ovom slučaju pripisivanje autorstva prošlo greškom i da će ona uskoro biti ispravljena.To je bio propust s moje strane”, dodaje on, jer uvodnici prolaze kroz drugačiji sistem upravljanja od istraživačkih radova”.

Treći primer je članak Rapamicin u kontekstu Paskalove opklade: perspektiva GPT-a”, objavljen prošlog meseca u časopisu Oncoscience, u kojem je glavni autor Aleks Zavoronkov, izvršni direktor kompanije za istraživanje lekovapomoću veštačke inteligencije Insilico Medicine u Hong Kongu, naveo ChatGPT kao prvog autora. Dotični tumači da je njegova kompanija objavila više od 80 radova proizvedenih generativnim AI alatima.Nismo novi u ovom području”, ističe Zavoronkov. Najnoviji naučni rad raspravlja o prednostima i manama uzimanja leka rapamicina u kontekstu filozofskog argumenta zvanog Paskalova opklada. ChatGPT je napisao bolji članak od prethodnih generacija generativnih AI alata.

Četvrti je članak koji je napisao chatbot GPT-3, koji je objavljen u junu 2022. Glavna autorla Almira Osmanović Tunstrem, neurobiolišknja sa Univerziteta Gnjteborg u Švedskoj, podseća da je jedan časopis prihvatio GPT-3 kao koautora, ali tek nakon što je ona iznova napisala članak da bi udovoljila zahtevu recenzenata.

(Shutterstock)

Bitno pitanje na koje treba odgovoriti jeste:Ispunjava li AI, odnosno ChatGPT, uslove koji se očekuju od naučnika autora.Urednici naučnih časopisa koje su kontaktirali novinari Nature Newsa saglsni su da ih veštačka inteligencija kao što je ChatGPT ne ispunjava.Kao jedan od glavnih razloga ističu činjenicu da AI ne može preuzeti odgovornost za sadržaj i verodostojnost naučnih radova, uz napomenu da je navedeni program sklon greškama i da na drugačije postavljeno isto pitanje daje različite odgovore.

U proteklim godinama sve je više sistema veštačke inteligencije koji se mogu koristiti u naučnim istraživanjima. Primerice, DeepMindov AlphaFold je u 2022. Identifikovao trodimenzionalnu strukturu (3D) više od 200 miliona oblika proteina životinja i ljudi, praktično svih koji su nam poznati. Kompanija Wolfram Researchosmislila je jedan od najpoznatijih matematičkih programa, Wolfram Alpha, koji pruža odgovore na širok raspon pitanja, uključujući matematička, naučna, istorijska i geografska. Jedna od ključnih odlika mu je sposobnost logičke obrade unesenog prirodnog jezika i generisanja tačnog izlaznog rezultata u obliku teksta, slika i interaktivnih vizuelizacija.

Ovi alati, a i brojni drugi, u skoroj budućnosti mogli bi postati vrlo korisni u naučnim istraživanjima. To nameće pitanje na koji način priznati njihov važan doprinos nekom istraživanju. Izvesni izdavači smatraju da bi se to moglo učiniti u nekim delovima naučnih radova, ali da se AI ne bi smela navoditi u popisu autora. Šta će doneti budućnost i hoće li u nekom trenutku veštačka inteligencija ispuniti sve navedene uslove za autora naučnih članaka, pokazaće vreme.

(Indeks)

O autoru

administrator

Ostavite komentar