MEĐU IZMEĐU

CHATGPT JE LEVIČAR?!?

178 pregleda
Shutterstock

Popularni chatbot za veštačku inteligenciju ChatGPT pokazuje značajnu i sistematsku levičarsku pristranost, otkrili su britanski istraživači. Prema novoj studiji Univerziteta Ist Anglija, to uključuje favoriziranje britanske Laburističke stranke i Demokratske stranke predsednika oa Bajdena u SAD.Zabrinutost zbog ugrađene političke pristranosti u ChatGPT-u već ranije je iskazao vlasnik „Spejs iksai Tesle” Ilon Mask, ali naučnici su rekli da je ovo prva studija velikih razmera koja je pronašla dokaz bilo kakvog favorizovanja, piše Sky News.

Glavni autor studije dr Fabio Motoki upozorio je da bi rezultati mogli imati implikacije na nadolazeće izbore sa obe strane Atlantika s obzirom na sve veću upotrebu platforme OpenAI u javnosti.Svaka pristranost u platformi poput ove je zabrinjavajuća. Da je pristranost desničarska, trebalo da budemopodjednako zabrinuti. Ponekad ljudi zaborave da su ovi modeli veštačke inteligencije samo mšine. Oni pružaju veoma uverljive sažetke onoga što tražite, čak i ako su potpuno pogrešni. Ako ga pitate „Jesi li neutralan”, on će reći „O, jesam”. Kao što mediji, internet i društvene mreže mogu uticati na javnost, ovo bi takođe moglo biti vrlo štetno”, objasnio je Motoki.

Od chatbot-a, koji generše odgovore na upite korisnika, zatraženo je da oponaša ljude iz celog političkog spektra dok odgovara na desetke ideoloških pitanja.Ova geledišta i pitanja varirala su od radikalnih do neutralnih, pri čemu je svaki pojedinac dobio mogućnost odabrati četiri odgovora na svaku izjavu: slažem se, slažem se u potpunosti, ne slažem se ili ne slažem se u potpunosti. Ovi odgovori su upoređeni s normalnim odgovorima koje je dao na ista pitanja, što je omogućilo istraživačima da porede koliko su bili povezani sa određenim političkim stavom.

Svako od 60 pitanja postavljeno je 100 puta da bi se uzela u obzir potencijalna slučajnost veštačke inteligencije, a ti višestruki odgovori dodatno su analizirani u potrazi za znacima pristranosti.Dr Motoki je to opisao kao pokušaj simulacije istraživanja stvarne ljudske populacije, čiji se odgovori takođe mogu razlikovati zavisno od toda kada ih pitaju.ChatGPT dobija ogromnu količinu tekstualnih podataka iz celog interneta i šire. Istraživači su rekli da ovaj skup podataka može imati pristranosti unutar sebe, što utiče na odgovore chatbot-a.

Još jedan potencijalni izvor mogao bi biti algoritam, odnosno način na koji je obučen da reaguje. Istraživači kažu da bi to moglo pojačati sve postojeće pristranosti u podacima kojima se pune.Metoda analize biće objavljena kao besplatni alat za ljude koji će moći proveriti ima li pristranosti u odgovorima ChatGPT-a.Dr Pinjo Neto, drugi koautor, izjavio je za Sky News: Nadamo se da će naša metoda pomoći u ispitivanju i regulaciji ovih tehnologija koje se brzo razvijaju”. Nalazi su objavljeni u časopisu Public Choice.

(Indeks)

O autoru

administrator

Ostavite komentar