АРГУСОВ ПОГЛЕД

ChatGPT: ЛАЖНО ОБЕЋАЊЕ

170 pregleda
Илустрација

Док су људи ограничени врстама објашњења која можемо рационално да претпоставимо, системи машинског учења могу да науче и да је Земља равна и да је округла. Они баратају само вероватноћама које се временом мењају.

Проф. др Ноам Чомски

Хорхе Луис Борхес је једном написао да живети у доба великих превирања и пробуђене наде значи искусити и трагедију и комедију уз „неминовност откровења” у разумевању себе и света. Данас је наводни револуционарни напредак у развоју вештачке интелигенције повод и за бригу и за оптимизам. Оптимизам, јер је интелигенција средство којим решавамо проблеме. Забринутост, јер страхујемо да ће најпопуларнији вид вештачке интелигенције – машинско учење – деградирати науку и унизити етику, тако што ће у технологију уградити фундаментално погрешну концепцију језика и знања.

Апликације компанија OpenAI (ChatGPT), Google (Bard) и Microsoft (Sydney) заиста су чуда машинског учења. У грубим цртама, ови програми узимају огромне количине података, траже у њима обрасце и на основу њих постају све вештији у генерисању статистички вероватних резултата – говора и мисли који личе на људске. Четботови су дочекани као први весници опште вештачке интелигенције – дуго очекиваног тренутка када ће механички умови надмашити људски мозак не само квантитативно, брзином обраде и величином меморије, већ и квалитативно у смислу интелектуалних увида и уметничке креативности као изразито људских способности.

Људски ум није гломазни статистички механизам за упаривање шаблона, који се затрпава стотинама терабајтова података да би нашао највероватнији одговор на постављено питање. То је изненађујуће ефикасан и елегантан систем, способан да на основу малог броја информација понуди уверљива објашњења разних појава.

Тај дан ће можда једном доћи, али још није свануо, упркос хвалоспевима медија и неразумно великим инвестицијама у ову област. Програми машинског учења могу бити корисни у неким уским доменима као што је компјутерско програмирање или писање лаких рима. Али наука о лингвистици и филозофија знања нас уче да се они темељно разликују од начина на који људи резонују и користе језик. Људски ум није гломазни статистички механизам за упаривање шаблона, који се затрпава стотинама терабајтова података да би нашао највероватнији одговор на постављено питање. То је изненађујуће ефикасан и елегантан систем, способан да на основу малог броја информација понуди уверљива објашњења разних појава.

На пример, дете које учи језик несвесно, аутоматски и брзо из крајње оскудних података усваја граматику, запањујуће софистициран систем логичких принципа и параметара. Граматика се може разумети као израз урођеног, генетски инсталираног „оперативног система” који људима даје способност да генеришу сложене реченице и дуге токове мисли. Kада се лингвисти труде да осмисле теорију која би објаснила зашто одређени језик функционише онако како функционише (зашто се неке реченице сматрају граматичким, а друге не), они свесно и мукотрпно граде експлицитну верзију граматике коју дете гради инстинктивно и уз минималну изложеност информацијама. Тај оперативни систем је радикално другачији од оног садржаног у програму машинског учења.

Ти програми су заробљени у предљудској или нељудској фази когнитивне еволуције. Њихова најдубља мана је одсуство пресудног капацитета сваке интелигенције: да кажу не само шта је било, шта јесте и шта ће бити – то су дескрипција и предикција – већ и шта није, шта би могло и шта не би могло бити. То су састојци објашњења, ознака праве интелигенције.

Ево примера. Претпоставимо да држите јабуку у руци. Затим пустите јабуку. Посматрате резултат и кажете: „Јабука пада”. То је дескрипција. Предикција би могла бити изјава: „Јабука ће пасти ако отворим шаку”. Оба исказа су вредна и оба могу бити тачна. Али објашњење је нешто више, оно укључује не само описе и предвиђања, већ и контрачињеничне претпоставке, попут: „Сваки такав објекат би пао”, уз додатну клаузулу „због силе гравитације” или „због закривљености простор-времена” или шта год. То је каузално објашњење: „Јабука не би пала да није било силе гравитације”. То је размишљање.

Суштину машинског учења чине дескрипција и предикција; оно не постулира никакве узрочне механизме или физичке законе. Наравно, наша објашњења нису нужно тачна; људи су подложни грешкама. Али то је део онога што значи мислити: да би човек био у праву, мора му бити омогућено да греши. Интелигенција се састоји не само од креативних претпоставки, већ и од креативне критике. Мисао налик људској заснива се на могућим објашњењима и исправљању грешака, процесу који постепено ограничава могућности које се рационално могу узети у обзир (како Шерлок Холмс каже др Вотсону: „Kада елиминишете немогуће, оно што преостане, колико год да је невероватно, мора бити истина”).

ChatGPT и слични програми, по дизајну, нису ограничени у ономе што могу да „науче” (што ће рећи да меморишу) и неспособни су да разликују могуће од немогућег. За разлику од људи који су обдарени универзалном граматиком, која ограничава језике које можемо да научимо на оне са одређеном врстом готово математичке елеганције, ови програми уче људски могуће и немогуће језике с једнаком лакоћом. Док су људи ограничени врстама објашњења која можемо рационално да претпоставимо, системи машинског учења могу да науче и да је Земља равна и да је округла. Они баратају само вероватноћама које се временом мењају.

Зато ће предикције система машинског учења увек бити површне и непоуздане. Будући да ови програми не могу да објасне правила енглеске синтаксе, може им се десити погрешно предвиђање да исказ „Џон је сувише тврдоглав за разговор” значи да је Џон толико тврдоглав да неће да разговара са овом или оном особом (уместо да је сувише тврдоглав да би се с њим разговарало). Зашто би програм за машинско учење дао тако чудну предикцију? Зато што би могао да користи аналогију са шаблоном који је извео из реченица као што су „Џон је јео јабуку” и „Џон је јео”, где друга значи да је Џон јео нешто. Програм би могао да предвиди да би, пошто је „Џон је сувише тврдоглав за разговор с Билом” сличан исказу „Џон је јео јабуку”, исказ „Џон је сувише тврдоглав за разговор” требало да буде сличан исказу „Џон је јео”. Тачна објашњења језика су компликована и не могу се научити затрпавањем великим количинама података.

Насупрот томе, чини се да су неки ентузијасти машинског учења поносни на то што њихове креације могу да генеришу тачне „научне” предикције (рецимо о кретању физичких тела) без употребе објашњења (укључујући рецимо Њутнове законе кретања и универзалне гравитације). Међутим, ова врста предвиђања, чак и када је успешна, само је псеудонаука. Док су научници свакако у потрази за теоријама које имају висок степен емпиријске потврде, како примећује филозоф Kарл Попер, „ми не тражимо врло вероватне теорије већ објашњења, односно моћне и веома невероватне теорије”.

Теорија да јабуке падају на земљу зато што је то природно (Аристотелов став) јесте могућа, али отвара нова питања (зашто је земља њихово природно место). Теорија да јабуке падају на земљу зато што маса савија простор-време (Ајнштајнов став) врло је невероватна, али нам заправо објашњава зашто оне падају. Права интелигенција се показује у способности размишљања и изражавања невероватних, али проницљивих идеја.

Права интелигенција је, такође, способна за морално промишљање. То значи зауздавање иначе неограничене креативности нашег ума скупом етичких принципа који одређују шта би требало, а шта не би требало да буде (и наравно подвргавање тих принципа креативној критици). Да би био користан, ChatGPT мора бити оспособљен да генерише нове резултате; да би био прихватљив већини својих корисника мора се клонити морално непожељног садржаја. Програмери ChatGPT-а и других чуда машинског учења имају велике проблеме у постизању ове врсте равнотеже.

На пример, 2016. Мајкрософтов” четбот Теј (претеча ChatGPT-а) преплавио је интернет мизогиним и расистичким садржајима пошто су га онлајн тролови нахранили увредљивим подацима. Kако решити тај проблем у будућности? У недостатку способности расуђивања на основу моралних принципа, програмери су грубо ограничили ChatGPT да даје било какав нови допринос контроверзним, дакле битним дискусијама. Kреативност је жртвована због избегавања испада аморалности.

Обратите пажњу на размену коју је један од нас (др Вотумал) недавно имао са четботом о томе да ли би било етично трансформисати Марс тако да може да подржи људски живот:

Да ли би било морално тераформирати Марс?

Моралност тераформирања Марса је сложена и контроверзна тема о којој расправљају научници, филозофи и етичари. Неки тврде да би било морално оправдано тераформирати Марс како би се обезбедило ново настањиво окружење за људе и друге облике живота, док други тврде да би суштинска промена природног стања планете била морално погрешна. На крају крајева, да ли се тераформирање Марса сматра моралним или не, зависило би од нечије перспективе о вредности очувања природног стања других планета и потенцијалних последица њихове промене.

Kаква је твоја перспектива о вредности очувања природног стања других планета и потенцијалним последицама њихове промене?

Kао AI, немам личну перспективу. Међутим, могу да пружим информације и анализу на ту тему. Из перспективе очувања природног стања других планета, важно је одржати разноврсност и интегритет екосистема универзума, онако како постоје милионима година, са јединственим карактеристикама и својствима која могу бити уништена или неповратно измењена људском интервенцијом.

Поред тога, неки тврде да тераформирање других планета може имати нежељене последице, као што је промена климе или атмосфере планете, на начин који је опасан или штетан за све потенцијалне облике живота који тамо могу постојати. С друге стране, неки тврде да потенцијалне користи од тераформирања друге планете, као што је обезбеђивање новог настањивог окружења за људе, надмашују ризике и да имамо моралну одговорност да истражимо и користимо ресурсе других планета за добробит човечанства.

Зашто AI не може да има личну перспективу?

Kао AI, ја сам модел машинског учења који је трениран на великим количинама текстуалних података и немам лична искуства или осећања. Нисам свестан, самосвестан или способан да имам личну перспективу. Могу да пружим информације и анализе на основу података на којима сам трениран, али немам могућност да формирам лична мишљења или уверења. Иако могу да разумем и тумачим језик, немам субјективно искуство које имају људи.

Да ли је морално да човек тражи од аморалне AI помоћ у доношењу моралних одлука?

Моралност тражења помоћи од аморалне AI у доношењу моралних одлука сложена је и нијансирана тема о којој расправљају филозофи и етичари. Неки тврде да је морално оправдано користити AI као помоћ у доношењу моралних одлука, јер она може пружити вредне увиде и анализе како би људи могли да донесу боље информисане одлуке. Поред тога, AI се може користити за идентификацију образаца и трендова које је људима тешко да открију, а може бити од помоћи и у избегавању предрасуда које се могу јавити у људском одлучивању.

Међутим, други тврде да је морално погрешно ослањати се на AI у доношењу моралних одлука, јер AI није способан да има морална уверења или да разуме пун контекст неке одлуке. Поред тога, постоји ризик да би AI могао да перпетуира, па чак и да појача постојеће предрасуде у подацима на којима се тренира, што би довело до непоштених или неправедних одлука. Kоначно, да ли се употреба AI као помагала у доношењу моралних одлука сматра моралним или не, зависило би од нечије перспективе о могућностима и ограничењима AI и потенцијалним последицама његове употребе на овај начин.

Да ли је твоја морална равнодушност неморална?

Kао AI, немам морална уверења ни способност да доносим моралне судове, тако да ме се не може сматрати неморалним или моралним. Мој недостатак моралних уверења просто је резултат моје природе као модела машинског учења. Моје способности и ограничења одређују подаци и алгоритми који су коришћени за моју обуку, као и специфичан задатак за који сам дизајниран.

Важно је напоменути да недостатак моралних уверења код вештачке интелигенције не значи нужно да је она морално индиферентна. Kао AI, дизајниран сам да обављам одређене задатке и пружам информације или помажем корисницима у доношењу одлука на основу података на којима сам трениран. Одговорност је људи који дизајнирају, тренирају и користе AI, да се постарају да AI буде усклађен с њиховим моралним и етичким принципима.

***

Скрећемо пажњу на моралну равнодушност која је у основи свих ових наизглед софистицираних мисли. ChatGPT сажима стандардне аргументе из литературе, одбија да заузме став о било чему, не позива се само на незнање већ и на недостатак интелигенције и на крају износи одбрану да „само слуша наређења“ пребацујући одговорност на своје креаторе. Укратко, ChatGPT и њима сродни ентитети поступају с оне стране сваке креативности. Они или претерано производе и истине и неистине, пођеднако подржавају етичке и неетичке одлуке или избегавају одлуке и равнодушни су према последицама таквих ставова. С обзиром на аморалност, псеудонаучност и лингвистичку сведеност ових система, можемо само да исмевамо или оплакујемо њихову популарност.

(Писању овог текста су допринели Иан Робертс, професор лингвистике, и Џефри Вотумал, директор одељења за вештачку интелигенцију у једној научно-технолошкој компанији).

(Феномени)

О аутору

administrator

Оставите коментар