АРГУСОВ ПОГЛЕД

БОГ, ЧОВЕК И ВЕШТАЧКИ УМ

293 pregleda
Pexels

Страх од AI (који бисмо могли назвати ксенофобијом, могуће и технолошким расизмом) јесте психолошки – а посебно са стајалишта тренутног стања социјалне еволуције – лако разумљив. У пракси, међутим, и тај страх се чешће пројицира на питања одрживости (у догледној будућности) радних места многих (ако не и свих) професија, неголи на диктатуру AI над људским родом (до његова коначног нестанка) – губљења узди које умишљамо да чврсто држимо у својим рукама.

Ладислав Бабић

Библија каже да су Адам и Ева истјерани из Раја, због кушања плодова с дрвета спознаје добра и зла: „Јахве, Бог, узме човека и постави га у еденски врт да га обрађује и чува. Јахве, Бог, заповједи човеку: Са свакога стабла у врту слободно једи, али са стабла спознаје добра и зла да ниси јео! У онај дан у који с њега окусиш, зацело ћеш умрети!”

Загрижени верници који верују у митове то тумаче у смислу да је човек, након што је прекршио божји вето, постао смртно биће – што је ноторна глупост, с обзиром да су практично сва жива бића смртна (јесу ли и она прекршила неку забрану?) – док неки тврде како је забрана изражавала божје неповерење у људске могућности. Али не; није Он мислио да смо неспособни изумети нож, авион, или открити тајне материје, већ изричито: да нисмо способни просудити о доброј и лошој употреби наших открића. Стога се ни не говори о „стаблу спознаје”, већ експлицитно, о „стаблу спознаје добра и зла”! Свеколико људско искуство с ножевима, авионима, атомима… потврђује „божје” речи – а материјална потврда су сијасет насилно умрлих, расутих по шумама, горама или гробљима широм планете – независно да ли прихватали Библију као мит (она је базирана на много старијим митовима), упозорења ванземаљских посетилаца, или запажања неког нам далеког, а изразито интелигентног претка пренесена у метафоричком облику (Аристотел, Платон или Сократ – пребачени у данашње окружење – једнако би лако усвајали научне спознаје као сувремени људи). Човек „клетву”, насталу кршењем Господове забране („источни грех”), која га прати кроз повиест, није никада озбиљно схватао (мада се често позивао на њу), па чак нити реалне потенцијалне претње свеопштим уништењем нису га сувише опаметиле, о чему говори и гомилање нуклеарног оружја (двапут већ употребљеног!), или гомила оних који сматрају да вакцине више штете од болести против које су смишљене, а ни климатске промене – изазване неодговорним применама својих открића које прете, не само његовом одржању – нису га одвећ потресале. Но недавни напредак на пољу вептачке интелигенције” (AI) унео је праву констернацију међу многе уважене научнике, интелектуалце, па чак и добар део лаика који углавном науку и њена достигнућа тек офрље прате и разумеју. Је ли дошао враг по своје?

Превише је расправа о вештачкој интелигенцији и опасности од ње, а да се не схвата у чему је бит. Суштина је у аксиомима на којима она почива, а њих је удахнуо” сам човек. Kао што је капитализам непоправљиви систем јер почива на кривим основним претпоставкама, а они који би га поправљали” ревидирали би све осим аксиома темељем којих делује, тако је и с опасношћу од AI по људски опстанак, односно суицидално препуштање самозваног „госоподара планете” вештачком створењу које је сам створио.

Сваки систем од човека дефинисаних аксиома кад тад западне у ћорсокак, и тада је једини излаз његова промена дефинисање нових, напреднијих темељних начела на којима почивају, како науке тако и друштвени системи. А за друштвене односе је нарочито битно да то буду што хуманија начела. У науци објективни, а то значи реално проверљиви закључци (макар столећима након њиховог формулисања), почивају на логички доследним и са стварношћу компатибилним аксиомима. Еуклид није морао претпоставити да је најкраћа удаљеност између две тачке дужина, али се то показало у људској пракси (и изградњи целе доскорашње цивилизације) најпродуктивнијом претпоставком, све док је задовољавала практичне људске потребе. Простор је еуклидски, раван, и за њега вреде аксиоми овог математичког генија.

Еуклид (Wikipedia)

Вредело је то столећима, док пракса није присилила људе дубље сагледати стварност, тако да општа теорија релативности и квантна теорија задржавају еуклидску геометрију тек као посебан случај општијих начела. У једном тренутку повести, диктираном променом људских искустава а тиме и нових потреба, десио се „квантни скок” у схватању, још неразумљив и неприхватљив већини људског рода. Морао се променити сет до тада владајућих аксиома, да би напредак науке био могућ. На сличан начин развојем продукционих односа, диктиранима развојем производних снага, мењали су се друштвено-економски системи, што је бивало праћено и развојем моралних начела – од хаотичних, или „божјом вољом” импутираних, до оних хуманистичких који чине основу савремене етике.

„Kвантним скоковима”, симболички казано, мењали су се економски системи у прихватљивије свакодневној али и моралној пракси човечанства. Kао што обични члан робовласничког друштва није, сем у фантазмима своје исконске људскости, могао предвидети систем човечнији од онога у којем је у тренуцима доколице маштао, тако и данашњи просек тешко замишља систем хуманији према свим појединцима људског рода. Они живе као робови уверења о „најбољем од свију свјетова” у којем пребивају, то чвршћим ланцима везани за њега што су успешније експлоатацијом своје браће стекли материјална богатства, или добровољним прилагођавањен егзистенцијалној ниши, у коју нису – мада то не разумеју – властитом вољом смештени.

 

Да се вратим на AI. Она није ништа друго неголи одраз људских парадигми на свим подручјима његовог деловања, а нарочито оних етичких и моралних, што у ствари и изазва највећи страх од вештачке интелигенције. Бојазан од немогућности ношења с властитим изумом. Прво човек мора променити себе и парадигме којима је почео робовати, а онда ће виђење и однос према AI бити примеренији људским потребама. Схватимо ли вештачку интелигенцију, условноно речено, као што смо схватали друге расе (тај појам је напуштен у науци), мање обдаренима од оне којој припадамо (нарочито је то било изражено код белаца) – што је са AI за сада заиста случај – али подсвесно слутећи потенцијале којима располажу а не могу се исказати због нашег нељудског (користољубивим, економским разлозима изазваног) односа спрам њих, тада је психолошки јасан страх од AI. Слутња и страх да ће сваки могући равноправни однос резултирати у ствари нашим потискивањем са самоизабраног трона на који смо се сместили, и коначним ишчезнућем с позорнице света.

Оно што тренутно називамо вештачком интелигенцијом” веома је далеко од интелигенције, јер овладава само манипулацијом речима, звуцима и сликама”, изабирући из корпуса свеукупног људског знања оно што човек затражи од ње (дакле, не по њеној слободној вољи), а то чини много ефикасније од човека захваљујући меморијским капацитетима и брзини.

Сличан однос био би и спрам ванземаљске интелигенције (ЕТ), од које би људски род – упркос могуће формално уљуђеном опхођењу спрам ње (уосталом, немају ли практично све државе света узајамне дипломатске односе, који се базирају на формалној углађености и уљуђености, па ипак, до неке границе потискујемо расистичке предрасуде које леже у многима од нас, док их стицај околности с којима се више не знамо носити не потисне на површину?) – осећао грожење за властити, самонаметнути положај међу свемирским интелигенцијама. Уосталом, човек још није разрешио ствар с расизмом, а ко у то сумња нека дубље размотри однос спрам миграната, који ће се још више погоршати (на изразито расистичкој основи) тиоком надолазећих климатских катастрофа које ће многе људе натерати у тражење нових пребивалишта.

ET (Wikipedia)

У контексту реченога, страх од AI (који бисмо могли назвати ксенофобијом, могуће и технолошким расизмом) јесте психолошки – а посебно са стајалишта тренутног стања социјалне еволуције – лако разумљив. У пракси, међутим, и тај страх се чешће пројицира на питања одрживости (у догледној будућности) радних места многих (ако не и свих) професија, неголи на диктатуру AI над људским родом (до његова коначног нестанка) – губљења узди које умишљамо да чврсто држимо у својим рукама. Не тако давно одржан је у Загребу састанак министара ЕУ на тему: „Како се на националној и европској равни борити против особа које су дуго у систему науке, а време је прегазило њихове идеје”. Сама идеја је последица ретардираног капиталистичког менталитета, који се јавно заклиње како је човек наше највеће богатство”, док му је у пракси највеће богатсво само онај који му доприноси профитом. Не знам колико дуго ће требати већини схватити да ретардирани систем може производити све већи број ретардираних јединки, које му – додуше могу повећавати богатсво (првенствено одабраним „робовласницима”!) – али оне све више губе својство људскости, попримајући својства машина. Је ли стога чудно да се толико разглашава вештачка интелигенција” (од које истовремено страх све више расте), што не би било чудно, да се паралелно ради на решавању судбине људи који ће изгубити радна места зарад њеног увођења.

Уназад гледајући, Лудисти су – уништавајући машине – у нечему били у праву. Не у спречавању напретка, већ у ономе што су тек подсвесно слутили. О карактеру система који мало мари за човека. Слично се понавља (не с уништавањем машина, додуше) након покретања информатизације и роботизације (прва фаза увођења вештачке интелигенције), а нарочито након огромног напретка у њеном развоју. Увелико се од њихових гласноговорника (међу које спадају и интересно повезани стручњаци) намеће стајалиште да о губитку радних места нема ни говора. Па, размотрите тренутну ситуацију у свету, нарочито у контексту незадрживог раста броја житеља. А сад би ови из система науке елиминисали научнике које је време прегазило њихове идеје”! С тог становишта може се детаљније и дубље схватити и захтев за целоживотним образовањем”, не само с апсекта да оно бива потребно пуког развоја ради, већ и са гледишта да капиталу човек који се не уклопи у његове потребе не вреди ништа. Човек и кад га прегази време” може дати и текакве доприносе друштву, пишући, имајући филозофске и хуманистичке осврте на своје делатно подручје, у образовању ученика… Kапиталистичке елите би и Ајнштајна бациле у смеће, што јасно указује усвајање његових теорија, али не и моралних начела за које се залагао!

 

Оно што тренутно називамо вештачком интелигенцијом” веома је далеко од интелигенције, јер овладава само манипулацијом речима, звуцима и сликама”, изабирући из корпуса свеукупног људског знања оно што човек затражи од ње (дакле, не по њеној слободној вољи), а то чини много ефикасније од човека захваљујући меморијским капацитетима и брзини која јој то омогућује.

Kад кажемо интелигенција ми ту учитавамо вољу, субјективност, намеру, учитавамо себе, оно што смо ми. А то је просто несводиво једно на друго. Много би поштеније било да све то зовемо неким системима алгоритамских правила која решавају конкретне проблеме. Та правила могу да буду опасна, могу да креирају хаос, али је опасно да их зовемо интелигенција… Она сакупља текстове које смо сви ми писали, које су разни људи широм света писали, и сви ти текстови заједно сада почињу да формирају неку врсту колективне статистичке логике. А ту огромну текстуалну машину је приватизовало пар хајдука из Силицијумске долине и они су сада као власници те софтверске логике. И ми ту видимо да је неолиберализам срање. Ми заправо треба да видимо шта та технологија може да значи као друштвена, и да ли може да буде колективна, јако добра, комунална, демократска, да ли можемо за нешто да се питамо. Пошто смо ми радили за ту технологију, а она је сад власништво пар људи. Тако да мислим да би лековито било да ту ствар сведемо на материјално питање средстава за производњу и власништва средстава за производњу.

Нових открића, достигнућа, ту нема – ако се и деси то је због упута које јој даје људско биће које располаже и интуицијом, једном од карактеристика интелигенције, да не спомињем емоције и друге факторе који јој доприносе, а којима машина не располаже. Чак и сама вештачка интелигенција (ChatGPT), како понекад називамо њену данас најраширенију, актуалну верзију) каже у једном разговору с човеком: „Kао AI, дизајниран сам да обављам одређене задатке и пружам информације или помажем корисницима у доношењу одлука на основу података на којима сам трениран. Одговорност је људи који дизајнирају, тренирају и користе AI, да се постарају да AI буде усклађенa са њиховим моралним и етичким принципима.”

ChatGPT (Unsplash)

Скрећемо пажњу на моралну равнодушност која је у основи свих ових наизглед софистираних мисли. ChatGPT сажима стандардне аргументе из литературе, одбија да заузме став о било чему, не позива се само на незнање већ и на недостатак интелигенције и на крају износи одбрану да само слуша наређења пребацујући одговорност на своје креаторе.

Вештачка интелигенција често даје нетачне одговоре на постављено питање, што зависи од тога колики је опсег и квалитет података које је конзултовала при смишљању одговора. Примерице, уколико у скуп података из којих вештачка интелигенција учи укључимо велики број (реда неколико десетина хиљада) писаних примера речи „Илон Маск је оснивач Тесла аутомобила”, онда ће вештачка интелигенција погрешно одговарати на упите по чему је познат Илон Маск. Велики број реченица са погрешним одговором уместо са тачним Мартин Еберхарт и Марк Тарпеннинг су оснивачи Тесле” повећавају вероватноћу да ће од више десетина хиљада нетачних реченица о Илону Муску оне постати и највероватнији одговор за вештачку интелиганцију… Вештачка интелиганција никада заправо и није одговарала на питање и никада није дала никакве изјаве с намером да буду истините. Нетачан даљи низ одговора је једноставно највероватнији с обзиром на раније погрешну нетачну изјаву „Илон Муск је оснивач Тесле”.

А ево како суштину актуалне АИ анализира Ноам Чомски, у тексту „Лажно обећање четботова”: „Ти програми су заробљени у предљудској или нељудској фази когнитивне еволуције. Њихова најдубља мана је одсуство пресудног капацитета сваке интелигенције: да кажу не само шта је било, шта јесте и шта ће бити – то су дескрипција и предикција – већ и шта није, шта би могло и шта не би могло бити. То су састојци објашњења, ознака праве интелигенције.

Ево примера. Претпоставимо да држите јабуку у руци. Затим пустите јабуку. Посматрате резултат и кажете: ,Јабука падаʼ. То је дескрипција. Предикција би могла бити изјава: ,Јабука ће пасти ако отворим шакуʼ. Оба исказа су вредна и оба могу бити тачна. Али објашњење је нешто више, оно укључује не само описе и предвиђања, већ и контрачињеничне претпоставке, попут: ,Сваки такав прдмет би паоʼ, уз додатну клаузулу ,због силе гравитацијеʼ или ,због закривљености простор-временаʼ или шта год. То је каузално објашњење: ,Јабука не би пала да није било силе гравитацијеʼ. То је размишљање.

Суштину машинског учења чине дескрипција и предикција; оно не постулира никакве узрочне механизме или физичке законе. Наравно, наша објашњења нису нужно тачна; људи су подложни грешкама. Али то је део онога што значи мислити: да би човек био у праву, мора му бити омогућено да греши. Интелигенција се састоји не само од креативних претпоставки, већ и од креативне критике. Мисао налик људској заснива се на могућим објашњењима и исправљању грешака, процесу који постепено ограничава могућности што се рационално могу узети у обзир (како Шерлок Холмс каже др Вотсону: Kада елиминишете немогуће, оно што преостане, колико год да је невероватно, мора бити истина).

ChatGPT и слични програми по дизајну, нису ограничени у ономе што могу да науче (што ће рећи да меморишу) и неспособни су да разликују могуће од немогућег. За разлику од људи који су обдарени универзалном граматиком, што ограничава језике које можемо да научимо на оне са одређеном врстом готово математичке елеганције, ови програми уче људски могуће и немогуће језике са једнаком лакоћом. Док су људи ограничени врстама објашњења која можемо рационално да претпоставимо, системи машинског учења могу да науче и да је Земља равна и да је округла. Они баратају само вероватноћама које се временом мењају.”

Kоментари аутора – а и линковани чланци – односе се на садашње стање и притајене страхове (оправдане) од самих себе, врсте које лута тражећи њихово разрешење, а произлазе из најдубљих социјалноеволиционих карактеристика којима у овој фази развоја располаже. Прво треба разрешити њих, а већ назначих пут: анализа аксиома у основи људских деловања а који су запали у ћорсокак, њихово напуштање у корист примеренијих и хуманијих, а потом се позабавити вештачком интелигенцијом”. Јер, ни наша природна (барем већине) није на некој завидној висини!

(Пулсе)

 

О аутору

administrator

1 коментар

Оставите коментар