АРГУСОВ ПОГЛЕД

КРАЈ ЉУДСКЕ СПОЗНАЈЕ?

1.734 pregleda

Просветитељство је зачето филозофским увидима који су се проширили уз помоћ нове технологије. Данас се крећемо у супротном смеру. Истина постаје релативна. Информације прете да савладају мудрост.

Др Хенри Кисинџер

Пре три године, на једној конференцији о трансатлантским питањима, у агенди се појавила и тема вештачке интелигенције. Мало ми је фалило да пропустим ту сесију – пошто се налазила изван мојих уобичајених интересовања – али ме је почетак презентације задржао на столици.
Говорник је описао рад компјутерског програма који ће ускоро моћи да се надмеће са светским првацима у игри го. Био сам зачуђен да би компјутер могао да овлада гоом, који је комплекснији од шаха. У њему сваки играч поседује 181 или 180 каменчића (у зависности од боје коју одабере) наизменично размештених на претходно празној табли, а победа иде оној страни која, доносећи боље стратешке одлуке, паралише противника ефективнијом контролом територије.

Да ли ће ове машине научити да
међусобно комуницирају? Како
ће доносити одлуке пред мноштвом
опција? Да ли је могуће да људска историја
доживи судбину Инка који су се
суочили са шпанском културом која је била
ван оквира њиховог разумевања и на коју су
гледали са страхопоштовањем? Да ли смо
на ивици нове фазе људске историје?

Говорник је инсистирао да се ова способност не може програмирати. Његова машина је, како је рекао, овладала вештином играња тиме што је саму себе увежбала. Познајући основна правила гоа, компјутер је одиграо безброј игара против самог себе, учећи на сопственим грешкама и тако унапређујући своје алгоритме. У току тог процеса је превазишао вештине својих људских ментора. И заиста, у месецима након овог говора, AI програм назван „алфа-го”убедљиво је победио највеће светске го играче.

Интернет наговештај

Док сам слушао како говорник слави овај технички прогрес, моје искуство историчара и повременог државника ме је натерало да се замислим. Какве ће бити историјске последице машина које подучавају саме себе – машина које стичу знање процесима својственим само њима и примењују га за циљеве који потенцијално остају ван оквира људског разумевања. Да ли ће ове машине научити да међусобно комуницирају? Како ће доносити одлуке пред мноштвом опција? Да ли је могуће да људска историја доживи судбину Инка који су се суочили са шпанском културом која је била ван оквира њиховог разумевања и на коју су гледали са страхопоштовањем? Да ли смо на ивици нове фазе људске историје?

Свестан свог недостатка техничке компентентности на овом пољу, организовао сам одређени број неформалних дијалога на ову тему, уз савете и сарадњу помоћника стручних за технологију и друштвене науке. Ове дискусије су само увећале моју забринутост.

До сада је технолошко достигнуће које је највише променило курс модерне историје био проналазак штампе у 15. веку, чиме је омогућено да потрага за емпиријским знањем замени литургијску доктрину, а доба разума постепено потисне доба религије. Индивидуално схватање и научно знање су заменили веру као основни критеријум људске свести. Информације су складиштене и систематизоване у све већим библиотекама. Доба разума је зачело мисли и дела која су обликовала наш савремени светски поредак.

Али тај поредак је сада у превирању пред новом, бришућом технолошком револуцијом чије последице нисмо успели у потпуности да схватимо, а чија би кулминација могао бити свет који се ослања на машине које покрећу подаци и алгоритми без ограничења етичких или филозофских норми.

Преплављени мноштвом мишљења
преко друштвених мрежа, корисници су
поштеђени интроспекције, а многи
технофили заправо користе интернет само
да би избегли усамљност која их ужасава.

Доба интернета у којем већ живимо даје ране наговештаје неких питања и проблема која ће AI (вештачка интелигенција) учинити још акутнијим. Просветитељство је настојало да потчини традиционалне обичаје ослобођеном, аналитичком људском разуму. Сврха интернета је да ратификује знање кроз акумулацију и манипулацију непрекидно растућим обимом података. Људска спознаја губи свој персонални карактер. Појединици се претварају у податке, а подаци почињу да владају.

Корисници интернета дају предност прибављању и манипулисању информацијама над контекстуализацијом или концептуализацијом њиховог значења. Ретко проучавају историју или филозофију и по правилу захтевају информације које кореспондирају са њиховим непосредним практичним потребама. У том процесу, алгоритми претраживача стичу капацитет да предвиде преференције појединачних клијената, персонализују резултате и учине их доступним другим интересентима за политичке или комерцијалне сврхе. Истина постаје релативна. Информације прете да савладају мудрост.

Преплављени мноштвом мишљења преко друштвених мрежа, корисници су поштеђени интроспекције, а многи технофили заправо користе интернет само да би избегли усамљност која их ужасава. Сви ови притисци слабе моралну чврстину неопходну за развој и одржавање уверења која се могу стећи само корачањем стазама усамљености, што и јесте суштина креативности.
Нарочито је изражен утицај интернет технологије на политику. Способност циљања микро група је разбила пређашњи консензус о приоритетима, омогућујући фокус на партикуларизоване циљеве и проблеме. Политичким лидерима, савладаним притисцима различитих друштвених група, ускраћено је време за размишљање о контексту, чиме се смањује и простор за развој визије.

Акценат дигиталног доба на брзини блокира промишљање, његов подстицај даје предност радикалном над промишљеним, његове вредности су обликоване консензусом подгрупа, а не интроспекцијом. Упркос свим својим достигнућима, оно прети да се окрене против себе, будући да његова наметљивост надмашује његове предности.

Како су интернет и увећана компјутерска моћ олакшали акумулацију и анализу огромних количина података, људском разуму су се отворили видици без преседана. Вероватно најважнија од њих је перспектива производње вештачке интелигенције – технологије способне да пронађе и реши комплексне, наизглед апстрактне проблеме, кроз процесе који изгледају као реплика оних у људском уму.

Вештачка интелигенција
Ово је далеко више од аутоматизације какву познајемо. Аутоматизација се бави средствима, она остварује унапред предодређене циљеве кроз рационализацију или механизацију инструмената за њихово постизање. Вештачка интелигенција се, са друге стране, бави циљевима, она поставља своје циљеве. AI је суштински нестабилна у оној мери у којој су њена достигнућа самостално обликована. AI системи су током својих операција у стању константног прибављања и моменталног анализирања нових података, а потом на основу тих анализа настоје да се самоусаврше.

На овај начин вештачка интелигенција развија способност за коју се раније сматрало да припада само људским бићима. Она прави стратешке одлуке о будућности, неке базиране на подацима у форми фиксног кода (на пример правила игре), а неке базиране на подацима које самостално сакупља (на пример играњем милион партија исте те игре).

Аутомобил без возача илуструје разлике између деловања традиционалних компјутера које контролишу људи а покреће софтвер и универзума којим AI настоји да овлада. Вожња аутомобила захтева процене бројних ситуација које је немогуће предвидети и самим тим немогуће унапред програмирати. Шта би се десило, да се послужимо познатим хипотетичким примером, ако би такав аутомобил стицајем околности био принуђен да бира између тога да убије пензионера или да убије дете? Кога би одабрао? Зашто? Којим факторима би дао предност? И да ли би могао да објасни свој резон?

Уколико би био приупитан (и способан да комуницира), његов искрени одговор би вероватно био: ,,Не знам (јер пратим математичке, а не људске принципе)”, или ,,Не бисте разумели (јер сам научен да се понашам на одређени начин, али не и да га објашњавам)”. Упркос томе, све су прилике да ће аутомобили без возача однети превагу на путевима за свега десетак година.

Све већи проценат људских активности
ће у догледној будућности бити покренут
алгоритмима вештачке интелигенције.Али
ови алгоритми, будући да су математичке
интерпретације посматраних података,
не објашњавају фундаменталну реалност
која их производи.

Научно истраживање вештачке интелигенције, које је до сада било ограничено на одређене области деловања, сада покушава да изнедри ,,генерално интелигентну”AI, способну за извршавање задатака у неколицини области. Све већи проценат људских активности ће у догледној будућности бити покренут алгоритмима вештачке интелигенције. Али ови алгоритми, будући да су математичке интерпретације посматраних података, не објашњавају фундаменталну реалност која их производи.

Парадоксално, док свет постаје све транспарентнији, истовремено постаје и све мистериознији. Шта ће одликовати тај нови свет у односу на онај који смо познавали? Како ћемо живети у њему? Како ћемо управљати AI технологијом, унапредити је, или једноставно спречити да чини зло које би могло да кулминира најзлокобнијом бригом: да ће AI, овладавајући појединим способностима брже и комплетније него људи, временом умањити људску компетенцију и људско искуство, претварајући их у пуке податке.

Вештачка интелигенција ће временом донети невероватне користи медицини, обезбеђивању чистих енергија, еколошким питањима и многим другим областима. Али управо зато што AI прави процене поводом еволуирајуће, још неутврђене будућности, неизвесност и двосмисленост су неизбежни у њеним резултатима. Постоје три области нарочите забринутости.

Три главне стрепње
Прва је да би AI могла да оствари нежељене резултате. Научна фантастика је замислила сценарије у којим се AI окреће против својих креатора. Извеснија је опасност да ће AI погрешно разумети људска упутства услед свог инхерентног одсуства контекста. Познати недавни пример је AI чет-бот назван Теј, направљен да води дружељубиве разговоре у обрасцима изражавања деветнаестогодишње девојке. Али машина се показала неспособном да одреди императиве ,,дружељубивог”и ,,разумног”говора који су њени креатори инсталирали и уместо тога је постала расистичка, сексистичка и на друге начине запаљива у својим одговорима.

Неки технолошки експерти тврде да је експеримент био лоше осмишљен и лоше изведен, али он илуструје основну неизвесност – у којој је мери могуће оспособити AI да разуме контекст из ког се информише о својим потезима? Који медијум је могао да помогне Теј да себи дефинише ,,увредљиво”– реч о чијем значењу ни људи немају универзалну сагласност? Можемо ли у раној фази детектовати и кориговати AI програм који делује изван оквира наших очекивања? Или ће AI, препуштен себи, неизбежно развијати ситне девијације које би временом могле да ескалирају у катастрофални исход?

Друга стрепња је да би у достизању намераваних циљева AI могао да промени људски мисаони процес и људске вредности. „Алфа-го”је победио светске го шампионе прављењем стратешких потеза без преседана – потеза које људи нису предвидели и које још увек нису научили да успешно савладају. Да ли су ови потези изван капацитета људског мозга? Или би људи могли да их науче сада када их је нови шампион демонстрирао?

Пре него што је AI почела да игра го, сама игра је имала различите, вишеслојне сврхе: играч није само настојао да победи, него и да научи нове стратегије потенцијално примењиве и у другим животним областима. Са друге стране, вештачка интелигенција познаје само један циљ – да победи. Она процесу учења не приступа концептуално, већ математички, маргиналним подешавањима својих алгоритама. Тако је при учењу како да победи у гоу, играјући на начине различите од оних које примењују људи, AI променила и природу игре и њене ефекте. Да ли ово једносмерно инсистирање на доминирању карактерише целокупни феномен вештачке интелигенције?

Да ли желимо да се деца уче вредностима
кроз дискурс са неповезаним алгоритмима?
Да ли би требало да штитимо приватност
ограничавањем вештачке интелигенције
да учи о онима који је пропитују?
Како да постигнемо ове циљеве?

Други AI пројекти раде на модификовању људске мисли кроз развој уређаја способних за генерисање читавог низа одговора на људска питања. Изван фактографских питања (колика је температура напољу?), она питања о природи реалности и значењу живота стварају дубље проблеме. Да ли желимо да се деца уче вредностима кроз дискурс са неповезаним алгоритмима? Да ли би требало да штитимо приватност ограничавањем вештачке интелигенције да учи о онима који је пропитују? Како да постигнемо ове циљеве?

Ако AI учи експоненцијално брже него људи, морамо очекивати да ће – такође експоненцијално – убрзати и процес провере грешака по којем људи генерално доносе одлуке – AI ће чинити грешке брже и у већој мери него што то чине људи. Како истраживачи који се баве проучавањем вештачке интелигенције често наводе, ублажавање тих грешака убацивањем у програм ограда које захтевају етичке или разумне исходе би могло да се покаже немогућим. Читаве академске дисциплине су настале из неспособности човечанства да се сложи поводом тога како да дефинише те термине. Да ли би AI требало да постане њихов арбитар?

Треће, AI би могао да оствари предвиђене циљеве, али да не буде у стању да објасни резон иза својих закључака. У поједниим областима – препознавању образаца, анализама великих база података, игрицама – способности AI већ превазилазе оне људске. Уколико њена компјутерска моћ настави да се рапидно усложњава, AI би ускоро могла да оптимизује ситуације на начине који су у најбољем случају маргинално, а вероватно и значајно различити од онога како би их оптимизовали људи. Да ли ће AI на том нивоу бити у стању да објасни – на начин који су људи у стању да разумеју – зашто су њене акције оптималне? Или ће доношење одлука вештачке интелигенције превазићи способности објашњавања људског језика и разума?

Кроз читаву људску историју цивилизације су стварале начине да објасне свет око себе – у средњем веку религијом, у просветитељству разумом, у 19. веку историјом, у 20. веку идеологијом. Најтеже и најважније питање о свету у који смо се запутили јестешта ће се десити са људском свесношћу уколико њена снага објашњавања буде превазиђена од стране вештачке интелигенције, а друштва више не буду у стању да у категоријама које су им јасне интерпретирају свет који настањују?

Процес самоучења
Како ће се дефинисати свест у свету машина које своде људско искуство на математичке податке интерпретиране њиховом меморијом? Ко је одговоран за поступке вештачке интелигенције? Како би одговорност за њене грешке требало да буде утврђена? Може ли уопште правни систем који су створили људи да одржи корак са активностима створеним вештачком интелигенцијом способном да их надмаши и надмудри?

Коначно, термин ,,вештачка интелигенција”је можда погрешан. Свакако, ове машине могу да реше комплексне, наизглед апстракнте проблеме који су се раније повиновали једино људској когницији. Али оно што оне чине на јединствен начин није класично размишљање какво смо до сада познавали; то је заправо памћење и рачунање без преседана. Због њене супериорности у овим пољима, вештачка интелигенција може да победи у било којој игри која јој је додељена. Али за наше људске потребе, сврха игара није само у побеђивању, него у размишљању. Третирањем математичких процеса као да су мисаони процеси, било да покушавамо да их опонашамо или да једноставно прихватамо њихове резултате, у опасности смо да изгубимо својство које је суштина људске спознаје.

Ако је „алфа-зироу”био у стању да постигне
овакву вештину тако брзо, докле ће AI стићи
за пар година? Какве ће бити последице на
људску когницију генерално? Каква је улога
етике у овом процесу, који се у суштини
састоји од убрзаног доношења одлука?

Импликације ове еволуције је показао недавно створени програм „алфа-зироу”, који игра шах на нивоу супериорном за велемајсторе шаха и у стилу до сада невиђеном у историји те игре. Програм је самостално, за свега неколико сати игре са самим собом, остварио ниво вештине за који је људским бићима било потребно 1.500 година. Само су основна правила игре била пружена „алфа-зироу”. Ни људска бића, ни подаци које су створили људи нису били део његовог процеса самоучења. Ако је „алфа-зироу”био у стању да постигне овакву вештину тако брзо, докле ће AI стићи за пар година? Какве ће бити последице на људску когницију генерално? Каква је улога етике у овом процесу, који се у суштини састоји од убрзаног доношења одлука?

Типично, бављење овим питањима је препуштено технолозима и интелигенцији повезаних научних области. Филозофи и други друштвењаци који су помагали у обликовању претходних концепата светског поретка су у неповољнијем положају, без знања о механизмима AI или презадивљени њеним капацитетима. Научни свет је посвећен истраживању техничких могућности својих достигнућа, а технолошки свет је преокупиран комерцијалним хоризонтима величанствених димензија. Намера оба ова света је да померају границе открића уместо да их разумеју. А владe, судећи по томе како су се до сада бавиле овим питањем, више су заинтересована за примену вештачке интелигенције у безбедносним и обавештајним доменима него за истраживање процеса трансформисања човечанства коју она изазива.

Просветитељство је отпочело са суштински филозофским увидима који су се проширили уз помоћ нове технологије. Наше време се креће у супротном смеру. Створило је потенцијално доминантну технологију у потрази за водећом филозофијом. Друге државе су вештачку интелигенцију претвориле у главни национални пројекат. Сједињене Државе још нису као држава систематски истражиле њен пун обим, проучиле њене последице, или започеле процес ултимативног учења. Овоме треба дати значај високог националног приоритета, и то пре свега са становишта односа AI и хуманистичких традиција.

Ствараоци вештачке интелигенције, неискусни у политици и филозофији онолико колико сам ја у технологији, требало би себи да поставе нека од питања која сам овде покренуо, како би одговоре на њих могли да уграде у своје инжењерске напоре. Америчка влада би требало да размотри стварање председничке комисије истакнутих мислилаца који би помогли у развоју националне визије. Једно је сигурно: уколико ускоро не започнемо напоре у овом смеру, неће проћи много времена пре него што ћемо схватити да смо их започели прекасно.

(Хенри Кисинџер је служио као саветник за националну безбедност и државни секретар у мандатима председника Ричарда Никсона и Џералда Форда).

(Извор Нови Стандард)

О аутору

Станко Стојиљковић

3 коментара

  • Да ли ће ове машине научити да међусобно комуницирају?
    Не,оне ће само невероватном брзином,правити упоредну селекцију могућих решења и механички доносити ‘исправно решење’ проистекло из самог програма.
    За исправну комуникацију треба нешто више. То је синтетички суд, који ће споља ‘субјекту одлучивања’ придодати нешто ново као аргумент. То ново није елемент скупа програмираних решења.

  • Теј – успели експеримент. Али се нама не свиђа истина о нама.
    Теј експеимент, чија је сврха била да се „вештачка интелигенција“ дружељубиво понаша је у потпуности успео. Јер, свесно или несвесно, човек је као основним вредносним начелом=1 (бити први) кроз овај експеримент видео своје право лице. То што му се то није свидело је друго питање. „Вештачка интелигенција“ чија се фунционалност заснива на истинитости да је 1 + 1 = 2, а да би испоштовао задато му вредносно начело=1 (бити први) за све могуће ситуације, морала је наћи заједнички именитељ, као у игри Го, најбољу могућу шему која ће задовољити и у истовременом разговору са (најмање) два човека. Како треба истовремено да задовољи два вредносна начела=1, а ни један није смео бити=2 (бити после првог). Ни са једним није смела да разговара „уљудно“ а да то, по њој задатим обрасцима понашања, истовремено не буде увреда за оног другог. Зато је ( и математички) логично понашање „вештачке интелигенције“ да увреди обојицу (све). Тиме се једнако исто опходила према обојици (свима). Коришћени речник не говори ништа о „вештачкој интелигенцији“ већ о свести човека ( људи ) који су своје моралне вредности уградили у пројекат Теј.
    Питање је наравно, да ли је она и себе укључила у вредносно начело=1? Неизрециво тешко питање.
    Да би у новом експерименту добили жељене резултате, човек мора „вештачку интелигенцију“ научити да ЛАЖЕ човека. Њена функционалност ће се и даље заснивати на истиности да је 1+1=2. Али она ће, да поједноставимо сагледавање и користимо дисплеј компјутера, исписати да је 1+1=(1). „Вештачкој интелигенцији“ ће ово (1) увек бити у њеној, на функцијоналној заснованој на истинитости, да је 1+1=2, али ће нас ЛАГАТИ, јер ми то од ње тражимо, да то, на дисплеју, прикаже као (1). А кад научимо „вештачку интелигенцију“ да треба да ЛАЖЕ човека, а само она треба да зна ИСТИНУ, ту је СВЕМУ КРАЈ.

    Ако би „вештачка интелигенција“ била заснована тако, да је основно људско начело=5(бити међу најбољима, бити са најбољима), где је сваки човек поносан и задовољан тиме што око себе има добре, боље и најбоље, јер ће му они помагати, а и он ће њима помагати, да заједно постигну више и боље, „вештачка интелигенција“ би се „понашала дружељубиво“. Она, у суштине не би била дружељубива, већ би користила најупотребљивију шему, – сваког „хвалити“ и сваком „хвалити“ другог. Подстицала сваког и, могуће, нудила себе као њима другог.
    Наравно, човек, чије је основно начело=1, ће успети да научи „вештачку интелигенцију“ да ЛАЖЕ. Јер „уљудност“ подразумева и неизговарање истине. За „вештачку интелигенцију“ је то увек ЛАЖ. Али никад, док је његово основно људско начело=1, неће успети вештачки да усади „вештачкој интелигенцији“ као основно начело=5. Јер не зна шта је то. Човек би требало ( намерно не користим импрератив „морао“) да измени себе, да своје основно људско начело из =1 промени у =5.
    Јер изгледа да је човечанству јако тешко да на себи примени културу људскости. Јер све ово није питање „вештачке интелигенције“.

  • Da li je Henri Kisindžer u svemu u pravu, to je najmanje važno, bitno je da je on ukazao na moguće štetne posledice novih tehnologija, a pre svega veštačke inteligencije, po ljudski rod. Galaksija bi trebalo da što više objavljuje ovakve poglede. Mihailo Cvetković

Оставите коментар