АРГУСОВ ПОГЛЕД

ПРОБЛЕМ БЕЛОГ МУШКАРЦА

271 pregleda
Pixabay

Најгласнија упозорења о наводном егзистенцијалном ризику долазе из Силицијумске долине. На први поглед, то делује неспојиво са интересима које крупне компаније имају од улагања у иновације и развој вештачке интелигенције (AI).

Др Мaри Ејткен

Месецима нас упозоравају на суперинтелигентне моделе вештачке интелигенције (AI) који би једног дана могли да изазову уништење људске врсте. Сем Алтман, извршни директор компаније Open AI, каже да би ова технологија могла да означи „наш крај”, док пионир вештачке интелигенције Џефри Хинтон свој отказ у Google-у образлаже страхом од претње коју AI представља по будућност човечанства. Центар за безбедан AI објавио је саопштење о опасности од изумирања цивилизације.

То би требало да нас забрине, јер се нуди мало или нимало доказа који поткрепљују те емотивне и сензационалистичке изјаве, док понуђени примери падају већ на првој проби.

Ове тврдње су застрашујуће – али не зато што су тачне, него стога што преусмеравају разговор о утицајима вештачке интелигенције и смислу одговорног развоја AI. Прича да би технологија једног дана могла самостално да развије надљудску интелигенцију и постане претња човечанству познат је филмски заплет, дубоко утиснут у наше представе о вештачкој интелигенцији. Одавно смо навикли на тај наратив у медијима, али је ове године ушао и у политичке и правне дискусије о вештачкој интелигенцији.

То би требало да нас забрине, јер се нуди мало или нимало доказа који поткрепљују те емотивне и сензационалистичке изјаве, док понуђени примери падају већ на првој проби. Рецимо, тврдње да велики језички модели показују такозвана емергентна својства (способности за које нису тренирани, али су се некако појавиле) обично се тичу непредвиђених, мада ипак објашњивих функција модела. Kада је извршни директор Google-ве матичне компаније Alphabet, Сундар Пачаи, рекао да Google-ов четбот Bard одговара на упите на бенгалском, иако није био трениран за тај језик, вероватније објашњење дала је бивша запосленица Google-а, Маргарет Мичел, која је навела да су у Bard-ов развој били укључени аспекти његовог претходника, језичког модела PaLM, у чијим се подацима за тренинг налазио и бенгалски језик.

Идеја да би AI могла да развије властиту свест помера фокус на будућу одговорност технологије, уместо на актуелну одговорност крупних технолошких компанија. Све то ствара илузију неизбежности, јер сугерише да сведочимо еволуцији вештачке интелигенције, а не низу свесних одлука организација и људи подложних контроли.

То је још један подсетник да AI модели раде само оно за шта су програмирани. Тврдње о емергентним својствима служе да се ућуткају захтеви за транспарентношћу и прекину расправе о одговорности програмера. Најгласнија упозорења о наводном егзистенцијалном ризику долазе из Силицијумске долине. На први поглед, то делује неспојиво са интересима које крупне компаније имају од улагања у иновације и развој AI. Међутим, ови наративи управо штите њихове интересе тако што пажњу јавности са онога што компаније раде данас, скрећу на нагађања о хипотетичким будућим капацитетима AI.

Идеја да би AI могла да развије властиту свест помера фокус на будућу одговорност технологије, уместо на актуелну одговорност крупних технолошких компанија. Све то ствара илузију неизбежности, јер сугерише да сведочимо еволуцији вештачке интелигенције, а не низу свесних одлука организација и људи подложних контроли.

Важно је имати у виду не само оно што се говори, већ и ко ће бити саслушан. Видели смо како регулатори широм Европе срдачно дочекују Сема Алтмана, док људи на које AI негативно утиче једва да се чују. То је симптом онога што је професорка Kејт Kрофорд назвала „проблемом белог мушкарца”: тврдње о егзистенцијалном ризику углавном износе имућни белци на позицијама моћи, они који су данас најмање изложени штети због вештачке интелигенције, док за њу сносе највећу одговорност.

Заиста се налазимо у критичном тренутку док владе света покушавају да изађу на крај са изазовима ефикасног регулисања вештачке интелигенције. Уместо да се бавимо интересима крупних техно-компанија и њиховим фантазијама о општој AI, кључно је супротставити се наративима о суперинтелигенцији и егзистенцијалном ризику и усредсредити ове дискусије на људе и заједнице које већ трпе стварне утицаје због примене нових технологија.

(Пулсе)

О аутору

administrator

Оставите коментар