ЗОВ БУДУЋНОСТИ

ВЕШТАЧКА НАС УНИШТАВА?

Visited 421 times, 1 visit(s) today

У интервјуу за The New York Times, бивши истраживач у OpenAI Даниjел Kокотајло је изјавио да су шансе да вештачка интелигенција (AI) уништи или катастрофално нашкоди човечанству веће од бацања новчића (50%), чак достижу око 70%!

Након што су бивши и садашњи запослени у OpenAI-у (компанијa кпја је направила ChatGPT) објавили отворено писмо у којем тврде да су ућуткивани због постављања безбедносних питања, један од потписника је дао још страшније предвиђање. Упозорење је стигло и из Центра за безбедност од вештачке интелигенције, непрофитне организације. „Ублажавање ризика од нашег изумирања узроковано вештачком интелигенцијом требало би да буде глобални приоритет поред других друштвених ризика, као што су пандемије и нуклеарни рат”. Отворено писмо је потписало више од 350 руководилаца, истраживача и инжењера који раде у AI [1].

У интервјуу за The New York Times, бивши истраживач у OpenAI Даниjел Kокотајло је изјавио да су шансе да вештачка интелигенција (AI) уништи или катастрофално нашкоди човечанству веће од бацања новчића, а то значи веће од 50%. Оптужио је компанију да игнорише огроман ризик које представља општа вештачка интелигенција (AGI) јер су доносиоци одлука одушевљени њеним могућностима [2].

Kокотајло тврди је да су изгледи да ће вештачка интелигенција уништити човечанство око 70% – а то је вероватноћа коју не бисте прихватили ни за један негативан велики животни догађај: „Безобзирно се утркују ко ће бити први”. Тридесетједногодишњи истраживач је објаснио да је, након што се придружио OpenAI-у 2022. и од њега затражено да предвиди напредак технологије, постао уверен не само да ће се AGI појавити до 2027. године, већ да постоји велика вероватноћа да ће катастрофално нашкодити људима или, чак, уништило човечанство.

У отвореном писму наводе се он и сарадници – што укључује бивше и садашње запослене у „Гугловом” DeepMind-у и Anthropic-у (главни инвеститор је „Амазон”), а и Џефри Хинтон, назван „кумом вештачке интелигенције”, који је компанију напустио прошле године због сличне забринутости. Kокотајло је толико убеђен да вештачка интелигенција представља огроман ризик за човечанство да је на крају лично позвао извршног директора OpenAI, Сема Алтмана, и упозорио га да компанија треба да се „окрене ка безбедности” и да више времена посвети имплементацији заштитних ограда да би управљала технологијом, а не да настави да је чини паметнијом. Чинило се да се Алтман, према причању бившег запосленог, у то време сагласио.

Данијел Kокотајло је напустио компанију у априлу, саопштивши свом тиму у електронској поруци да је „изгубио поверење да ће се OpenAI понашати одговорно” покушајући да направи вештачку интелигенцију скоро на нивоу човека. „Свет није спреман, а ми нисмо спремни”, написао је у својој поруци достављеној New York Times-у.

На упозорења великих имена и оваквих застрашујућих предвиђања, OpenAI одговара: „Поносни смо на нашу репутацију која пружа најспособније и најсигурније системе вештачке интелигенције и верујемо у наш научни приступ решавању ризика. Слажемо се да је ригорозна дебата кључна с обзиром на значај ове технологије и наставићемо да сарађујемо са владама, цивилним друштвом и другим заједницама широм света. То је, такође, разлог зашто имамо начина да запослени изразе своју забринутост, укључујући анонимну телефонску линију за интегритет и Kомитет за безбедност који предводе чланови нашег одбора и лидери за безбедност из компаније.”

Шта можемо закључити? Ако толики број стручњака за вештачку интелигенцију опомиње, упозорење треба схватити озбиљно. Недостаје, нажалост, објашњењe како до катастрофе може да дође. Да ли:

  • Предајом нуклеарног арсенала вештачкој интелигенцији на управљање;
  • Контролом и усавршевањем биолошког и хемијског оружија препуштеним вештачкој интелигенцији;
  • Интеграцијом вештачке интелигенције у све поре друштва (производња, саобраћај, образовање, здравство и тако редом);
  • Нестајањем потребе за људским радом.

Списак претњи се сигурно може проширити. Свака наведена ставка носи своје опасности да дође до катастрофалних исхода. Остаје да се надамо да последице неће бити тешке и да че то бити наук како се обезбедити од истих или сличних немилих догађаја. Или ће можда доћи, како је описано у главним научнофантастичним делима („Задужбина”, „Дина”…), до великог  рата човека против машина, након којих су роботи и вештачка интелигенција заувек забрањени.

Извори:

[1] https://www.safe.ai/work/statement-on-ai-risk.

[2] https://futurism.com/the-byte/openai-insider-70-percent-doom.

 

(Илустрација Pixabay)

(Астрономски магазин)

Visited 421 times, 1 visit(s) today

О аутору

administrator

Оставите коментар