Егзистенцијални ризик од опште вештачке интелигенције

Егзистенцијални ризик од опште вештачке интелигенције је идеја да би значајан напредак у општој вештачкој интелигенцији (АГИ) могао довести до изумирања људи или неповратне глобалне катастрофе.[1][2][3]

Један аргумент гласи: људска бића доминирају другим врстама зато што људски мозак поседује карактеристичне способности које недостају другим животињама. Ако би вештачка интелигенција надмашила човечанство у општој интелигенцији и постала суперинтелигентна, онда би је могло постати тешко или немогуће контролисати. Као што судбина планинске гориле зависи од људске добре воље, тако би судбина човечанства могла зависити од деловања будуће машинске суперинтелигенције.[4]

О остваривости егзистенцијалне катастрофе услед вештачке интелигенције се широко расправља. Она делом зависи од тога да ли су АГИ или суперинтелигенција достижни, брзине којом се појављују опасне способности и понашања,[5] и да ли постоје практични сценарији за превласт вештачке интелигенције.[6] Забринутост око суперинтелигенције изразили су водећи рачунарски научници и извршни директори технологије као што су Џефри Хинтон,[7] Јошуа Бенгио,[8] Алан Тјуринг,[а] Илон Маск,[11] и извршни директор ОпенАИ Сам Алтман.[12] У 2022. години, анкета истраживача вештачке интелигенције са стопом одговора од 17% показало је да већина испитаника верује да постоји 10 процената или већа шанса да ће наша неспособност да контролишемо вештачку интелигенцију изазвати егзистенцијалну катастрофу.[13][14] Године 2023, стотине стручњака за вештачку интелигенцију и друге значајне личности потписале су изјаву да би „ублажавање ризика од изумирања од вештачке интелигенције требало да буде глобални приоритет поред других друштвених ризика као што су пандемије и нуклеарни рат.“[15] Услед повећане забринутости због ризика од вештачке интелигенције, владини лидери као што су премијер Уједињеног Краљевства Риши Сунак[16] и генерални секретар Уједињених нација Антонио Гутерес[17] позвали су на повећан фокус на глобалну регулацију вештачке интелигенције.

Два извора забринутости произилазе из проблема контроле и усклађивања VI: контролисање суперинтелигентне машине или њено усађивање вредностима компатибилним са људима може бити тешко. Многи истраживачи верују да би се суперинтелигентна машина одупрла покушајима да се онеспособе или промене њени циљеви, јер би је то спречило да оствари своје садашње циљеве. Било би изузетно тешко ускладити суперинтелигенцију са пуном ширином значајних људских вредности и ограничења.[1][18][19] Насупрот томе, скептици као што је компјутерски научник Јан Лекан тврде да суперинтелигентне машине неће имати жељу за самоодржањем.[20]

Трећи извор забринутости је да би изненадна „експлозија интелигенције“ могла изненадити неприпремљену људску расу. Такви сценарији разматрају могућност да VI која је интелигентнија од својих креатора може бити у стању да се рекурзивно побољша експоненцијално растућом стопом, побољшавајући се пребрзо да би њени руковаоци и друштво у целини могли да је контролишу.[1][18] Емпиријски, примери као што је АлпхаЗеро који сам учи да игра го показују да системи вештачке интелигенције специфични за домен понекад могу веома брзо да напредују од подљудских до надљудских способности, иако такви системи не подразумевају промену њихове основне архитектуре.[21]

Напомене

уреди
  1. ^ У предавању из 1951. године[9] Тјуринг је тврдио да „Сматра се вероватним да, када једном почне метод машинског размишљања, неће требати много времена да надмашимо наше слабе моћи. Не би било говора о умирању машина, и оне би имале способност да разговарају једне са другима како би усавршиле своју памет. Стога би у некој фази требало да очекујемо да машине преузму контролу, на начин који се помиње у Еревхон Семјуела Батлера.” Такође у предавању емитованом на Би-Би-Сију[10] он је изнео своје мишљење: „Ако машина може да мисли, можда би мислила интелигентније од нас, а где бисмо онда ми требали бити? Чак и када бисмо могли да држимо машине у подређеном положају, на пример, искључивањем струје у стратешким тренуцима, требало би да се, као врста, осећамо веома понизно... Ова нова опасност... је свакако нешто што може да нас забрине."

Референце

уреди
  1. ^ а б в Русселл, Стуарт; Норвиг, Петер (2009). „26.3: Тхе Етхицс анд Рискс оф Девелопинг Артифициал Интеллигенце”. Артифициал Интеллигенце: А Модерн Аппроацх. Прентице Халл. ИСБН 978-0-13-604259-4. 
  2. ^ Бостром, Ницк (2002). „Еxистентиал рискс”. Јоурнал оф Еволутион анд Тецхнологy. 9 (1): 1—31. 
  3. ^ Турцхин, Алеxеy; Денкенбергер, Давид (2018-05-03). „Цлассифицатион оф глобал цатастропхиц рискс цоннецтед wитх артифициал интеллигенце”. АИ & Социетy. 35 (1): 147—163. ИССН 0951-5666. С2ЦИД 19208453. дои:10.1007/с00146-018-0845-5. 
  4. ^ Бостром, Ницк (2014). Суперинтеллигенце: Патхс, Дангерс, Стратегиес (Фирст изд.). Оxфорд Университy Пресс. ИСБН 978-0-19-967811-2. 
  5. ^ Вyнцк, Геррит Де (2023-05-23). „Тхе дебате овер wхетхер АИ wилл дестроy ус ис дивидинг Силицон Валлеy”. Wасхингтон Пост (на језику: енглески). ИССН 0190-8286. Приступљено 2023-07-27. 
  6. ^ Метз, Цаде (2023-06-10). „Хоw Цоулд А.I. Дестроy Хуманитy?”. Тхе Неw Yорк Тимес (на језику: енглески). ИССН 0362-4331. Приступљено 2023-07-27. 
  7. ^ „"Годфатхер оф артифициал интеллигенце" wеигхс ин он тхе паст анд потентиал оф АИ”. www.цбснеwс.цом (на језику: енглески). 25. 3. 2023. Приступљено 2023-04-10. 
  8. ^ „Хоw Рогуе АИс маy Арисе”. yосхуабенгио.орг (на језику: енглески). 26. 5. 2023. Приступљено 2023-05-26. 
  9. ^ Туринг, Алан (1951). Интеллигент мацхинерy, а херетицал тхеорy (Говор). Лецтуре гивен то '51 Социетy'. Манцхестер: Тхе Туринг Дигитал Арцхиве. Архивирано из оригинала 26. 9. 2022. г. Приступљено 2022-07-22. 
  10. ^ Туринг, Алан (15. 5. 1951). „Цан дигитал цомпутерс тхинк?”. Аутоматиц Цалцулатинг Мацхинес. Епизода 2. Цан дигитал цомпутерс тхинк?. ББЦ. 
  11. ^ Паркин, Симон (14. 6. 2015). „Сциенце фицтион но море? Цханнел 4'с Хуманс анд оур рогуе АИ обсессионс”. Тхе Гуардиан (на језику: енглески). Архивирано из оригинала 5. 2. 2018. г. Приступљено 5. 2. 2018. 
  12. ^ Јацксон, Сарах. „Тхе ЦЕО оф тхе цомпанy бехинд АИ цхатбот ЦхатГПТ саyс тхе wорст-цасе сценарио фор артифициал интеллигенце ис 'лигхтс оут фор алл оф ус'. Бусинесс Инсидер (на језику: енглески). Приступљено 2023-04-10. 
  13. ^ „Тхе АИ Дилемма”. www.хуманетецх.цом (на језику: енглески). Приступљено 2023-04-10. „50% оф АИ ресеарцхерс белиеве тхере'с а 10% ор греатер цханце тхат хуманс го еxтинцт фром оур инабилитy то цонтрол АИ. 
  14. ^ „2022 Еxперт Сурвеy он Прогресс ин АИ”. АИ Импацтс (на језику: енглески). 2022-08-04. Приступљено 2023-04-10. 
  15. ^ Роосе, Кевин (2023-05-30). „А.I. Посес 'Риск оф Еxтинцтион,' Индустрy Леадерс Wарн”. Тхе Неw Yорк Тимес (на језику: енглески). ИССН 0362-4331. Приступљено 2023-06-03. 
  16. ^ Сунак, Рисхи (14. 6. 2023). „Рисхи Сунак Wантс тхе У.К. то Бе а Кеy Плаyер ин Глобал АИ Регулатион”. Тиме. 
  17. ^ а б Фунг, Бриан (2023-07-18). „УН Сецретарy Генерал ембрацес цаллс фор а неw УН агенцy он АИ ин тхе фаце оф 'потентиаллy цатастропхиц анд еxистентиал рискс'. ЦНН Бусинесс (на језику: енглески). Приступљено 2023-07-20. 
  18. ^ а б Yудкоwскy, Елиезер (2008). „Артифициал Интеллигенце ас а Поситиве анд Негативе Фацтор ин Глобал Риск” (ПДФ). Глобал Цатастропхиц Рискс: 308—345. Бибцоде:2008гцр..боок..303Y. Архивирано (ПДФ) из оригинала 2. 3. 2013. г. Приступљено 27. 8. 2018. 
  19. ^ Русселл, Стуарт; Деwеy, Даниел; Тегмарк, Маx (2015). „Ресеарцх Приоритиес фор Робуст анд Бенефициал Артифициал Интеллигенце” (ПДФ). АИ Магазине. Ассоциатион фор тхе Адванцемент оф Артифициал Интеллигенце: 105—114. Бибцоде:2016арXив160203506Р. арXив:1602.03506 . Архивирано (ПДФ) из оригинала 4. 8. 2019. г. Приступљено 10. 8. 2019. , цитед ин „АИ Опен Леттер - Футуре оф Лифе Институте”. Футуре оф Лифе Институте. јануар 2015. Архивирано из оригинала 10. 8. 2019. г. Приступљено 2019-08-09. 
  20. ^ Доwд, Мауреен (април 2017). „Елон Муск'с Биллион-Доллар Црусаде то Стоп тхе А.I. Апоцалyпсе”. Тхе Хиве (на језику: енглески). Архивирано из оригинала 26. 7. 2018. г. Приступљено 27. 11. 2017. 
  21. ^ „АлпхаГо Зеро: Стартинг фром сцратцх”. www.деепминд.цом (на језику: енглески). Приступљено 2023-07-28. 

Литература

уреди