Bezbednost veštačke inteligencije

Bezbednost veštačke inteligencije je interdisciplinarna oblast koja se bavi sprečavanjem nesreća, zloupotreba ili drugih štetnih posledica koje bi mogle biti rezultat sistema veštačke inteligencije (VI). Ona obuhvata mašinsku etiku i usklađivanje veštačke inteligencije, koji imaju za cilj da sisteme veštačke inteligencije učine moralnim i korisnim. Bezbednost veštačke inteligencije obuhvata tehničke probleme, uključujući sisteme za praćenje rizika, čineći ih visoko pouzdanim. Osim istraživanja veštačke inteligencije, ova oblast obuhvata razvoj normi i politika koje promovišu bezbednost.

Motivacije

uredi

Istraživači veštačke inteligencije imaju veoma različita mišljenja o ozbiljnosti i primarnim izvorima rizika koje predstavlja tehnologija veštačke inteligencije[1][2][3] – iako ankete sugerišu da stručnjaci ozbiljno shvataju rizike velikih posledica. U dve ankete istraživača veštačke inteligencije, središnji ispitanik je bio optimista po pitanju veštačke inteligencije u celini, ali je dao 5% verovatnoće za „izuzetno loš (npr. izumiranje ljudi)“ ishod napredne veštačke inteligencije.[1] U anketi zajednice za obradu prirodnog jezika (NLP) iz 2022. godine, 37% se složilo ili se donekle složilo da je verovatno da odluke veštačke inteligencije mogu dovesti do katastrofe koja je „bar toliko loša kao sveopšti nuklearni rat“.[4] Naučnici raspravljaju o trenutnim rizicima od kritičnih grešaka sistema,[5] pristrasnosti,[6] i nadzoru omogućenom veštačkom inteligencijom;[7] novim rizicima od tehnološke nezaposlenosti, digitalnih manipulacija[8] i naoružavanja;[9] i spekulativnim rizicima od gubitka kontrole nad budućim agenatima opšte veštačke inteligencije (AGI).[10]

Neki su kritikovali zabrinutost zbog AGI, kao što je Endru Ng koji ih je 2015. uporedio sa „brigom o prenaseljenosti Marsa kada još nismo ni kročili na planetu“.[11] Stjuart Dž. Rasel sa druge strane poziva na oprez, tvrdeći da je „bolje predvideti ljudsku domišljatost nego je potceniti“.[12]

Reference

uredi
  1. ^ а б Grace, Katja; Salvatier, John; Dafoe, Allan; Zhang, Baobao; Evans, Owain (31. 07. 2018). „Viewpoint: When Will AI Exceed Human Performance? Evidence from AI Experts”. Journal of Artificial Intelligence Research. 62: 729—754. ISSN 1076-9757. S2CID 8746462. doi:10.1613/jair.1.11222 . Архивирано из оригинала 10. 02. 2023. г. Приступљено 28. 11. 2022. 
  2. ^ Zhang, Baobao; Anderljung, Markus; Kahn, Lauren; Dreksler, Noemi; Horowitz, Michael C.; Dafoe, Allan (05. 05. 2021). „Ethics and Governance of Artificial Intelligence: Evidence from a Survey of Machine Learning Researchers”. Journal of Artificial Intelligence Research. 71. arXiv:2105.02117 . doi:10.1613/jair.1.12895. 
  3. ^ Stein-Perlman, Zach; Weinstein-Raun, Benjamin; Grace (2022-08-04). „2022 Expert Survey on Progress in AI”. AI Impacts. Архивирано из оригинала 2022-11-23. г. Приступљено 2022-11-23. 
  4. ^ Michael, Julian; Holtzman, Ari; Parrish, Alicia; Mueller, Aaron; Wang, Alex; Chen, Angelica; Madaan, Divyam; Nangia, Nikita; Pang, Richard Yuanzhe; Phang, Jason; Bowman, Samuel R. (26. 08. 2022). „What Do NLP Researchers Believe? Results of the NLP Community Metasurvey”. Association for Computational Linguistics. arXiv:2208.12852 . 
  5. ^ De-Arteaga, Maria (13. 05. 2020). Machine Learning in High-Stakes Settings: Risks and Opportunities (PhD). Carnegie Mellon University. 
  6. ^ Mehrabi, Ninareh; Morstatter, Fred; Saxena, Nripsuta; Lerman, Kristina; Galstyan, Aram (2021). „A Survey on Bias and Fairness in Machine Learning”. ACM Computing Surveys (на језику: енглески). 54 (6): 1—35. ISSN 0360-0300. S2CID 201666566. arXiv:1908.09635 . doi:10.1145/3457607. Архивирано из оригинала 23. 11. 2022. г. Приступљено 28. 11. 2022. 
  7. ^ Feldstein, Steven (2019). The Global Expansion of AI Surveillance (Извештај). Carnegie Endowment for International Peace. 
  8. ^ Barnes, Beth (2021). „Risks from AI persuasion”. Lesswrong. Архивирано из оригинала 2022-11-23. г. Приступљено 2022-11-23. 
  9. ^ Brundage, Miles; Avin, Shahar; Clark, Jack; Toner, Helen; Eckersley, Peter; Garfinkel, Ben; Dafoe, Allan; Scharre, Paul; Zeitzoff, Thomas; Filar, Bobby; Anderson, Hyrum; Roff, Heather; Allen, Gregory C; Steinhardt, Jacob; Flynn, Carrick (30. 04. 2018). „The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation”. Apollo-University Of Cambridge Repository, Apollo-University Of Cambridge Repository. Apollo - University of Cambridge Repository. S2CID 3385567. doi:10.17863/cam.22520. Архивирано из оригинала 23. 11. 2022. г. Приступљено 28. 11. 2022. 
  10. ^ Carlsmith, Joseph (16. 06. 2022). „Is Power-Seeking AI an Existential Risk?”. arXiv:2206.13353 . 
  11. ^ „AGI Expert Peter Voss Says AI Alignment Problem is Bogus | NextBigFuture.com” (на језику: енглески). 04. 04. 2023. Приступљено 23. 07. 2023. 
  12. ^ Dafoe, Allan (2016). „Yes, We Are Worried About the Existential Risk of Artificial Intelligence”. MIT Technology Review. Архивирано из оригинала 2022-11-28. г. Приступљено 2022-11-28. 

Literatura

uredi

Dodatna literatura

uredi

Spoljašnje veze

uredi