Bezbednost veštačke inteligencije
Bezbednost veštačke inteligencije je interdisciplinarna oblast koja se bavi sprečavanjem nesreća, zloupotreba ili drugih štetnih posledica koje bi mogle biti rezultat sistema veštačke inteligencije (VI). Ona obuhvata mašinsku etiku i usklađivanje veštačke inteligencije, koji imaju za cilj da sisteme veštačke inteligencije učine moralnim i korisnim. Bezbednost veštačke inteligencije obuhvata tehničke probleme, uključujući sisteme za praćenje rizika, čineći ih visoko pouzdanim. Osim istraživanja veštačke inteligencije, ova oblast obuhvata razvoj normi i politika koje promovišu bezbednost.
Motivacije
urediIstraživači veštačke inteligencije imaju veoma različita mišljenja o ozbiljnosti i primarnim izvorima rizika koje predstavlja tehnologija veštačke inteligencije[1][2][3] – iako ankete sugerišu da stručnjaci ozbiljno shvataju rizike velikih posledica. U dve ankete istraživača veštačke inteligencije, središnji ispitanik je bio optimista po pitanju veštačke inteligencije u celini, ali je dao 5% verovatnoće za „izuzetno loš (npr. izumiranje ljudi)“ ishod napredne veštačke inteligencije.[1] U anketi zajednice za obradu prirodnog jezika (NLP) iz 2022. godine, 37% se složilo ili se donekle složilo da je verovatno da odluke veštačke inteligencije mogu dovesti do katastrofe koja je „bar toliko loša kao sveopšti nuklearni rat“.[4] Naučnici raspravljaju o trenutnim rizicima od kritičnih grešaka sistema,[5] pristrasnosti,[6] i nadzoru omogućenom veštačkom inteligencijom;[7] novim rizicima od tehnološke nezaposlenosti, digitalnih manipulacija[8] i naoružavanja;[9] i spekulativnim rizicima od gubitka kontrole nad budućim agenatima opšte veštačke inteligencije (AGI).[10]
Neki su kritikovali zabrinutost zbog AGI, kao što je Endru Ng koji ih je 2015. uporedio sa „brigom o prenaseljenosti Marsa kada još nismo ni kročili na planetu“.[11] Stjuart Dž. Rasel sa druge strane poziva na oprez, tvrdeći da je „bolje predvideti ljudsku domišljatost nego je potceniti“.[12]
Reference
uredi- ^ а б Grace, Katja; Salvatier, John; Dafoe, Allan; Zhang, Baobao; Evans, Owain (31. 07. 2018). „Viewpoint: When Will AI Exceed Human Performance? Evidence from AI Experts”. Journal of Artificial Intelligence Research. 62: 729—754. ISSN 1076-9757. S2CID 8746462. doi:10.1613/jair.1.11222 . Архивирано из оригинала 10. 02. 2023. г. Приступљено 28. 11. 2022.
- ^ Zhang, Baobao; Anderljung, Markus; Kahn, Lauren; Dreksler, Noemi; Horowitz, Michael C.; Dafoe, Allan (05. 05. 2021). „Ethics and Governance of Artificial Intelligence: Evidence from a Survey of Machine Learning Researchers”. Journal of Artificial Intelligence Research. 71. arXiv:2105.02117 . doi:10.1613/jair.1.12895.
- ^ Stein-Perlman, Zach; Weinstein-Raun, Benjamin; Grace (2022-08-04). „2022 Expert Survey on Progress in AI”. AI Impacts. Архивирано из оригинала 2022-11-23. г. Приступљено 2022-11-23.
- ^ Michael, Julian; Holtzman, Ari; Parrish, Alicia; Mueller, Aaron; Wang, Alex; Chen, Angelica; Madaan, Divyam; Nangia, Nikita; Pang, Richard Yuanzhe; Phang, Jason; Bowman, Samuel R. (26. 08. 2022). „What Do NLP Researchers Believe? Results of the NLP Community Metasurvey”. Association for Computational Linguistics. arXiv:2208.12852 .
- ^ De-Arteaga, Maria (13. 05. 2020). Machine Learning in High-Stakes Settings: Risks and Opportunities (PhD). Carnegie Mellon University.
- ^ Mehrabi, Ninareh; Morstatter, Fred; Saxena, Nripsuta; Lerman, Kristina; Galstyan, Aram (2021). „A Survey on Bias and Fairness in Machine Learning”. ACM Computing Surveys (на језику: енглески). 54 (6): 1—35. ISSN 0360-0300. S2CID 201666566. arXiv:1908.09635 . doi:10.1145/3457607. Архивирано из оригинала 23. 11. 2022. г. Приступљено 28. 11. 2022.
- ^ Feldstein, Steven (2019). The Global Expansion of AI Surveillance (Извештај). Carnegie Endowment for International Peace.
- ^ Barnes, Beth (2021). „Risks from AI persuasion”. Lesswrong. Архивирано из оригинала 2022-11-23. г. Приступљено 2022-11-23.
- ^ Brundage, Miles; Avin, Shahar; Clark, Jack; Toner, Helen; Eckersley, Peter; Garfinkel, Ben; Dafoe, Allan; Scharre, Paul; Zeitzoff, Thomas; Filar, Bobby; Anderson, Hyrum; Roff, Heather; Allen, Gregory C; Steinhardt, Jacob; Flynn, Carrick (30. 04. 2018). „The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation”. Apollo-University Of Cambridge Repository, Apollo-University Of Cambridge Repository. Apollo - University of Cambridge Repository. S2CID 3385567. doi:10.17863/cam.22520. Архивирано из оригинала 23. 11. 2022. г. Приступљено 28. 11. 2022.
- ^ Carlsmith, Joseph (16. 06. 2022). „Is Power-Seeking AI an Existential Risk?”. arXiv:2206.13353 .
- ^ „AGI Expert Peter Voss Says AI Alignment Problem is Bogus | NextBigFuture.com” (на језику: енглески). 04. 04. 2023. Приступљено 23. 07. 2023.
- ^ Dafoe, Allan (2016). „Yes, We Are Worried About the Existential Risk of Artificial Intelligence”. MIT Technology Review. Архивирано из оригинала 2022-11-28. г. Приступљено 2022-11-28.
Literatura
uredi- Wallach, Wendell; Allen, Colin (November 2008). Moral Machines: Teaching Robots Right from Wrong. US: Oxford University Press.
- Anderson, Michael; Anderson, Susan Leigh, eds (July 2011). Machine Ethics. Cambridge University Press.
- Storrs Hall, J. (May 30, 2007). Beyond AI: Creating the Conscience of the Machine Prometheus Books.
- Moor, J (2006). The Nature, Importance, and Difficulty of Machine Ethics. IEEE Intelligent Systems, 21(4), pp. 18–21.
- Anderson, M. and Anderson, S. (2007). Creating an Ethical Intelligent Agent. AI Magazine, Volume 28(4).
- Hagendorff, Thilo (2021). „Linking Human and Machine Behavior: A New Approach to Evaluate Training Data Quality for Beneficial Machine Learning”. Minds and Machines. 31 (4): 563—593. PMC 8475847 . PMID 34602749. doi:10.1007/s11023-021-09573-8.
- Anderson, Michael; Anderson, Susan Leigh, eds (July—August 2006). „Special Issue on Machine Ethics”. IEEE Intelligent Systems. 21 (4): 10—63. Архивирано из оригинала 26. 11. 2011. г. Проверите вредност парамет(а)ра за датум:
|date=
(помоћ) . - Bendel, Oliver (2016). „Considerations about the relationship between animal and machine ethics”. AI & Society. 31: 103—108. doi:10.1007/s00146-013-0526-3.
- Dabringer, Gerhard, ed. "„Ethical and Legal Aspects of Unmanned Systems. Interviews” (PDF). 2010. Архивирано из оригинала (PDF) 17. 06. 2012. г.". Austrian Ministry of Defence and Sports, Vienna 2010, ISBN 978-3-902761-04-0.
- Gardner, A (1987). An Artificial Approach to Legal Reasoning. Cambridge, MA: MIT Press.
- Georges, T. M (2003). Digital Soul: Intelligent Machines and Human Values. Cambridge, MA: Westview Press. ISBN 978-0-8133-4057-9.
- Singer, P.W. (December 29, 2009). Wired for War: The Robotics Revolution and Conflict in the 21st Century: Penguin.
- Winfield, Alan F.; Michael, Katina; Pitt, Jeremy; Evers, Vanessa (2019). „Machine Ethics: The Design and Governance of Ethical AI and Autonomous Systems [Scanning the Issue]”. Proceedings of the IEEE. 107 (3): 509—517. doi:10.1109/JPROC.2019.2900622.
Dodatna literatura
uredi- Engineering a Safer World. ISBN 9780262533690.