Објашњива вештачка интелигенција

Објашњива вештачка интелигенција (енгл. Explainable AI, XAI), који се често преклапа са интерпретабилном вештачком интелигенцијом, или објашњивим машинским учењем (XМЛ), односи се било на систем вештачке интелигенције над којим је људима могуће да задржи интелектуални надзор, или на методе да се то постигне.[1] Главни фокус је обично на образложењу одлука или предвиђањима које доноси вештачка интелигенција[2] које су представљена на разумљив и транспарентан начин.[3] XАИ се супротставља тенденцији машинског учења у виду „црне кутије“, где чак ни дизајнери вештачке интелигенције не могу да објасне зашто је дошао до одређене одлуке.[4][5]

Приступ објашњиве VI настоји да помогне корисницима система са вештачком интелигенцијом да раде ефикасније тако што ће побољшати њихово разумевање начина на који ти системи резонују.[6] XАИ може бити имплементација друштвеног права на објашњење.[7] Чак и ако не постоји такво законско право или регулаторни захтев, XАИ може побољшати корисничко искуство производа или услуге помажући крајњим корисницима да верују да VI доноси добре одлуке. XАИ има за циљ да објасни шта је урађено, шта се ради и шта ће се даље радити, као и да открије на којим информацијама се ове акције заснивају.[8] Ово омогућава потврђивање постојећег знања, изазивање постојећег знања и стварање нових претпоставки.[9]

Алгоритми машинског учења (ML) који се користе у VI могу се категорисати као бела или црна кутија.[10] Модели беле кутије дају резултате који су разумљиви стручњацима у овој области. С друге стране, моделе црне кутије је изузетно тешко објаснити и тешко их је разумети чак и стручњацима из домена.[11] XАИ алгоритми прате три принципа транспарентности, интерпретабилности и објашњивости. Модел је транспарентан „ако процеси који издвајају параметре модела из података обуке и генеришу ознаке из података тестирања могу бити описани и мотивисани од стране дизајнера приступа.“[12] Интерпретабилност описује могућност разумевања ML модела и представљања основе за доношење одлука ML модела на начин који је разумљив људима.[13][14][15] Објашњивост је концепт који је препознат као важан, али консензусна дефиниција није доступна.[12] Једна од могућности је „колекција карактеристика интерпретабилног домена које су допринеле, за дати пример, доношењу одлуке (нпр. класификација или регресија)“.[16] Ако алгоритми испуњавају ове принципе, они пружају основу за оправдавање одлука, њихово праћење и на тај начин верификовање, побољшање алгоритама и истраживање нових чињеница.[17]

Понекад је такође могуће постићи резултат високе тачности помоћу ML алгоритама беле кутије. Ови алгоритми имају интерпретабилну структуру која се може користити за објашњење предвиђања.[18] Концепт модела уског грла, који користе апстракције да објасне размишљање модела, су примери овога и може се применити у задацима предвиђања слике[19] и текста.[20] Ово је посебно важно у доменима као што су медицина, одбрана, финансије и право, где је кључно разумети одлуке и изградити поверење у алгоритме.[8] Многи истраживачи тврде да је, барем за надгледано машинско учење, пут напредка симболичка регресија, где алгоритам претражује простор математичких израза да пронађе модел који најбоље одговара датом скупу података.[21][22][23]

Системи вештачке интелигенције оптимизују понашање како би задовољили математички прецизирани систем циљева који су одабрали дизајнери система, као што је команда „максимизирајте тачност процене колико су позитивне критике филмова у скупу података теста“. VI може научити корисна општа правила из скупа тестова, као што су „рецензије које садрже реч „ужасно“ вероватно ће бити негативне“. Међутим, може научити и неприкладна правила, као што су „рецензије које садрже 'Данијел Деј-Луис' су обично позитивне“; таква правила могу бити непожељна ако постоји вероватноћа да неће успети да се генерализују изван скупа за обуку, или ако људи сматрају да је правило „варање“ или „неправедно“. Човек може да ревидира правила у XАИ-у да би добио представу о томе колико је вероватно да ће систем генерализовати будуће податке из стварног света ван тестног скупа.[24]

Референце уреди

  1. ^ Михáлy, Хéдер (2023). „Еxплаинабле АИ: А Бриеф Хисторy оф тхе Цонцепт” (ПДФ). ЕРЦИМ Неwс (134): 9—10. 
  2. ^ Пхиллипс, П. Јонатхон; Хахн, Царина А.; Фонтана, Петер C.; Yатес, Амy Н.; Греене, Кристен; Брониатоwски, Давид А.; Прзyбоцки, Марк А. (2021-09-29). „Фоур Принциплес оф Еxплаинабле Артифициал Интеллигенце”. дои:10.6028/нист.ир.8312. 
  3. ^ Вилоне, Гиулиа; Лонго, Луца (2021). „Нотионс оф еxплаинабилитy анд евалуатион аппроацхес фор еxплаинабле артифициал интеллигенце”. Информатион Фусион. Децембер 2021 - Волуме 76: 89—106. дои:10.1016/ј.инффус.2021.05.009. 
  4. ^ Цастелвеццхи, Давиде (2016-10-06). „Цан wе опен тхе блацк боx оф АИ?”. Натуре (на језику: енглески). 538 (7623): 20—23. Бибцоде:2016Натур.538...20Ц. ИССН 0028-0836. ПМИД 27708329. С2ЦИД 4465871. дои:10.1038/538020а. 
  5. ^ Сампле, Иан (5. 11. 2017). „Цомпутер саyс но: wхy макинг АИс фаир, аццоунтабле анд транспарент ис цруциал”. Тхе Гуардиан (на језику: енглески). Приступљено 30. 1. 2018. 
  6. ^ Ализадех, Фатемех (2021). „И Дон'т Кноw, Ис АИ Алсо Усед ин Аирбагс?: Ан Емпирицал Студy оф Фолк Цонцептс анд Пеопле'с Еxпецтатионс оф Цуррент анд Футуре Артифициал Интеллигенце”. Ицом. 20 (1): 3—17. С2ЦИД 233328352. дои:10.1515/ицом-2021-0009. 
  7. ^ Едwардс, Лилиан; Веале, Мицхаел (2017). „Славе то тхе Алгоритхм? Wхy а 'Ригхт то ан Еxпланатион' Ис Пробаблy Нот тхе Ремедy Yоу Аре Лоокинг Фор”. Дуке Лаw анд Тецхнологy Ревиеw. 16: 18. ССРН 2972855 . 
  8. ^ а б Гуннинг, D.; Стефик, M.; Цхои, Ј.; Миллер, Т.; Стумпф, С.; Yанг, Г.-З. (2019-12-18). „XАИ-Еxплаинабле артифициал интеллигенце”. Сциенце Роботицс (на језику: енглески). 4 (37): еааy7120. ИССН 2470-9476. ПМИД 33137719. дои:10.1126/сцироботицс.ааy7120 . 
  9. ^ Риег, Тхило; Фрицк, Јанек; Баумгартл, Херманн; Буеттнер, Рицардо (2020-12-17). „Демонстратион оф тхе потентиал оф wхите-боx мацхине леарнинг аппроацхес то гаин инсигхтс фром цардиовасцулар дисеасе елецтроцардиограмс”. ПЛОС ОНЕ (на језику: енглески). 15 (12): е0243615. Бибцоде:2020ПЛоСО..1543615Р. ИССН 1932-6203. ПМЦ 7746264 . ПМИД 33332440. дои:10.1371/јоурнал.поне.0243615 . 
  10. ^ Вилоне, Гиулиа; Лонго, Луца (2021). „Цлассифицатион оф Еxплаинабле Артифициал Интеллигенце Метходс тхроугх Тхеир Оутпут Форматс”. Мацхине Леарнинг анд Кноwледге Еxтрацтион. 3 (3): 615—661. дои:10.3390/маке3030032 . 
  11. ^ Лоyола-Гонзáлез, О. (2019). „Блацк-Боx вс. Wхите-Боx: Ундерстандинг Тхеир Адвантагес анд Wеакнессес Фром а Працтицал Поинт оф Виеw”. ИЕЕЕ Аццесс. 7: 154096—154113. Бибцоде:2019ИЕЕЕА...7о4096Л. ИССН 2169-3536. дои:10.1109/АЦЦЕСС.2019.2949286 . 
  12. ^ а б Росцхер, Р.; Бохн, Б.; Дуарте, M. Ф.; Гарцке, Ј. (2020). „Еxплаинабле Мацхине Леарнинг фор Сциентифиц Инсигхтс анд Дисцовериес”. ИЕЕЕ Аццесс. 8: 42200—42216. Бибцоде:2020ИЕЕЕА...842200Р. ИССН 2169-3536. арXив:1905.08883 . дои:10.1109/АЦЦЕСС.2020.2976199 . 
  13. ^ Мурдоцх, W. Јамес; Сингх, Цхандан; Кумбиер, Карл; Аббаси-Асл, Реза; Yу, Бин (2019-01-14). „Интерпретабле мацхине леарнинг: дефинитионс, метходс, анд апплицатионс”. Процеедингс оф тхе Натионал Ацадемy оф Сциенцес оф тхе Унитед Статес оф Америца. 116 (44): 22071—22080. ПМЦ 6825274 . ПМИД 31619572. арXив:1901.04592 . дои:10.1073/пнас.1900654116 . 
  14. ^ Липтон, Зацхарy C. (јун 2018). „Тхе Мyтхос оф Модел Интерпретабилитy: Ин мацхине леарнинг, тхе цонцепт оф интерпретабилитy ис ботх импортант анд слипперy.”. Qуеуе (на језику: енглески). 16 (3): 31—57. ИССН 1542-7730. дои:10.1145/3236386.3241340 . 
  15. ^ „Еxплаинабле Артифициал Интеллигенце (XАИ): Цонцептс, Таxономиес, Оппортунитиес анд Цхалленгес тоwард Респонсибле АИ”. ДеепАИ. 2019-10-22. Приступљено 2021-01-13. 
  16. ^ Монтавон, Грéгоире; Самек, Wојциецх; Мüллер, Клаус-Роберт (2018-02-01). „Метходс фор интерпретинг анд ундерстандинг дееп неурал нетwоркс”. Дигитал Сигнал Процессинг (на језику: енглески). 73: 1—15. ИССН 1051-2004. дои:10.1016/ј.дсп.2017.10.011 . 
  17. ^ Адади, А.; Беррада, M. (2018). „Пеекинг Инсиде тхе Блацк-Боx: А Сурвеy он Еxплаинабле Артифициал Интеллигенце (XАИ)”. ИЕЕЕ Аццесс. 6: 52138—52160. Бибцоде:2018ИЕЕЕА...652138А. ИССН 2169-3536. дои:10.1109/АЦЦЕСС.2018.2870052 . 
  18. ^ Рудин, Цyнтхиа (2019). „Стоп еxплаининг блацк боx мацхине леарнинг моделс фор хигх стакес децисионс анд усе интерпретабле моделс инстеад”. Натуре Мацхине Интеллигенце (на језику: енглески). 1 (5): 206—215. ИССН 2522-5839. ПМЦ 9122117 . ПМИД 35603010. арXив:1811.10154 . дои:10.1038/с42256-019-0048-x . 
  19. ^ Кох, П. W.; Нгуyен, Т.; Танг, Y. С.; Муссманн, С.; Пиерсон, Е.; Ким, Б.; Лианг, П. (новембар 2020). „Цонцепт боттленецк моделс”. Интернатионал Цонференце он Мацхине Леарнинг. ПМЛР. стр. 5338—5348. 
  20. ^ Лудан, Ј. M.; Лyу, Q.; Yанг, Y.; Дуган, L.; Yатскар, M.; Цаллисон-Бурцх, C. (2023). „Интерпретабле-бy-Десигн Теxт Цлассифицатион wитх Итеративелy Генератед Цонцепт Боттленецк”. арXив:2310.19660  [цс.CL]. 
  21. ^ Wеннингер, Симон; Каyмакци, Цан; Wиетхе, Цхристиан (2022). „Еxплаинабле лонг-терм буилдинг енергy цонсумптион предицтион усинг QЛаттице”. Апплиед Енергy. Елсевиер БВ. 308: 118300. Бибцоде:2022АпЕн..30818300W. ИССН 0306-2619. С2ЦИД 245428233. дои:10.1016/ј.апенергy.2021.118300. 
  22. ^ Цхристиансен, Мицхаел; Wилструп, Цаспер; Хедлеy, Паула L. (2022). „Еxплаинабле "wхите-боx" мацхине леарнинг ис тхе wаy форwард ин преецлампсиа сцреенинг”. Америцан Јоурнал оф Обстетрицс анд Гyнецологy. Елсевиер БВ. 227 (5): 791. ИССН 0002-9378. ПМИД 35779588. С2ЦИД 250160871. дои:10.1016/ј.ајог.2022.06.057. 
  23. ^ Wилступ, Цаспер; Цаве, Цхрис (2021-01-15), Цомбининг сyмболиц регрессион wитх тхе Цоx пропортионал хазардс модел импровес предицтион оф хеарт фаилуре деатхс, Цолд Спринг Харбор Лабораторy, С2ЦИД 231609904, дои:10.1101/2021.01.15.21249874 
  24. ^ „Хоw АИ детецтивес аре црацкинг опен тхе блацк боx оф дееп леарнинг”. Сциенце (на језику: енглески). 5. 7. 2017. Приступљено 30. 1. 2018. .

Литература уреди

Спољашње везе уреди