Pravednost (mašinsko učenje)
Pravednost u mašinskom učenju odnosi se na različite pokušaje ispravljanja algoritamske pristrasnosti u automatizovanim procesima odlučivanja zasnovanim na modelima mašinskog učenja. Odluke koje donose računari nakon procesa mašinskog učenja mogu se smatrati nepravednim ako su zasnovane na varijablama koje se smatraju osetljivim. Na primer, pol, etnička pripadnost, seksualna orijentacija ili invaliditet. Kao što je slučaj sa mnogim etičkim konceptima, definicije pravičnosti i pristrasnosti su uvek kontroverzne. Uopšteno govoreći, pravičnost i pristrasnost se smatraju relevantnim kada proces odlučivanja utiče na živote ljudi. U mašinskom učenju, problem algoritamske pristrasnosti je dobro poznat i dobro proučavan. Ishodi mogu biti iskrivljeni zbog niza faktora i stoga se mogu smatrati nepravednim u odnosu na određene grupe ili pojedince. Primer bi bio način na koji sajtovi društvenih medija isporučuju personalizovane vesti potrošačima.
Kontekst
уредиDiskusija o pravičnosti u mašinskom učenju je relativno skorašnja tema. Od 2016. godine došlo je do naglog povećanja istraživanja na ovu temu.[1] Ovo povećanje se delimično može objasniti uticajnim izveštajem besprofitne agencije ProPublica koji tvrdi da je softver COMPAS, koji se naširoko koristi u američkim sudovima za predviđanje recidivizma, bio rasno pristrasan.[2] Jedna tema istraživanja i diskusije je definicija pravičnosti, jer ne postoji univerzalna definicija, a različite definicije mogu biti u suprotnosti jedna sa drugom, što otežava rasuđivanje o modelima mašinskog učenja.[3] Druge teme istraživanja uključuju poreklo pristrasnosti, vrste pristrasnosti i metode za smanjenje pristrasnosti.[4]
Poslednjih godina tehnološke kompanije su napravile alate i priručnike o tome kako otkriti i smanjiti pristrasnost u mašinskom učenju. IBM ima alate za Pajton i R sa nekoliko algoritama za smanjenje pristrasnosti softvera i povećanje njegove pravednosti.[5][6] Gugl je objavio smernice i alatke za proučavanje i borbu protiv pristrasnosti u mašinskom učenju.[7][8] Fejsbuk je izvestio o njihovoj upotrebu alata, Fairness Flow, za otkrivanje pristrasnosti u njihovoj VI.[9] Međutim, kritičari su tvrdili da su napori kompanije nedovoljni, napominjući da zaposleni malo koriste alat jer se ne može koristiti za sve njihove programe, a čak i kada može, upotreba alata je opciona.[10]
Važno je napomenuti da su rasprave o kvantitativnim načinima testiranja pravičnosti i nepravednoj diskriminaciji u donošenju odluka prethodile nekoliko decenija relativno nedavnoj debati o pravičnosti u mašinskom učenju.[11] Zapravo, živopisna diskusija o ovoj temi od strane naučne zajednice cvetala je sredinom 1960-ih i 1970-ih, uglavnom kao rezultat američkog pokreta za građanska prava i, posebno, usvajanja američkog Zakona o građanskim pravima iz 1964. godine. Međutim, do kraja 1970-ih, debata je uglavnom nestala, pošto su različiti i ponekad suprotstavljeni pojmovi pravičnosti ostavljali malo prostora za jasnoću o tome kada jedan pojam pravičnosti može biti bolji od drugog.
Reference
уреди- ^ Caton, Simon; Haas, Christian (2020-10-04). „Fairness in Machine Learning: A Survey”. arXiv:2010.04053 [cs.LG].
- ^ Mattu, Julia Angwin, Jeff Larson, Lauren Kirchner, Surya. „Machine Bias”. ProPublica (на језику: енглески). Приступљено 2022-04-16.
- ^ Friedler, Sorelle A.; Scheidegger, Carlos; Venkatasubramanian, Suresh (април 2021). „The (Im)possibility of fairness: different value systems require different mechanisms for fair decision making”. Communications of the ACM (на језику: енглески). 64 (4): 136—143. ISSN 0001-0782. S2CID 1769114. doi:10.1145/3433949.
- ^ Mehrabi, Ninareh; Morstatter, Fred; Saxena, Nripsuta; Lerman, Kristina; Galstyan, Aram (2021-07-13). „A Survey on Bias and Fairness in Machine Learning”. ACM Computing Surveys. 54 (6): 115:1—115:35. ISSN 0360-0300. S2CID 201666566. arXiv:1908.09635 . doi:10.1145/3457607.
- ^ „AI Fairness 360”. aif360.mybluemix.net. Архивирано из оригинала 29. 06. 2022. г. Приступљено 2022-11-18.
- ^ „IBM AI Fairness 360 open source toolkit adds new functionalities”. Tech Republic. 4. 6. 2020.
- ^ „Responsible AI practices”. Google AI (на језику: енглески). Приступљено 2022-11-18.
- ^ Fairness Indicators, tensorflow, 2022-11-10, Приступљено 2022-11-18
- ^ „How we're using Fairness Flow to help build AI that works better for everyone”. ai.facebook.com (на језику: енглески). Приступљено 2022-11-18.
- ^ „AI experts warn Facebook's anti-bias tool is 'completely insufficient'”. VentureBeat (на језику: енглески). 2021-03-31. Приступљено 2022-11-18.
- ^ Hutchinson, Ben; Mitchell, Margaret (2019-01-29). „50 Years of Test (Un)fairness”. Proceedings of the Conference on Fairness, Accountability, and Transparency. New York, NY, USA: ACM FAT*'19. стр. 49—58. ISBN 9781450361255. arXiv:1811.10104 . doi:10.1145/3287560.3287600.