Корисник:Mi22235/песак

Grafička reprezentacija filtriranja informacija u filter mehuru.

Filter mehur ili ideološki okvir predstavlja stanje intelektualne izolacije[1] koja može proizaći iz personalizovanih pretraga, sistema preporuka i algoritamskog kuriranja. Rezultati pretrage zasnivaju se na informacijama o korisniku, poput njihove lokacije, prethodnog kliktanja i istorije pretrage.[2] Kao posledica, korisnici se udaljavaju od informacija koje se ne slažu sa njihovim stavovima, efektivno ih izolujući u sopstvene kulturne ili ideološke mehure, što rezultuje ograničenim i prilagođenim pogledom na svet. Odluke koje donose ovi algoritmi ponekad su samo delimično transparentne. Primeći primeri uključuju Guglove personalizovane rezultate pretrage i personalizovani „news-feed” na Facebooku.

Međutim, postoje suprotstavljena izveštavanja o obimu personalizovanog filtriranja i o tome da li takva aktivnost donosi koristi ili štetu, pri čemu različite studije proizvode neodređene rezultate.

Izraz „filter mehur” je smislio internet aktivista Eli Pariser oko 2010. godine. U knjizi istog naziva, The Filter Bubble iz 2011., Pariser je predvideo da će individualizovana personalizacija putem algoritamskog filtriranja dovesti do intelektualne izolovanosti i socijalne fragmentacije.[3] Prema Pariserovim rečima efekat mehura može imati negativne implikacije za građanske odnose, ali stavovi suprotni njegovim smatraju da je efekat minimalan i da se može rešiti.[4] Prema Pariseru, korisnici manje dolaze u kontakt sa suprotnim stavovima i intelektualno su izolovani u svom informacionom mehuru.[5] On je naveo primer u kojem je jedan korisnik pretraživao Gugl za „BP” i dobio vesti o investicijama u British Petroleum-u, dok je drugi korisnik dobio informacije o havariji na platformi Deepwater Horizon, primećujući da su dve stranice rezultata pretrage bile dosta različite uprkos korišćenju istih ključnih reči. Rezultati predsedničkih izbora u Sjedinjenim Američkim Državama 2016. godine povezani su sa uticajem društvenih medija poput Twittera i Facebooka[6], što je dovelo u pitanje efekte fenomena filter mehura na izloženost korisnika lažnim vestima i eho komorama.[7] Ovo je potstaklo novo interesovanje za termin[8] jer su mnogi postali zabrinutim da bi fenomen mogao da šteti demokratiji i blagostanju tako što bi pogoršao efekte dezinformacija.[9]

Koncept уреди

 
Eli Pariser, aktivista koji je prvi upotrebio termin filter mehur, na svom Ted govoru 2011. govori o opasnostima filter mehura.

Parizer je svoj koncept filter mehura definisao u formalnijim terminima poput: „lični ekosistem informacija, prilagođen od strane algoritama”.[5] Istorija pregleda i pretraživanja internet korisnika se vremenom gradi kada korisnici pokazuju interesovanje za teme klikom na linkove, pregledom sadražaja koji objavljuju njihovi prijatelji, dodavanjem filmova u svoju listu za gledanje, čitanjem vesti i slično.[10] Internet firma zatim koristi ove informacije kako bi kreirala personalizovane oglase, ili kako bi određene vrste informacija bile više prikazivane na stranicama rezultata pretrage.[10]

Prema Pariseru, ovaj proces nije slučajan jer funkcioniše po trostepenom procesu: „Prvo utvrdite ko su ljudi i šta vole. Zatim im pružite sadržaj i usluge koje im najviše odgovaraju. Na kraju, prilagodite kako biste dobili savršeno uklapanje. Vaš identitet oblikuje vaše medije”.[11] Parizer takođe izveštava:

Prema jednom istraživanju Wall Street Journal-a, top pedeset internet stranica, uključujući CNN, Yahoo i MSN, instalira, u proseku, 64 kolačića i ličnih oznaka za praćenje. Ako pretražujete reč kao što je „depresija” na Dictionary.com, stranica instalira do 223 pratećih kolačića i oznaka na vašem računaru kako bi druge veb stranice mogle da vas „ciljaju” sa antidepresivima. Podelite članak o kuvanju na ABC News-u, i možete biti progonjeni putem društvenih mreža oglasima za lonce sa teflonskim premazom. Čak i ako samo na trenutak otvorite stranicu koja navodi znake da vas partner možda vara, pripremite se da budete progonjeni oglasima za DNK testove očinstva.[12]

Pristupanje podacima o klikovima na linkove prikazanim kroz merenje saobraćaja na sajtu određuje da filter mehuri mogu biti kolektivni ili individualni.[13]

Kako je navedeno 2011. godine, jedan inženjer je rekao Parizeru da Gugl posmatra 57 različitih podataka kako bi personalizovao rezultate pretrage korisnika, uključujući i podatke koji nisu u kolačićima, poput vrste računara koji se koristi i fizičke lokacije korisnika.[14] Pariserova ideja filter mehura postala je popularna nakon TED govora u maju 2011. godine, u kojem je dao primere kako filter mehuri funkcionišu i gde se mogu videti. U testu koji je sproveden kako bi se demonstrirali efekti filter mehura, Parizer je zamolio nekoliko prijatelja da pretraže reč "Egipat" na Guglu i pošalju mu rezultate. Iako je bilo preklapanja između njih po pitanju tema poput vesti i putovanja, rezultati jednog prijatelja su prominentno uključivali linkove ka informacijama o tada aktuelnim protestima u Egiptu 2011. godine, dok prva stranica rezultata drugog prijatelja nije uključivala takve linkove.[14]

U knjizi The Filter Bubble, Parizer upozorava da potencijalna negativna strana filtriranog pretraživanja jeste da nas isključuje od novih ideja, tema i važnih informacija, i stvara utisak da su naša uska interesovanja sve što postoji.[15] Po njegovom mišljenju, filter mehuri su potencijalno štetni kako za pojedince tako i za društvo. Kritikovao je Gugl i Fesjbuk zbog toga što korisnicima nude „previše slatkiša a premalo šargarepa”.[16] Upozorio je da „nevidljivo algoritamsko uređivanje veba” može da ograniči našu izloženost novim informacijama i da nam suzi pogled.[16] Prema Parizeru, štetni efekti filter mehura uključuju štetu po opšte društvo u smislu da imaju mogućnost potkopavanja građanskog blagostanja i čine ljude ranjivijim na propagandu i manipulaciju.[15] Napisao je:

„Svet koji je konstruisan iz poznatog je svet u kojem nema šta da se nauči ... (jer postoji) nevidljiva autopropaganda koja nas indoktrinira našim vlastitim idejama.”, izjavio je Eli Pariser 2011. za časopis The Economist.[17]

Mnogi ljudi nisu svesni postojanja filter mehura. To se može videti u članku u The Guardian-a, koji pominje činjenicu da više od 60% korisnika Facebook-a uopšte nije svesno bilo kakvog „nameštanja” na Fejsbuku, već veruju da se svaka priča njihovih prijatelja i pratilaca pojavljuje na njihovoj početnoj stranici.[18] Kratko objašnjenje kako Facebook odlučuje šta ide na početnu stranicu je putem algoritma koji uzima u obzir vašu interakciju sa sličnim objavama u prošlosti.[18]

Proširenja koncepta уреди

Filter mehur je opisan kao pogoršavanje fenomena nazvanog „splinternet” ili „sajberbalkanizacija”, što je pojava koja se dešava kada internet postane podeljen na podgrupe slično nastrojenih ljudi koji postaju izolovani unutar svoje sopstvene internet zajednice i ne dolaze u dodir sa različitim stavovima. Ova zabrinutost datira još od ranog perioda javno dostupnog interneta, pri čemu je izraz „sajberbalkanizacija” smišljen 1996. godine.[19][20] Za opis ovog fenomena korišćeni su i drugi izrazi, uključujući i „ideološki okviri”[15] i „figurativna sfera koja vas okružuje dok pretražujete internet”.[10]

Koncept filter mehura je proširen i na druge sfere, kako bi opisao društva koja se samoizoluju prema političkim stavovima i ekonomskim, društvenim i kulturnim situacijama.[21] Ta izolacija dovodi do gubitka šire zajednice i stvara osećaj da, na primer, deca ne pripadaju društvenim događajima osim ako ti događaji nisu posebno planirani da budu privlačni za decu i neprivlačni za odrasle bez dece.[21]

U svom oproštajnom govoru, Barak Obama je identifikovao koncept sličan filter mehuru kao pretnju demokratiji, odnosno „povlačenje u svoje sopstvene mehure, posebno na društvenim mrežama, okruženi nama sličnim ljudima koji dele iste političke stavove i nikada ne izazivaju naše. I sve više postajemo sigurni u naše mehure da počinjemo da prihvatamo samo informacije koje odgovaraju našim stavovima bez obzira da li su istinite ili ne, umesto da zasnivamo svoja mišljenja na dokazima koji postoje.”[22]

Poređenje sa eho komorama уреди

Kao što je već pomenuto, eho komore i filter mehuri opisuju situacije u kojima su pojedinci izloženi uskom rasponu mišljenja i perspektiva koje ojačavaju njihova postojeća uverenja i pristrasnosti, ali postoje neke suptilne razlike između ova dva koncepta, posebno u praksama vezanim za društvene mreže.[23][24]

Kada je reč o vestima, eho komora je metaforički opis situacije u kojoj se verovanja pojačavaju ili potvrđuju komunikacijom i ponavljanjem unutar zatvorenog sistema.[25][26] Ovaj termin potiče iz sociološkog koncepta teorije selektivne izloženosti i metafora je zasnovana na akustičnoj eho komori, gde zvukovi odjekuju u praznom zatvorenom prostoru. Što se društvenih mreža tiče, ovakva situacija se uklapa u eksplicitne mehanizme samopersonalizacije, koji opisuju sve procese u kojima korisnici određene platforme mogu aktivno da izaberu uključivanje i isključivanje iz konzumiranja informacija, kao što je sposobnost korisnika da prati druge korisnike ili da se učlanjava u grupe.[27]

U eho komorama, ljudi su sposobni da traže informacije koje potvrđuju njihove postojeće stavove, potencijalno kao nesvesno vežbanje potvrđivanja pristrasnosti. Ovaj tip povratne informacije može da poveća političku i društvenu polarizaciju i ekstremizam. To može dovesti do toga da se korisnici grupišu u homofilne grupe unutar društvenih mreža, što doprinosi grupnoj polarizaciji.[28] Eho komore ojačavaju verovanja pojedinca bez podrške činjenica. Individue su okružene drugim individuama koje prihvataju i slede iste stavove, ali koje takođe imaju sposobnost da izađu iz eho komora.[29]

S druge strane, filter mehuri su implicitni mehanizmi personalizacije, gde se korisnikova internet konzumacija kreira personalizovanim algoritmima. Sadržaj koji korisnik vidi filtrira se kroz algoritam pokretan od strane veštačke inteligencije koji ojačava korisnikova postojeća verovanja i preference, potencijalno isključujući suprotne ili različite stavove. U ovom slučaju, korisnici imaju pasivniju ulogu i postavljaju se kao žrtve tehnologije koja automatski ograničava njihovu izloženost informacijama koje bi izazvale njihove stavove.[27] Ipak, neki istraživači tvrde da zato što korisnici i dalje igraju aktivnu ulogu u kreiranju svojih stranica i izvora informacija kroz njihove interakcije sa pretraživačima i društvenim mrežama, oni direktno pomažu u procesu filtriranja od strane algoritama, čime efektivno učestvuju u formiranju svojih filter mehura u koje se sami izoluju.[30]

Iako se razlikuju, upotreba ova dva termina ide ruku pod ruku kako u akademskim istraživanjima tako i u platformskim studijama. Često je teško razlikovati ova dva koncepta u studijama društvenih mreža, zbog ograničenog pristupa algoritmima filtriranja, što bi možda omogućilo istraživačima da uporede delovanja ova dva koncepta.[31] Ovakve vrste istraživanja postaju sve teže za sprovođenje, s obzirom na to da su mnoge društvene mreže takođe počele da ograničavaju pristup API-ju potrebnim za akademska istraživanja.[32]

Reakcije i istraživanja уреди

Reakcije medija уреди

Izveštaji o tome u kojoj meri se personalizovano filtriranje dešava i da li je ono korisno ili štetno su međusobno suprotstavljeni. Analitičar Džejkob Vajsberg je želeo da testira Parizerovu teoriju malim nenaučnim eksperimentom u kom je učestvovalo petoro saradnika sa različitim ideološkim profilom. Saradnici su sprovodili seriju pretraga: „Džon Bejner”, „Barni Frenk”, „Rajanov plan”, i „Obamaker” i slali Vajsbergu snimke ekrana njihovih rezultata. Njihovi rezultati su se razlikovali u manjim aspektima koji nisu bili ideološki, što je navelo Vajsberga da napiše za magazin Slejt da filter mehur nije na snazi.[15] Vajsberg je tražio od Gugla da da komentar, na šta je njihov potparol odgovorio da algoritmi namerno „ograničavaju personalizaciju i promovišu raznolikost”.[15] Pol Butin, recenzent knjige, je uradio eksperiment sličan Vajsbergovom u kojem su učestvovali ljudi sa različitim pretraživačkim navikama i takođe zaključio da su ispitanici dobili skoro identične rezultate.[33] Novinar Per Grankvist je, nezvanično intervjuišući programere iz Gugla, otkrio da su korisnički podaci nekada imali veću ulogu u određivanju rezultata pretrage, ali da je Gugl testiranjem shvatio da polje za pretragu daje ubedljivo najbolje odrednice o tome koje rezultate treba prikazati.

Postoje izveštaji da Gugl i druge kompanije poseduju ogromne „dosijee” podataka o svojim korisnicima koji im omogućavaju da još više persoanlizuju sadržaj koji im plasiraju ako to žele. Na primer, Gugl ima način da prati korisnikovu istoriju čak i kad on nema Gugl nalog ili nije ulogovan na njega.[33] Jedan izveštaj navodi da je Gugl prikupio informacije „u vrednosti od 10 godina” sa različitih izvora kao što su „Gmail”, „Google Maps” i druge usluge osim pretraživača[34], iako se u suprotnom izveštaju navodi da personalizovanje sadržaja za svakog korisnika predstavlja tehnički izazov velikim internet firmama, uprkos posedavanju ogromne količine podataka. Analitičar Dag Gros sa CNN-a je sugerisao da je filtrirano pretraživanje korisnije za potrošače nego za obične građane, jer, kako on tvrdi, bi to pomoglo potrošačima koji žele da kupe picu da pronađu lokalne opcije isporuke na osnovu personalizovane pretrage i da filtriraju udaljene picerije.[34] Organizacije kao što su The Washington post, The New York Times i slične su eksperimentisali sa pravljenjem novih informativnih usluga koje bi rezultate pretrage prilagođavali korisnicima tako da bi se oni slagali sa njima ili da bi im se svideli.[15]

Akademska istraživanja i reakcije уреди

Naučna studija iz Vartona koja je analizirala personalizovane preporuke, takođe, je otkrila da filteri mogu da stvore zajedništvo, a ne razdvojenost, u kontekstu muzičkog ukusa.[35] Potrošači navodno koriste filtere da prošire svoj ukus, a ne da ga ograniče.[35] Džonatan Zitrejn, profesor prava na Harvardu, osporio je tvrdnje o tome koliko filteri za personalizaciju menjaju rezultate Gugl pretrage rekavši da su „efekti personalizacije pretrage bili blagi”.[15] Gugl, takođe, omogućava korisnicima da isključe opciju personalizovane pretrage tako što će izbrisati Guglov zapis o istoriji njihovih pretraga i tako što će podesiti Gugl da ne pamti ključne reči pretrage, kao ni posećene linkove.[36][33]

Istraživanje iz Internet policy review-a je istaklo nedostatak jasne definicije za filter mehur u različitim disciplinama. Ovaj nedostatak dovodi do toga da istraživači često definišu i proučavaj filter mehur na različite načine.[37] Studija je takođe objasnila nedostatak empirijskih podataka za postojanje filter mehura u različitim disciplinama i sugerisala da efekti koji im se pripisuju mogu više da potiču od već postojećih ideoliških predrasuda nego iz algoritama. Slične stavove imaju i drugi akademski projekti koji se takođe bave definicijom filter mehura i odnosa tehnoloških i ideoloških fakora koji su sa njima povezani.[38] Jedan kritički pregled filter mehura sugeriše da „teza o filter mehuru često postavlja posebnu vrstu ljudi koji imaju čvrste političke stavove, ali u isto vreme i veoma savitljive” i da je „paradoks da ljudi imaju aktivnu volju kada oni biraju sadržaj, ali su pasivni primaoci kada su izloženi algoritamski kreiranom sadržaju koji im se preporučuje.”[39]

Studija istraživača iz Oksforda, Stanforda i Majkrosofta je ispitivala istoriju pregleda 1,2 miliona američka korisnika Bing-a, između marta i maja 2013. godine. Odabrali su 50000 korisnika koji su bili aktivni čitaoci vesti, zatim su klasifikovali novine koje su čitali u zavisnosti od toga da li su više levo ili desno na političkom spektru, u odnosu na to da li su okruzi sa kojima su IP adrese korisnika povezani glasali za Obamu ili Romnija na predsedničkim izborima 2012. godine. Zatim su utvrdili da li su vesti pročitane direktnim pristupom sajtu izdavača, usluge Gugl vesti, veb pretrage ili društvenih mreža. Istraživači su otkrili da, iako društvene mreže i veb pretrage doprinose ideološkoj segregaciji, ogromna većina čitanja onlajn vesti se sastojala od korisnika koji su direktno posećivali mejnstrim sajtove sa vestima orjentisanim levo ili desno i shodno tome bili izloženi isključivo pogledima jedne strane političkog spektra. Ograničenja sa kojima se studija susrela su bila to što su korisnici Internet Explorer-a bili stariji u odnosu na opštu internet populaciju, korišćenje Bing trake sa alatkama i dobrovoljno (ili nesvesno) deljenje istorije pregleda korisnika koji su manje zabrinuti za privatnost, pretpostavka da su sve priče objavljene na levo orjenisanim sajtovima levo orjentisane i na desno orjentisanim sajtovima desno orjentisane i mogućnosti da se korisnici koji nisu aktivni čitaoci vesti većinski obaveštavaju preko društvenih mreža i tako osete jače efekte društvene i algoritamske pristrasnosti od korisnika koji sami biraju svoju pristrasnost preko izbora sajtova koje posećuju (pod pretpostavkom da su sami svesni pristrasnosti sajtova).[40]

Studija istraživača sa Univerziteta Priston i Univerziteta u Njujorku imala je cilj da prouči uticaj filter mehura i algoritamskog filtriranja na polarizaciju durštvenih mreža. Koristili su matematički model pod imenom „stohastički blok model” da bi testirali svoju hipotezu na okruženjima Reddit-a i Twitter-a. Istraživači su procenjivali promene u polarizaciji na okruženjima društvenih mreža sa regulacijom i bez regulacije, posebno mereći procente promene na Reddit-u i Twitter-u. Otkrili su da se polarizacija znatno povećala za 400% na mrežama bez regulacije, dok se na mrežama sa regulacijom povećala za 4%, a neslaganje se povećalo za 5%.[41]

Istraživanja na društvenim mrežama уреди

Iako algoritmi ograničavaju političku raznolikost, neki od filter mehura su rezultat izbora korisnika.[42] Studija grupe stručnjaka za podatke na Fejsbuku je pokazala da korisnici imaju jednog prijatelja sa suprotnim stavovima na svaka četiri prijatelja sa sličnom ideologijom.[43][44] Bez obzira na to kakav je Fejsbukov algoritam, ljudi će najčešće pratiti ili dodavati za prijatelje ljude koji dele slična uverenja.[43] Priroda algoritama je takva da rangira priče na osnovu istorije korisnika, što dovodi do smanjenja „politički unakrsnog sadržaja za 5% za konzervativce i 8% za liberale”.[43] Međutim, čak i kada je korisnicima data opcija da se klikne na link koji nudi suprotne poglede, oni se i dalje odlučuju za vesti koje najčešće čitaju.[43] „Izbor korisnika smanjuje verovatnoću da će kliknuti na link suprotne orjentacije za 17% za konzervativce i 6% za liberale”.[43] Link suprotne orjenacije je link za koji se pretpostavlja da ima suprotnu političku orjentaciju od korisnika ili ono što je vebsajt označio kao korisnikova uverenja.[45] Nedavna studija Levija Boksela, Metjua Genckova i Džesija M. Šapira sugeriše da onlajn mediji nisu pokretačka snaga političke polarizacjie.[46] Studija tvrdi da su polarizaciju pokrenule demografske grupe koje provode najmanje vremena na internetu. Najveća ideološka podela postoji među Amerikancima koji imaju više od 75 godina, od kojih je samo 20% izjavilo da koristi društvene mreže 2012. godine. Nasuprot tome 80% Amerikanaca starosti od 18 do 39 godina izjavilo je da koristi društvene mreže iste godine. Podaci sugerišu da mlađa populacija nije ništa više polarizovana u 2012-oj nego što je bila 1996. kada internet mediji jedva da su postojali. Studija naglašava razlike među starosnim grupama i kako čitanje vesti ostaje polarizovano jer ljudi traže informacije koje se poklapaju sa njihovim predrasudama. Stariji Amerikanci obično stagniraju sa svojim političkim stavovima jer su im tradicionalni mediji i dalje primarni izvor informacija, dok su internet mediji primarni izvori mlađoj populaciji. Iako algoritmi i filter mehuri slabe raznolikost sadržaja, ova studija pokazuje da političku polarizaciju pokreću primarno već postojeći stavovi i neuspešnost u prepoznavanju spoljnih izvora. Nemačka studija iz 2020-e je koristila psihološki model pet velikih crta ličnosti za testiranje efekata individualne ličnosti, demografije i ideologije na izbor vesti.[47] Studija je zasnovana na ideji da količina različitih izvora vesti koje korisnici čitaju utiče na verovatnoću da budu uhvaćeni u filter mehuru (veća raznolikost, manja šansa). Rezultati sugerišu da su određene demografije (stariji i muškarci) zajedno sa određenim crtama ličnosti (otvoreniji) u pozitivnoj korelaciji sa količinom izvora koje pojedinci biraju. Studija je takođe otkrila da je manja medijska raznolikost povezana sa visokim stepenom usklađenosti sa desničarskim autoritarizmom. Osim što nudi različite individualne faktore koji mogu da utiču na izbor korisnika, ova studija takođe postavlja pitanja i veze između verovatnoće da korisnik bude uhvaćen u filter mehuru i korisnikovih navika glasanja.[47]

Fejsbuk studija je otkrila da se ne može zaključiti da li algoritam igra toliku ulogu u filtriranju sadržaja kao što ljudi pretpostavljaju. Studija je takođe otkrila da individualni izbor ili pristrasnost potvrđivanja takođe utiče na ono što se filtrira iz vesti.[48] Neki stručnjaci iz oblasti društvenih nauka su kritikovali ovaj zaključak jer je poenta protesta protiv filter mehura taj da algoritmi i individualni izbor rade zajedno kako bi filtrirali sadržaj.[48][45] Predmet kritike je bio i mali uzorak Fejsbuka, koji iznosi oko 9% stvarnih korisnika, kao i činjenica da se rezultati studije ne mogu ponoviti zbog činjenice da su studiju sproveli „Fejsbukovi naučnici” koji su imali pristup podacima koje Fejsbuk ne čini dostupnim istraživačima van kompanije.[49]

Iako je studija otkrila da samo oko 15-20% prijatelja prosečnog korisnika Fejsbuka ima suprotsavljene političke stavove, Julija Kaman iz Vox-a je imala teoriju da bi to moglo imati potencijalno pozitivne implikacije na raznolikost stavova. Ovi „prijatelji” su verovatno samo poznanici sa kojima ne bismo verovatno ni delili naše stavove bez interneta. Fejsbuk može da podstakne okruženje u kojem korisnik vidi i eventualno stupa u interakciju sa sadržajem koji su postavili ti prijatelji „drugog reda”. Studija je otkrila da je „24% sadržaja koje su liberali videli konzervativne prirode i 38% sadržaja koje su konzervativci videli liberalne prirode”.[50] „Liberali imaju tendenciju da budu povezani sa manjim brojem prijatelja koji dele informacije suprotne strane, u poređenju sa konzervativcima”.[44] Ovakva interakcija ima mogućnost da pruži različitije informacije i izvore koji bi mogli da ublaže stavove korisnika.

Slično tome, studija Tviterovih filter mehura sprovedena od strane Univerziteta u Njujorku zaključila je da pojedinci sada imaju pristup širem spektru gledišta o događajima, a većina ovih informacija ne dolazi sa tradicionalnih izvora, već direktno od samih političara ili njihovih prijatelja ili rođaka. Štaviše, interaktivna priroda društvenih mreža daje mogućnost pojedincima da diskutuju o političkim događajima sa svojim vršnjacima, čak i sa onima sa kojim imaju slabiju društvenu povezanost. Prema ovim studijama društvene mreže mogu da povećaju različitost informacija i mišljenja koje korisnici vide, iako postoji mnogo spekulacija kako filter mehuri mogu da prodube političku polarizaciju.

Jedan pokretač i moguće rešenje problema jer uloga koju emocije igraju u internet sadržajima. Studija iz 2018-e je pokazala da raličite emocije u porukama mogu da dovedu do polarizacije ili kovergencije, radost preovladava u emocionalnoj polarizaciji, dok tuga i strah igraju veliku ulogu u emocionalnoj konvergenciji.[51] Pošto je relativno lako otkriti emocionalni sadržaj poruka, ova otkrića mogu pomoći u stvaranju društveno odgovornijih algoritama tako što bi se fokusirali na emocionalni sadržaj algoritamskih preporuka.

 
Grafički prikaz botova korišćenih u Weibo studiji 2019. Dijagrami pretstavljaju strukturu filter mehura, odnosno, velike koncentracije korisnika oko pojedinačnih tema.

Različiti istraživači su koristili društvene botove da bi testirali polarizaciju i slične efekte koji se pripisuju filter mehurima i eho komorama.[52][53] Studija iz 2018. je koristila društvene botove na Tviteru da bi testirala namerno izlaganje korisnika stranačkim stavovima.[52] Studija je tvrdila da pokazuje pristrasne razlike između izlaganja različitim stavovima, iako je upozorila da bi nalazi trebalo da budu ograničeni na američke Tviter korisnike koji su pripadnici neke stranke. Jedno od glavnih otkrića je da su nakon izlaganja različitim stavovima (koje su botovi izneli), je bilo da su samoregistrovani republikanci postali konzervativniji, dok su samoregistrovani liberali pokazali minimalne ideološke promene ako ih je uopšte i bilo. Druga studija iz Kine je koristila društvene botove na Weibo-u, najvećoj društvenoj mreži u Kini, da bi ispitala uticaj filter mehura na polarizaciju.[53] Studija pravi razliku između dve vrste polarizacije. Jedna u kojoj ljudi sa sličnim stavovima formiraju grupe, dele slična mišljenja i blokiraju se od drugačijih stavova (polarizacija mišljenja), i druga u kojoj ljudi nemaju pristup različitim sadržajima i informacijama (polarizacija informacija). Koristeći botove umesti dobrovoljaca i fokusirajući se više na polarizaciju informacija, istraživači su zaključili da postoje dva suštinska elementa filtera: velika koncentracija korisnika oko jedne teme i jednosmerna struktura nalik zvezdi koja utiče na ključne tokove informacija.

Platforma DuckDuckGo je u junu 2018. sprovela istraživanje na Gugl veb pretraživačkoj platformi. Za ovu studiju je 87 odraslih osoba sa različitih lokacija u Sjedinjenim Američkim Državama pretraživalo tri različita pojma u isto vreme: imigracija, kontrola oružja i vakcinacija. Čak i u režimu privatnog pregledanja, većina ljudi je videla rezultate jedinstvene za njih. Gugl je prikazao jednima linkove koje drugima nije, a „News and Videos” infokutije su pokazale značajne varijacije. Gugl je javno osporio ove rezultate rekavši da je personalizacija stranice sa rezultatima pretraživanja uglavnom mit. Deni Salivan, guglov zvaničnik, izjavio je da se tokom godina razvio mit da se Gugl pretraga toliko personalizuje da za isti upit različiti ljudi mogu dobiti različite rezultate i da to nije slučaj, da se rezultati mogu razlikovati, ali obično iz razloga koji nemaju veze sa personalizacijom.[54]

Kada su filter mehuri prisutni oni mogu da stvore pojavu koju naučnici nazivaju „Vau” trenuci. „Vau” trenutak pretstavlja pojavu kada se na vašem kompjuteru pojavi članak, oglas, objava ili slično koji ima veze sa vašom trenutnom radnjom ili trenutnom upotrebom objekta. Naučnici su ovaj izraz otkrili nakon što je mlada žena u okviru svoje rutine pila kafu, kada na svom kompjuteru naišla na reklamu za istu marku kafe koju je pila. „Sela sam i otvorila Fejsbuk jutros dok sam ispijala jutarnju kaficu i naišla na dve reklame za Nespresso. To je zaista „Vau” trenutak kada proizvod koji pijete iskoči na ekranu ispred vas.” „Vau” trenuci se dešavaju kada algoritam „pronađe” ljude, što znači da algoritmi za oglase ciljaju određene korisnike na osnovu njihove navike pretraživanja kako bi povećali prodajne prihode.

Nekoliko dizajnera je razvilo alate za suzbijanje efekata filter mehura koji su navedeni u daljem tekstu.[55] Švajcarska radio stanica SRF je izglasala reč „filterblase” (nemački prevod reči filter mehura) za reč 2016. godine.[56]

Protivmere уреди

Od pojedinaca уреди

U knjizi The Filter Bubble: What the Internet Is Hiding from You, internet aktivista, Eli Pariser, ističe kako sve češća pojava filter mehura dodatno naglašava vrednost „povezujućeg društvenog kapitala” kako ga definiše Robert Putmen. Pariser tvrdi da filter mehuri ojačavaju osećaj „socijalne homogenosti”, što slabi veze između ljudi sa potencijalno različitim interesima i stavovima. U tom smislu, visoki nivo „povezujućeg društvenog kapitala” može promovisati socijalnu inkluziju povećavanjem našeg izlaganja prostoru koji prevazilazi lične interese. Razvijanje „povezujućeg kapitala”, kao što je povezivanje sa različitim ljudima u neformalnom okruženju, može biti efikasan način da se smanji pojava filter mehura.

Korisnici mogu da preduzmu mnoge mere kako bi probili svoje filter mehure, na primer, tako što će svesno proceniti kojim informacijama se izlažu, i kritički razmisliti o tome da li su u kontaktu sa širokim spektrom sadržaja.[57] Korisnici mogu svesno izbegavati izvore vesti koji su neverifikovani ili slabi. Kris Gluško, potpredsednik marketinga u IAB-u, zagovara korišćenje sajtova za proveru činjenica kako bi se identifikovale lažne vesti.[58] Tehnologija takođe može da igra važnu ulogu u borbi protiv filter mehura.[59]

Neki dodaci za pretraživače ciljaju da pomognu ljudima da izađu iz svojih filter mehurova i da ih učine svesnim svojih ličnih pogleda tako što prikazuje medijske sadržaje koji su suprotstavljeni njihovim verovanjima i mišljenjima. Pored dodataka, postoje i aplikacije kreirane sa ciljem da podstaknu korisnike da otvore svoje eho komore. Aplikacije za vesti poput Read Across the Aisle guraju korisnike da čitaju iz različitih uglova ako je njihov obrazac čitanja pristrasan jednoj ideologiji.[60] Iako su aplikacije i dodaci alati koje ljudi mogu koristiti, Eli Pariser je izjavio da svakako, postoji određena individualna odgovornost za traženjem novih izvore i ljudi koji nisu kao vi.[42]

Budući da internet oglasi mogu dodatno da pojačaju efekat filter mehura izlažući korisnike istom sadržaju, korisnici mogu da blokiraju veliki deo oglasa brisanjem svoje istorije pretrage, isključivanjem ciljanih oglasa i preuzimanjem dodataka za pretraživače. Neke osobe koriste anonimne pretraživače kao što su YaCy, DuckDuckGo, Qwant, Startpage.com, Disconnect i Searx kako bi sprečili kompanije da prikupljaju njihove podatke o pretragama. Švajcarski dnevni list Neue Zürcher Zeitung testira beta verziju personalizovane aplikacije za vesti koja koristi mašinsko učenje kako bi pogodila koji sadržaj korisnika interesuje, dok uključuje „element iznenađenja”. Ideja je da se ubace priče koje korisnik verovatno nije pratio u prošlosti.[61]

Evropska unija preduzima mere kako bi se umanjio efekat filter mehura. Evropski parlament sponzoriše istraživanja o tome kako filter mehuri utiču na sposobnost ljudi da pristupe raznovrsnim vestima.[62] Takođe, uveden je program koji ima cilj da edukuje građane o društvenim mrežama.[63] U Sjedinjenim Američkim Državama, CSCW panel sugeriše korišćenje aplikacija za „agregiranje” vesti kako bi se proširila konzumacija vesti od strane medijskih potrošača. Aplikacije za „agregiranje” vesti skeniraju sve aktuelne vesti i usmeravaju vas ka različitim gledištima određene teme. Korisnici takođe mogu koristiti i „balanser” vesti koji je svestan raznolikosti, a koji vizuelno pokazuje medijskom potrošaču da li se naginje levo ili desno na političkom spektru dok čita vesti, pri čemu veći crveni štap označava naginjanje na desnu stranu, a veći plavi štap naginjanje na levu stranu. Studija koja je procenila ovaj „balanser” vesti otkrila je malo, ali primetno promenu u ponašanju čitalaca, ka više balansiranom izlaganju, kod korisnika koji su dobili povratnu informaciju, u poređenju sa kontrolnom grupom".[64]

Od medijskih kompanija уреди

U svetlu nedavnih zabrinutosti zbog filtriranja informacija na društvenim mrežama, Fejsbuk je priznao prisustvo filter mehurova i preduzeo korake ka njihovom uklanjanju.[65] U januaru 2017. godine, Fejsbuk je uklonio personalizaciju sa svoje liste „trenutnih tema” kao odgovor na probleme nekih korisnika koji tu nisu videli događaje o kojima se dosta govorilo.[66] Strategija Fejbuka je da poništi funkciju „povezanih članaka” koja je implementirana 2013. godine, koja bi objavljivala srodne vesti nakon što korisnik pročita određeni članak. Sada, nova strategija bi obrnula ovaj proces i objavila članke iz različitih perspektiva na istu temu. Fejsbuk takođe pokušava da prođe kroz proces provere gde će biti prikazani samo članci pouzdanih izvora. Facebook je, zajedno sa osnivačem Craigslist-a i nekoliko drugih, investirao 14 miliona dolara u napore za povećanje poverenja u novinarstvo širom sveta, i bolje informisanje javne rasprave.[65] Ideja je da postovi budu verodostojni, čak i ako ljudi čitaju samo postove koje su podelili njihovi prijatelji.

Slično tome, Gugl je 30. januara 2018. godine takođe priznao postojanje poteškoća sa filter mehurima unutar svoje platforme. Budući da trenutne Google pretrage izvlače rezultate rangirane algoritamski na osnovu „autoriteta” i „relevantnosti” koje prikazuju i skrivaju određene rezultate pretrage, Google nastoji da se izbori s tim. Obučavanjem svog pretraživača da prepozna nameru pretrage umesto doslovne sintakse pitanja, Gugl pokušava da ograniči veličinu filter mehura. Trenutno, početna faza ovog obučavanja biće uvedena u drugom kvartalu 2018. godine. Pitanja koja uključuju pristrasnost ili kontroverzne stavove neće biti adresirana do daljnjeg, što dovodi do većeg problema koji još uvek postoji: da li pretraživač deluje kao sudija istine ili kao obavešteni vodič za donošenje odluka.[67]

U aprilu 2017. godine pojavile su se vesti da su Fejsbuk, Mozilla i Craigslist doprineli većem delu donacije od 14 miliona dolara CUNY-ovoj Inicijativi za integritet vesti, s namerom da eliminišu lažne vesti i stvore poštenije medijske izveštaje.[68]

Kasnije, u avgustu, Mozilla, tvorac internet pregledača Firefox, najavili su formiranje Mozilline inicijative za poverenje u informacije (MITI). MITI bi služio kao zajednički napor razvoja proizvoda, istraživanja i rešenja zasnovanih na zajednici kako bi se borili protiv efekata filter mehura i širenja lažnih vesti. Tim za otvorene inovacije u Mozilli vodi ovu inicijativu, s namerom da se bore protiv dezinformacija, s posebnim fokusom na proizvod u vezi s pismenošću, istraživanjem i kreativnim intervencijama.[69]

Eticke implikacije уреди

Sa porastom popularnosti cloud usluga, personalizovani algoritmi koji se koriste za kreiranje filter mehura će postajati sve bolji, prema očekivanjima.[70] Stručnjaci su počeli da razmatraju efekat filter mehura na korisnike društvenih mreža sa etičke tačke gledišta, posebno u vezi sa oblastima lične slobode, bezbednosti i pristrasnosti informacija.[71] Filter mehuri na popularnim društvenim mrežama i personalizovanim pretraživačkim sajtovima mogu odrediti određeni sadržaj koji korisnici vide, često bez njihovog direktnog pristanka ili svesti o tome, zbog algoritama koji kreiraju taj sadržaj.[70] Samostvoreni sadržaj koji proizilazi iz obrazaca ponašanja može dovesti do parcijalne slepila za informacije.[72] Kritičari upotrebe filter mehura spekulišu da bi pojedinci mogli da izgube autonomiju nad stvarima koje vide na društvenim mrežama i da bi njihovi identiteti mogli biti socijalno konstruisani kao rezultat prisutnosti filter mehura.[70]

Tehnolozi, inženjeri društvenih mreža i stručnjaci za računare takođe su ispitali prevalenciju filter mehura.[73] Mark Zakerberg, osnivač Fejsbuka, i Eli Pariser, autor knjige The Filter Bubble, izrazili su zabrinutost u vezi sa rizicima privatnosti i polarizacije informacija.[74][75] Informacije korisnika personalizovanih pretraživača i društvenih mreža nisu privatne, iako neki ljudi smatraju da bi trebalo da budu.[74] Briga oko privatnosti dovela je do debate o tome da li je moralno da informatičari uzmaju u obzir korisničku onlajn aktivnost i manipulišu budućim izlaganjem srodnim informacijama.[75]

Neki stručnaci su izrazili zabrinutost zbog efekata filter mehura na individualno i društveno blagostanje, tj. širenje zdravstvenih informacija javnosti i potencijalne efekte promene ponašanja internet pretraživača vezanim za zdravlje.[76][77][78][79] Interdisciplinarna knjiga iz 2019. godine izveštava o istraživanjima i perspektivama uloge filter mehura u vezi sa dezinformacijama o zdravlju.[78] Koristeći različita polja kao što su novinarstvo, pravo, medicina i zdravstvena psihologija, knjiga se bavi različitim kontroverznim zdravstvenim uverenjima (npr. alternativna medicina i pseudonauka), kao i potencijalnim rešenjima za negativne efekte filter mehura i eho komora na različite teme u diskursu o zdravlju. Studija iz 2016. godine o potencijalnim efektima filter mehura na rezultate pretrage vezane za samoubistvo je utvrdila da algoritmi igraju važnu ulogu u tome da li korisnicima prikazuju telefonske linije za pomoć i slične rezultate pretrage.[77] Druga studija iz 2016. godine iz hrvatskog medicinskog časopisa predložila je neke strategije za ublažavanje potencijalno štetnih efekata filter mehura na zdravstvene informacije, kao što su: informisanje javnosti o filter mehurima i njihovim povezanim efektima, sugestije korisnicima da biraju Guglu alternativne pretraživae, informisanje o procesima koje pretraživači koriste kako bi odredili prikazane rezultate.[76]

Pošto na sadržaj koji vide pojedinačni korisnici društvenih mreža utiču algoritmi koji proizvode filter mehure, korisnici društvenih mreža su podložniji potvrđivanju svojih predrasuda i mogu biti izloženi pristrasnim i zavaravajućim informacijama.[9][80] Takođe se očekuje da će personalizovano filtriranje dovesti do socijalnog sortiranja i drugih nenamernih diskriminatornih praksa.[81]

U svetlu predsedničkih izbora u Sjedinjenim Američkim Državama 2016. godine, stručnjaci su takođe izrazili zabrinutost zbog efekta filter mehura na demokratiju i demokratske procese, kao i zbog rasta „ideoloških medija”.[6] Ovi stručnjaci strahuju da korisnici neće biti sposobni da razmišljaju izvan svojih uskih interesovanja jer filter mehurovi stvaraju personalizovane društvene sadržaje, izolovajući ih od različitih tačaka gledišta i njihovih okolnih zajednica. Iz ovog razloga, sve više se raspravlja o mogućnosti dizajniranja društvenih mreža s više slučajnosti, tj. proaktivnog preporučivanja sadržaja koji se nalazi izvan nečijeg filter mehura, uključujući izazovne političke informacije i, na kraju, pružanje osnažujućih filtera i alata korisnicima.[82][83][84] Povezana zabrinutost je zapravo kako filter mehuri doprinose širenju lažnih vesti i kako to može uticati na političku orijentaciju, uključujući način na koji korisnici glasaju.[6][85][86]

Otkrića iz marta 2018. o sakupljanju i korišćenju korisničkih podataka od strane Cambridge Analytica-e za najmanje 87 miliona profila na Fejsbuku tokom predsedničkih izbora 2016. godine naglašavaju etičke implikacije filter mehura.[87] Suosnivač Cambridge Analytica-e, Kristofer Vili, detaljno je opisao kako je firma imala sposobnost da razvije "psihografske" profile tih korisnika i koristi informacije kako bi oblikovala njihovo glasačko ponašanje.[88] Pristup korisničkim podacima od strane trećih strana poput Cambridge Analytica može pogoršati i pojačati postojeće filter mehure koje su korisnici stvorili, veštački povećavajući postojeće pristrasnosti i dodatno delujući na podele u društvu.

Opasnosti уреди

Filter mehuri su nastali kao posledica naglog porasta personalizacije mreža, što može zarobiti korisnike. Korišćenje veštačke inteligencije za personalizaciju ponuda može dovesti do toga da korisnici vide samo sadržaj koji potvrđuje njihova sopstvena gledišta, bez izazivanja istih. Društvene mreže stranice poput Fejsbuka takođe mogu predstavljati sadržaj na način koji korisnicima otežava određivanje izvora sadržaja, terajući ih da sami odluče da li je izvor pouzdan ili lažan.[89] To može dovesti do toga da se ljudi naviknu na to da čuju ono što žele da čuju, što ih može naterati da reaguju radikalnije kada vide suprotan stav. Filter mehur može dovesti osobu da vidi sve suprotne stavove kao netačne i tako omogućiti medijima da nametnu stavove potrošačima.[89][12][5]

Istraživanja objašnjavaju da filter mehur potvrđuje ono što već mislimo.[90] Zbog toga je izuzetno važno koristiti resurse koji nude različite tačke gledišta.[90]

Reference уреди

  1. ^ „Filter Bubble”. 
  2. ^ Bozdag, Engin (2013-09-01). „Bias in algorithmic filtering and personalization”. Ethics and Information Technology (на језику: енглески). 15 (3): 209—227. ISSN 1572-8439. doi:10.1007/s10676-013-9321-6. 
  3. ^ „Understanding Echo Chambers and Filter Bubbles: The Impact of Social Media on Diversification and Partisan Shifts in News Consumption”. misq.umn.edu (на језику: енглески). Приступљено 2024-05-12. 
  4. ^ Boutin, By Paul. „Book Review: The Filter Bubble”. WSJ (на језику: енглески). Приступљено 2024-05-12. 
  5. ^ а б в Dish, The Daily (2010-10-10). „The Filter Bubble”. The Atlantic (на језику: енглески). Приступљено 2024-05-12. 
  6. ^ а б в Baer, Drake (2016-11-09). „The ‘Filter Bubble’ Explains Why Trump Won and You Didn’t See It Coming”. The Cut (на језику: енглески). Приступљено 2024-05-12. 
  7. ^ DiFranzo, Dominic; Gloria-Garcia, Kristine (2017-04-05). „Filter bubbles and fake news”. XRDS: Crossroads, The ACM Magazine for Students. 23 (3): 32—35. ISSN 1528-4972. doi:10.1145/3055153. 
  8. ^ Jackson, Jasper (2017-01-08). „Eli Pariser: activist whose filter bubble warnings presaged Trump and Brexit”. The Guardian (на језику: енглески). ISSN 0261-3077. Приступљено 2024-05-12. 
  9. ^ а б El-Bermawy, Mostafa M. „Your Filter Bubble is Destroying Democracy”. Wired (на језику: енглески). ISSN 1059-1028. Приступљено 2024-05-12. 
  10. ^ а б в „Algorithms and the Filter Bubble Ruining Your Online Experience?”. HuffPost (на језику: енглески). 2011-06-01. Приступљено 2024-05-12. 
  11. ^ Pariser, Eli (2011-05-12). The Filter Bubble: How the New Personalized Web Is Changing What We Read and How We Think (на језику: енглески). Penguin. ISBN 978-1-101-51512-9. 
  12. ^ а б „How Filter Bubbles Distort Reality: Everything You Need to Know”. 
  13. ^ Nikolov, Dimitar; Oliveira, Diego F. M.; Flammini, Alessandro; Menczer, Filippo (2015-12-02). „Measuring online social bubbles”. PeerJ Computer Science (на језику: енглески). 1: e38. ISSN 2376-5992. doi:10.7717/peerj-cs.38. 
  14. ^ а б Pariser, Eli (2011-05-02), Beware online "filter bubbles", Приступљено 2024-05-12 
  15. ^ а б в г д ђ е Weisberg, Jacob (2011-06-10). „Bubble Trouble”. Slate (на језику: енглески). ISSN 1091-2339. Приступљено 2024-05-12. 
  16. ^ а б „Facebook, Google Giving Us Information Junk Food?”. HuffPost (на језику: енглески). 2011-03-07. Приступљено 2024-05-12. 
  17. ^ „Invisible sieve”. The Economist. ISSN 0013-0613. Приступљено 2024-05-12. 
  18. ^ а б Hern, Alex (2017-05-22). „How social media filter bubbles and algorithms influence the election”. The Guardian (на језику: енглески). ISSN 0261-3077. Приступљено 2024-05-12. 
  19. ^ „Electronic Communities: Global Village or Cyberbalkans?” (PDF). 
  20. ^ van Alstyne, Marshall; Brynjolfsson, Erik (1996-11-01). „Could the Internet Balkanize Science?”. Science. 274: 1479—1480. ISSN 0036-8075. doi:10.1126/science.274.5292.1479. 
  21. ^ а б „Why are American kids treated as a different species from adults? | Aeon Essays”. Aeon (на језику: енглески). Приступљено 2024-05-12. 
  22. ^ „President Obama’s Farewell Address: Full Video and Text”. The New York Times (на језику: енглески). 2017-01-11. ISSN 0362-4331. Приступљено 2024-05-12. 
  23. ^ Hosanagar, Kartik. „Blame the Echo Chamber on Facebook. But Blame Yourself, Too”. Wired (на језику: енглески). ISSN 1059-1028. Приступљено 2024-05-12. 
  24. ^ „The Echo-Chamber Effect”. www.nytimes.com (на језику: енглески). Приступљено 2024-05-12. 
  25. ^ „Volusia county : Preachers, vets and the homeless”. Daily Kos (на језику: енглески). Приступљено 2024-05-12. 
  26. ^ Kathleen Hall Jamieson (2008). Echo chamber. Internet Archive. Oxford University Press. ISBN 978-0-19-536682-2. 
  27. ^ а б „What are Filter Bubbles and Digital Echo Chambers? | Heinrich-Böll-Stiftung | Tel Aviv - Israel”. il.boell.org (на језику: енглески). Приступљено 2024-05-12. 
  28. ^ „The echo chamber effect on social media”. 
  29. ^ academic.oup.com https://academic.oup.com/joc/article-abstract/64/2/317/4085994?redirectedFrom=fulltext&login=false. Приступљено 2024-05-12.  Недостаје или је празан параметар |title= (помоћ)
  30. ^ „Self-imposed filter bubbles: Selective attention and exposure in online search”. 
  31. ^ Reviglio, Urbano; Agosti, Claudio (2020-04). „Thinking Outside the Black-Box: The Case for “Algorithmic Sovereignty” in Social Media”. Social Media + Society (на језику: енглески). 6 (2): 205630512091561. ISSN 2056-3051. doi:10.1177/2056305120915613.  Проверите вредност парамет(а)ра за датум: |date= (помоћ)
  32. ^ „Twitter's plan to cut off free data access evokes 'fair amount of panic' among scientists”. 
  33. ^ а б в Boutin, By Paul. „Book Review: The Filter Bubble”. WSJ (на језику: енглески). Приступљено 2024-05-12. 
  34. ^ а б What the Internet is hiding from you | CNN Business (на језику: енглески), 2011-11-01, Приступљено 2024-05-12 
  35. ^ а б „Will the Global Village Fracture into Tribes: Recommender Systems and their Effects on Consumers”. 
  36. ^ „Google Personalization on Your Seach Results Plus How to Turn it Off”. web.archive.org. 2011-08-17. Приступљено 2024-05-12. 
  37. ^ Bruns, Axel (2019-11-29). „Filter bubble”. Internet Policy Review. 8 (4). ISSN 2197-6775. 
  38. ^ Davies, H. (2018). „Redefining filter bubbles as (escapable) socio-technical recursion”. Sociological Research Online (на језику: енглески). 23 (3). 
  39. ^ Dahlgren, Peter M. (2021-01-01). „A critical review of filter bubbles and a comparison with selective exposure”. Nordicom Review (на језику: енглески). 42 (1): 15—33. doi:10.2478/nor-2021-0002. 
  40. ^ Flaxman, Seth; Goel, Sharad; Rao, Justin M. (2013). „Ideological Segregation and the Effects of Social Media on News Consumption”. SSRN Electronic Journal (на језику: енглески). ISSN 1556-5068. doi:10.2139/ssrn.2363701. 
  41. ^ Chitra, Uthsav; Musco, Christopher (2020-01-22). „Analyzing the Impact of Filter Bubbles on Social Network Polarization”. Proceedings of the 13th International Conference on Web Search and Data Mining. WSDM '20. New York, NY, USA: Association for Computing Machinery: 115—123. ISBN 978-1-4503-6822-3. doi:10.1145/3336191.3371825. 
  42. ^ а б Author, Guest (2011-05-16). „5 Questions with Eli Pariser, Author of ‘The Filter Bubble. Time (на језику: енглески). ISSN 0040-781X. Приступљено 2024-05-12. 
  43. ^ а б в г д „Political polarization on Facebook”. Brookings (на језику: енглески). Приступљено 2024-05-12. 
  44. ^ а б Bakshy, Eytan; Messing, Solomon; Adamic, Lada A. (2015-06-05). „Exposure to ideologically diverse news and opinion on Facebook”. Science (на језику: енглески). 348 (6239): 1130—1132. ISSN 0036-8075. doi:10.1126/science.aaa1160. 
  45. ^ а б „Why Scientists Are Upset About The Facebook Filter Bubble Study”. 
  46. ^ Oremus, Will (2017-04-05). „The Filter Bubble Revisited”. Slate (на језику: енглески). ISSN 1091-2339. Приступљено 2024-05-12. 
  47. ^ а б „Age, gender, personality, ideological attitudes and individual differences in a person's news spectrum: how many and who might be prone to 'filter bubbles' and 'echo chambers' online?”. 
  48. ^ а б elipariser (2015-05-07). „Fun facts from the new Facebook filter bubble study”. Medium (на језику: енглески). Приступљено 2024-05-12. 
  49. ^ elipariser. „Did Facebook’s Big Study Kill My Filter Bubble Thesis?”. Wired (на језику: енглески). ISSN 1059-1028. Приступљено 2024-05-12. 
  50. ^ Kamin, Julia (2016-12-28). „Contrary to what you’ve heard, Facebook can help puncture our political "bubbles". Vox (на језику: енглески). Приступљено 2024-05-12. 
  51. ^ Hilbert, Martin; Ahmed, Saifuddin; Cho, Jaeho; Liu, Billy; Luu, Jonathan (2018-10-02). „Communicating with Algorithms: A Transfer Entropy Analysis of Emotions-based Escapes from Online Echo Chambers”. Communication Methods and Measures (на језику: енглески). 12 (4): 260—275. ISSN 1931-2458. doi:10.1080/19312458.2018.1479843. 
  52. ^ а б Bail, Christopher A.; Argyle, Lisa P.; Brown, Taylor W.; Bumpus, John P.; Chen, Haohan; Hunzaker, M. B. Fallin; Lee, Jaemin; Mann, Marcus; Merhout, Friedolin (2018-09-11). „Exposure to opposing views on social media can increase political polarization”. Proceedings of the National Academy of Sciences (на језику: енглески). 115 (37): 9216—9221. ISSN 0027-8424. PMC 6140520 . PMID 30154168. doi:10.1073/pnas.1804840115. 
  53. ^ а б „Endogenetic structure of filter bubble in social networks”. 
  54. ^ Statt, Nick (2018-12-04). „Google personalizes search results even when you’re logged out, new study claims”. The Verge (на језику: енглески). Приступљено 2024-05-12. 
  55. ^ „How do we break filter bubble and design for democracy?”. 
  56. ^ „Aktuell - «Filterblase» ist das Wort des Jahres 2016”. Schweizer Radio und Fernsehen (SRF) (на језику: немачки). 2016-11-28. Приступљено 2024-05-12. 
  57. ^ „Are we stuck in filter bubbles? Here are five potential paths out”. Nieman Lab. Приступљено 2024-05-12. 
  58. ^ Glushko, Chris (2017-02-08). „Pop the personalization filter bubbles and preserve online diversity”. MarTech (на језику: енглески). Приступљено 2024-05-12. 
  59. ^ „Bloomberg - Are you a robot?”. www.bloomberg.com. Приступљено 2024-05-12. 
  60. ^ „A news app aims to burst filter bubbles by nudging readers toward a more “balanced” media diet”. Nieman Lab. Приступљено 2024-05-12. 
  61. ^ „NZZ is developing an app that gives readers personalised news without creating a filter bubble | Media news”. www.journalism.co.uk. 2017-03-03. Приступљено 2024-05-12. 
  62. ^ „Bursting the filter bubble after the US election: Is the media doomed to fail? | Media news”. www.journalism.co.uk. 2016-11-17. Приступљено 2024-05-12. 
  63. ^ „Press corner”. European Commission - European Commission. Приступљено 2024-05-12. 
  64. ^ Resnick, Paul; Garrett, R. Kelly; Kriplean, Travis; Munson, Sean A.; Stroud, Natalie Jomini (2013-02-23). „Bursting your (filter) bubble: strategies for promoting diverse exposure”. Proceedings of the 2013 conference on Computer supported cooperative work companion. CSCW '13. New York, NY, USA: Association for Computing Machinery: 95—100. ISBN 978-1-4503-1332-2. doi:10.1145/2441955.2441981. 
  65. ^ а б „Facebook Is Testing This New Feature to Fight 'Filter Bubbles'. Fortune (на језику: енглески). Приступљено 2024-05-12. 
  66. ^ „Facebook Tweaks Its 'Trending Topics' Algorithm To Better Reflect Real News”. 
  67. ^ „Google is finally admitting it has a filter-bubble problem”. Quartz (на језику: енглески). 2018-02-01. Приступљено 2024-05-12. 
  68. ^ Sharwood, Simon. „Facebook, Mozilla and Craigslist Craig fund fake news firefighter”. www.theregister.com (на језику: енглески). Приступљено 2024-05-12. 
  69. ^ „The Mozilla Information Trust Initiative: Building a movement to fight misinformation online | The Mozilla Blog”. blog.mozilla.org (на језику: енглески). Приступљено 2024-05-12. 
  70. ^ а б в „Values in the filter bubble Ethics of Personalization Algorithms in Cloud Computing”. 
  71. ^ Al-Rodhan, Nayef. „The Many Ethical Implications of Emerging Technologies”. Scientific American (на језику: енглески). Приступљено 2024-05-12. 
  72. ^ Haim, Mario; Graefe, Andreas; Brosius, Hans-Bernd (2018-03-16). „Burst of the Filter Bubble?: Effects of personalization on the diversity of Google News”. Digital Journalism (на језику: енглески). 6 (3): 330—343. ISSN 2167-0811. doi:10.1080/21670811.2017.1338145. 
  73. ^ „The Filter Bubble Raises Important Issues – You Just Need To Filter Them Out For Yourself - The Understory”. Rainforest Action Network (на језику: енглески). Приступљено 2024-05-12. 
  74. ^ а б Sterling, Greg (2017-02-20). „Mark Zuckerberg's manifesto: How Facebook will connect the world, beat fake news and pop the filter bubble”. MarTech (на језику: енглески). Приступљено 2024-05-12. 
  75. ^ а б Morozov, Evgeny (2011-06-10). „Your Own Facts”. The New York Times (на језику: енглески). ISSN 0362-4331. Приступљено 2024-05-12. 
  76. ^ а б „The filter bubble and its effect on online personal health information”. 
  77. ^ а б Haim, Mario; Arendt, Florian; Scherr, Sebastian (2017-02). „Abyss or Shelter? On the Relevance of Web Search Engines’ Search Results When People Google for Suicide”. Health Communication (на језику: енглески). 32 (2): 253—258. ISSN 1041-0236. doi:10.1080/10410236.2015.1113484.  Проверите вредност парамет(а)ра за датум: |date= (помоћ)
  78. ^ а б „Medical Misinformation and Social Harm in Non-Science Based Health Practices: A Multidisciplinary Perspective”. Routledge & CRC Press (на језику: енглески). Приступљено 2024-05-12. 
  79. ^ Hesse, Bradford W.; Nelson, David E.; Kreps, Gary L.; Croyle, Robert T.; Arora, Neeraj K.; Rimer, Barbara K.; Viswanath, Kasisomayajula (2005-12-12). „Trust and Sources of Health Information: The Impact of the Internet and Its Implications for Health Care Providers: Findings From the First Health Information National Trends Survey”. Archives of Internal Medicine. 165 (22): 2618—2624. ISSN 0003-9926. doi:10.1001/archinte.165.22.2618. 
  80. ^ „How to Burst the "Filter Bubble" that Protects Us from Opposing Views”. MIT Technology Review (на језику: енглески). Приступљено 2024-05-12. 
  81. ^ Borgesius, Frederik J. Zuiderveen; Trilling, Damian; Möller, Judith; Bodó, Balázs; Vreese, Claes H. de; Helberger, Natali (2016-03-31). „Should we worry about filter bubbles?”. Internet Policy Review. ISSN 2197-6775. 
  82. ^ „In praise of serendipity”. The Economist. ISSN 0013-0613. Приступљено 2024-05-12. 
  83. ^ Reviglio, Urbano (2019-06-01). „Serendipity as an emerging design principle of the infosphere: challenges and opportunities”. Ethics and Information Technology (на језику: енглески). 21 (2): 151—166. ISSN 1572-8439. doi:10.1007/s10676-018-9496-y. 
  84. ^ „Democratizing algorithmic news recommenders: how to materialize voice in a technologically saturated media ecosystem”. 
  85. ^ Herrman, John (2016-08-24). „Inside Facebook’s (Totally Insane, Unintentionally Gigantic, Hyperpartisan) Political-Media Machine”. The New York Times (на језику: енглески). ISSN 0362-4331. Приступљено 2024-05-12. 
  86. ^ „The spreading of misinformation online”. 
  87. ^ Granville, Kevin (2018-03-19). „Facebook and Cambridge Analytica: What You Need to Know as Fallout Widens”. The New York Times (на језику: енглески). ISSN 0362-4331. Приступљено 2024-05-12. 
  88. ^ Meredith, Sam (2018-04-10). „Facebook-Cambridge Analytica: A timeline of the data hijacking scandal”. CNBC (на језику: енглески). Приступљено 2024-05-12. 
  89. ^ а б „The dangers of a post-truth world”. 
  90. ^ а б Saxton, Jenny. „LibGuides: Fake News (and how to fight it): Filter Bubbles & Confirmation Bias”. libraryguides.mdc.edu (на језику: енглески). Приступљено 2024-05-12.