Веб-претраживач — разлика између измена
Садржај обрисан Садржај додат
м Враћене измене 178.223.87.102 (разговор) на последњу измену корисника BokimBot |
|||
Ред 17:
=== Претраживање локација веба (веб сајтова) ===
Претраживач локација веба (web crawler) је рачунарски програм који преузима веб странице са веб-сервера. УРЛ сваке веб странице идентификује њену локацију на вебу. Обзиром на постојање УРЛ адресе, свака веб страница се може преузети са веб-сервера употребом протокола за пренос хипертекста ([[ХТТП]]). Полазећи од једне почетне УРЛ адресе, претраживач локација веба непрестано преузима веб странице базирајући се на њиховим УРЛ адресама
Како би се убрзао процес претраживања, могуће је употријебити више прераживача локација веба. Они могу бити два различита типа, централизовани и дистрибуирани.<ref name = "Wu">[http://wwwis.win.tue.nl/ah2003/proceedings/paper18.pdf Jie Wu, ''Towards a Decentralized Search Architecture for the Web and P2P Systems''], Приступљено 24. 4. 2013.</ref> Централизовани претраживачи локација веба се налазе на истој локацији са које се покрећу паралелно и са више машина.<ref name = Büttcher> Stefan Büttcher, Charles L. A. Clarke and Gordon V. Cormack [http://www.ir.uwaterloo.ca/book/14-parallel-information-retrieval.pdf Chapter 14 Parallel Information Retrieval] in ''Information Retrieval: Implementing and Evaluating Search Engines'' 2010 MIT Press</ref> Дистрибуирани претраживачи локација веба се налазе на више различитих локација на интернету и контролишу се путем једног централног координатора, другим ријечима сваки претраживач локација веба преузима само веб странице које су му географски близу. Најзначајнија предност дистрибуираних претаживача локација веба тиче се смањења трошкова комуникација који су резултат њихове активности. Међутим централизовани претраживачи су лакши за имплементацију и контролу него дистрибуирани.
|