Последњих година, услуге Гоогле-а и Иандек-а су чврсто ушле у наше животе. У том смислу, многи се вјеројатно питају шта је тражилица? Једноставно речено, то је софтверски систем дизајниран за тражење информација на Ворлд Виде Вебу. Његови резултати се обично приказују у облику листе, често назване странице резултата претраживања (СЕРП). Информације могу бити комбинација веб страница, слика и других типова датотека. Неки претраживачи садрже и информације доступне у базама података или отвореним директоријима.
За разлику од веб директоријума, које подржавају само њихови уредници, претраживачи садрже и информације о стварном времену, које покрећу алгоритам на веб претраживачу.
Сами претраживачи су се појавили пред Ворлд Виде Веб - у децембру 1990. године. Прва таква услуга се звала Арцхие, а он је тражио наредбе о садржају ФТП датотека.
Шта је претраживач на Интернету? Све до септембра 1993., Ворлд Виде Веб је потпуно индексиран ручно. Постојала је листа веб сервера, коју је уредио Тим Бернерс-Лее, која је била смештена на веб серверу ЦЕРН-а. Како је све више сервера ишло на мрежу, горе наведена услуга није могла да обради такве количина информација.
Један од првих претраживача базиран на веб претраживању био је ВебЦравлер, који је објављен 1994. године. За разлику од својих претходника, омогућио је корисницима да траже било коју ријеч на било којој веб страници. Овај алгоритам је од тада постао стандард за све главне претраживаче. То је била и прва одлука, широко позната јавности. Такође, 1994. године покренута је услуга Лицос, која је касније постала главни комерцијални пројекат.
Убрзо након тога појавили су се многи претраживачи, а њихова популарност се значајно повећала. То су Магеллан, Екците, Инфосеек, Инктоми, Нортхерн Лигхт и АлтаВиста. Иахоо! био је један од најпопуларнијих начина за проналажење веб страница од интереса, али је његов алгоритам претраживања радио у свом властитом веб директорију, а не у страницама пуног текста. Тражиоци информација могу претраживати каталог, а не претраживати по кључним ријечима.
Гоогле је усвојио идеју о продаји упита за претраживање 1998. године, почевши од мале компаније, гото.цом. Овај корак је имао значајан утицај на СЕО пословање, које је на крају постало једна од најпрофитабилнијих активности на интернету.
Око 2000, Гоогле претраживач је постао широко познат. Компанија је постигла боље резултате за многа претраживања путем иновација под именом ПагеРанк. Овај итеративни алгоритам процењује веб странице на основу њихових веза са другим сајтовима и страницама, на основу претпоставке да се други често позивају на добре или жељене изворе. Гоогле је такође подржао минималистички интерфејс за своју тражилицу. Напротив, многи од конкурената су направили претраживач у веб порталу. У ствари, Гоогле је постао толико популаран да су се појавили лажни мотори, као што је Мистери Сеекер. Данас постоје многе регионалне верзије овог сервиса, посебно претраживач Гоогле.ру, намењен корисницима руског говорног подручја.
Како је рангирање и достављање резултата? Шта су претраживачи у смислу алгоритма акције? Они добијају информације преко веб-а који претражују од локације до локације. Робот или "паук" проверава стандардно име датотеке роботс.ткт, адресирано на њега, пре слања одређених информација за индексирање. Фокус је на многим факторима, као што су наслови, садржај странице, ЈаваСцрипт, каскадни стилови (ЦСС), као и стандардна ХТМЛ ознака за садржај или метаподатке у ХТМЛ мета таговима.
Индексирање подразумева повезивање речи и других дефинисаних токена на веб страницама са њиховим именима домена и ХТМЛ базираним пољима. Удружења се креирају у јавно доступној бази података која је доступна за упите за претраживање веба. Захтјев корисника може бити у једној ријечи. Индекс помаже да се што брже пронађу информације везане за упит.
Соме оф методе индексирања и кеширање су пословне тајне, док је индексирање веба једноставан процес посјећивања свих сајтова на систематичној основи.
Између посета робота, кеширана верзија странице (дио или сав садржај потребан за приказивање) похрањена у радној меморији претраживача брзо се шаље кориснику који тражи. Ако је посета закашњела, претраживач може једноставно функционирати као веб проки. У овом случају, страница се може разликовати од индекса претраживања. Ухрањени извор приказује верзију чије су речи индексиране, тако да може бити корисно ако је стварна страница изгубљена.
Обично корисник уноси упит за претраживање у облику неколико кључних ријечи. Индекс већ има називе сајтова који садрже те кључне речи и одмах се приказују. Право радно оптерећење је креирање веб страница које су листа резултата претраживања. Свака страница у цијелој листи треба бити оцијењена према информацијама у индексима.
У овом случају, горњи елемент резултата захтијева претраживање, реконструкцију и обиљежавање фрагмената, који приказују контекст подударних кључних ријечи. Ово је само дио обраде сваке веб странице у резултатима претраживања, а даљње странице (поред ње) захтијевају већу даљњу обраду.
Поред једноставног проналажења кључних речи, претраживачи нуде сопствене ГУИ или команде управљане операторе и параметре претраге како би побољшали резултате.
Они обезбеђују потребне контроле за корисника кроз петљу повратне везе, филтрирањем и пондерисањем када прерадјују жељене податке, узимајући у обзир почетне странице првих резултата претраге. На пример, од 2007. Гоогле.цом је дозволио да се добијени списак филтрира по датуму тако што ће кликнути на "Прикажи алат за претрагу" у крајњој левој колони на оригиналној страници са резултатима, а затим изабрати жељени распон датума.
Већина претраживача подржава употребу логичких оператора АНД, ОР и НОТ да би помогли крајњим корисницима да прочитају упит. Неки оператори су намењени за литерале који омогућавају кориснику да побољша и прошири услове претраге. Робот тражи ријечи или фразе на исти начин као и наредбе које су унесене. Неки претраживачи пружају напредну функцију претраживања која корисницима омогућава да одреде удаљеност између кључних ријечи.
Ту је и концептуално заснована претрага, у којој истраживање укључује употребу статистичке анализе на страницама које садрже ријечи или фразе које тражите. Осим тога, захтјеви на природном језику допуштају кориснику да унесе питање у истом облику у којем би тражио особу (најтипичнији примјер је аск.цом).
Корисност претраживача зависи од релевантности скупа резултата који он производи. Може постојати милионе веб страница које садрже одређену ријеч или фразу, али неке од њих могу бити релевантније, популарније или ауторитативније од других. Већина претраживача користи методе рангирања како би осигурале најбоље резултате.
Како претраживач одлучује које странице најбоље одговарају упиту, иу којем редослиједу су пронађени извори, увелико се разликује од једног до другог робота. Ове методе се такође временом мењају, јер се употреба интернета и развој нових технологија мењају.
Постоје два главна типа претраживача. Први је систем предефинисаних и хијерархијски уређених кључних речи којима су га људи масовно програмирали. Други је систем који генерише “инвертовани индекс” анализирајући пронађене текстове.
Већина претраживача су комерцијалне услуге које подржавају приходи од оглашавања, тако да неке од њих омогућавају оглашивачима да имају оцјену у приказаним резултатима за одређену накнаду. Услуге које не прихватају новац за рангирање зарађују новац покретањем контекстуалних огласа поред приказаних локација. Данас је промоција у претраживачима једна од најпрофитабилнијих зарада у мрежи.
Гоогле је најпопуларнија тражилица на свету са тржишним учешћем од 80,52% од марта 2017. године.
Укупна оцјена најчешћих услуга (са тржишним учешћем од више од 1%) изгледа овако:
У Русији и неким земљама Источне Азије, Гоогле није најпопуларнија услуга. Међу руским корисницима, Иандек претраживач води у популарности (61,9%) у поређењу са Гооглеом (28,3%). У Кини, Баиду је најпопуларнија услуга. Јужна Кореја Сеарцх Портал - Навер се користи за 70% посто онлине претраживања у земљи. Алсо Иахоо! у Јапану и Тајвану је најпопуларнији алат за проналажење правих података.
Други познати руски претраживачи су Маил и Рамблер. Са почетком развоја Рунета, они су били широко популарни, али сада су изгубили много својих позиција.
Иако су претраживачи програмирани да рангирају веб странице на основу неке њихове популарности и релевантности, емпиријске студије указују на различите политичке, економске и социјалне критерије за одабир информација које пружају. Ове предрасуде могу бити директна посљедица економских (на примјер, компаније које оглашавају тражилицу такођер могу постати популарније у редовним резултатима претраживања) и политичких процеса (на примјер, брисање резултата претраживања у складу с локалним законима). Дакле, Гоогле неће приказати неке неонацистичке локације у Француској и Њемачкој, гдје је порицање холокауста незаконито.
Глобални раст Интернета и електронских медија у муслиманском свијету током протекле деценије потакнуо је исламске присташе на Блиском истоку и азијском потконтиненту да покушају створити властите претраживаче и филтриране портале који ће омогућити корисницима да изврше сигурно претраживање.
Такве услуге садрже филтере који даље класифицирају веб странице као „халал“ или „харам“ на основу тренутне стручне интерпретације „Закона о исламу“.
Портал ИмХалал се појавио онлине у септембру 2011, а Халалгооглинг - у јулу 2013. године. Они користе хараам филтере базиране на алгоритмима из Гоогле-а и Бинга.
Друге тражилице оријентисане на религију су Јевгле (јеврејска верзија Гоогле-а), као и Цхристиан СеекФинд.орг. Они филтрирају сајтове који поричу или понижавају њихову веру.