Najbardziej popularne są wyszukiwarki oparte na analizie treści strony. Przeszukują one Internet analizując zawartość stron. Kiedy użytkownik poda wyszukiwarce zapytanie, ona odpowie mu łączami do stron, które uzna, w zależności od użytego algorytmu, za najbardziej odpowiednie. Wyszukiwarki oparte n
Z czasem wyszukiwarki zaczęły stosować analizę topologii sieci. Tak więc stronę uważa się za odpowiadającą zapytaniu „jabłecznik”, jeśli wiele stron na temat „jabłecznik” do niej linkuje. Strona z przepisami na jabłecznik, niezależnie od własnej treści, i niezależnie od całkowitej liczby linków na n

Z czasem wyszukiwarki zaczęły stosować analizę topologii sieci. Tak więc stronę uważa się za odpowiadającą zapytaniu „jabłecznik”, jeśli wiele stron na temat „jabłecznik” do niej linkuje. Strona z przepisami na jabłecznik, niezależnie od własnej treści, i niezależnie od całkowitej liczby linków na nią, nie będzie w ten sposób uznana za związaną z tematem. Natomiast jeśli zada się zapytanie "jabłecznik przepis", strona ta zostanie uznana za istotną, ponieważ linkuje na nią wiele stron o tematyce "przepis".

Początkową istotność na podstawie prostej heurystyki, po czym zwykle używa się algorytmu losowego skakania po linkach.

Pierwszą wyszukiwarką, która zastosowała zaawansowane algorytmy analizy topologii sieci był Google.

Wyszukiwarki oparte na analizie topologicznej są często uważane za bardzo odporne na nadużycia. W rzeczywistości stosunkowo czestym atakiem są spam-systemy automatycznej wymiany linków. Inną formą ataku jest stworzenie dużej ilości gęsto linkowanych stron, z czego wszystkie na ten sam temat. Jest to jednak zadanie trudne i wymagające dużego nakładu pracy, a modyfikując heurystykę wartości początkowych można znacznie ograniczyć ten proceder, którego skala na razie jest minimalna.

Innym pomysłem jest wprowadzony przez Overture (http://overture.com/) system, gdzie strony płacą wyszukiwarce kilka centów za każde kliknięcie, przy czym miejsca są licytowane - strona która daje więcej za kliknięcie znajdzie się wyżej na liście rezultatów. Pozycje płatne są oznaczone jako takie, razem z ceną. System ten jest korzystny dla właścicieli stron - płacą oni tylko za wejścia nie za wyświetlenia.

Twórcy twierdzą, że jest on również korzystny dla użytkownika, gdyż tylko strony, które oferują coś użytecznego z danej dziedziny mogą sobie pozwolić na taką reklamę. Z drugiej jednak strony wiele użytecznych stron jest niekomercyjnych, a nawet przy stronach komercyjnych wyniki będą często nieoptymalne - np. na taką reklamę nie mogą sobie pozwolić strony, które mają niskie marże i oferują produkty po niskich cenach, a jedynie te, które mają wysokie marże i oferują produkty drożej.

Metawyszukiwarki (searchboty)

Metawyszukiwarki, czy też searchboty są to instalowane w komputerze programy przystosowane do jednoczesnego przekazywania zapytań do kilku lub kilkunastu internetowych wyszukiwarek czy katalogów. Z uwagi na to, że każdy z serwisów indeksujących wymaga zazwyczaj od użytkownika stosowania odrębnych reguł filtrowania, przeszukanie zasobów nawet kilku wyszukiwarek wymaga często przechodzenia od strony do strony i powtarzania w kółko tych samych komend. Wykorzystując searchboty oszczędzamy czas podwójnie: unikamy zbędnego klikania i uzyskujemy wyniki od razu z wielu źródeł. Jakby tego było mało, wraz z programem otrzymujemy najczęściej szereg innych mniej lub bardziej przydatnych narzędzi, które pomagają adekwatnie do potrzeb zagospodarować zdobyte informacje. Przykładami takich programów są np. Copernic 2001 Basic, Bingooo, Answwwer, PICgrabber, 007 GoldenEye

Na podobnej zasadzie działają serwisy "wszystko w jednym" (ang. "all in one") Po połączeniu się z takim serwisem użytkownik wpisuje słowa kluczowe w odpowiedni formularz, wyszukiwanie zostaje zlecone kilku znanym wyszukiwarkom. Proces wyszukiwania jest więc znacznie ułatwiony a wyniki poszukiwań trafniejsze. Ich przykładami są m.in.:

Wyszukiwarki specjalne

Sposobem na zwiększenie szansy znalezienia poszukiwanej informacji w sieci WWW są wyszukiwarki wyspecjalizowane. Zasadniczą różnicą między wyszukiwarką wyspecjalizowaną a zwykłą jest zawartość ich zasobów. Wyszukiwarka wyspecjalizowana zawiera w katalogu linki tylko do takich stron, które odpowiadają profilowi danej wyszukiwarki. Innym sposobem na efektywniejsze wyszukiwanie informacji są wyszukiwarki nowej generacji. Oprogramowanie sortujące tych wyszukiwarek decyduje o trafności wyboru odpowiednich linków z bazy danych na podstawie pewnych algorytmów. Jednym ze sposobów jest obliczanie, ile razy dana strona była odwiedzana przez użytkowników i jak długo użytkownicy pozostawali na tej stronie (wg założenia, że strona lepsza jest częściej odwiedzana przez użytkowników). Drugim sposobem jest wyznaczenie trafnej strony na podstawie liczby linków prowadzących do tej strony z serwisów "autorytatywnych" (zawierających odpowiednio duży zasób wartościowych informacji na poszukiwany temat). Przykładowe wyszukiwarki specjalne:

Lista niektórych wyszukiwarek internetowych