W każdej książce naukowej lub encyklopedii istnieje coś takiego jak indeks, czyli alfabetyczny spis haseł z odnośnikami do numerów stron, na których można się czegoś dowiedzieć na temat danego hasła. Indeks został stworzony w celu szybkiego odnalezienia informacji na dany temat w obszernej publikacji. Nikt przecież nie czyta encyklopedii od deski do deski, chociaż kto wie? Ja byłem w stanie przeczytać wszystkie informacje z pudełka proszku do prania, nawet w innych językach a potem zliczać ilość występowania jednej litery np. „a” na całym pudełku. Na szczęście teraz są smartfony i mogę czytać cokolwiek i gdziekolwiek zapragnę:) Ale wróćmy do tematu.

Wyobraźmy sobie, że Internet to ogromna, globalna pajęczyna. Pojedyncza nić to link, czy też odnośnik z jednej strony do drugiej, a punkty przecięcia nici to strony internetowe. Teraz wyobraźmy sobie pająka lub wiele takich pająków, które nieustanie, podążając po niciach (linkach) odwiedzają strony internetowe. Te pająki to roboty wyszukiwarek internetowych. Po co to robią? A po to aby zbierać informacje o czym taka strona jest i aby umieścić te dane w indeksie wyszukiwarki. Ten proces nazywamy indeksacją.

O ile indeks w encyklopedii jest poprawny i niezwykle pomocny, ponieważ jest stworzony przez człowieka, to gdyby taki indeks encyklopedii utworzył robot wyszukiwarki efekt nie byłby już taki idealny. Dlaczego? Dlatego, że jest to robot. Robot nie myśli, robot wykonuje instrukcje programu napisanego przez człowieka. Nic więcej nic mniej. Wiem co mówię, bo jestem programistą. Jeżeli program działa poprawnie nawet w najbardziej krytycznych i nieprzewidzianych sytuacjach, to tylko dlatego, że programista uwzględnił te sytuacje podczas tworzenia programu, a nie dlatego, że program „myśli” i jest w stanie na nie zareagować.

Aby robot poprawnie zaindeksował encyklopedię musiałaby być zoptymalizowana pod wyszukiwarkę :)

Warto wspomnieć, że algorytmy Google, czyli programy analizujące zebrane przez roboty informacje ustalając wysokość rankingu (indeksu) danego serwisu internetowego sprawdzają ponad 200 niezależnych od siebie czynników.

Światowy Internet to miliardy stron i miliardy miliardów podstron i dokumentów, a codziennie powstają nowe. Proces indeksacji takiej ilości danych musi być zautomatyzowany, dlatego producenci wyszukiwarek internetowych stale ulepszają swoje roboty aby przedstawić jak najlepsze wyniki dla zapytania wpisanego do okna wyszukiwarki. Obecnie dzięki indeksacji wyszukiwarka Google w 0,5 sekundy przedstawia tysiące stron pasujących do wpisanego zapytania.

Indeksacja

30 stycznia 2019

WRóć DO BLOGA

created by Słoneccy.pl

Strony internetowe Strzelce Opolskie

Zapraszamy do kontaktu!

Pozycjonowanie Strzelce Opolskie
Obsługa stron internetowych Strzelce Opolskie