Регистрация
Войти
Стать экспертом Правила
Информатика

Какую информацию о веб-странице собирает поисковый робот?

ОТВЕТЫ

Поисковый робот – это программа, которая в автоматическом режиме осуществляет переходы по сайтам через ссылки на них и индексирует содержимое страниц.

Порядок просмотра страниц и регулярность последующих визитов определяется алгоритмами поисковой машины. Используя файл robots.txt, в котором содержатся инструкции для поисковых роботов, владелец сайта может запретить индексирование, как всего сайта, так и некоторых его страниц.

Существуют следующие типы поисковых роботов:

национальный поисковый робот: собирает информацию с одного домена (например, .ru), используется в локальных системах поиска;
глобальные поисковые роботы: собирают информацию с различных национальных сайтов, используются в глобальных системах поиска;
индексатор картинок: ведет работу по индексации графики;
индексатор медиа-файлов: ведет работу по индексации файлов формата аудио и видео;
робот-зеркальщик: занимается определением зеркал сайтов;
ссылочный робот: подсчитывает количество ссылок на сайте, ТИЦ и др.;
робот-оформитель: оформляет результаты, выдаваемые поисковой системой;
проверяющий робот: проверяет присутствие ресурса в базе данных и число индексированных документов;
робот-стукач (иначе называется дятел): проверяет доступность сайта или документа, на который имеется ссылка;
робот-шпион: занимается поиском ссылок на сайты, которые не находятся в базе данных системы;
робот-смотритель: перепроверяет полученные результаты;
робот-исследователь: занимается отладкой поискового алгоритма или исследованием конкретных сайтов;
оперативный робот: определяет время последнего обновления сайтов.
294
Контакты
Реклама на сайте
Спрошу
О проекте
Новым пользователям
Новым экспертам