
Почему на своем жестком диске слово ищется в файлах долго, а в сети быстро?

Поиск в сети ведется по индексам. Грубо говоря, поисковая система хранит на каждое слово список документов, которые это слово содержат. Так что для того, чтобы найти нужную информацию, нужно разбить поисковый запрос на отдельные слова и найти документы, в которых встречается каждое из слов, а затем уже область поиска строки можно ограничить только теми документами, которые включают все слова поискового запроса. Это, конечно, очень упрощенная схема, в реальности все существенно сложнее. Но суть в том, что такие индексы позволяют искать гораздо быстрее, чем прямой перебор. Но для этого нужны сами индексы, построение которых -- это отдельная работа. В поисковых системах этим занимаются специальные так называемые поисковые роботы -- скрипты, которые обходят все страницы сайтов, "вытаскивая" из них тексты.
В современных операционных системах появляются системы локального поиска, действующие по такому же принципу. Однако постоянная индексация файлов создает значительную нагрузку на процессор и дисковую подсистему, увеличивая шумность и прожорливость компьютера, да и полная индексация всего терабайтного диска с миллионами файлов займет несколько месяцев. И производительность такой поисковой системы на единственной машине со слабенькими процессором, памятью и дисковой подсистемой все равно будет далеко не той, что получается на кластерах из десятков тысяч высокопроизводительн