« Back to Glossary Index

Un Web Crawler (chiamato anche spider o robot) è un programma utilizzato per navigare il World Wide Web e raccogliere informazioni da siti web. I Web Crawler scansionano i siti web seguendo i collegamenti tra le pagine e raccolgono informazioni come il testo, le immagini e i link. Queste informazioni vengono quindi utilizzate per creare indici di ricerca, analizzare il traffico del sito web e monitorare il contenuto delle pagine. I motori di ricerca come Google utilizzano i Web Crawler per creare i loro indici di ricerca, ma anche altre aziende e ricercatori utilizzano questi programmi per raccogliere dati.

« Torna all'indice