Spider

Eugenio Tommasi

Gli Spiders

Uno spider è anche chiamato crawler (o robot), ed è un software che permette di analizzare i contenuti di un sito web, o database, in maniera automatica e periodica, di solito per conto di motori di ricerca (Google, Bing, Yahoo, etc.) o di strumenti e software professionali per la gestione ed analisi seo dei siti internet.

Di seguito una lista con alcuni dei nomi di spider dei principali motori di ricerca:

Googlebot | Google
Slurp Inktomi | Yahoo!
Scooter | Altavista
Mercator | Altavista
Ia archiver Alexa | Internet Archive
Yahoo! Slurp | Yahoo
Romilda | Facebook

Gli spiders quindi (dall’inglese “ragno“) sono dei robots inviati dai motori di ricerca a scansionare un sito web, al fine di trovare tutte le informazioni necessarie da inserire nell’indice dei motori di ricerca, che successivamente permette al motore l’indicizzazione e il posizionamento dei siti in base alle query di ricerca effettuate dagli utenti.