Realizziamo un crawler tra open data, leggi ed architettura software

Internet è una immensa fonte di dati in continua espansione con la quale siamo ormai abituati ad interagire per recuperare ciò che ci serve, senza perderci in questa enorme mole di informazioni,  grazie all’utilizzo dei motori di ricerca. Ma come fanno questi ultimi ad aggiornare e recuperare le informazioni del web? Questo avviene perché la rete è continuamente setacciata da “ragni” che ne catturano i contenuti (ovvero i siti web ed i dati ivi compresi) e li inseriscono in un indice. Proviamo a realizzare uno di questi spider per catturare contenuti a carattere legale e scaricarli in locale.

ATTENZIONE: quello che hai appena letto è solo un estratto, l'Articolo Tecnico completo è composto da ben 1294 parole ed è riservato agli ABBONATI. Con l'Abbonamento avrai anche accesso a tutti gli altri Articoli Tecnici che potrai leggere in formato PDF per un anno. ABBONATI ORA, è semplice e sicuro.

Scarica subito una copia gratis

2 Commenti

  1. Avatar photo Gius_Res 19 Giugno 2014
  2. Avatar photo Daniele Bertaggia 19 Giugno 2014

Scrivi un commento

Seguici anche sul tuo Social Network preferito!

Send this to a friend