Approfittane ora!

Realizziamo un crawler tra open data, leggi ed architettura software

Internet è una immensa fonte di dati in continua espansione con la quale siamo ormai abituati ad interagire per recuperare ciò che ci serve, senza perderci in questa enorme mole di informazioni,  grazie all’utilizzo dei motori di ricerca. Ma come fanno questi ultimi ad aggiornare e recuperare le informazioni del web? Questo avviene perché la rete è continuamente setacciata da “ragni” che ne catturano i contenuti (ovvero i siti web ed i dati ivi compresi) e li inseriscono in un indice. Proviamo a realizzare uno di questi spider per catturare contenuti a carattere legale e scaricarli in locale.

ATTENZIONE: quello che hai appena letto è solo un estratto, l'Articolo Tecnico completo è composto da ben 1294 parole ed è riservato agli ABBONATI. Con l'Abbonamento avrai anche accesso a tutti gli altri Articoli Tecnici e potrai fare il download in formato PDF eBook e Mobi per un anno. ABBONATI ORA, è semplice e sicuro.

Approfittane ora!

2 Commenti

  1. Gius_Res Gius_Res 19 Giugno 2014
  2. Daniele Bertaggia 19 Giugno 2014

Scrivi un commento

Seguici anche sul tuo Social Network preferito!

Send this to a friend