Realizziamo un crawler tra open data, leggi ed architettura software

crawler ti troverò

Internet è una immensa fonte di dati in continua espansione con la quale siamo ormai abituati ad interagire per recuperare ciò che ci serve, senza perderci in questa enorme mole di informazioni,  grazie all’utilizzo dei motori di ricerca. Ma come fanno questi ultimi ad aggiornare e recuperare le informazioni del web? Questo avviene perché la rete è continuamente setacciata da “ragni” che ne catturano i contenuti (ovvero i siti web ed i dati ivi compresi) e li inseriscono in un indice. Proviamo a realizzare uno di questi spider per catturare contenuti a carattere legale e scaricarli in locale.

Contenuto riservato agli abbonati PLATINUM. ABBONATI ORA.

2 Comments

  1. Gius_Res Gius_Res 19 giugno 2014
  2. Daniele Bertaggia 19 giugno 2014

Leave a Reply