
Nel mio precedente articolo, Il web semantico e la teoria dei codici semantici: come rendere più “intelligenti” i motori di ricerca, abbiamo visto cosa sono il web semantico e i motori di ricerca semantici. Ora proviamo ad esaminare un’altra strada che conduce alla realizzazione di qualcosa che sia avvicina ad un algoritmo di ricerca semantica, o che quantomeno consente di rendere più efficienti i motori di ricerca. Si tratta di tecniche di classificazione dei documenti basate su analisi statistiche dei termini contenuti in essi.
ATTENZIONE: quello che hai appena letto è solo un estratto, l'Articolo Tecnico completo è composto da ben 1722 parole ed è riservato agli ABBONATI. Con l'Abbonamento avrai anche accesso a tutti gli altri Articoli Tecnici che potrai leggere in formato PDF per un anno. ABBONATI ORA, è semplice e sicuro.

Questa mi sembra una ricerca molto interessante.
Conoscere gli strumenti che si utilizzano significa averne compreso limiti e possibilità.
Posso fare una domanda un po’ provocatoria, però?
Ma l’esigenza di rendere più intelligenti i motori di ricerca non è un po’ controproducente?
Infondo ricercare significa scartabellare, imparare a distinguere cosa è utile da cosa non lo è…
Se rendiamo i motori di ricerca capacidi interpretare le nostre esigenze quand’anche non siano chiare a noi stessi, ciò non rischia di essere controproducente? 🙂
Perché dovrebbe essere controproducente?
Forse tu, parlando più in generale, intendi dire che, se gli strumenti tecnologici diventassero troppo efficienti, farebbero praticamente tutto loro e noi esseri umani diverremmo inutili e, non dovendo fare più nulla (o quasi) ovvero non dovendo più sforzarci ne fisicamente ne intellettivamente, andremmo inevitabilmente incontro ad una sorta di “atrofizzazione psicofisica” (in parole povere, ci rammolliremmo).
Ecco 🙂
Si, infatti… 😀
Oramai sei quasi un libro aperto per me. 🙂
In ogni modo, forse non hai tutti i torti. Alcuni mesi fa, insegnando matematica al Cepu, sono venuto a conoscenza dell’esistenza di calcolatrici scientifiche in grado di risolvere persino gli integrali indefiniti. La cosa mi procurò un misto di stupore e perplessità; pensai: di questo passo, fra qualche lustro nessuno dovrà più studiare o imparare nulla: faranno tutto i software, i computer e le macchine.
Ottimo articolo ed interessante trattazione matematica, vorrei però aggiungere alcune considerazioni:
quando si parla di motori di ricerca, parlerei nello specifico di Google e quindi proprio a biG mi riferirò successivamente. L’algoritmo di ricerca e presentazione della serp è ben segreto, ma ormai da parecchio tempo sembra che venga usata anche la semantica, quindi LSI e parole simili (es. a Cupertino viene associata Apple).
Il problema principale però è stato relativamente alla seo, quella professione per la maggior parte volta a scalare la serp con specifiche parole chiave. Ovviamente G ha messo in campo tutte le sue armi per contrastare tale fenomeno ma, a mio avviso, quello più efficace (anche più delle penalizzazioni da sovraottimizzazione) è stato proprio l’introduzione di un algoritmo RND in grado di far impazzire i rivali (seo).
Quindi affermerei che più l’algoritmo è preciso e maggiore rilevanza deve avere la parte random, quindi (forse) meno l’algoritmo è preciso e meglio è!
Aggiungerei anche, per completezza, che la serp è dettata pesantemente anche dai backlinks.
Il paradosso dell’automazione può creare danni enormi!
http://it.emcelettronica.com/disastro-volo-air-france-447-tra-le-cause-paradosso-dell’automazione