Home
Accesso / Registrazione
 di 

Altri modi di rendere più "intelligenti" i motori di ricerca

immag

Nel mio precedente articolo, Il web semantico e la teoria dei codici semantici: come rendere più "intelligenti" i motori di ricerca, abbiamo visto cosa sono il web semantico e i motori di ricerca semantici. Ora proviamo ad esaminare un'altra strada che conduce alla realizzazione di qualcosa che sia avvicina ad un algoritmo di ricerca semantica, o che quantomeno consente di rendere più efficienti i motori di ricerca. Si tratta di tecniche di classificazione dei documenti basate su analisi statistiche dei termini contenuti in essi.

Contenuto esclusivo per gli ABBONATI PLATINUM di Elettronica Open Source.

Leggi subito tutto l'articolo e poi ricevilo in PDF all'interno di EOS-Book insieme a tanti altri vantaggi offerti dall'Abbonamento Platinum! Diventa Utente PLATINUM

SCOPRI TUTTI I VANTAGGI DI UN ABBONAMENTO ANNUALE CHE COMPRENDE ANCHE TUTTO L'ARCHIVIO

 

 

 

 

 

Scrivi un commento all'articolo esprimendo la tua opinione sul tema, chiedendo eventuali spiegazioni e/o approfondimenti e contribuendo allo sviluppo dell'argomento proposto. Verranno accettati solo commenti a tema con l'argomento dell'articolo stesso. Commenti NON a tema dovranno essere necessariamente inseriti nel Forum creando un "nuovo argomento di discussione". Per commentare devi accedere al Blog
ritratto di Piero Boccadoro

Questa mi sembra una ricerca

Questa mi sembra una ricerca molto interessante.
Conoscere gli strumenti che si utilizzano significa averne compreso limiti e possibilità.
Posso fare una domanda un po' provocatoria, però?
Ma l'esigenza di rendere più intelligenti i motori di ricerca non è un po' controproducente?
Infondo ricercare significa scartabellare, imparare a distinguere cosa è utile da cosa non lo è...
Se rendiamo i motori di ricerca capacidi interpretare le nostre esigenze quand'anche non siano chiare a noi stessi, ciò non rischia di essere controproducente? :)

ritratto di Marco Giancola

Perché dovrebbe essere

Perché dovrebbe essere controproducente?

ritratto di Marco Giancola

Forse tu, parlando più in

Forse tu, parlando più in generale, intendi dire che, se gli strumenti tecnologici diventassero troppo efficienti, farebbero praticamente tutto loro e noi esseri umani diverremmo inutili e, non dovendo fare più nulla (o quasi) ovvero non dovendo più sforzarci ne fisicamente ne intellettivamente, andremmo inevitabilmente incontro ad una sorta di "atrofizzazione psicofisica" (in parole povere, ci rammolliremmo).

ritratto di Piero Boccadoro

Ecco :) Si, infatti... :D

Ecco :)
Si, infatti... :D

ritratto di Marco Giancola

Oramai sei quasi un libro

Oramai sei quasi un libro aperto per me. :)
In ogni modo, forse non hai tutti i torti. Alcuni mesi fa, insegnando matematica al Cepu, sono venuto a conoscenza dell'esistenza di calcolatrici scientifiche in grado di risolvere persino gli integrali indefiniti. La cosa mi procurò un misto di stupore e perplessità; pensai: di questo passo, fra qualche lustro nessuno dovrà più studiare o imparare nulla: faranno tutto i software, i computer e le macchine.

ritratto di Emanuele

Il paradosso dell'automazione

Il paradosso dell'automazione può creare danni enormi!

http://it.emcelettronica.com/disastro-volo-air-france-447-tra-le-cause-paradosso-dell’automazione

ritratto di Emanuele

LSI e motori di ricerca

Ottimo articolo ed interessante trattazione matematica, vorrei però aggiungere alcune considerazioni:

quando si parla di motori di ricerca, parlerei nello specifico di Google e quindi proprio a biG mi riferirò successivamente. L'algoritmo di ricerca e presentazione della serp è ben segreto, ma ormai da parecchio tempo sembra che venga usata anche la semantica, quindi LSI e parole simili (es. a Cupertino viene associata Apple).

Il problema principale però è stato relativamente alla seo, quella professione per la maggior parte volta a scalare la serp con specifiche parole chiave. Ovviamente G ha messo in campo tutte le sue armi per contrastare tale fenomeno ma, a mio avviso, quello più efficace (anche più delle penalizzazioni da sovraottimizzazione) è stato proprio l'introduzione di un algoritmo RND in grado di far impazzire i rivali (seo).

Quindi affermerei che più l'algoritmo è preciso e maggiore rilevanza deve avere la parte random, quindi (forse) meno l'algoritmo è preciso e meglio è!

Aggiungerei anche, per completezza, che la serp è dettata pesantemente anche dai backlinks.

 

 

Login   
 Twitter Facebook LinkedIn Youtube Google RSS

Chi è online

Ci sono attualmente 10 utenti e 56 visitatori collegati.

Ultimi Commenti