Come funzionano i motori di ricerca

By | 6 febbraio 2014

Come funzionano i motori di ricercaLe operazioni svolte da un motore di ricerca (Google, Bing, Yahoo!, solo per citare i più utilizzati) sono principalmente quattro, e si possono schematizzare come segue:

  • scansione delle pagine web;
  • costruzione dell’indice (indicizzazione);
  • creazione delle classifiche (calcolo della pertinenza);
  • fornitura dei risultati.

 

Scansione ed indicizzazione

Il World Wide Web si può considerare astrattamente come la rete delle fermate della metropolitana di una grande città. Ognuna di queste fermate è un documento (può essere una pagina web, così come un file PDF, JPG, ecc.). I motori di ricerca, nella loro funzione di scansione del Web, devono riuscire a “trovare” tutte le fermate (o almeno, tutte quelle alle quali possono accedere), utilizzando il percorso migliore. Utilizzando strumenti automatici (“crawler” o “spider”) dovranno raggiungere i molti miliardi di documenti interconnessi tra di loro.

Una volta trovate queste pagine, il passo successivo è quello di analizzare il codice presente in queste, e provvedere alla memorizzazione selettiva di alcune parti in un archivio, in modo che possa essere interrogato, e fornire i risultati richiesti, in un secondo momento. Naturalmente questo è un compito “monumentale”: analizzare ed ottenere risultati in poche frazioni di secondo, quando già un tempo di risposta di pochi secondi può causare insoddisfazione da parte dell’utente, da una base dati comprendente miliardi di pagine e documenti!

In diverse città, sparse in tutto il mondo, sono presenti datacenter, ognuno dei quali può contenere anche migliaia di macchine, per il trattamento di una quantità inimmaginabile di informazioni, in modo da poter rispondere il più velocemente possibile.

 

Fornitura dei risultati

Quando viene effettuata una ricerca online su di un particolare motore di ricerca, è necessario innanzitutto che questo esamini la propria base dati, composta dal corpo di miliardi di documenti, al fine di restituire solamente i risultati “pertinenti” con i termini ricercati, ordinati a seconda della loro “rilevanza”.

Ed è proprio nei confronti della rilevanza e della pertinenza delle pagine di un sito web, che il processo di ottimizzazione SEO ha la propria maggior influenza.

Pertinenza non vuol dire semplicisticamente che una pagina contiene i termini ricercati, e che li espone in maniera visibile. Gli ingegneri del web, nel corso degli ultimi anni, hanno progressivamente sviluppato specifici algoritmi, al fine di identificare i migliori risultati. Al giorno d’oggi, infatti, esistono centinaia di fattori diversi che concorrono al calcolo della pertinenza, specifica per una determinata pagina o sito web, molti dei quali verranno analizzati nel corso di questa guida all’ottimizzazione SEO.

Il concetto di rilevanza (a volte identificato come importanza) è altrettanto difficile da quantificare, ed i motori di ricerca sono soliti interpretarlo come “popolarità”. Nel corso degli anni, infatti, nella pratica operativa ha avuto sempre maggior successo la semplificazione del concetto, che più popolare è un sito (o una pagina) web, più sono preziose le informazioni contenute.

Il computo dei fattori di pertinenza e rilevanza viene effettuato ciclicamente dai server presenti nei datacenter dei motori di ricerca, mediante l’utilizzo di algoritmi innovativi, che tengono in considerazione centinaia di fattori diversi. Questi, che concorrono a stilare una vera e propria “graduatoria” di pagine e siti web, relativamente alle diverse keywords e keyphrases ricercabili, hanno un diverso peso, che viene ponderato in maniera differente dai singoli motori di ricerca.

Possiamo quindi identificare quelli che, al momento, possono essere generalmente i fattori più importanti che concorreranno alla formazione di questa “graduatoria”. Quelli “positivi” faranno migliorare la posizione del vostro sito/ pagina web all’interno delle SERP (Search Engine Results Page – Pagina dei Risultati dei Motori di Ricerca); altresì, quelli “negativi” lo faranno invece “sprofondare”.

 

I quattro “fattori di graduatoria” positivi più importanti:

  1. Link esterni alla pagina web contenenti la keyword nell’anchor text (il testo, visibile e cliccabile, di un hyperlink, normalmente di colore blu e sottolineato);
  2. popolarità dei link esterni (quantità e qualità dei link esterni);
  3. diversità delle fonti dei link esterni (numero di link da domini diversi);
  4. utilizzo di keyword all’interno del “Title Tag” (l’elemento che contiene il titolo della pagina, richiesto in tutte le pagine HTML/XHTML).

 

I quattro “fattori di graduatoria” negativi più importanti:

  1. Pratiche di “cloaking” con intenti maliziosi di manipolazione dell’indicizzazione;
  2. acquisizione di link esterni da fonti esterne conosciute come inaffidabili;
  3. presenta di link a pagine/siti contenenti spam o malware in generale;
  4. inacessibilità frequenti e/o estrema lentezza da parte dei server che ospitano il sito web.

 

Come avere successo con le pratiche di ottimizzazione SEO?

Gli algoritmi dei motori di ricerca sono complicatissimi, ed a prima vista vi potranno risultare impenetrabili, anche perchè gli stessi motori forniscono pochissime informazioni, in merito al loro funzionamento specifico. Le poche informazioni al momento rese ufficialmente disponibili, al fine di ottenere un posizionamento migliore, e quindi attrarre un maggior numero di visitatori, sono quelle pubblicizzate dagli stessi come “best practices”, e quindi riportate di seguito.

 YAHOO: Best practices SEO per i webmaster

  • Numero di di link esterni;
  • pubblicazione di contenuto originale;
  • frequenza degli aggiornamenti.

BING: Best practices SEO per i webmaster

  • I termini utilizzati come query di ricerca, se presenti nel contenuto visibile della pagina, identificano informazioni da poter trovare sul tuo sito;
  • limite alla “pesantezza” delle pagine, che dovranno essere di dimensioni “ragionevoli” (indicativamente 150 KB per una pagina HTML, senza considerare le immagini);
  • ogni pagina dovrebbe essere accessibile da almeno un link testuale statico.

GOOGLE: Best practices SEO per i webmaster

  • Bisogna sempre ricordare che le pagine sono rivolte agli utenti, non ai motori di ricerca. Il tentativo di ingannare i motori di ricerca, presentando un contenuto diverso rispetto a quello visibile agli utenti, che è comunemente denominato cloaking, ed è fortemente penalizzato;
  • la struttura gerarchica del sito web dovrà essere formalmente corretta, ed per ogni pagina dovrà essere presente almeno un link testuale statico;
  • curare i contenuti del sito, che dovranno essere originali, utili e ricchi di informazioni, grammaticalmente corretti;
  • relegare i link che puntano a domini esterni in una specifica pagina, e comunque in numero ragionevole (non più di 100).

 

La ricerca online sul web, e quindi i motori di ricerca, esistono da non meno di 15 anni. In questo periodo, chi si è occupato di marketing per i motori di ricerca è riuscito ad estrarre informazioni sulle modalità di classificazione dei siti e delle pagine web. Così come loro, anche noi di Excelsa aiutiamo i nostri clienti nell’impresa di ottenere un miglior posizionamento per il loro sito web.

I motori di ricerca, nel loro continuo processo di innovazione, supportano molti di questi sforzi, anche se la visibilità pubblica viene tenuta volontariamente bassa. Convegni di search marketing, quali il Search Marketing Expo, il WebMasterWorld, il Search Engine Strategies, ecc., coinvolgono ingegneri e rappresentanti dei principali motori di ricerca, così come (occasionalmente) viene fornito supporto a blog, forum e gruppi, frequentati da webmaster che si occupano di ottimizzazione SEO.

In ogni caso, lo strumento “principe” per analizzare il comportamento dei vari motori di ricerca, è sempre quello degli esperimenti e delle prove specifiche, effettuate da webmaster che cercano conferme a loro teorie ed opinioni, e che spesso mettono a disposizione degli altri i loro risultati. Si tratta di un processo lento, ma è stato proprio in questo modo che una grandissima quantità di informazioni, in merito al funzionamento dei motori di ricerca ed all’ottimizzazione SEO, è stata ottenuta ed analizzata.