Leggi le ultime novità dal web

Google: aggiornamento Penguin, come cambierà il link building?

Google: aggiornamento Penguin, come cambierà il link building?

12 Aprile 2013

Federica Agostini

SEO

A meno che sino a ieri non abbiate dormito sotto un sasso, sicuramente avrete sentito parlare dell’imminente aggiornamento, dalle proporzioni significative, che Google sta per apportare all’algoritmo Google Penguin.

Dopo che il lancio iniziale di Penguin ha colto di sorpresa parecchi utenti, sarà bene questa volta prepararsi a ciò che potrebbe essere in agguato dietro l’angolo.

Google Penguin: cosa ne sappiamo sino ad oggi

Sappiamo che Penguin è un filtro di qualità dei link che si trova sulla cima dell’algoritmo di base, viene aggiornato sporadicamente (l’ultimo aggiornamento ufficiale risale all’ottobre del 2012) ed è progettato per individuare quei siti che utilizzano tecniche manipolative per migliorare la propria visibilità di ricerca.

Così, mentre ci sono stati molti esempi di mala esecuzione, con molti gestori di siti e professionisti SEO che parlano di ingiustizia, appare evidente che gli ingegneri dello spam sul web abbiano raccolto una quantità di informazioni in questi ultimi mesi, riuscendo ad ottenere buoni risultati in molti mercati verticali.

Questo significa che il team Google è in cima ad una pila di dati esistenti e risultati dei test e, di conseguenza, è alla ricerca di un cambiamento strutturale significativo nella modalità con cui il filtro opera.

Sappiamo anche ne nei mesi precedenti, il gigante della Silicon Valley ha raccolto una quantità senza precedenti di dati sui "cattivi" link che fino a poco tempo fa alimentavano le classifiche, nascondendo migliaia di siti ad alto profilo.

In breve, la nuova pentola di dati Google fa parte di un progetto di collezione dei dati che somiglia ad un registro di scuola! Tutto ciò che sappiamo, ci porta a supporre che Google stia puntando ad un qualcosa di più intelligente e onnicomprensivo.

A questo punto la domanda è: com’è possibile dare un profilo ai nostri link e capire se c’è o meno la possibilità di essere colpiti nei prossimi mesi (o settimane), quando Penguin sarà aggiornato?

Diamo uno sguardo ad una serie di teorie basate sull’evidenza.

Il DNA dei link

Google sa molto sui "link cattivi", sa come sono fatti, dove trovarli: ne comprende il DNA. Una volta iniziata la ricerca, sarà facile individuare i link che confondono le acque.

Il grafico dei link è una sorta di grafico a rete costituito da una serie di "nodi" o cluster. I cluster si formano attorno agli indirizzi IP e di conseguenza diventa relativamente facile iniziare a costruire un quadro delle proprietà o delle associazioni. Un esempio illustrativo può essere quello qui sotto:

Google assegna un peso o una autorità ai link utilizzando la propria metrica del PageRank, ma come ogni altra metrica anche questa è limitata e ciò significa che tutti dobbiamo lavorare sodo.

Ciò significa che tutti i siti che usano l’autorità "manipolativa" per raggiungere un rank superiore, saranno collegati all’area o alle aree del grafico associate con altri siti che fanno lo stesso. Il pageRank non è infinito.

Questi, "cattivi vicini" possono essere "estratti", analizzati e sganciati da Google con relativa facilità, lasciando che il grafico di partenza somigli più o meno a questo:

Questi siti non spariranno nel nulla, ma semplicemente verranno degradati e rimossi dal quadro della PageRank, rendendoli sostanzialmente inutili.

Si prevede che questo processo diventi molto più rapido ora che il Gigante è in possesso di un così elevato numero di "link spammosi".

La preoccupazione è certamente che possano verificarsi danni collaterali, ma con le dovute accortezze ed un ribilanciamento della metrica (che è poi ciò in cui consiste l’aggiornamento), ci saranno certamente vincitori e perdenti.

Velocità dei link

Un’area di interesse è sicuramente la velocità con la quale un sito ottiene link. Negli ultimi mesi c’è stato un cambiamento significativo nella maniera in cui vengono trattati i nuovi link. Anche se si tratta di un discorso teorico, la mia idea è che Google sia diventato molto più abile nel determinare i "picchi" di velocità e tutto ciò che resta fuori dall’ordinario viene immediatamente svalutato.

Non so dire se questo processo sia limitato nel tempo o indeterminato, ma ci sono correlazioni certe tra i siti che guadagnano costantemente nuovi link e il loro avanzamento in classifica. Quelli che ottengono troppi link troppo in fretta, non ottengono lo stesso buon risultato.

Inoltre, sarebbe relativamente più semplice muoversi nel modello Penguin, se questo non esistesse già. Il grafico in basso mostra un tipo di un profilo di acquisizione link "irregolare" segnando un esempio di tutto ciò che potrebbe essere svalutato perché considerato al di sopra del "normale".

Link trust

Il "trust" (credibilità) di un link è un altro elemento che interessa a Google. La qualità è una cosa (quanto "succo" porta quel link), ma il trust è una cosa completamente differente.

Seo Majestic ha identificato questa realtà con il lancio della nuova metrica della Citazione e flusso di trust che aiuta ad identificare i link privi di trust.

Come si misura il trust? Ancora una volta, in parole semplici, si tratta di buoni e cattivi vicini.

A mio parere, Google usa l’algoritmo Hilltop che identifica i detti "expert documents" (siti web) nella rete e che possono essere considerati come il fiore all’occhiello del trust! Più il tuo sito si avvicina a questi documenti, migliore sarà il vicinato. Insomma, tutto sta nel vivere nella strada "giusta".

Se il tuo profilo link contiene una buona porzione di link provenienti da siti accreditati, questi funzioneranno come "scudo" per i futuri aggiornamenti degli algoritmi e permetteranno di soprassedere in caso di link meno credibili.

Segnali dai social network

Molti professionisti SEO ritengono che i segnali provenienti dai social giocheranno un ruolo più significativo nella prossima versione di Penguin.

Mentre l’autorità sul social, per come sta emergendo, ha grande validità in alcuni mercati, ha anche d’altra parte alcune limitazioni. Molti portali hanno poca o nessuna interazione sul social e, senza una grande quantità di dati e sistemi che qualifichino la qualità delle condivisioni sui social network, il sistema non potrebbe funzionare correttamente.

Nell’industria del marketing digitale, certamente questo funzionerebbe alla grande, ma al momento questo non sembra essere il punto di partenza.

Google+ è il tentativo di Google di riempire questo vuoto e, costringendo gli utenti a lavorare ad accesso effettuato, stanno tentando di avvicinare chiunque al Plus, per ottenere quei dati mancanti.

In linea di principio, è tuttavia possibile supporre che la condivisione sui social network venga utilizzata in minima parte per qualificare la qualità dei link.

Anchor text

Molti professionisti SEO ritengono che gli Anchor Text siano la chiave metrica principale quando si tratta di individuare link di spam. Il primo rollout di Penguin ha senza dubbio utilizzato questi dati per avviare il processo di indagine della qualità dei link.

Ho chiesto ad alcuni SEO professionisti la loro opinione su quale sia l’indicatore primario dei link spam e la maggior parte di loro mi ha risposto che è l’Anchor Text.

"Quando cerco link spam, il primo posto in cui vado a guardare è l’anchor text dei siti con un DA (domani authority) di 30 o più caratteri" dice John Doherty, di Distilled. "È lì che si nasconde la maggior parte dello spam".

Anche Adam Mason di Zuzzle condivide la stessa opinione: "Senza dubbio, lo scarso valore dei link da un sito con anchor text commerciali sarà nel mirino e, personalmente, anch’io guardo sempre al trust dei link".

La chiave sta nella relazione tra gli anchor text brandizzati e non. Qualsiasi profilo naturale sarà fortemente guidato dal marchio (ad esempio www.example.com/xxx.com) e gli anchor definiti "white noise" (come "clicca qui" o "sito").

La percentuale ammissibile si sta stringendo. Un recente studio di Portent ha scoperto che la percentuale di link spam "ammissibile" si è ridotta da mesi, attestandosi a circa l’80 per cento dell’epoca pre-Penguin e al 50 per cento della fine dello scorso anno. Lo stesso vale per gli anchor text che riportano le stesse parole.

E dobbiamo immaginare che questo controllo diventi sempre più stretto, vista l’aumentata comprensione di Google di come sia davvero la forma di un link naturale.

Rilevanza

La rilevanza sarà certamente un settore al microscopio, visto che Google cerca di migliorare la propria competenza semantica. Il punto è che si costruisce un quadro di associazioni di categoria in cui possono essere utilizzati i dati per assegnare più peso ai link pertinenti. Penguin prenderà certamente di mira i legami senza nessuna rilevanza per il futuro.

Metriche di traffico

Se i parametri di traffico riguardano più Panda che Penguin, il confine tra i due si va sempre più confondendo e ad un certo punto questi diventeranno indistinguibili. Panda è già stato inglobato nell’algoritmo di base e Penguin lo seguirà.

Su questa base, Google potrebbe ben guardare ai parametri di traffico, come le visite dai link e la qualità di queste visite in base ai dati degli utenti.

Consigli

Nessuno è in grado di prevedere accuratamente come sarà la prossima generazione di Penguin, ma ciò di cui possiamo essere sicuri è che Google impugnerà il coltello dal manico, rendendo il link building, nel suo senso più stretto, una tattica quanto mai rischiosa. Come sottolineato da molti post sul web, a questo punto, si tratta di guadagnare i link contribuendo e aggiungendo valore mediante il contenuto.

Secondo il mio parere, vedremo un ulteriore restringimento del campo di quello che oggi è considerato come livello accettabile di spam e se si trattasse dei miei soldi, inizierei a misurare l’autorità della mia rete di link. Anche la velocità con la quale si guadagnano i link sarà sotto controllo, per questo bisognerebbe pensare a:

  • Comprendere nel dettaglio la rete di collegamenti, per questo punto possono essere utili gli strumenti e i dati aziendali come quelli di Majestic, Ahrefs, CognitiveSEO e altri necessari a ridurre i rischi.
  • L’origine dei link son solo come livello della qualità, ricordando che ora il Trust è una metrica chiave.
  • Aumentare l’uso di anchor text con marchio e del "white noise" per ridurre i problemi legati all’esatta corrispondenza dei link.
  • Cercare siti che ricevono molte condivisioni sui social network, relativi alla nicchia specifica del vostro sito e iniziare a costruire con questi relazioni.
  • Ricontrollare i collegamenti dai siti dai quali si ottengono link per assicurarsi della qualità e che non provengano da quei "cattivi vicini" che potrebbero influenzare negativamente il tuo sito.
Traduzione italiana di Federica Agostini Fonte: SearchEngineWatch

New Com Web Srls - Via di Vigna Fabbri, 5 - 00179 Roma (RM) - C.F./P.Iva 13586351002 - REA: RM-1458775
Informativa sulla Privacy | Contatti