Novità SEO: Matt Cutts al Search Marketing Expo (SMX)

Novità per i seo e per il Search Engine Marketing

Da poco si è tenuto, per tutti gli appassionati di seo e SEM, il nuovo SMX (Search Marketing Expo) con Dally Sullivan che ha intervistato alcuni tra i più noti protagonisti del mondo Google e del Search Marketing, trattando gli ultimi aggiornamenti sul web marketing e il search engine marketing.

seo aggiornamenti smx 2014 siattle

Tra i diversi invitati era presente anche Matt Cutts del Web Spam Team di Google, che ha parlato degli ultimi aggiornamenti agli algoritmi Google, dell’ultimo aggiornamento del Panda 4.0, del post hummingbird e delle ultime novità in ambito seo e della con Google in generale.

Il video dell’intero evento può essere visionato qui oppure in basso in questo articolo. Tra gli argomenti trattati nell’intervista, tra i più interessanti, ci sono:

1. Il Panda e aggiornamenti agli Algoritmi di Google

2. Webmaster Tools, Fetch and Render, Riconsideration Request

3. Not Provided

4. Link Building

5. Author Rank

6. Negative seo

7. Ricerca Vocale e Linguaggio Naturale

Il Panda Algorythm

 

Innanzitutto si parla di penalizzazioni e update degli algoritmi di Google. Viene citato l’update Panda 4.0, del quale Google avrà un ulteriore update a breve. Quello che fa Panda, in linea di massima, è scovare e penalizzare i contenuti non di qualità (duplicati, spam, etc.)

In pratica, spiega l’head del Web Spam Team, il primo update del Panda (che è avvenuto a fine maggio 2014) ha colpito principalmente i siti web “spam”, ovvero con contenuti non di qualità.

Si parla quindi di Panda 4.0, e Matt Cutts ammette che, dopo il weekend nel quale il Panda era entrato “violentemente” nell’indice di Google, hanno dovuto ricontrollare qualcosa (forse per aver pompato un po’ troppo gli algoritmi) e re indicizzare alcuni siti che, in realtà, erano stati colpiti pesantemente (forse) senza un valido motivo.

Ciò sembra essere proprio quello che ho descritto nel mio articolo “Penguin 4.0 All About CTR” sulla breve penalizzazione subita dal mio sito, per metà de indicizzato senza un motivo apparente, che dopo pochi giorni è ritornato nuovamente in corsa. Nell’articolo ho analizzato sviluppi e conclusioni di questa mia avventura con il Panda 4.0 (soltanto personali considerazioni, che potrebbero non corrispondere alla realtà).

Nel mio post precedente ho parlato proprio di questo, ovvero di come il mio fosse stato penalizzato e de indicizzato per metà. Probabilmente questo è stato dovuto all’ update del Panda, il 4.0, che ha considerato alcune delle mie pagine poco pertinenti e quindi di bassa qualità. Come spiega Matt Cutts di seguito, al link al minuto esatto in Youtube della conferenza SMX 2014 Siattle, probabilmente alcuni siti sono stati colpiti eccessivamente, motivo per il quale in seguito hanno re indicizzato alcuni di questi siti.

Probabilmente il caso del mio sito, trattato nel post precedente, e della sua re indicizzazione quasi istantanea, è un esempio evidente di questa problematica.

Quindi, l’update di maggio ha colpito principalmente siti con bassa qualità di contenuti. Il nuovo sviluppo, che avverrà a breve o che è già stato messo in atto, penalizza anche e si concentra soprattutto su siti con query considerate “spam” (come ad esempio “casino“, o “casino online” o “buy cheap viagra” etc.).

Dally Sullivan fa a tal proposito un’altra interessante domanda: come mai Google non specifica direttamente in WMT se un webmaster ha subito una penalizzazione derivante da Panda (come già fa per le penalizzazioni con Penguin).

A questa domanda Matt Cutts risponde, giustamente, che mentre con i è più facile indirizzare i webmaster verso i link che hanno impattato e penalizzato il sito, con i contenuti (blog posts, contenuti del sito in generale, article marketing etc.) è più difficile mostrare quale può in realtà essere il post o i post incriminati. Ricorda anche che ci sono oltre 500 algoritmi, e che quindi è difficile poter mostrare da quale algoritmo in particolare si sia stati colpiti.

In WMT le azioni che un webmaster dovrebbe poter intraprendere devono essere precise e immediate, come per la rimozione di link. Nel caso di contenuti, il discorso cambia.

Aggiornamenti in Google Webmaster Tools

 

Ci sono stati diversi update al Webmaster Tools, uno di questi ha riguardato e riguarda la Reconsideration Request, effettuata da coloro che sono stati colpiti da penalizzazioni in seguito a backlinks spam in entrata verso il loro sito.

Per tutti i proprietari di un sito web che hanno già inviato una richiesta di riconsiderazione che è stata respinta, e viene inviata una nuova richiesta di riconsiderazione, questo webmaster potrebbe essere scelto per un incontro più diretto con il web spam team, nel quale si valutano effettivamente, e manualmente, i link che un sito ha in entrata, e si spiegano dinamiche e motivi per i quali qualcosa non era andata bene nella prima richiesta.

google webmaster tools

Un analista del web spam potrebbe quindi, nel breve futuro, contattare direttamente il webmaster tramite WMT e indicare quali sono i link spam che vanno rimossi, o dare indicazioni più precise sulle azioni da intraprendere per rimuovere la penalizzazione dal sito.

Già oggi l’analista del web spam ha la possibilità, quando rifiuta una richiesta di riconsiderazione, di fornire maggiori dettagli e dare più informazioni in relazione al motivo per il quale la richiesta non è stata approvata.

Sullivan chiede come mai non si possa mandare direttamente la lista dei link spam, di modo che il webmaster sappia dove e come muoversi. La risposta è che se lo facessero gli spammers sarebbero agevolati, creandosi link con il black hat e poi utilizzando il disavow tool non appena vengono presi, per poi continuare sempre in questo modo. Quindi per chi ha fatto white hat seo sarà più semplice comunicare ed inviare richieste di riconsiderazione rispetto a chi ha soltanto fatto spam di links con il black hat.

Un’altra interessante novità in Webmaster Tools è in “Visualizza come Google”. Grazie al nuovo “Fetch and Render as Googlebot” è possibile non soltanto comunicare la modifica o il caricamento di una nuova pagina sul sito, ma è anche possibile vedere il codice che effettivamente Google riesce a vedere e quindi scansionare per quella determinata pagina.

Questo è utile se ad esempio si bloccano delle parti di pagina (ad esempio CSS, Jvascript o altro, per la scansione ai motori di ricerca, per capire quali parti della pagina Googlebot non riesce a controllare, e intervenire meglio (se necessario) per risolvere il problema.

Si parla anche di sviluppi futuri in WMT: ad esempio, presto ci sarà più aiuto in Webmaster Tools in relazione ai robots txt (sarà più semplice fare prove online in relazione a come i robots.txt bloccherebbero le diverse pagine del sito).

Stanno già pubblicando una migliore documentazione per muovere e spostare i siti, e per il trasferimento di domini. Ci saranno inoltre report migliori per gli attributi rel=”alternate” della lingua (hreflang), per il cui utilizzo sono stati riscontrati diversi problemi, di webmaster e codici implementati male, dunque non risolvendo il problema di comunicare le pagine in lingua tradotte per i siti multilingua.

3. Perché non ci ridate le Not Provided?

 

Sullivan chiede come mai Google, che ha tutti i mezzi a disposizione, tutti i macchinari, tutte le informazioni, non ci restituisce le keywords not provided. E’ una domanda divertente, alla quale ovviamente Cutts non risponde, se non con una risata.

A tal proposito è però interessante un intervento di John Muller (Google al SuperWeek Hungary 2013), in relazione alla Knowledge Machine. Come fa notare Muller, la ricerca su Google si sposta sempre di più da una ricerca che semplicemente cerca di far combaciare ciò che l’utente digita con le parole chiave presenti all’interno di una pagina. Google diventa sempre di più capace di capire le intenzioni degli utenti, ciò che è effettivamente il loro bisogno, spostandosi da singole parole ad entità, in grado di trovare connessioni tra le ricerche, capire l’intento dell’utente e mostrare non risultati con singole keywords, ma con concetti relativi a ciò che è il bisogno reale dell’utente.

Ecco perché, probabilmente, non abbiamo più le parole chiave cercate dagli utenti, ma abbiamo dei semplici “NOT PROVIDED” o “NOT SET”. Con l’utente loggato in Google, la sua ricerca diventa sempre più personale e una ricerca personalizzata, e Google aiuta l’utente a trovare ciò di cui ha bisogno, grazie a cookies, algoritmi e personalizzazioni dovute proprio alla cronologia di ricerca di tale utente.

A cosa mai potrebbero servire un mucchio di parole chiave in un mondo di ricerca che si muove insieme all’utente, e si modifica insieme a lui?

E’ quindi il momento di non pensare più alle parole chiave, ma all’esperienza globale dell’utente nelle sue ricerche e alla sua esperienza sul sito (User Experience) e off site (User Search Experience).

 

Si parla ancora, nella seo, di link, backlinks e link building. A tal proposito, considerando anche come Google inizia a trattare i link ricevuti dal web, Sullivan chiede:

“Caro Google, dovremmo utilizzare l’attributo nofollow su tutti i nostri link? Come trattate i link? La link building “is dead”? E’ sempre più difficile trovare link veri, autentici e autoritativi”.

La risposta è chiara: la link building è ancora viva, dice Matt Cutts. I link potrebbero anche essere difficili, avere un link che non sia nofollow è sempre più raro. Ma la realtà dei fatti, rivela l’head del Web Spam in Google, è che la maggior parte dei link sul web restano ancora dofollow. E per questo, i link continuano ad avere una grande importanza per la seo.

Nel passato i motori di ricerca quali Altavista non utilizzavano affatto i link come segnale, e le ricerche, per l’80%, funzionavano abbastanza bene. Oggi i link contano. Non se ne può fare a meno (tra l’altro è il modello sul quale Google si basa, e che ha fatto la fortuna del noto motore di ricerca di Mountain View). Oggi risulterebbe difficile posizionare una pagina senza link, quindi qualcosa a riguardo dev’essere fatta.

Ma la link building come servizio non è la soluzione. Chiedere link building come servizio seo è sempre molto rischioso oggi. Per ottenere link bisogna utilizzare la creatività. Se fai qualcosa di interessante ed utile ricevi link in ingresso. Questa è un ottima strategia di link building: fare ricerche, o scrivere qualcosa di utile è sempre un ottimo metodo per ricevere link in ingresso al proprio sito. Postare cose utili ed interessanti risulta sempre essere la migliore strategia per ottenere link.

Comportandosi in questo modo si può crescere in piccole nicche, fino ad arrivare ad un pubblico sempre più grande. Questo è il metodo, questo è quello che va fatto. Giochi semplici di posizionamento, trick che garantiscono il primo posto facilmente ed in poco tempo stanno per scomparire definitivamente. Quindi non basta più comprare un po’ di link per ricevere l’autorevolezza di cui si ha bisogno, ma bisogna trovare qualcosa di autentico, di utile e coinvolgente, e solo in questo modo si posiziona il proprio sito e si cresce nel settore di business che si vuole portare avanti. Fare white hat link building vuole dire essere eccellenti.

Un esempio, spiega Cutts, è proprio quello di SearchEngineLand, per il quale Danny Sullivan ha iniziato da 0, con un nuovo sito, e nel tempo è cresciuto fino a diventare una delle risorse più autorevoli nel campo della seo. Creatività ed eccellenza sono ciò  che aiuta un sito e un’attività a crescere.

5. Authorship e Author Rank

 

Come si pone Google nei confronti dell’autore che scrive i contenuti? Come spiega Matt Cutts, non rivelando comunque la ricetta segreta degli algoritmi Google, l’autore continua ad avere sempre più importanza nei criteri di ranking.

Se Danny Sullivan scrive su un forum qualsiasi, è interessante, chiunque si interessa di seo ne sarebbe incuriosito, e quindi, sicuramente, anche Google per il quale varrà la pena di andare a visitare quel forum è capire come mai Danny Sullivan, con la sua autorevolezza, vi abbia scritto qualcosa.

6. Negative seo

 

Come si comporta Google in relazione alla negative seo? Attacchi hacker e black hat ad altri siti concorrenti? Sanno che esiste? Stanno facendo qualcosa a riguardo?

Beh, risponde Cutts, Google è pienamente consapevole dell’esistenza della Negative seo, e gli algoritmi vengono impostati in modo da proteggere contro di essa.

In linea di massima, quindi, i webmaster dovrebbero essere tranquilli da questo punto di vista.

 

 

Cutts parla di Hummingbird. Dice che da quando il nuovo algoritmo del Colibrì è stato lanciato (ovvero verso la fine del 2013) grossi progressi sono stati fatti in relazione alla ricerca vocale ed al linguaggio naturale nella ricerca.

seo smx siattle space needle

In questo momento della conferenza, Cutts dimostra in maniera sensazionale una fantastica ricerca vocale con il suo cellulare, chiedendo a Google informazioni sullo Space Needle a Siattle, e chiedendo poi di guidarlo verso un ristorante italiano.

Cutts: “Ok Google, dov’è lo Space Needle?”

Google: “Lo Space Needle è 400 Broad Street Siattle”

Cutts: “Voglio vedere delle fotografie”

Google: “Ecco alcune foto dello Space Needle”

Cutts: “Chi lo ha costruito?”

Google: “Lo Space Needle è stato costruito da John Graham ed altri architetti”

Cutts: “Quanto è alto?”

Google: “Lo Space Needle è alto 605 piedi”

Cutts: “Mostrami alcuni ristoranti in zona”

Google: “Ecco una lista di ristoranti entro 0.8 miglia”

Cutts: “Cosa mi dici sugli italiani”

“Ecco una lista di ristoranti italiani entro 0.9 miglia”

Cutts: “Portami al primo”

Google: “Navigazione attivata per il “Pink Door”

Conclusioni

Google, la ricerca sul web, gli algoritmi, la semantica, la linguistica computazionale, la ricerca vocale, il linguaggio naturale nella ricerca, i motori di ricerca, la pubblicità online, continuano ad avanzare senza sosta, e pare non si fermeranno per molti anni ancora.

Il mobile ha preso il sopravvento, avanza alla velocità della luce, e pare non fermarsi neanch’esso. Per chi ancora non ha adottato una strategia per il mobile, in qualche modo favorendo la navigazione attraverso cellulari del proprio sito web, farebbe bene a correre ai ripari e pensare subito ad una strategia. Questo perché la maggior parte delle ricerche e della navigazione vengono ormai fatte da cellulare, e l’esperienza dell’utente è importante più che mai per garantirsi non soltanto un buon posizionamento in Google, o su Bing e gli altri motori di ricerca, ma perché permetterebbe di aumentare le proprie vendite.

In questo mondo in cui l’informazione sembra instancabilmente correre verso l’infinito, in cui ci si appresta a scoprire le novità ogni giorno, con una frenesia quasi “ansiosa”, sarebbe bene ricordare soltanto una parola, che sembra essere il fulcro portante di questa nuova tecnologia e di questa nuova era del consumismo sfrenato. Questa parola è consumattore, e il suo significato resta ancorato alla capacità del singolo oggi di modificare il posizionamento di un brand con una semplice review.

0 risposte a “Novità SEO: Matt Cutts al Search Marketing Expo (SMX)”

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *