Google Panda: quanto interessa l’hotel la nuova modifica dell’algoritmo?

leggi l’articolo completo...Da diversi anni Google rilascia puntualmente modifiche all’algoritmo tese a migliorare sempre più la qualità dei risultati di ricerca. La caccia ai contenuti di scarsa rilevanza prosegue, dopo il rilascio di Caffeine nel 2009, con un nuovo update chiamato internamente “Google Panda” – così si chiama l’ingegnere autore della correzione – ma conosciuto anche come “Google Farmer”.

Questo fondamentale aggiornamento è stato infatti implementato per andare a colpire i cosiddetti “Content Farm”, ovvero quei siti densi di contenuti pensati meramente per l’ottimizzazione e la promozione (spam), che ormai da tempo, aggirando gli algoritmi, riuscivano spesso ad usurpare il posto nelle SERP di siti dai contenuti sicuramente più pertinenti.

Google persegue i contenuti superficiali “scientificamente”

Per approfondire il recente aggiornamento, il 3 marzo scorso la rivista Wired ha rivolto alcune domande sull’argomento ad Amit Singhal e Matt Cutt, due dei maggiori ingegneri di Mountain View, per capire soprattutto come l’algoritmo sia in grado di riconoscere i materiali che non sono spam ma che risultano comunque superficiali e dunque penalizzabili. Di seguito riportiamo alcune parti:

W: Qual è il fine di questa modifica?

AS: “Abbiamo rilasciato Google Caffeine alla fine del 2009 – dichiara Singhal – e il nostro indice era cresciuto a tal punto che anche la velocità di indicizzazione era molto più rapida. A quel punto ci siamo ritrovati con molti nuovi contenuti freschi indicizzati: molti di buona qualità, altri inferiori. Il problema è che non si trattava più di sequenze di parole chiave incomprensibili, che il nostro team di spam è perfettamente in grado di riconoscere e controllare, ma di qualcosa più simile alla prosa scritta dal contenuto superficiale”.

MC: “E’ stato come domandarsi nei nostri rispettivi gruppi ‹‹Qual è il minimo indispensabile per dire che un contenuto non è spam?››. E poi abbiamo deciso: ok, dobbiamo incontrarci e stabilire come affrontare questa questione.”

W: Ma come riuscite a distinguere un sito dai contenuti superficiali? Dovete arrivare a definire i contenuti di scarsa qualità?

S: “Questo un problema molto molto complesso che ancora non abbiamo risolto, ma tutto il nostro lavoro è una continua evoluzione verso il raggiungimento di una soluzione per tale quesito. Volevamo che il sistema fosse strettamente scientifico, così abbiamo utilizzato il sistema di valutazione standard che abbiamo sviluppato, con il quale fondamentalmente inviamo i documenti a tester esterni. Abbiamo posto a chi valutava domande del tipo: Lasceresti senza problemi il tuo numero di carta di credito a questo sito? Ti fideresti a somministrare ai tuoi figli le medicine consigliate da questo sito?

MC: “Uno dei nostri ingegneri ha predisposto un rigoroso set di domande, di qualsiasi tipo: consideri autorevole questo sito? Secondo te questi contenuti potrebbero addirsi ad una rivista? Trovi che il sito abbia un numero eccessivo di pubblicità?Domande di questo tipo.”

W: Ma come avete implementato tutto questo nell’algoritmo?

MC: “Credo che si cerchino dei fattori che ricreino la stessa intuizione, la stessa esperienza che hai come ingegnere e anche come utente. Ogni volta che guardiamo ai siti che abbiamo maggiormente penalizzato, ciò riflette perfettamente la nostra intuizione e la nostra esperienza, ma il punto è che da lì riusciamo anche a capire quale tipologia di siti siano di valore o meno per l’utente. Alla fine siamo arrivati ad ottenere una classificazione che riesce a dire: ok, IRS, Wikipedia o il New York Times stanno da una parte, e i siti di bassa qualità stanno dall’altra. E puoi vedere con chiarezza le ragioni matematiche che stanno alla base…”

S: “Puoi immaginare un iperspazio con dei puntini: alcuni rossi, altri verdi, altri un insieme dei due colori. Il nostro compito è trovare una linea che ci permetta di stabilire che la maggior parte delle cose che stanno da un lato sono rosse, e la maggior parte delle cose che stanno dall’altro lato sono l’opposto del rosso.”

Google Panda andrà ad influenzare il sito dell’hotel?

Google ha dichiarato che l’intervento ha interessato solo il 12% dei risultati, suscitando le solite inevitabili polemiche: alcuni dei siti colpiti infatti, erano chiaramente solo fonte di spam, mentre altri siti di article e di informazione, come Suite101, sono stati declassati a parere di alcuni in maniera forse troppo arbitraria e pesante.

Al momento sembra che la versione aggiornata dell’algoritmo sia stata rilasciata solo in USA, mentre all’estero si stanno ancora conducendo dei test, ma non è chiaro quando sarà rilasciato definitivamente anche da noi e quindi quale impatto reale avrà sulle SERP.

Quello che possiamo affermare quasi con assoluta certezza è che in generale non ci saranno grandi stravolgimenti nei risultati di ricerca. L’update andrà a penalizzare solo i grandi portali aggregatori di notizie, pensati soprattutto per fare link building e diffondere in rete materiale pubblicitario, dunque ciò non dovrebbe interessare siti ordinari come quelli delle strutture ricettive.

Ci sono però alcuni aspetti del vostro sito e delle vostre strategie marketing da tenere d’occhio:

  1. Attenzione ai contenuti duplicati: assicuratevi che i contenuti del vostro sito siano unici ed originali e non distribuite a portali e siti esterni troppi contenuti appartenenti al vostro sito.
  2. Evitate di fare attività di link building per il sito ufficiale su grandi portali dai contenuti di dubbia qualità, quelli che si presume saranno maggiormente penalizzati da Panda: difatti se il vostro sito avesse grandi quantità di link di bassa qualità in entrata e in uscita provenienti da tali siti, questo potrebbe compromettere anche il vostro ranking.
  3. Ovviamente, come abbiamo detto già altre volte, non scambiate link con persone sconosciute a fini SEO: questa pratica era già penalizzante quando è stato rilasciato Caffeine, ma è chiaro che adesso diverrà ancora più deleteria.