Google è in assoluto il motore di ricerca web più utilizzato, e questo grazie soprattutto alla precisione e alla completezza dei risultati che si ottengono.
Questo significa che essere ai primi posti dei risultati di ricerca di Google dà ad aziende e privati una visibilità enorme, per cui il ritorno finanziario di questa popolarità può essere altrettanto significativo.
Per questo l’organizzazione e dei siti web è affidata ad esperti di SEO (Search Engine Optimization) che conoscono (almeno per la parte nota) il funzionamento degli algoritmi applicati da Google per stabilire il ranking dei vari siti a seguito di un certo numero di parole di ricerca (query).
Se molti siti si affidano alle capacità di esperti di SEO seri, tutti quelli che bazzicano in rete hanno sicuramente notato che troppo spesso in posizioni anche piuttosto elevate del risultato di ricerca (in gergo Search Engine Results Page, SERP), esistono siti che in realtà non offrono nulla di quanto richiesto, e sono in tali posizioni perché il motore di ricerca è stato ingannato da trucchi introdotti da esperti di SEO poco onesti. Questa attività è chiamata Black Hat SEO.
Poiché non è certamente interesse di Google offrire ai navigatori del web risultati di ricerca inutili, da anni opera una continua ottimizzazione degli algoritmi utilizzati per formare le SERP in modo da neutralizzare questi tentativi truffaldini.
Si tratta sia di piccoli miglioramenti continui, o quasi, che di aggiornamenti più importanti. Google Penguin e Google Panda sono i nomi scelti per questi algoritmi, il primo dei quali individua i siti sovra-ottimizzati, con un numero esagerato di parole chiave al loro interno e con link di bassa qualità, mentre il secondo si occupa essenzialmente di valutare la qualità dei contenuti.
La prima versione di Google Panda è stata lanciata il 23 febbraio 2011. Oggi siamo arrivati alla versione 4.0, attiva dal 21 maggio 2014. È stato proprio Matt Cutts, capo della sezione anti spam di Google, a darne notizia con un tweet del 20 maggio 2014 nel quale diceva che da oggi Google avrebbe “srotolato” (rolling out) la versione 4.0 di Panda.
Ogni arrivo di una nuova release di Google Panda è un po’ uno spauracchio per i webmaster, che hanno talvolta visto come conseguenza una certa penalizzazione del posizionamento all’interno del SERP.
Questa volta pare sia un po’ diverso. Infatti, spesso queste nuove release degli algoritmi di ricerca sono state accusate di favorire i siti più importanti, penalizzando quelli piccoli, anche se con contenuti di qualità. Con Google Panda 4.0 l’azienda di Mountain View ha cercato di favorire quei siti, piccoli o grandi che siano, in grado di offrire ai clienti pagine di qualità che soddisfino le loro ricerche e i loro bisogni.
Le previsioni affermano che il nuovo algoritmo avrà conseguenze negative per circa il 7.5% dei siti di lingua inglese, e, indirettamente, anche a molti altri.
Non dovrebbero temere conseguenze i siti web che puntano alla qualità e alla originalità dei contenuti, in modo da fornire quel valore aggiunto che sta ricercando Google per quanto riguarda i siti considerati validi e quindi meritevoli di stare nelle prime posizioni del SERP.
I primi, preliminari risultati dopo l’introduzione di Google Panda 4.0 ci sono già, con siti che hanno visto penalizzato il proprio posizionamento e altri, di contro, che hanno visto premiata, si presume, la loro correttezza e interesse, almeno agli occhi degli algoritmi citati.
Tra i siti famosi più penalizzati troviamo ask ed ebay (stranamente), mentre hanno tratto vantaggio, tra gli altri, wikimedia e wordpress.
Comunque, è molto probabile che chi lavora con correttezza, cercando di soddisfare le esigenze dei clienti in rete più di quelle vere o presunte delle regole Google sarà avvantaggiato.
Per fare questo, però, il fai-da-te può essere rischioso.
Affidarsi a persone esperte e professionali in tema di Search Engine Optimization, in grado di fornire consulenze puntuali e personalizzate, alla fine, risulta essere remunerativo per l’economia generale dell’azienda.