Durante l´annuale conferenza SMX (Seacrh marketing Expo) tenutasi a Seattle, dedicata al marketing in Internet, Google ha presentato la nuova versione 2.

Durante l´annuale conferenza SMX (Seacrh marketing Expo) tenutasi a Seattle, dedicata al marketing in Internet, Google ha presentato la nuova versione 2.2 dell´algoritmo Panda. Il più famoso evento per il search marketing presenta consigli all´avanguardia per portare traffico Internet e aumentare le conversioni da pubblicità a pagamento sui motori di ricerca (paid search), SEO, social media marketing, analisi di ricerca e molto altro ancora. Matt Cutts, Senior Google Engineer, uno dei massimi esperti al mondo dell´ottimizzazione sui motori di ricerca (conosciuto dalla community mondiale per le sue competenze contro lo spam) ha confermato il nuovo aggiornamento del motore di ricerca durante il keynote. Cutts ha detto che l´aggiornamento non è stato ancora implementato ma arriverà presto: sarà dedicato a un problema comune per i webmaster, cioè i siti che copiano e ri-pubblicano contenuti e che sono fuori dal ranking della fonte originale del contenuto. "Il cambiamento è stato approvato e risolverà proprio questo problema" ha detto Cutts. Altre informazioni: non ci sono stati manuali cambiamenti ai siti ingiustamente colpiti, ma solo ricompilazioni dei dati che possono aiutare qualche sito. In particolare, egli ha osservato che l´algoritmo Panda viene eseguito sull´intero codice di Google delle pagine con una frequenza minima, al fine di etichettare alcuni siti che si trovano in questa frequenza, a differenza di alcuni strumenti automatici di rilevazione dello spam. Per esempio, gli spider del motore di ricerca sono costantemente alla ricerca di pagine che contengono testo nascosto e, se vengono trovate, allora si puà infliggere una penalità. Google non è in continua scansione delle pagine che potrebbero essere colpite dalla "penalità Panda". Invece, gestisce manualmente tale algoritmo, che determina poi i siti web che dovrebbero essere colpiti da essa. Questo significa anche che apportare modifiche a un sito colpito da Panda non produrrà alcun cambiamento immediato in Google. Invece, tali cambiamenti, se sono favorevoli, non saranno registrati fino alla valutazione Panda successiva. L´azienda americana non ha dichiarato quando sarà eseguito Panda, ma sembra che le modifiche vengono eseguite ogni poche settimane in contemporanea con l´aggiornamento dell´algoritmo (Panda 1.0, Panda 2.0, Panda 2.1, Panda 2.2 etc.). Si calcola che circa il 12% delle query vedono dei cambiamenti nelle risposte del motore di ricerca: l´obiettivo annunciato è di rimuovere siti non attendibili dalle SERP (Search engine results page), dando maggior rilievo ai siti di qualità, con contenuti originali e rilevanti per gli utenti, contro i siti-copia legati a eccessive tecniche di SEO, molto advertising e condensati di keyword. Il problema riguarda anche la concezione stessa di Internet, quali sono i confini tra la comunicazione diretta e colloquiale del new media rispetto ad un´esagerazione di contenuti, che, insita del mezzo, non deve comportare un abbassamento della qualità delle informazioni, notizie, contenuti e della cultura digitale in generale. Il Panda, si sa, è un animale indifeso ed è una specie a rischio, minacciata dall´impoverimento dell´habitat naturale e da un tasso di natalità molto basso; chissà se i cambiamenti dell´algoritmo, per colpire siti piccoli del web, riguardi solo le SERP. FONTE: http://tech.fanpage.it

Condividi