Questo appunti sono relativi al mio intervento svoltosi durante il quinto Convegno GT. Spero che la trattazione sia abbastanza chiara da poter accontentare sia chi ha partecipato, fornendogli utili spunti complementari ed ulteriori riferimenti, sia chi invece non lo ha fatto, fornendogli una buona idea di quello che ho detto.
A ciascuno va un invito a porre domande e a fare osservazioni attraverso i commenti, ma anche un ringraziamento per la pazienza che dimostrerete nella lettura di un testo che purtroppo non è accorciabile.
Buona lettura. (Spero!)
Di cosa parliamo?
Per entrare in argomento, partiamo da alcune considerazioni, tratte da altri interventi.
- Francesco Tinti, citando dipendenti Google, ha trovato conferme del fatto che su siti differenti vengono utilizzati algoritmi differenti.
- Matteo Monari e Paolo Dello Vicario ci hanno spiegato come, a seconda del settore nel quale si opera, ci si possano aspettare dal motore di ricerca risposte differenti ai backlinks “artificiali”.
- Michele De Capitani, anche riportando il webinar di Madri, ha sottolineato la crescente importanza che sta prendendo la semantica all’interno degli algoritmi di Google.
Sembra che i siti vengano, in qualche maniera, suddivisi in categorie. Ma da cosa nascono queste differenze? Come interagiscono con l’algoritmo di Google?
La domanda può essere capovolta: cosa non sempre consideriamo quando prendiamo in considerazione i “classici 200 e più” fattori di posizionamento? Fondamentalmente la seo per come siamo abituati a studiarla percepisce spesso il motore di ricerca in maniera distorta: pensiamo che Google prenda una query, la inserisca nel suo mega-algoritmo e presenti i risultati in serp.
La realtà è molto più complicata, soprattutto per quanto riguarda le prime posizioni: interviene la catalogazione. In buona sostanza, appena ricevuta una query, il motore di ricerca tenta di capire a quale argomento si riferiscano le parole cercate e quale intento possa esserci dietro la richiesta, successivamente recupera tutti i dati che ha sull’utente ed inserisce il complesso delle informazioni nei suoi vari algoritmi.
Il risultato è una serp molto differente da quella che ci immaginiamo, molto più utile a chi l’ha richiesta.
Sia chiaro, tutti questi algoritmi prendono come base i fattori dei quali sempre discutiamo (backlinks, on page, trust,…) ma semplicemente gli danno un peso differente. Il nostro scopo allora non sarà tanto quello di trovare nuove leve di intervento, quanto piuttosto di usare al meglio, sito per sito e serp per serp, quelle che già abbiamo a disposizione e che da sempre stiamo studiando.
Cominciamo allora ad approfondire la conoscenza delle varie fasi della costruzione di una serp, basandoci su esempi e brevetti, per poterne estrarre consigli utili alla nostra seo.
Come sempre, quando si parla di brevetti, la cautela deve rimanere elevatissima: non è detto infatti che ogni invenzione sia stata poi realmente implementata o che i motori di ricerca non abbiano deciso di evolvere i meccanismi nel tempo. Tuttavia, cercando di rimanere il più possibile attaccati ai principi che hanno motivato questi brevetti, confrontandoli con l’analisi delle serp e lasciando in secondo piano gli aspetti più tecnici, possiamo avere un utile scorcio su quelli che possono essere le logiche interne a Google.
Le categorie nelle serp
Iniziamo dalla necessità di Google di classificare i contenuti che indicizza: sapere di che cosa parla un contenuto permette una più alta pertinenza dei risultati nei confronti della query ed una maggiore capacità di personalizzare i contenuti a seconda degli interessi del singolo utente.
Uno dei possibili metodi per riuscire nell’intento è descritto nel brevetto Generating Improved Document Classification Data Using Historical Search Results“ depositato l’8 aprile 2009 e reso pubblico il 14 ottobre scorso. Questo documento ci guiderà per tutto l’intervento e ci svela molti particolari interessanti quindi è necessario un minimo di approfondimento.
Nel documento sono definite 4 entità:
- L’utente, caratterizzato da: identificatore, preferenze impostate manualmente ( siti contrassegnati come favoriti, lingua preferita, elenco degli argomenti segnalati come preferiti) e la lista di categorie. La lista contiene una serie di coppie nelle quali ad ogni possibile categoria è assegnato un numero in base a quanto si suppone essere forte l’interesse di un utente per quella determinata categoria.
- Il documento, caratterizzato da: URL, fattori classici (Anchor text, PageRank,…) e l’elenco di categorie implementato come visto sopra.
- La query, caratterizzata: dalla parola (o dall’insieme di parole simili) che l’ha generata, informazioni riguardanti la lingua e l’area geografica di interesse e dall’elenco di categorie, generato in base alla vicinanza semantica della query alla corrispondente categoria.
- Il query log nel quale sono memorizzati: l’identificatore dell’utente che ha digitato la ricerca, la parola che ha ricercato, i risultati che ha trovato e tutte le informazioni sul suo comportamento in serp rivelato attraverso il browser, la toolbar o l’analisi dei log del server. Questi dati comprendono l’elenco dei risultati selezionati, la durata della visita e l’attività del mouse.
Allestito un sistema in grado di gestire questo tipo di informazioni, il concetto sul quale si basa Google per riempire i vari elenchi di categorie è relativamente intuitivo.
Una query nella quale saranno cliccati con maggiore frequenza documenti di determinate categorie sarà considerata inerente a quelle categorie; documenti che tenderanno ad essere apprezzati dall’utente per ricerche in un certo ambito saranno considerati inerenti per quel campo; utenti soliti eseguire di una certa categoria e cliccare su determinati risultati saranno ritenuti interessati a quegli ambiti.
Per come lo abbiamo descritto, in questo circolo di influenze, manca un punto di inizio: esso viene fornito inizialmente inserendo nel sistema la classificazione per alcune pagine-seme. Questi documenti possono essere stati scelti manualmente e si è certi che si riferiscano ad un determinato argomento.
Il metodo descritto è quindi in grado di mantenere un giudizio sempre aggiornato sulle preferenze dell’utente, sull’utilizzo delle parole chiave e sulle categorie dei vari documenti riuscendo rapidamente ad adattarsi ai cambiamenti.
L’algoritmo presentato, ci informa il brevetto, “può essere utilizzato per profilare un sito web se la classificazione di almeno un sottoinsieme delle sue pagine è nota”. In siti con più argomenti si considererà il peso specifico di ciascun tema in rapporto al totale delle pagine, mentre in altri casi “la mancanza di un argomento in comune tra almeno un numero minimo di pagine in un sito web può impedire che il sito venga classificato (ad esempio en.wikipedia.org)”.
Esaurita la parte teorica, andiamo a porci qualche domanda utile a migliorare la nostra SEO.
Perché è utile rientrare nella giusta categoria?
Ovviamente per essere considerati da Google rilevanti per una determinata ricerca…
Per ricevere traffico tematizzato e sfruttare al massimo la capacità di AdSense di adattarsi ai contenuti circostanti…
Ma soprattutto perché già da oggi, ma sicuramente molto di più in futuro, Google funziona così (cito dal brevetto): “in risposta alla query di un utente, il motore di ricerca identifica un set di risultati e li ordina inizialmente a seconda della loro rilevanza rispetto la query. Prima di inviare i risultati all’utente il motore può riordinare i risultati confrontando la classificazione di ciascun risultato con il profilo dell’utente”.
In sintesi appartenere alla giusta categoria si traduce nella possibilità di ottenere più traffico, di maggior qualità e conseguentemente maggiori conversioni e introiti pubblicitari.
Cosa posiamo fare per rientrare nella giusta categoria?
Al primo posto metto la strategia SEO che a lungo termine paga di più in assoluto: investire in contenuti, servizi ed usabilità del sito.
Secondariamente, nel brevetto, appare importante la percentuale di click ricevuta in serp. Ovviamente questo parametro è utile anche a prescindere dall’argomento trattato quindi è bene tenere presente che, secondo uno studio pubblicato da Google nel 2010, orientativamente:
- Ogni termine in grassetto nel title aumenta le probabilità di click di un fattore x1.06.
- Ogni termine in grassetto nell’abstract aumenta le probabilità di click di un fattore x1.01.
Questi dati sono assolutamente approssimativi in quanto pesantemente influenzati dalla posizione del risultato e dalla qualità generale della snippet (come meglio evidenziato nello studio citato) ma dimostrano con certezza una correlazione positiva.
Se ne deduce il consiglio all’utilizzo di title pertinenti con la query ed un invito a scegliere accuratamente quando inserire e quando omettere la description. Se è vero infatti che al fine del posizionamento non si valuta il contenuto della descrizione è anche vero che poter decidere quale abstract visualizzerà Google porta dei vantaggi. Il consiglio è quello di inserirla quando la si può ottimizzare per un certo set di parole chiave e di lasciarla scegliere a Google quando invece si spera di ricevere un traffico di tipo long tail.
Terzo modo per influire sulla categorizzazione è quello di incidere sui primi valori, assegnati algoritmicamente, prima che la pagina venga introdotta nel circolo. Riporta infatti il brevetto che:
“Inizialmente il valore di rilevanza di una pagina web nei confronti delle differenti categorie è stimata. Molti approcci noti nel settore (ad esempio analisi del contenuto delle pagine web, di alcuni termini chiave e/o dei links) possono essere utilizzati per generare la classificazione iniziale.”
Ma quali sono queste tecniche note nel settore?
Analisi dei termini chiave: un possibile algoritmo che utilizza questo approccio è dettagliato nel brevetto “System and method for determining a composite score for categorized search results” registrato da Google nel 2004 e reso pubblico ad ottobre. In pratica si tratta di associare un determinato peso alla pagina in base alle parole o alle frasi che contiene: un approccio che pare davvero superato. Unico pregio la presumibile velocità nella classificazione utile quando è necessario ottenere una risposta immediata con scarse informazioni di contesto (ad esempio per categorizzare un messaggio di stato).
Analisi dei contenuti della pagina: generalmente si parla di LDA, PLSA o HTMM (con quest’ultimo ritenuto più affidabile dei precedenti). In ogni caso si tratta di algoritmi di analisi statistica molto sofisticati dal punto di vista matematico basati sulla ricerca di schemi nel linguaggio.
Analisi dei link: un possibile approccio è espresso dal brevetto “Variable Personalization of Search Results in a Search Engine” registrato da Google nel marzo 2010 e reso pubblico 4 mesi dopo. In questo caso per capire l’attinenza del documento ad una categoria vengono contati i backlink provenienti da siti riconosciuti come autorevoli nella vostra categoria (stile TrustRank).
Come capire allora da chi è bene farsi linkare, dove navigano gli utenti che voi volete intercettare e chi guadagna adesso nel vostro settore con la pubblicità? Per risondere a queste domande possiamo utilizzare diverse tecniche partendo dallo strumento di Google AdPlanner (per utilizzare ogni strumento è necessario effettuare il log-in).
Attraverso questo tool, se il vostro sito è abbastanza grande, potrete capire come siete categorizzati dal motore di ricerca ma cosa più interessante potrete scoprire su quali siti merita maggiormente farsi citare perché già adesso stanno intercettando il vostro pubblico.
Selezionando la ricerca per pubblico sarete infatti in grado di capire quali sono i siti principali di qualsiasi categoria. Raggiunti questi portali potete ulteriormente espandere la ricerca verificando quali domini sono più spesso visitati dagli utenti dei siti scelti.
Con ogni probabilità non vi sarà particolarmente facile strappare backlink a realtà così affermate, ma ogni citazione guadagnata sarà estremamente importante per tutti i motivi esposti sopra.
Ricerche navigazionali, transazionali e informazionali: Google capisce l’intento.
Passiamo adesso ad un altro tipo di catalogazione, molto più generale. Prendiamo spunto da quanto detto da Matt Cutts in uno dei suoi video: “La filosofia di Google circa i risultati di ricerca è sempre stata la stessa: se qualcuno scrive su Google X noi tentiamo di restituire le informazioni di più alta qualità circa X. Talvolta si tratta di una ricerca per brand, talvolta di una ricerca informazionale, talvolta di una ricerca navigazionale e talvolta di una richiesta transazionale.”
Ma cosa rappresentano queste nuove categorie, in cosa si differenziano e come possiamo sfruttare questa divisione per aumentare i nostri visitatori e le nostre conversioni?
Cominciamo da una breve descrizione. Le categorie si dividono l’una dall’altra in base ai bisogni e all’intenzione dell’utente che le esegue:
- Ricerca branded: in queste ricerche l’utente cerca le pagine ufficiali di un determinato marchio. Esempi di query di questo tipo sono “nike”, “fiat”, “geox” ma anche “giorgiotave”.
- Ricerche navigazionali: richieste di questo tipo implicano la volontà di raggiungere una precisa pagina web della quale si conosce o si suppone l’esistenza con lo scopo di compiere qualche azione. In quest’ottica Google viene utilizzato quasi come un potenziamento della barra degli indirizzi del browser. Esempi di query di questo tipo sono “facebook login”, “canale youtube Ligabue” o “sito ufficiale le iene”.
- Ricerche transazionali: si aspettano da Google un sito sul quale poter intraprendere una azione (scaricare una canzone, prenotare un hotel, trovare un’offerta, tracciare un itineario).
- Ricerche informazionali: sono state effettuate con lo scopo preciso di trovare sulla pagina una determinata nozione. Esempi possono essere “data di nascita napoleone”, “definizione alterco” o “risultato di barcellona real madrid”.
In letteratura i primi due gruppi sono generalmente considerati coincidenti, ma al nostro scopo è bene mantenere le categorie separate visto che Google sembra farlo. Qualora vogliate maggiori suggerimenti su come distinguere le varie query e su come potrebbe suddividerle un algoritmo, vi sonsiglio la lettura di questa ricerca universitaria del 2007.
Quali sono i motivi principali per i quali è conveniente cominciare a ragionare in questi termini?
Per prima cosa il comportamento dell’utente appare significativamente differente di fronte a serp di differenti categorie: studi hanno evidenziato come il “classico triangolo d’oro” sia in realtà la media tra la grande concentrazione di attenzione sui primi 2 risultati delle query informazionali ed una visione più ampia, fino ai primi 6 risultati, per le query relazionali.
In pratica questo si traduce in una ovvia ridefinizione degli obiettivi: se la vostra pagina viene visitata al fine di compiere un’azione, potrete accontentarvi di essere nei primi cinque risultati, se invece offrite informazioni dovete ambire necessariamente alla prima posizione.
Ulteriore motivo per il quale merita porsi il problema delle 4 differenti categorie è la differenza nel modo di gestirle da parte di Google. Qualche consiglio per sfruttare al meglio ogni richiesta.
Il fatto che i brand ricevano per il loro nome una forte spinta da parte di Google, non vuol dire che non valga la pena impegnarsi con la seo per queste query, anzi! Compariamo le serp restituite cercando “geox” e “giorgiotave”, cercando di capire dove si potrebbero mettere le mani. Probabilmente nessuno dei due network perderà visitatori, dato che riescono entrambi a monopolizzare la serp tuttavia in un caso è praticamente impossibile capire in quale parte del sito si sta per accedere, le descrizioni sono pessime, viene lasciato molto spazio a news finanziarie veramente inutili per chi vuole acquistare scarpe ed il primo risultato invitante è quello di Wikipedia. Quante persone avranno trovato più preciso per quello che stavano cercando una delle pubblicità a lato? Dall’altra parte trovate invece l’intero sviluppo del brand, con pagine in grado di soddisfare qualsiasi esigenza possa avere un utente che effettua la ricerca “giorgiotave”. Ancora una volta una organizzazione razionale dei contenuti in sottodomini e cartelle, interlinkate con giudizio, permette a Google di fornire agli utenti risultati migliori.
Questa mancata ottimizzazione nella struttura si ripercuote, con effetti molto maggiori, sulle query di altro genere inerenti il brand: chi dovesse cercare “scarpe geox” selezionerà difficilmente il sito ufficiale mentre chi scriverà “cappotti geox” non avrà la minima possibilità di finire sul sito dell’azienda. In quest’ottica la mancata ottimizzazione per query branded e navigazionali è la peggiore pecca in quanto trascina altrove clienti che avevate in qualche maniera già acquistato: accade comunemente, infatti, anche in siti di dimensioni minori, come ad esempio quelli degli hotel, che del traffico per parole chiave del tipo “nome hotel recensioni” o “nome hotel prezzi” venga assorbito da siti concorrenti con il rischio concreto di perdere ospiti. Si consideri poi che tipicamente ottimizzare un dominio per questo tipo di query è un’operazione poco dispendiosa e dunque con un interessante ROI.
Sempre riflettendo sulle possibili intenzioni dell’utente, l’aspetto più interessante nell’analisi delle serp sta, probabilmente, in questa domanda: come si comporta il motore quando riceve una query generica del tipo “fiat panda”? Ritiene che la ricerca sia di tipo branded/navigazionale, ossia suppone che chi ricerca sia interessato a trovare la pagina riguardante la Panda del sito della Fiat? Suppone che l’utente stia cercando informazioni, quindi gli restituisce schede tecniche, recensioni, immagini? Decide che l’utente sta cercando di acquistare una macchina e quindi gli propone comparatori di prezzi e siti di annunci?
Una risposta Google non ce la da, tuttavia il tema viene ampiamente trattato da Microsoft nel brevetto “Diversifying search results for improved search and personalization” che spiega come la query possa essere alterata prima di essere restituita all’utente affinché rappresenti “un certo numero di argomenti, di tipologie,di generi,di domini, di anzianità dei documenti, di localizzazioni, di caratteristiche commerciali, di intenzioni dell’utente, ecc”.
Per sommi capi, è come se Bing valutasse quali categorie si possono celare dietro ad una query e restituisse i risultati di conseguenza.
Come sempre si fa in questi casi, mi sono allora messo alla caccia di dati sperimentali: ho cercato un elenco delle auto più vendute, aggiornato a qualche mese fa, affinché potesse essersi sviluppato un mercato dell’usato. Si noti che le automobili sono divise per tipologia in modo da riuscire ad analizzare le più disparate fasce di popolarità e diffusione.
Quello che ho trovato è che in tutte le serp del tipo “nome produttore + nome modello” sono sempre presenti pagine aziendali, almeno un sito di annunci o un comparatore di prezzo e qualche pagina informativa.
Ad aumentare i sospetti vi è il fatto che i siti presentati, fatta eccezione per la quasi onnipresente Wikipedia, sono spesso differenti: non c’è quindi un grande portale ad essere particolarmente forte, ma tante realtà autorevoli che a rotazione vengono presentate in serp.
Il dubbio iniziale potrebbe sfociare in considerazioni molto interessanti: Google sembra cercare di racchiudere in prima pagina almeno un risultato per ogni possibile intenzione dell’utente, anche a costo di favorire url che l’algoritmo di classificazione aveva ritenuto meno rilevanti. Oltreoceano c’è chi parla appunto di una netta divisione delle serp, dove per ogni intento di ricerca viene associata una percentuale di visibilità in serp, proporzionale al numero di utenti statisticamente interessati.
Alcune domande sorgono spontanee: volendo entrare in una serp sufficientemente generica, posso trovare delle scorciatoie?
Se, ad esempio, il mio e-commerce non riesce a posizionarmi per determinate parole chiave posso tentare di attirare traffico attraverso un sito informativo?
Pur non essendoci una conferma ufficiale da parte di Google, credo che l’attenzione a questi fattori sia comunque estremamente importante. Prendiamo infatti una query e sottoponiamola ad Insight for search: lo strumento ci racconta con quale scopo viene eseguita. I bisogni degli internauti, che Google sappia capirli o meno, sono comunque già differenziati e quindi si possono considerare separati anche i mercati.
Con un esempio: se tra 100 persone che cercano la parola “panda”, solamente 10 sono interessate a scaricare il software antivirus non importa quale posizione io riesca a raggiungere: non otterrò mai conversioni da chi voleva comprare la macchina o a chi cercava immagini dell’animale. Al contrario se nessuno in serp offrisse l’antivirus, probabilmente l’utente approfondirebbe la ricerca ed essere il sito leader per la distribuzione del software (con query più specifiche) mi porterebbe comunque buona parte di quei 10 visitatori.
Studiare le richieste degli utenti ed i risultati dei motori, in un certo senso, ci avvicina allo studio del mercato: ecco allora che fare SEO sulle serp diventa un’utile strategia non soltanto per migliorare le prestazioni ma anche per individuare i segmenti emergenti e le migliori opportunità di guadagno. Volete inserirvi in una categoria iper-competitiva? Sapete chi dovete battere. Avete intenzione di aprire un sito originale ed in grado di superare nei servizi la concorrenza? Allora potete riuscire a stimare i vostri spazi.
Personalizzazione: come la serp si adatta all’utente
Arriviamo adesso all’ultimo fattore che affligge pesantemente la composizione delle serp: la personalizzazione.
Settimanalmente sul Forum GT troviamo le solite domande: ho tre pc connessi allo stesso modem, perché su uno dei pc il sito è al primo posto mentre sugli altri due è in seconda pagina?
La risposta è sempre la stessa: una ricerca può venire stravolta in base al browser che si utilizza, in base al proprio IP, in base alle vostre ricerche precedenti, a dove vi trovate o, come abbiamo visto nel primo brevetto presentato, a seconda delle vostre abitudini (quali argomenti vi interessanto, in quale lingua riuscite a leggere). Nei casi riportati, con ogni probabilità, il sitema pensava semplicemente di restituire i siti preferiti, senza immaginare che dietro alle ricerche si nascondessero intenti SEO.
Per capire come funziona la personalizzazione torniamo al primo brevetto presentato, quello che, se vi ricordate, classificava query ed utenti oltre che i documenti.
Ricordiamoci le parole di Google, secondo il quale: “prima di inviare i risultati all’utente il motore può riordinare i risultati confrontando la classificazione di ciascun risultato con il profilo dell’utente”. I pesi da attribuirsi alle categorie dovranno essere proporzionali a due fattori: la “frequency” e la “recency”.
Per vedere all’opera il potenziale della “frequency” ho provato a ricostruire il mio profilo, partendo dalla web history del mio account e mi sono reso conto di poter appartenere per lo meno a 2 categorie: quella degli italiani che si cimentano con documenti in inglese e quella degli appassionati di informatica.
Ho quindi cercato “dos” prima con il mio browser abituale, poi con un altro browser, sempre sullo stesso pc ma stavolta non loggato. Le differenze sono notevoli: su dieci risultati, solo 7 sono a comune e le posizioni appaiono sfalsate. In particolare si può notare proprio una iniezione di termini inglesi e di risultati informazionali tecnici al posto di quelli transazionali.
Cerchiamo adesso di capire cosa sia la “recency” attraverso un nuovo esempio.
Cercate, attraverso l’apposita casella del browser, la parola “torino”. Memorizzate la posizione del sito del Torino Calcio: quarto. Giustamente la parola può riferirsi alla città di Torino o anche alla Provincia, quindi non c’è ragione per stupirsi di un posizionamento del genere.
Provate adesso a cercare “juventus”, parola che sicuramente Google ha inserito in una categoria sportiva.
Ottenuti i risultati cercate nuovamente “torino”: se è successo anche a voi quel che è successo a me, troverete in prima posizione il sito della società calcistica. Una sola ricerca, fortemente tematizzata e molto vicina nel tempo (appartenente alla medesima sessione) è bastata agli algoritmi di Google per capire che noi stavamo cercando siti sportivi e non amministrativi.
Altro esempio, meno evidente ma molto più interessante per capire fin dove si possa spingere l’importanza di una giusta categorizzazione: cercate prima “mela”. Possiamo notare come in terza posizione vi sia un blog per il quale la parola “mela” ha un significato molto differente rispetto a quello che è abituato ad attribuirgli l’utente medio. Proviamo allora a cercare “apple” e poi nuovamente “mela”: stavolta il significato nascosto avrà guadagnato maggior rilevanza.
Purtroppo questi cambiamenti, per loro natura sono difficilmente preventivabili o generalizzabili, tuttavia abbiamo buoni strumenti per misurarli: per una idea di massima possiamo affidarci ai dati provenienti dalla sezione “Query di ricerca” degli Strumenti per Webmaster di Google, mentre per avere indicazioni più chiare è possibile configurare il nostro software di analisi dei referrer affinché tracci la posizione in serp sulla quale l’utente ha cliccato per raggiungerci (qui le istruzioni su come realizzare il monitoraggio in Google Analytics).
Sapere che qualcuno ci sta visitando per determinate query attraverso la personalizzazione è un segnale molto importante per la SEO: spesso infatti possiamo interpretare il fenomeno come un campanello di allerta in grado di farci capire che con un piccolo sforzo ulteriore forse possiamo raggiungere migliori risultati in una determinata serp.
Prima di terminare, mi sono posto un’ultima domanda: visto che a categorie differenti corrispondono algoritmi differenti, è possibile ingannare Google nella catalogazione, cercando qualche scorciatoia?
Forse sul breve periodo sì, gestendo sapientemente le snippet in serp, curando la linkbuilding ed i testi.
Sul medio periodo però la tecnica è destinata a fallire: prima o poi perderemo il controllo dei baklinks naturali e prevarranno le esperienze di navigazione degli utenti.
In questo caso la soluzione migliore è dunque affiancarsi un sito di differente tipologia: se già abbiamo un e-commerce, proviamo ad aprire un blog cercando di attirare quel traffico informativo che altrimenti ci è impossibile intercettare.
Coprendo così completamente un settore, aumentando la propria autorevolezza e raccogliendo citazioni dalle fonti più disparate si potrebbe infine ottenere un grosso bonus (sia agli occhi degli utenti che dei motori di ricerca): essere considerati un brand.
Ulteriori approfondimenti:
- Understanding search user behaviour
- Search taxonomy: getting inside the mind of the searcher
- Google re-ranking and personalized search study
- Improved Web Page Classification from Google for Rankings and Personalized Search
Finito! Domande?
Mi introduco per una domanda. Ok per quanto riguarda la differenza delle SERP nel caso di utente logato, non logato, diverso etc.
Ieri però notavo una cosa strana, quasi un disturbo nella forza di Google.
Ho cercato su Google It: Francesco Tinti canonical.
Come di norma (il vero valore aggiunto di google rispetto ai competitor) mi aspettavo di atterrare direttamente in una pagina contestuale. E invece G. cosa propone? La home del sito di Francè. Ma perchè?
Tant’è che su google.com (da logato) mi ha dato questo risultato:
http://my.jetscreenshot.com/5227/20110112-2b0d-58kb
che oggi non riesco a riprodurre.
Insomma comportamenti strani. C’è una spiegazione? Grazie.
Ciao Merlinox.
Hai preso un caso davvero molto particolare.
La pagina che cerchi infatti oggi è trattata come duplicata: lo vedi da questa serp che presto probabilmente cambierà. (Ecco lo screenshot).
Credo che per analizzare queste query con un minimo di affidabilità sia necessario attendere un’evoluzione della situazione: adesso appare tutto così instabile che ogni ragionamento non avrebbe grosse basi di partenza.
Quando il cambiamento di tema al quale è stato sottoposto il blog di Francesco Tinti sarà stato completamente metabolizzato, probabilmente non avvertirai più “un disturbo nella forza di Google” (espressione fantastica!).
Spero di essere stato chiaro. Ovviamente sono a disposizione per altre analisi o chiarimenti.
Buon lavoro!
La cosa interessante da capire sarebbe “quando” ci sarà una situazione di stabilità? Con l’amico Francesco da settimane stiamo analizzando la controversa situazione di “Ricette 2.0” e ti garantisco che ogni giorno abbiamo sorprese.
La mia risposta precedente era specifica per la ricerca che tu avevi proposto: limitatamente a quel caso ci sarà una condizione analizzabile quando Google avrà metabolizzato il cambiamento di tema.
In generale, riassumendo quanto scritto nel post, posso risponderti che una situazione “stabile” delle serp come quelle alle quali eravamo precedentemente abituati tra un update e l’altro di Google non si ricreerà nemmeno nel medio periodo: un aggiornamento al giorno dell’algoritmo, l’intervento di fattori guidati dai comportamenti degli utenti, l’impressionante velocità dell’infrastruttura e l’entrata in ballo dei social network rendono ogni analisi non organica e “statica” davvero complicata.
Riguardo al nuovo caso specifico che citi, quello di “Ricette 2.0”, mi spiace dirti che non ho davvero elementi di valutazione, ma se vuoi condividere qualche informazione in più sarò felice di provare a darti la mia opinione in merito.
Guarda ne ho parlato molto con il comune amico Francesco! Molte spiegazioni le trovi qui:
http://www.google.com/support/forum/p/webmasters/thread?tid=11b90d9702a0f9b4&hl=it
Il vecchio sito – per farti capire – riportava il feed dei blogger aggregati, e per ogni SERP riportava non solo i risultati di CSE ma anche risultati da Flickr o Twitter.
Non vorrei andare OT: quando vuoi possiamo parlarne, tanto ormai non è più un segreto. In questi giorni l’ho rifatto completamente e stasera ho fatto richiesta di riconsiderazione.
Ho letto il thread.
Se ho capito bene il sito è in un momento di grandi modifiche, sia dal punto di vista della struttura, sia dal punto di vista dei contenuti: pretendere adesso stabilità da Google sarebbe davvero troppo.
Come hai capito, questo caso esula abbastanza dall’argomento del post, tuttavia sarò ben felice di parlarne in un’altra occasione.
Se hai voglia, possiamo continuare la chiacchierata attraverso il modulo contatti.
Ad ogni modo, ti ringrazio per i contributi. A presto!