Questo è il riassunto del mio intervento al Symposium Gt 2010; chi di voi non dovesse neppure sapere di cosa si tratti può tranquillamente leggere il post senza perdersi nulla.
Spero possiate arrivare alla fine del lunghissimo articolo con abbastanza energie per riuscire a porre domande attraverso i commenti: mi rendo conto che certi aspetti siano controversi e sarò ben felice, eventualmente, di chiarirli con voi.
Vi consigli di curiosare tra tutti i documenti linkati e di domandare qualora troviate aspetti non sufficientemente giustificati.
Buona lettura!
Di cosa parleremo
- Presenteremo il classico PageRank;
- Analizzeremo le sue debolezze e come Google vi ha posto rimedio;
- Impareremo quali sono le caratteristiche tecniche di un link e quindi a crearne di buoni;
- Scopriremo come mai Google cerca sempre più informazioni sui comportamenti degli utenti;
- Ci prepareremo a vedere con occhi differenti la link building e pure la struttura interna del nostro sito.
Il PageRank in breve
Probabilmente tutti conoscete l’algoritmo: se una pagina ha valore 6 e tre link in uscita, ciascuno dei documenti collegati riceverà un valore di 6/3=2. Un documento di questo tipo, adesso, potrà esso stesso passare il suo valore di PageRank e così via per innumerevoli iterazioni.
Proviamo però a rivedere i passaggi tenendo a mente una definizione differente di PageRank, estrapolata dal documento con il quale Google viene spiegato dai suoi creatori sul sito dell’università di Standford:
“Il PageRank può essere pensato come un modello del comportamento dell’utente. Immaginiamo che vi sia un “navigatore casuale” al quale viene data una pagina web casuale e che inizi a cliccare sui link, senza mai premere il tasto “indietro” ma semmai annoiandosi per poi ricominciare da una nuova pagina casuale. La probabilità che il navigatore casuale visiti una pagina è il suo PageRank.”
“PageRank can be thought of as a model of user behavior. We assume there is a “random surfer” who is given a web page at random and keeps clicking on links, never hitting “back” but eventually gets bored and starts on another random page. The probability that the random surfer visits a page is its PageRank”
Tornando all’esempio, allora, mettiamo 6 navigatori sulla prima pagina: navigando a caso si troveranno, statisticamente, in due su ciascuno dei tre documenti collegati. Da questi potranno poi passare ad ulteriori pagine a seconda del numero dei link che ha la pagina sulla quale sono atterrati.
Giusto?
Il superamento
Ma un navigatore reale cliccherà su ciascun link con uguale probabilità? Penso che anche voi, come me, clicchiate più frequentemente su di un link accattivante nella parte centrale del documento rispetto ad una piccola citazione nel fondo della pagina. E allora ha senso considerare i due collegamenti come identici?
Quali che siano state le vostre risposte alle domande (retoriche) qui poste, sappiate che proprio questi ragionamenti hanno spinto Google verso il brevetto che andremo ad analizzare:
“L’invenzione può offrire “un modello del navigatore ragionevole” che indica che quando un navigatore accede un documento con una serie di links, il navigatore seguirà alcuni di quei link con maggiore probabilità rispetto agli altri. Questo “modello del navigatore ragionevole” riflette il fatto che non tutti i link associati ad un documento hanno la stessa probabilità di essere seguiti.”
Insomma, prima avevamo un “navigatore casuale”, adesso un “navigatore ragionevole”. Prima avevamo i link, adesso abbiamo buoni o cattivi link. Penso che meriti allora leggere cosa Google verifichi per sapere se un link è buono oppure no e cosa possiamo fare noi per fargli piacere i nostri backlinks.
Mini-disclaimer
Il fatto che Google abbia brevettato un sistema, non vuol dire che lo implementi o che l’abbia realizzato completamente; tuttavia la lettura dei documenti sembra confermare molte delle teorie che rimbalzano da anni trai SEO di tutto il mondo ed i riscontri con la pratica sono numerosi.
Anche se scritto nel 2004 (ma reso pubblico solo nel maggio di quest’anno) il brevetto ha una grosso valore pure per la visione futura di quello che sarà il motore di ricerca dato che Caffeine ha recentemente messo nelle mani degli ingegneri di Google un potenziale molto maggiore di un tempo.
Il brevetto
Il principio del brevetto è abbastanza semplice: cerchiamo di capire qual’è la probabilità che un link venga cliccato ed in base a questo numero passiamo il valore da pagina a pagina. Come fare? Ad esempio, ci dice Google, possiamo scaricare il codice della pagina ed analizzare questi fattori:
- Formattazione dell’anchor text:
- dimensioni;
- colore (stesso colore dello sfondo);
- stile (corsivo, sottolineato…).
Perché ci interessa? Per prima cosa notiamo che avere link dello stesso colore dello sfondo non è soltanto penalizzante, ma anche inutile, in quanto questi collegamenti, secondo il brevetto, non passano il loro valore normalmente. Vediamo anche che enfatizzare nella pagina i collegamenti più importanti può incuriosire maggiormente l’utente e di conseguenza aumentare il peso del link. Pensateci la prossima volta che vi viene data la possibilità di formattare il testo di un vostro backlink.
- Posizione del link:
- above o below the fold in uno schermo 800×600;
- numero in una lista HTML;
- zona della pagina (top, bottom, destra, sinistra…).
Perché ci interessa? Questi sono i punti più rilevanti, non necessariamente per la loro praticità ma perché hanno trovato riscontri importanti: il più autorevole è in questo video di Matt Cutts nel quale si conferma che i link nel footer possono essere considerati differentemente, ma è stato confermato (slide 5) anche che i primi collegamenti di una lista passano maggior valore dei successivi. Se fino ad oggi avete costruito gli elenchi dei vostri menù senza pensarci, è l’ora di riorganizzarle. La visualizzazione della pagina per determinare se un testo sia sopra o sotto la linea visibile comporta probabilmente un eccessivo bisogno di risorse da parte di Google, ma i metodi per segmentare l’HTML ed individuare le parti di codice ripetute in più pagine sono già una certezza. Tenete lontano i link importanti da quelle zone, fino a che potete.
- Contenuto dell’anchor text:
- numero di parole;
- quanto le parole usate sembrano essere pubblicitarie;
- come il significato dell’anchor text si adatta al contesto semantico di alcune parole scritte prima o dopo il collegamento;
- quanto l’anchor ha a che fare con l’argomento del documento.
Perché ci interessa? Colgo innanzi tutto l’occasione per puntualizzare quale metrica stiamo analizzando: non il posizionamento per una singola parola chiave, ma qualcosa di molto più generico, il valore di un intero documento. Se volendo spingere una singola chiave dobbiamo procurarci link in ingresso solamente con le parole per le quali ci vogliamo posizionare, adesso il consiglio può essere migliorato: spendete qualche parola in più per incoraggiare il click, aumentare la visibilità dell collegamento o per differenziarvi dalla massa.
Pensando invece alla compravendita di link, si capisce come con gli ultimi 3 punti Google l’abbia pesantemente colpita. Un collegamento con testo “download mp3” può non avere nessun valore in un sito sportivo, mentre può passare moltissimo valore in un sito di recensioni musicali, soprattutto se integrato in una frase. La prossima volta che cercherete backlinks, anche da acquistare, tenete a mente questi aspetti.
- Tipologia di link (ad esempio un collegamento con immagine)
- se è un immagine, dimensioni dell’immagine.
Perché ci interessa? Nel posizionamento per una singola parola chiave, il testo di ancoraggio ha una forza universalmente riconosciuta; ma se si tratta di passare valore allora non è detto che non sia meglio optare per un’immagine (magari ottimizzata a dovere).
- Se il link porta all’interno del solito dominio:
- se punta ad una URL più o meno lunga rispetto a quella del documento stesso;
- se l’url di destinazione ha un redirect verso un nuovo documento.
Perché ci interessa? Questo aspetto è interessante perché ci ribadisce come una struttura delle url stabile e razionale sia di aiuto al corretto posizionamento: attenzione ad aggiungere sottocartelle inutili e ad applicare troppo spesso i redirect che, come sappiamo, non fanno passare tutto il valore originario del link.
Adesso che abbiamo una panoramica di tanti degli elementi che Google può valutare e, spero, una buona serie di dubbi in testa possiamo passare alla seconda parte del brevetto: l’analisi dei comportamenti degli utenti.
Quale metro migliore per studiare la probabilità che un link venga cliccato che analizzare i percorsi di navigazione degli utenti? Google oggi può farlo e già nel 2004 aveva capito come:
“Ad esempio, il browser web o un programma di aiuto al browser possono memorizzare dati riguardanti i documenti acceduti dagli utenti e i link che eventualmente hanno cliccato; possono memorizzare la lingua dell’utente deducendola, ad esempio, dalle pagine visitate; possono registrare gli interessi degli utenti determinandoli, ad esempio, a partire dai segnalibri e dalla lista dei preferiti.”
Dove trova il motore di ricerca tutti questi dati? Dal 2004 procurarsi quante più informazioni possibili diventa un chiaro obiettivo di Google che difatti possiede il più vasto apparato di monitoraggio degli utenti al mondo.
Oggi il motore di ricerca può contare sui dati di navigazione provenienti da:
- Google Toolbar;
- Google Chrome (che attualmente rappresenta il 7.52% degli utenti online);
- Google Analytics (utilizzato dal 47,7% dei siti web);
- Tante fonti “minori” come Google Reader, GMail, Igoogle. Google URL Shortener…
Mai notata la pagina “Site Overlay” di Analytics? Ci sono le percentuali di click riguardanti i link interni già pronte per determinare, idealmente, quanto PageRank far passare in ciascuno dei vostri collegamenti interni!
La prospettiva che si apre è estremamente interessante, ma può Google basarsi solo sui dati? E per le pagine nuove e poco trafficate? Probabilmente un approccio che consideri solamente il comportamento degli utenti è troppo dispendioso, anche considerando la nuova architettura Caffeine.
Ecco allora l’ultima parte del brevetto: forse la più suggestiva. Non più un algoritmo statico per il PageRank ma un modello in continua evoluzione, dove i dati raccolti dalle azioni degli utenti (o meglio ancora da classi di utenti) diventino regole sempre più efficaci con le quali pesare le caratteristiche tecniche del link. Anche in questo caso, sfruttiamo direttamente gli esempi che ha inserito Google nel suo brevetto:
“Ad esempio, l’unità che genera il modello può generare una regola che indica che un link posizionato sotto l’intestazione “More Top Stories” sul sito web cnn.com ha un’alta probabilità di venire selezionato; può generare una regola che indica che un link associato ad un URL contente la parola “domainpark” ha una bassa probabilità di venire selezionato; può generare una regola che indica che il link associato ad un documento che contiene popup ha una bassa probabilità di venire selezionato; può generare una regola secondo la quale se un link è associato ad un dominio con estensione .”tv” ha una bassa probabilità di venire selezionato; può generare una regola che indica che un link associato ad un URL di destinazione con molteplici trattini ha una più bassa probabilità di venire selezionato.”
Attenzione a non dare troppo peso a questi esempi: anche ammettendo che il motore di ricerca implementi proprio la regola riguardante i .tv ciò non pregiudica ad un dominio .tv un buon posizionamento. Stiamo comunque parlando di uno dei tanti fattori che Google usa per passare il valore dei link. Ciò che il motore di ricerca prova a misurare e ad introdurre nei suoi algoritmi è la diffidenza che l’utente medio ha mostrato in passato per questo genere di estensione.
Seguendo questo modello, il motore di stimerà a quali caratteristiche dei link converrà conferire maggior peso e quali invece saranno praticamente ininfluenti; il processo si affina ed è pensato in continuo mutamento tendendo, idealmente, ad una perfetta capacità predittiva.
A questo punto, è logico pensare ad una nostra pagina con accanto ai link delle percentuali: ciascun valore rappresenterà la probabilità che un link venga cliccato e di conseguenza il valore che passerà per quel collegamento. Con il vecchio PageRank tutti questi valori sarebbero stati identici.
Ci stiamo scordando di qualcosa che viene sempre fuori quando si parla di PageRank: il rel “nofollow”. Come si comporta l’algoritmo in questo caso? Beh, credo che si comporti in maniera perfettamente intuitiva. Tutte le percentuali sono calcolate comunque però i link con il nofollow non passano nessun valore: non c’è quindi alcun vantaggio per i rimanenti link e dunque neanche per il webmaster che ne ha il controllo. Anche in questo caso vi sono voci più autorevoli della mia a confermare l’ipotesi. Se eravate abituati a governare il PageRank all’interno del vostro sito, probabilmente ora dovrete farlo modificando l’intera struttura e non soltanto inserendo un attributo.
Quanto questo nuovo PageRank ha migliorato le serp di Google in questi 6 anni? Quanto potrà farlo nei prossimi mesi grazie alle infrastrutture più potenti che Google ha messo nelle mani degli ingegneri?
La domanda più importante però, per noi, è un’altra: come possiamo sfruttare questa continua evoluzione? Tanti piccoli consigli ci sono già saltati in mente prima, mentre snocciolavamo le possibili caratteristiche tecniche ma penso sia necessario trarre da questo brevetto 2 grosse linee guida.
Primo: Inserisci i tuoi backlinks in modo che siano cliccati. Fatica per proporre un tuo guest post, spendi tempo nel farti conoscere dagli altri, sforzati di produrre informazioni di qualità; non dedicare troppo tempo al link facile, fuori contesto o in posizione improbabile.
Secondo: Inizia a pensare alla seo e all’usabilità come ad una cosa sola. Rendi più accessibili le voci per le sezioni che sei più interessato a posizionare, elimina il superfluo, vedi se le pagine con le percentuali di abbandono maggiore possono essere migliorate (semplificando i form, proponendo alternative di navigazione, …). In tutto questo, se non lo fai ancora, fatti aiutare da un tool come “Site Overlay” di Google Analytics: saprai dove finiscono con maggiore probabilità gli utenti e dunque, negli intenti di Google, dove fluirà la maggior parte del valore dei link interni.
Queste considerazioni escludono i social network: l’omissione è voluta perché credo che i link provenienti dai social siano difficilmente trattabili con questo tipo di approccio. Sono praticamente tutti uguali per caratteristiche tecniche, hanno quasi tutti il nofollow, nascono, si spostano e spariscono ad una velocità ingestibile per un algoritmo basato su più passaggi come il PageRank. A mio modo di vedere Google ha sviluppato altri algoritmi per calcolare l’influenza dei social, probabilmente basati ancora sui collegamenti ma di natura abbastanza differente da quanto visto oggi.
Prima di passare alle vostre domande, vorrei farmene una da solo: sei convinto che la strada descritta in questo intervento, sia la migliore per un buon posizionamento?
La risposta è, ovviamente, no. Nel breve periodo, per progetti che necessitano di una grande visibilità per un tempo breve vi sono tecniche che a mio modo di vedere funzionano meglio: infilate i vostri link dovunque potete, automatizzate il possibile e riempite il sito di pagine finalizzate alla conversione.
Se però avete ambizione di abitare la rete per un periodo medio/lungo, di fidelizzare il cliente o comunque di servire con il vostro lavoro un business solido e duraturo, beh, allora la strada segnata in questo intervento è sicuramente la migliore.
Altri riferimenti utili:
- Search Engine Land;
- Seo by the Sea;
- The reasonable surfer; makes for unreasonable thinkers;
- Is Google’s reasonable surfer model no longer a model at all?
UPDATE: Cliccando qui potete scaricare le slide dell’intervento. Purtroppo non penso ci sia stata alcuna registrazione (mi sarei fatto prendere in giro volentieri).
Ottima interpretazione, complimenti.
Io lascerei ancora spazio alla reale inutilità dei link con il nofollow. Se Google ha sempre capito il comportamento del programmatore, ad oggi rigorosamente esperto seo, perchè deve farsi suggerire i nofollow, lasciando pieno potere a chi scrive il codice, di passare o meno pr attraverso un link? G guarda sempre all’utilità del link contestualizzato per il navigatore…
Io rifletterei anche su questo…
Ciao Alessandro, grazie per i complimenti.
Sicuramente l’interpretazione dell’intervento è migliorabile ma sapere che ti è piaciuta è un ottimo stimolo.
Sulla reale utilità del “nofollow” il dibattito è assolutamente acceso; forse poteva essere evitato un tempo (bloccando lo sviluppo del web partecipativo?) ma adesso è davvero difficile pensare di rinunciarvi: i motori di ricerca dovrebbero cambiare gli algoritmi ma anche il web subirebbe un bel contraccolpo.
Togliamo il “nofollow” da Internet e vediamo cosa potrebbe accadere.
Ammesso che i motori di ricerca non inizino a liberalizzare lo spam ed a permettere che il più ricco possa comprare il suo posizionamento (acquistando collegamenti in ingresso) non resta loro che ritenere il webmaster direttamente responsabile di tutti i link presenti sul suo sito. (Altre ipotesi ben accette!)
A livello teorico condivido questa ipotesi, ma in pratica sono assai più scettico: potrei io concedere link nei commenti, potrebbe Wikipedia permettersi di citare le fonti, potrebbero esistere i forum ed i social network? Anche ammettendo una selezione da parte del webmaster (che sui social non sarebbe possibile) ogni quanto dovrei ripeterla per essere sicuro di non linkare un sito penalizzato a causa dei suoi link in ingresso?
La vendita di pubblicità contenente collegamenti diretti dovrebbe essere concessa, concedendo a chi può permetterselo un predominio delle serp inattaccabile o proibita, distruggendo ogni forma di guadagno per i siti non commerciali?
Sull’altro piatto della bilancia vi sono situazioni nelle quali il “nofollow” è usato “ingiustamente” ad esempio trattando tutti i possessori di account sui social network come potenziali spammer: questo impedisce a ciascuno, ragionando con le metriche dei motori di ricerca, di attribuire un apprezzamento ad un documento e nega a siti autorevoli si essere riconosciuti come tali da Wikipedia (traendone il meritato miglioramento in serp).
Quello che penso è che Google si stia attrezzando per assegnare a ciascun contesto (blog, Twitter, Facebook…) un algoritmo differente proprio nell’intenzione di contestualizzare il link per il navigatore. Allo stesso tempo credo però che il web con il nofollow sia cresciuto molto meglio di come sarebbe cresciuto senza…
Alessandro, come vedi pure io avevo bisogno di riflettere un po’ sull’argomento, grazie per avermi invitato a farlo!
Ciao Marco,
che dire..un post veramente interessante!
Mi dispiace non essere potuto venire al symposiumGT, ma sicuramente il tuo intervento valeva il viaggio.
Complimenti.
Ciao Roberto, sarebbe stato un piacere conoscerti dal vivo ma sono certo che avremo altre occasioni.
Ti ringrazio per l’apprezzamento. A presto!
Gran bell’articolo… si evince molto che la struttura del sito è fondamentale per un buon posizionamento. Inoltre come già ribadito da te queste sono solo alcune delle variabili che entrano in gioco per un buon posizionamento. Si è parlato anche di quanto influisce l’età di un dominio. Una buona Keyword density. E la frequenza di aggiornamento.
Io credo che un ruolo decisivo sia assunto dalle immagini. Come hai detto tu Marco, Google punta molto su ciò che all’utente medio salta subito all’occhio, e cosa meglio di un’immagine può immedesimarsi in questa affermazione?
Come ha già fatto qualcuno, ritengo sia importante fare delle prove, testare i giovamenti che possano portare queste indicazioni su un sito “vergine”.
🙂 Rinnovo comunque i miei complimenti per l’articolo.
Rocco
Ciao Rocco, ti ringrazio per l’apprezzamento.
Sì, ovviamente hai ragione, i parametri che entrano in gioco nel posizionamento sono tantissimi: già provando ad approfondirne uno solo ci si ritrova con un articolo di 2400 parole e tanto ancora da dire.
Per quanto riguarda le immagini, anche nel post ho lasciato la questione aperta: forse proprio per la moltitudine di fattori parlare di “ruolo decisivo” è azzardato ma di certo i test sono la miglior medicina ai nostri dubbi.
Se vorrai procedere in prima persona o avrai notizie in merito, ti prego di tenermi aggiornato!
Articolo e, devo dire, pure commenti con cui chiudo con piacere la mia settimana lavorativa :)!
Posso sapere qualcosa di più riguardo quanto è stato detto sull’età del dominio e/o se conta pure quanto spesso viene aggiornato (sempre restando su tempi da crawler: mesi o al massimo settimane) il sito nelle sue varie componenti?
Buon fine settimana :)!
Ciao Ajna e grazie per l’apprezzamento nei confronti miei e degli altri commentatori.
L’età del dominio è probabilmente uno dei famigerati 200 e più parametri che Google valuta per stabilire il posizionamento in serp; ciò non toglie che la sua importanza pratica vada ben oltre.
Avere un dominio vecchio permette di avere backlinks anziani, provenienti da siti probabilmente autorevoli: se gli argomenti del dominio sono restati i medesimi la spinta tematizzante ricevuta è davvero rilevante in serp.
Non dimentichiamo in quest’ottica che Google conserva un archivio storico di tutti i siti che indicizza ed ovviamente solo un progetto anziano può far valere il suo passato.
Discorso differente vale per la frequenza di crawling: questa è una conseguenza del PageRank (oltre che della frequenza di aggiornamento e della struttura del sito). Credo che monitorare il periodo di aggiornamento della home page di siti statici possa effettivamente essere una buona cartina tornasole dell’autorità del dominio.
Articolo molto interessante.
Penso che in fin dei conti la cosa più importante sia il ragionamento associato a una buona dose di buon senso.
Ciao Andrea.
Come darti torto? Non dimentichiamoci però la necessità di documentarsi parecchio sia per conoscere i meccanismi (sui quali poi applicare il ragionamento) che per formare in noi le giuste categorie mentali (alle quali applicare il buon senso).
Grazie per l’apprezzamento!
se non ho capito male anche il design e una corretta posizione ed “instradamento” della navigazione dei visitatori migliora il posizionamento…
Ciao Mirko, penso tu abbia capito bene.
Ovviamente la capacità predittiva di Google riguardo le abitudini degli utenti non potrà mai essere del 100%, ma diciamo che la tendenza del motore di ricerca è migliorarsi sulla strada che hai intuito.
Tra le altre cose quanto hai detto è fondamentale pure per parecchi altri aspetti del web marketing (aumento delle conversioni, fidelizzazione dei clienti, brand reputation…).
Grazie del commento!
Ciao Marco,
Ti ringrazio e ti faccio i complimenti per l’articolo esustivo e scritto in modo da poter rendere fruibile anche ai non “addetti ai lavori” il concetto espresso.
Ti volevo chiedere un’info,spero la mia domanda abbia un’attinenza ed un senso,io ho un sito di e-commerce(premetto che e’ su una piattaforma,”Neonisi”,per cui la struttura del sito e’ gia’ prestabilita,si possono inserire i prodotti nella sostanza),mi chiedevo per cui nel mio caso come i principi espressi nel tuo post possono influenzare,o forse non avantaggiare un buon page rank(se lo relazioniamo a questo aspetto specifico),visto che i link del sito rimandano poi solo alle pagine interne allo stesso,relative ai prodotti in vendita,o forse nel caso di un sito di e-commerce i parametri di analisi sono leggermente differenti.Spero di esser riuscito a spiegarmi,no e’ da molto che approfondisco il SEO per cui puo’ anche essere che la mia domanda non abbia un senso,nel caso scusami,ti ringrazio a priori e complimenti ancora per l’articolo.
Morgan
Ciao Morgan, ti ringrazio per i complimenti, apprezzati soprattutto per la loro motivazione.
Avere pochi livelli tra la home e le pagine che vuoi posizionare è positivo.
Se le pagine poi richiedono un acquisto è fisiologico avere alti tassi di abbandono, ma ciò non vuol dire che la situazione non possa essere migliorata.
Penso ad uno spazio per i contenuti generati dagli utenti (commenti, recensioni) in grado di fidelizzare il cliente, alla possibilità di far scegliere prodotti collegati ed all’usabilità. Tutte cose che comunque aiutano più le conversioni che il posizionamento.
Non esageriamo poi con l’importanza del Reasonable Surfer Model: incide solo su alcuni aspetti del posizionamento e solo se sei interessato ad una visibilità di lungo periodo (come ho già detto nel post).
Per rispondere al tuo dubbio. penso che gli ecommerce siano trattati come gli altri siti, ma con il vantaggio di dover competere solo con altri ecommerce!
Ciao, complimenti per l’articolo è molto interessante.
Spero che mi venga data una risposta perchè mi hai messo una bella pulce nell’orecchia.
Vorrei capire qualcosa in più in merito agli argomenti “Posizione del link” e la percentuale dei link ricevuti.
Un link ritenuto importante può essere considerato come tale anche se non riceve moltissimi click ?
Facendo un esempio.
Con i DIV e CSS realizzo una pagina, dove il testo ottimizzato per i motori di ricerca e i link, alle pagine che voglio spingere maggiormente, vengono collocati nella parte alta del codice HTML, mentre visivamente l’utente nel suo browser vede questo testo a fondo pagina come un footer.
Cosa accade ? Che i motori di ricerca leggono prima il mio codice ottimizzato e successivamente, l’altra parte del sito, che può includere, ad esempio un menu verticale posizionato per il visitatore sulla sinistra.
Sappiamo che, i motori di ricerca gradiscono il fatto di poter leggere, già dalle prime righe del codice, del buon testo, ma in questo esempio di pagina il motore vede che i link maggiormente cliccati sono posizionati a fondo pagina, in quanto i visitatori, avendo una differente visualizzazione della pagina, hanno cliccato maggiormente quelli più visibili.
A questo punto i link, collocati nelle prime righe di codice (insieme al testo ottimizzato), assumono un’importanza minore rispetto a quelli maggiormente cliccati dagli utenti, anche se questi link a livello di codice sono posizionati a fondo pagina ?
P.S. Per motori di ricerca intendo Google 🙂 e scusate se ho scritto da cani ma essendo lunedi non ho potuto prendermi 5 minuti di calma.
Grazie mille.
Ciao e grazie per i complimenti.
Provo a darti una risposta.
L’equivalenza click-percentuale di valore passata dal link è un obbiettivo, non una realtà. Anche l’analisi dei comportamenti non è (ancora?) così approfondita da capire per ciascun sito dove clicchino gli utenti. Il motore di ricerca crea modelli e li applica, poi li raffina.
A livello teorico, intuendo i pesi dati ai vari fattori, possiamo quindi sfruttare il codice per far credere a Google che siano importanti link che in realtà non lo sono per gli utenti direzionando meglio una certa percentuale del PageRank.
Ti faccio però notare che la posizione del link nel codice HTML non è mai nominata nel brevetto del Reasonable Surfer.
Anche i metodi per segmentare e identificare parti di codice ripetuto sono più sofisticati di quanto immaginiamo (vedi ultimi due link del paragrafo sulla posizione del link).