Translate

domenica 16 novembre 2014

LE TECNICHE DI REDIRECT SEO FRIENDLY



Il redirect è una delle tecniche più utilizzate dai webmaster per 3 principali motivi:
redirect
      1. Migrazione di un sito internet su un altro dominio; se abbiamo per esempio un blog indicizzato in GOOGLE nel migliore dei modi ed abbiamo deciso di farlo diventare un vero e proprio sito internet con un URL di nostra scelta, per non perdere tutto il vantaggio acquisito dal nostro blog dobbiamo re-indirizzare le visualizzazioni dello stesso sul nuovo sito internet;
      2. Segnalazione di un URL “canonico” per evitare dispersioni di traffico; se alcuni contenuti del nostro sito internet sono raggiungibili da diversi URL, Uniform Resource Locator, per esempio http://miositoseo.com/ e http://www.miositoseo.com/, possiamo scegliere di indicare al Crawler di Google, Googlebot e ad altri spiders di altri motori di ricerca, quale indirizzo considerare come principale.
      3.  Fusione di due o più siti internet;  scelta dovuta più che altro a questioni logistiche.
E’ importante però adottare determinate accortezze SEO FRIENDLY per evitare che tutto il lavoro svolto sul vecchio sito internet con le nostre TECNICHE SEO venga vanificato.
Per prima cosa cerchiamo di capire in cosa consiste la tecnica del REDIRECT.
In pratica quando un utente clicca su un indirizzo internet del nostro vecchio sito, se è stata adottata questa tecnica, viene automaticamente inoltrato dal suo browser al contenuto del nuovo sito internet che noi abbiamo indicato come “sostituto”.

Esistono due principali tipi di redirect:

  • REDIRECT 301 - HTTP 301 Permanent Redirect;
Questo indica ai motori di ricerca e agli spider che l’URL (Uniform Resource Locator) di una pagina  deve essere sostituito definitivamente da un altro che noi gli indichiamo. In questo modo gli spider tendono a trasferire il page rank e tutta l’importanza delle precedenti pagine alle nuove pagine e di sostituire nei loro data base il vecchio URL con il nuovo.

  • REDIRECT 302 - HTTP 302 Temporary Redirect;
Questo indica ai motori di ricerca e agli spider che l’URL (Uniform Resource Locator) di una pagina  deve essere sostituito solo temporaneamente da un altro che noi gli indichiamo. In questo modo gli spider non trasferiscono il page rank e tutta l’importanza delle precedenti pagine alle nuove e quindi i vecchi contenuti continuano ad essere indicizzati regolarmente.

Per un redirect SEO FRIENDLY si consiglia vivamente di usare l’HTTP 301 Permanent Redirect.  

Questa scelta è motivabile da due motivi principali

  1. Evitare problemi di duplicazione dei contenuti tra vecchio e nuovo sito; 
  2. Dare fin da subito un’ottima spinta all’indicizzazione del nuovo sito internet.

      LINEE GUIDA su come effettuare il redirect in modo corretto: 

  • Non ci sono limiti al numero di pagine reindirizzate da un sito ad un altro.  Occorre però tenere presente che il reindirizzamento rallenta il processo di caricamento del documento finale consultabile dall'utente e questo non è sicuramente un fattore positivo.

  • Non rimandare il Crawler per più di due redirect per lo stesso contenuto (quindi al massimo potremmo partire da una pagina originale ed atterrare su un secondo e poi al massimo, ma solo se fosse proprio necessario, su un terzo reindirizzamento). 
  •  Le pagine del vecchio sito devono essere reindirizzate sulle corrispondenti pagine del nuovo sito. Reindirizzare tutte le pagine del vecchio sito alla home page del nuovo sito, infatti, può essere interpretato dal Googlebot come un tentativo fraudolento di aumentare la visibilità del nuovo sito, ed inoltre questa tecnica,  non garantirebbe una buona esperienza dell’utente che si ritroverebbe reindirizzato ad una home page non richiesta. 
  •  Implementare Google Analytics su entrambe le pagine incluse nel reindirizzamento (vecchio e nuovo sito) sarebbe utile per monitorare il redirect ed individuare eventualmente problematiche da sanare.  
Buon reindirizzamento a tutti!

domenica 7 aprile 2013

GUIDA E TOOLS PER L'ANALISI DEI FILES DI LOG


Guida ai file log SEO
Una guida all’analisi dei files di Log, per la search engine optimization,  non puo’ che partire dalla definizione dei files di log: 
 I files di log sono dei documenti, in formato di  testo, utilizzati dai WEB SERVER per  registrare una serie di informazioni relative alle visite che il nostro sito internet  ha ricevuto in un lasso di tempo definito.
I file di log sono due:

  1. File degli accessi ricevuti che ci fornisce indicazioni su tempi di download dei singoli oggetti facenti parte del nostro sito, la data e l’orario delle visite ricevute, l’indirizzo IP dal quale c’è stato il collegamento al nostro sito internet, le risorse richieste dal visitatore  e la tipologia di risposta che è stata  data al visitatore; 
  2. File degli errori registrati che ci elenca tutti gli errori riscontrati in fase di accesso.
Risulta chiaro che per un esperto SEO,  l’analisi di questi file diventa fondamentale per capire, almeno, due cose importanti: 
  • Quanto risulta interessante il nostro sito internet per lo spider di Google?
  • Quali errori ha riscontrato lo spider di Google consultando il nostro sito internet?
In questa guida ci limiteremo a capire bene quali tools ci possono essere utili per facilitare l’analisi di queste due problematiche.
Partiamo con il dire che per avere i files di log occorre interpellare l’amministratore del server, sul quale il nostro sito internet è caricato, e chiedere di metterli a vostra disposizione. Generalmente l’amministratore li posizionerà in una cartella nominata LOG.
Tramite un qualsiasi programma FTP (consiglio, uno per tutti, il famoso FILEZILLA) li scaricheremo sul nostro pc e tramite dei programmi specifici li analizzeremo nel dettaglio.
Il  software che utilizzo per procedere con quest’analisi  è Apache Log file Viewer.  E’ un programma gratuito (almeno per le applicazioni di base) che ci fornisce le seguenti informazioni :
  • File LOG degli accessi: IP ADDRESS di chi ci ha visitato, DATA e ORARIO della visita, la richiesta effettuata dal visitatore (quindi l’oggetto, l’immagine, la pagina, etc.), lo stato di risposta alla richiesta, la grandezza in KB della risorsa ottenuta in seguito alla richiesta e il Paese in cui è localizzato l’indirizzo IP del visitatore.
  • File LOG degli errori:  IP ADDRESS di chi ci ha visitato, DATA e ORARIO della visita, il messaggio di errore ottenuto dal visitatore e il Paese in cui è localizzato l’indirizzo IP del visitatore.
Se tra gli indirizzi IP del file degli accessi leggeremo  anche “crawl…” allora vorrà dire che il famigerato spider di Google, Googlebot,  ha effettuato una visita al nostro sito internet. E’ importante, quindi, che:
  • Googlebot ci venga a visitare quanto più spesso è possibile. Questo vuol dire infatti che Google considera il nostro sito interessante e invia il suo spider per registrare aggiornamenti di pagine già esistenti e/o pubblicazioni di nuove pagine.
  • La risposta del nostro sito internet, alla richiesta dello spider sia sempre positiva.  A volte può succedere che lo spider richieda dei file che non ci sono (per esempio il file robots.txt). In questo caso non è necessario crearli e caricarli. L’importante è che gli errori non siano su file e pagine che sono parte integrante del nostro sito internet.

Attenzione anche al peso delle risorse restituite al crawler (la colonna size del file degli accessi).


Se avete il sospetto che le dimensioni di qualche oggetto siano un po’ esagerate, effettuate una verifica con PageSpeed Insights — Google Developers per ottimizzare ogni singolo elemento del vostro sito internet. Seguendo le istruzioni di questo utilissimo tool, infatti, riuscirete sicuramente a migliorare le prestazioni delle vostre pagine internet in termini di velocità di download.


Dall’analisi di questi due files di LOG, riuscirete a capire quindi quali interventi impostare sul vostro sito internet per eliminare gli errori, assolutamente penalizzanti per il posizionamento, e quali risorse risultano esplorate maggiormente dal Googlebot.

Se queste ultime non corrispondono a quelle che ritenete più importanti ed interessanti per l’indicizzazione del vostro sito internet allora avete un problema da affrontare. 

Il mio consiglio, chiaramente, è quello di cominciare a risolvere questo problema leggendo con attenzione gli altri post di questo blog.

Buon lavoro!

sabato 26 gennaio 2013

GOOGLE PENGUIN: QUALI SITI INTERNET PENALIZZA?

Google Penguin

A quasi un anno dall’introduzione dell’aggiornamento dell’algoritmo di Google, ribattezzato GOOGLE PENGUIN,  possiamo provare a tirare le somme e capire quale impatto sembra ci sia  stato sui siti internet indicizzati in GOOGLE.
Per chi non lo sapesse ancora,  Google Penguin, come ho accennato nel post ALGORITMO GOOGLE PANDA: COME HA INCISO SUI SITI INTERNET, è un aggiornamento dell’algoritmo di Google lanciato il 26 aprile 2012 sul WEBMASTER CENTRAL BLOG, che punta all’individuazione e penalizzazione dei siti internet che utilizzano tecniche BLACK HAT per il posizionamento organico in GOOGLE.
Le tecniche BLACK HAT sono tutte  tecniche fraudolente, lontane dalle linee guida sulla qualità dei siti introdotte da GOOGLE nella seguente pagina.
 In sostanza le principali tecniche black hat sono:

  • ·         Keyword stuffing (letteralmente imbottitura di parole chiave) in cui il webmaster sovraccarica le pagine internet con parole chiave, magari anche con del testo nascosto.

  • ·         Testo e contenuto non originale, o addirittura generato automaticamente tramite strumenti specifici (RSS, frames etc.) che risultano assolutamente inutili per l’utente.

  • ·         Link non naturali, cioè collegamenti in uscita o in entrata, tra il nostro sito e altri siti, creati o tramite pagamento (acquisto di link), o tramite strumenti automatici o  tramite tecniche di scambio link. Queste ultime sono tollerate ed accettate se avvengono in maniera non esagerata e naturale (vedi post).

  • ·         Cloaking e Sneaky redirect (letteralmente mascherarsi e reindirizzamento subdolo). Con queste due tecniche  il webmaster riesce a presentare un contenuto differente del sito internet  in base al fatto che lo consulti lo spider di un  motore di ricerca o un utente reale.

  • ·          Doorway pages (letteralmente pagine d’ingresso). Il webmaster le crea per indicizzarle al meglio per una specifica parola chiave, ma le utilizza solo per rimandare l’utente ad un altro sito (spesso assolutamente inutile per l’utente).   

  • ·         Comportamenti maligni, come scaricare virus, malware, tentativo di raccogliere dati sensibili degli utenti etc.


L’aggiornamento Google Penguin, quindi mira ad individuare i siti internet posizionati con tecniche BLACK HAT e a penalizzarli.
Che tipo di risultati ha ottenuto questo aggiornamento, quindi?
Pare che l’impatto sia stato ancora più modesto rispetto a GOOGLE PANDA. Siamo, infatti, intorno al 3-5% dei siti indicizzati a livello globale. 
Nell’Ottobre 2012, inoltre, è stato introdotto un aggiornamento di Penguin, ribattezzato PENGUIN 3, che pare abbia avuto un impatto di mezzo punto percentuale sul totale delle ricerche.
Apprezzo molto lo sforzo di Google nel migliorare i risultati organici del proprio motore di ricerca.
Con il tempo i risultati cominciano finalmente a vedersi.
Lato SEO l’unica cosa che dobbiamo tenere in mente per non essere impattati dagli aggiornamenti PANDA E PENGUIN è costruire contenuti di qualità, freschi, originali, interessanti ed utili per il target che vogliamo colpire. 
Domandiamoci sempre: quanto è utile da 1 a 10 la mia pagina internet per l'utente che digita una query con le parole chiave da me scelte? La risposta DEVE essere sempre 10!
Questo sarà un punto sempre più determinante su cui sconfiggere la nostra concorrenza e balzare al primo posto in GOOGLE.

venerdì 25 maggio 2012

ALGORITMO GOOGLE PANDA: COME HA INCISO SUI SITI INTERNET


Google PandaGoogle Panda, come tutti ormai sanno, è il nuovo algoritmo adottato da Google nel Febbraio 2011 per filtrare tutti i siti internet in base alla loro qualità.
Il senso di questa novità era garantire agli utenti di Google dei risultati basati su questi 4 aspetti: 
  1.  Usabilita’ del sito e quindi stuttura semplice ed intuitiva 
  2.  Contenuti originali e specifici di un argomento per ogni pagina 
  3.  Pubblicità non predominante sui  contenuti sostanziali 
  4.  Collegamenti del sito, con l’esterno, “naturali” e di qualità
A più di un anno dall’introduzione dell’algoritmo l’impatto che si temeva sui siti internet italiani possiamo dire che sia stato assolutamente sopravvalutato.  
Un grosso cambiamento nel posizionamento dei siti in realtà non c’è stato se non per un 7 % circa dei risultati. E di questi cambiamenti le posizioni perse o guadagnate dai siti impattati sono state generalmente poche (3/4 posizioni).
Quello che deve rimanere ben chiaro però è il messaggio che Google vuole lanciare in maniera sempre più determinante anche con i nuovi algoritmi che sono stati introdotti da poco (Penguin per esempio):
Il posizionamento dei siti sarà sempre più legato alla qualità oggettiva che contraddistingue contenuti e struttura. Dire che questo possa essere poi calcolato con efficacia da una procedura matematica è la vera sfida che Google sta cercando di portare avanti.
Per anticipare le mosse di Google sul posizionamento dei siti, quindi sarebbe utile cominciare a tenere presente alcuni valori che sembrano legati ai nuovi algoritmi introdotti: 
  1.  Tempo di caricamento del sito internet; 
  2.  Bounce rate (percentuale degli utenti che abbandono il sito internet entro pochi secondi) 
  3.  Tempo medio di permanenza sulle pagine del sito 
  4.  Percentuale di visitatori che ritornano sul sito internet (più è alta ovviamente meglio è)
Tutti questi valori possono essere controllati in Google Analytics gratuitamente.

giovedì 22 settembre 2011

I LINK ESTERNI - OUTGOING LINKS - INCOMING LINKS



Nel post sui link interni di un sito internet abbiamo sottolineato l’importanza di una struttura di link ordinata, chiara e basata sulle parole chiave utili all’ottimizzazione del posizionamento siti internet.
Ora dobbiamo approfondire invece uno degli aspetti più importanti usati per il posizionamento dei siti internet in Google: i link esterni di un sito internet.
Per link esterni intendiamo due differenti tipologie di link:
1) Outgoing link, cioè i link che dal nostro sito internet riportano ad altri siti internet;
2) Incoming Link cioè i link che da altri siti internet riportano al nostro sito internet.
Chi si occupa di TECNICHE WEB SEO sa perfettamente che solo la cura di entrambe queste tipologie di link può dare dei risultati ottimali per il posizionamento di un sito su Google.
Per questo andremo ad approfondire entrambe le tipologie in maniera distinta.

Outgoing link
Di primo acchito si potrebbe pensare che i link in uscita dal nostro sito internet possano essere controproducenti per l’indicizzazione delle nostre pagine. Questo perché, come abbiamo visto nel post relativo alla struttura del sito internet, una delle caratteristiche considerate da google per aumentare il posizionamento di un sito internet, è la permanenza dei visitatori sulle nostre pagine.
Approfondendo il discorso sui link esterni, però, troviamo almeno tre motivazioni per utilizzare questo strumento SEO per il nostro sito:

1) Collegare il nostro sito internet a pagine web di grande valore e con contenuti affini a quelli del nostro sito permette, ai nostri utenti, di avere un quadro più completo dell’argomento trattato e questo fidelizza gli accessi.

2) Il webmaster del sito internet a cui colleghiamo le nostre pagine web, potrebbe ricambiarci il favore ed effettuare a sua volta un link al nostro sito. Questo metodo, se fosse usato regolarmente tra siti internet di alta qualità collegati tra di loro, permetterebbe di creare una rete d’informazioni importante ed aumenterebbe gli accessi di tutti i siti facenti parte della stessa rete.

3) Dedicare una piccola sessione del nostro sito ad un argomento sviluppato approfonditamente da una pagina web collegata in uscita, ci permetterebbe di avere il nostro sito tra i risultati di Google ottenuti con ricerche specifiche per l’argomento stesso.

In sostanza, la cosa da considerare sempre è che il mondo d’internet è l’antitesi della solitudine e dell’individualismo. Occorre sempre condividere, confrontarsi e creare rete. L’importante è farlo con siti e pagine web di qualità.
Tornando ai nostri outgoing link, la prima cosa da considerare è il numero massimo da inserire in ogni singola pagina web del nostro sito internet. Il consiglio è quello di non superare assolutamente i 100 link in uscita per pagina e, se possibile, rimanere intorno ai 7/8 link.

Oltre a questo occorre comprendere che è preferibile non avere link in uscita piuttosto che avere link in uscita verso siti internet di scarso valore o penalizzati da Google.

Alcuni consigli pratici per l’implementazione dei outgoing link nelle nostre pagine web:

1) Inserire i link in modo che risultino un approfondimento di un argomento trattato anche marginalmente nel nostro sito internet.

2) I link devono essere sempre testuali e con parole chiave.

3) Inserire i link con “target” “new” in modo che le nostre pagine rimangano aperte e consultabili.

4) Gli outgoing link coviene inserirli con il valore “no-follow” in modo da non disperdere il proprio pagerank e non rischiare di dare a Google l’impressione di essere legati a siti che potrebbero essere penalizzati e considerati spam (linkati erroneamente nelle nostre pagine web).

Andiamo ora a vedere come strutturare una strategia di incoming link.

Incoming Link
Per quanto rigurada i link in ingresso è importante avere incoming link da siti internet con un buon pagerank (di questo argomento parleremo approfonditamente su un altro post) in modo che questa buona valutazione che Google da’ al sito internet che ci linka venga in qualche modo riportata anche sulle nostre pagine. Quindi l’accorgimento essenziale per la creazione di una buona struttura di back link o incoming link è quella di individuare siti di grande importanza (pagerank con un valore almeno di 4) che trattino chiaramente del nostro stesso argomento o argomenti affini.

In rete esistono una serie di strumenti utili al backlink del nostro sito:

1) Domain-pop permette di avere l’elenco dei siti da cui parte un link al nostro sito internet.

2) Google ancora una volta ci torna utile: basta effettuare una ricerca sul motore di ricerca con i seguenti termini: “inserisci sito”, “aggiungi sito” seguite dalle 2 parole chiave che identificano i contenuti del nostro sito internet per avere una lista di pagine web che trattano del nostro argomento e dove sarà possibile inserire un link al nostro sito internet

3) Il sito internet prchecker dà visibilità del pagerank del sito internet che si vuole utilizzare per inserire un link alle proprie pagine. Il consiglio, come detto prima, è di scegliere siti che abbiano almeno un pagerank pari a “4”.

In conclusione di questo post possiamo dire che la qualità paga sempre. Se vogliamo mettere in campo strategie web per il posizionamento è sempre meglio farlo con partner di qualità, in modo da creare rete e da comunicare agli spider di Google e degli altri motori di ricerca che il nostro sito internet fa parte di un circuito valido, originale e che riesce a soddisfare le esigenze dei nostri visitatori.
Provare per credere!