Categoria
 | 3 articoli

SEO Tecnica

La SEO Tecnica è uno dei pilastri più importanti e complessi su cui si basa l’ottimizzazione per i motori di ricerca.

Uno specialista SEO deve possedere delle competenze tecniche che gli consentano di intervenire sul sito web per ottimizzarne aspetti delicati come:

  • Velocità di caricamento della pagina.
  • Presenza di link corrotti ed errori di stato.
  • Protocolli HTTP/HTTPS.
  • Sicurezza e potenziali vulnerabilità da attacchi esterni.
  • Molto altro ancora.

Inoltre, per svolgere determinate tipologie di lavoro, il professionista SEO dovrà spesso interfacciarsi con sviluppatori, fornendo loro le linee guida sugli interventi da mettere in atto per ottimizzare il sito web da un punto di vista tecnico.

 C’è poco da fare, se vuoi diventare un esperto della SEO, dovrai padroneggiare un argomento ostico come quello della SEO Tecnica.

Non ti preoccupare, leggendo questa guida acquisirai le competenze di base che ti serviranno per partire correttamente con la SEO Tecnica!

SEO Tecnica: definizione

La SEO Tecnica può essere definita come quel processo di ottimizzazione di un sito web volto a facilitare il lavoro dei crawler dei motori di ricerca.

Come?

Rendendo un sito web più accessibile e migliorando – tra gli altri aspetti – velocità, struttura interna e sicurezza. 

Sitemap 

Partiamo da uno dei file più importanti in assoluto per un sito web: la sitemap.

La sitemap altro non è che un file contenente la struttura del sito web, comprendendo al suo interno i percorsi e le pagine del sito stesso, presentate secondo una gerarchia ben precisa.

L’importanza della sitemap in ambito SEO è dovuta al fatto che i crawler dei motori di ricerca usano questo file come bussola durante la scansione di un sito web.

La sitemap diventa particolarmente utile nei casi in cui il sito web è composto da un numero elevato di pagine o quest’ultime non siano ben collegate tra di loro (linking interna poco ottimizzata).

Robots.txt 

Il file robots.txt è un semplice file di testo che viene caricato nella root del proprio sito web. 

Anche questo file, un po’ come nel caso della sitemap, è utilizzato per comunicare delle informazioni ben precise ai motori di ricerca. 

Sintetizzanado, attraverso il robots.txt il webmaster può dare determinate direttive ai crawler dei motori di ricerca per quanto riguarda l’accesso a certe risorse e directory del sito web.

Più che di comandi, si tratta di linee guida che i motori di ricerca possono decidere se seguire o meno.

Ciò significa che se vuoi impedire al crawler di Google di indicizzare una determinata pagina attraverso il robots.txt, non hai la certezza che il motore di ricerca seguirà il tuo “consiglio”.

A differenza delle pagine web, possiamo usare il robots.txt per impedire l’accesso ai motori di ricerca a:

  • File multimediali (immagini, video, audio).
  • File di risorse.

Puoi approfondire l’argomento studiando le linee guida di Google sul robots.txt.

Performance del Sito Web 

Monitorare e migliorare le performance del proprio sito web è un lavoro che incide notevolmente sul suo posizionamento.

Perché?

Un sito più veloce nel caricamento ha effetti positivi su:

  • Tempo di permanenza dell’utente sul sito.
  • Tasso di rimbalzo (conosciuto anche come Bounce Rate).

Un sito più veloce è in grado di offrire una migliore esperienza utente, fattore tenuto in grande considerazione da Google e dagli altri motori di ricerca.

Come migliorare le performance di un sito web?

Prima di iniziare ad ottimizzare il sito, dovresti sapere quali sono le criticità da risolvere.

Per farlo, puoi utilizzare gli strumenti messi a disposizione da SEO Tester Online, come il SEO Checker ed il SEO Spider.

Quanto è veloce il mio sito?

Meta robots 

Come abbiamo detto, il file robots.txt non impedisce al crawler l’accesso a determinate pagine. 

Se vogliamo escludere correttamente certe pagine dall’indicizzazione, è necessario ricorrere al tag meta robots.

Di cosa si tratta?

Il meta robots è un tag che ti permette di controllare in maniera estremamente precisa l’indicizzabilità di una pagina.

Il meta robots si presenta nel seguente modo e va inserito all’interno del tagdella pagina:


Il meta robots è composto da due attributi: name e content.

Con l’attributo name, possiamo specificare a chi è diretta la nostra istruzione (nell’esempio di sopra, l’istruzione “noindex” viene applicata a tutti i crawler di ricerca).

All’interno dell’attributo content, invece, andremo ad inserire l’istruzione che vogliamo far compere al crawler.

URL 

Anche l’URL assume un aspetto decisivo quando si parla di SEO tecnica. Si dice spesso che l’URL debba essere SEO-friendly. Ma cosa significa?

Un URL SEO-friendly dovrebbe:

  • Saper descrivere il contenuto.
  • Comprendere la keyword principale per cui intendiamo posizionarci.
  • Essere breve e semplice da leggere.

Un esempio di URL SEO-friendly?

https://www.nomedominio.com/blog/nomearticolo

Come puoi vedere, si tratta di un URL chiaro e semplice da leggere, da cui è possibile intuire facilmente la struttura del sito web.

Preferisci sempre la semplicità e la chiarezza, quando ti è possibile. L’utente e i motori di ricerca ti premieranno.

Codici di stato 

Come abbiamo già detto, la SEO tecnica può essere più ostica rispetto ad altri ambiti dell’ottimizzazione per motori di ricerca. Soprattutto per chi non possiede un background informatico adeguato.

Resta comunque importante comprendere concetti come richieste HTTP e codici di stato.

Quando ci colleghiamo ad un sito web, stiamo mandando una richiesta al server su cui è ospitato. Dopo aver ricevuto la richiesta, il server provvede ad elaborarla e a “rispondere” attraverso dei messaggi particolari: i codici di stato.

Qualche esempio?

Anche i non addetti al settore si saranno imbattuti in messaggi come errore 404 (Pagina non trovata) o errore 502 (Bad Gateway).

Per uno specialista SEO è importante conoscerli tutti, così da sapere come interpretarli e come agire nel caso in cui certe problematiche vengano riscontrate.

HTTP/HTTPS 

Un aspetto che influenza notevolmente il modo in cui i motori di ricerca vedono un determinato sito web è l’utilizzo di certificati di autenticazione che ne garantiscano la sicurezza.

Uno specialista SEO deve comprendere la differenza tra HTTP (acronimo di HyperText Transfer Protocol) e HTTPS (acronimo di HyperText Transfer Protocol over Secure Socket Layer) e sapere come configurare certificati di autenticazione SSL o TLS.

Rel Canonical 

È molto facile, navigando su Internet, imbattersi in pagine uguali ma raggiungibili da URL diversi.

Per aiutare i motori di ricerca, lo specialista SEO dovrebbe sempre indicare l’URL “canonico” da utilizzare per indicizzare quella determinata pagina.

È qui che entra in gioco il tag “rel=canonical”, che ci permette di comunicare al motore di ricerca a quale URL vogliamo dare precedenza rispetto agli altri.

I più recenti