Introduzione Alla SEO - Novità & Eventi | AREAW

Introduzione alla SEO

Introduzione alla SEO

Introduzione alla SEO
SEO è l’acronimo di Search Engine Optimization, ovvero l’attività che un web master o un Seo Specialist devono mettere in pratica per riuscire a portare traffico organico sul sito di loro interesse.
L’acronimo SEA significa invece Search Engine Advertising (detta anche Keyword advertising ) e si riferisce a tutto ciò che riguarda le tecniche per attuare e monitorare le pubblicità a pagamento. Tali attività sono implementate con il fine di creare annunci su motori di ricerca e siti partner. Questa viene spesso confusa con la SEM (Search Engine Marketing), ramo del web marketing che comprende tutte le attività volte alla generazione di maggior traffico attraverso motori di ricerca, ma che di fatto è la macroarea all’interno della figurano SEO e SEA.

SEO On-site e Off-site
La SEO si divide in on-site e off-site, i due principali fattori che caratterizzano l’ottimizzazione per i motori di ricerca.
La SEO On-site comprende le attività che sono svolte all’interno del sito web. Le funzioni sono pienamente controllabili; si pensi ad esempio al settaggio dei contenuti e del linguaggio di programmazione per migliorare la struttura del sito in relazione alla sua “appetibilità” ai crawler, specifici software che analizzano i contenuti di un sito.
La SEO Off-site racchiude invece tutte le attività esterne al sito web che vengono messe in atto con il fine di costruire una “buona reputazione” del sito stesso. Di queste attività non si riesce ad avere il pieno controllo, poiché dipendono anche da azioni di altri (pensiamo a backlink o citazioni da parte di siti terzi). Esistono però varie tecniche che vengono messe in pratica con l’obiettivo di incentivare la pratica di essere citati da altri.

Ricerca Organica
Esistono 2 termini importanti da ricordare:

  • QUERY: è la domanda che l’utente fa al motore di ricerca, ovvero il testo che viene digitato all’interno della barra di ricerca ad esempio di Google o Bing. Le domande possono essere di una o più parole definendosi pertanto short o long keywords.
  • SERP (Search Engine Results Page): è il risultato di ricerca che il motore stesso mostra all’utente in seguito alla ricezione della query (o keyword); i vari risultati vengono mostrati in ordine di rilevanza e variano a seconda del motore di ricerca utilizzato. Da precisare che a ogni utente compare un risultato differente, con pubblicità “associate” differenti. Questo perché i motori di ricerca targettizzano i naviganti nel tempo per mostrare loro risultati i più coerenti possibile.

I Crawler
Come i motori di ricerca rilevano che un sito è interessante?
Come già accennato, i web crawler (o spider o robot) dei motori di ricerca sono piccoli software che analizzano ogni singolo sito web in modo metodico e automatizzato per esplorare le informazioni che trovano all’interno di ciascuno di essi.
Tali informazioni vengono poi memorizzate all’interno di un database in modo tale che, nel momento in cui l’utente farà una domanda al motore di ricerca, questo estrapolerà i dati memorizzati e li proporrà all’utente in base alle parole inserite.
È importante ricordare che il crawler non vede il sito come lo vediamo noi, ma lo legge e lo considera come un linguaggio di programmazione (ne esistono vari). È quindi fondamentale avere almeno una conoscenza base dei linguaggi di programmazione per riuscire a rendere utilizzabili dal bot le giuste informazioni, perché è sulla base di questo che il software indicizzerà o meno il sito web. Tali bot per districarsi tra i siti web utilizzano parametri più o meno disparati a seconda del motore di ricerca utilizzato.
Il parametro più importante sono i TAG (etichetta, marcatore, identificatore), definiti come parole che identificano un unico termine o parola chiave associata a una pagina, mappa geografica, post, ecc. che lo descrive rendendo possibile l’indicizzazione. Assegnare i giusti tag è fondamentale, così come è fondamentale che siano ben pensati e decisi a monte.

Linguaggio di programmazione
Ne esistono diversi. I più conosciuti e utilizzati sono HTML e CSS. Avere conoscenze in merito alle basi delle logiche di funzionamento è indispensabile, ma non è necessario saperli padroneggiare nella loro totalità. È importante conoscere le basi perché, in un’ottica di ottimizzazione SEO, è essenziale che il linguaggio sia pulito.

Parametri On-site
Sono i paramenti che servono per rendere disponibile ai crawler i giusti contenuti:
Tag;
Contenuti originali e incentrati sul tema della pagina/sito;
HTML tag per valorizzare la ricerca semantica;
Immagini ottimizzate;
URL semplici, brevi e parlanti (questo aiuta a far comprendere meglio il focus della pagina e cosa è presente in essa);
• Presenza di link interni e navigabilità del sito web;
• Presenza della sitemap e del robot.
Dopo aver attraversato e rispettato tali parametri, il crawler cercherà di “vedere” come vede l’utente; entrerà quindi nel sito e analizzerà tutto ciò che è presente all’interno di questo. La struttura che aiuta detti software a destreggiarsi all’interno del sito è la site map, che li facilita nella comprensione del significato delle singole pagine.
Non tutte le pagine possono essere indicizzate ed è bene che non tutte lo siano (si pensi alle aree riservate). Per evitare tale rischioso inconveniente è buona norma inserire all’interno del sito un file robot composto da varie istruzioni che vengono impartite ai bot comunicando loro cosa deve essere indicizzato e cosa no.

Usabilità
È un parametro che viene utilizzato per indicare la qualità di interazione che riesce ad avere l’utente con il sito web. Perché il sito possieda tale caratteristica le pagine devono essere semplici, ordinate e pulite.
Ciò che realmente incide su tale parametro saranno le caratteristiche di:
• Mobile friendly: il sito deve essere responsive ovvero deve essere visualizzabile sia da desktop che da dispositivo mobile in modo corretto;
• Cross browser: il sito viene visualizzato correttamente su tutti i browser;
• Page speed: è la velocità di caricamento. Da questo punto di vista il sito deve essere performante. Tale fattore è importante perché se passano troppi secondi (oltre 4) per il caricamento e la visualizzazione di una pagina, l’utente sarà tentato di abbandonarla. Un sito web lento sarà la causa della perdita di moltissimi click e di conseguenza di moltissimi potenziali clienti o affezionati.

Parametri Off-site
Non può esistere SEO Off-site senza SEO On-site e viceversa.
L’obiettivo principale in questo ambito è ottenere backlink di qualità. Cosa significa? Ottenere link presenti su altri siti web che puntano e rimandano al nostro sito. Dominio, blog o siti web che vi linkano devono essere di qualità perché, in caso contrario, il rischio è di essere “malvisti” da Google il quale, di conseguenza, ci penalizzerà.
Rimanendo sempre sul tema link, esistono essenzialmente 2 tecniche maggiormente conosciute per aumentare i link che puntano al nostro sito:
• Link building: si tratta dell’attività di incentivazione proattiva di backlink. Gratuitamente o dietro compenso faccio in modo che un link punti al mio sito web. Come fare? Un esempio può essere quello di contattare un blog, un sito, una testata giornalistica online chiedendo di essere pubblicato gratis o dietro compenso attraverso un link;
Link learning: significa creare contenuti che siano in grado di stimolare condivisioni e acquisizioni spontanee di backlink senza forzature o pagamenti.
Se tali partiche funzionano i risultati saranno veramente sorprendenti e permetteranno di avere un aumento importante del traffico sul sito e conseguentemente un incremento del ranking dello stesso.

Cattivo uso
La pratica della Black SEO (SEO non etica) consiste nell’attaccare i propri competitors indirizzando link di bassa qualità. Questi riceveranno backlink da siti di spam o simili che, se rilevati da Google come numerosi, penalizzeranno fortemente il sito in quanto lo stesso Google verrà portato a pensare che si stanno utilizzando pratiche scorrette per ottenere maggior traffico.

Le keywords
Seppur trattato in ultima battuta, questo argomento è il primo che si deve tenere in considerazione quando si programma un sito web in ottica SEO. È importante avere chiaro quali sono le keywords di riferimento per non rischiare di scrivere testi che ne siano privi e dover poi rifare tutto da capo.
Si deve sempre tenere a mente di non forzare mai l’utilizzo di parole chiave. In linea di massima si devono inserire le keywords in testi semplici, di facile comprensione, concisi e senza troppi giri di parole. Dopo aver fatto una lista di parole chiave si inizia a scrivere il testo, cercando di utilizzarle in maniera naturale e coerente al contenuto. Se non si procede in questo modo il rischio è che il crawler possa accorgersi delle forzature penalizzando il posizionamento del sito proprio per questo motivo.
La SEO è una strategia di medio-lungo periodo, che si sviluppa nell’arco di mesi di lavoro di una azienda o di un libero professionista che decide di investire in tale ambito e settore. L’attività svolta in tal modo porterà risultati sorprendenti, molto positivi e soprattutto duraturi nei settori più competitivi.

Come si trovano le parole chiave?
Non esiste un unico metodo, ma ci sono vari strumenti e tecniche e questo è il motivo per il quale tale attività è stata causa di problemi per molti SEO e COPY. È fondamentale sperimentare per capire quali sono le migliori per il proprio caso specifico.
Difficilmente si riesce a comprendere che portare traffico al sito web non vuol necessariamente dire fare conversioni. Ad esempio si possono avere 100.000 visite mensili ma nessuna conversione, ovvero nessuna richiesta di contatto! In questo caso c’è qualcosa che non funziona e bisogna cercare di capire che cosa non va. Si deve puntare al target di riferimento, perché quello che conta è avere (anche se poche) visite da parte di utenti realmente interessati e che potranno diventare nostri effettivi clienti.
Quello che vogliamo è ad esempio avere 100 visite al mese e 30 richieste di contatto (la regola è pochi ma buoni!).
Trovare parole chiave senza aver pensato ad una strategia di base può rivelarsi un errore di grande portata: il rischio è quello di avere traffico non targettizzato.
Le principali strategie riguardano l’utilizzo di query di ricerca lunghe, specifiche, dove il pubblico sarà minore ma maggiormente interessato ai contenuti (meno concorrenza).
Se ad esempio scrivo nella barra di ricerca “scarpe” oppure scrivo “scarpe da training rosse Roma” i risultati saranno completamente differenti; nel secondo caso la lista si ridurrà notevolmente e la ricerca sarà più targettizzata.
Un aspetto particolare delle query lunghe è che hanno un minor costo rispetto alle query corte (il costo generalmente si basa sul traffico di ricerca e se è alto allora il costo sarà maggiore vista la più elevata concorrenza).
Strumenti a pagamento come Semrush o Seozoom sono poco utili se non si è compreso come ragionano i motori di ricerca e se ancora non si ha ben chiaro l’obiettivo da raggiungere attraverso le varie campagne di marketing.
Google Ads è un buono strumento per ricercare le parole chiave, mentre gli strumenti sopradetti sono vantaggiosi per la capacità di analizzare e tracciare le parole chiave.
Utile può essere analizzare i siti dei competitors e vedere dove questi si posizionano nel mercato. Volendo si può anche “copiare” la strategia da loro utilizzata, ma questo va fatto in modo intelligente, preliminarmente adattandola alla propria situazione e al proprio contesto.

Conclusione
Quali sono gli altri fattori che contribuiscono a migliorare la propria posizione nella SERP? Un passo alla volta… li affronteremo nei prossimi articoli!