Nel tempo, infatti, intervengono una serie di fattori che contribuisce a peggiorare il posizionamento del sito, degli errori comuni, dei piccoli difetti che possono verificarsi in seguito ad una scarsa o nulla manutenzione che fanno inevitabilmente calare il sito nei risultati di ricerca. Può essere una buona soluzione, però, quella di preparare una check list di verifiche da effettuare periodicamente per stanare eventuali errori e correggerli prima che compromettano la visibilità del sito web.
Quali sono i dati presi in esame
Per realizzare questa classifica sono stati esaminati oltre 250mila siti web, prendendo in considerazione diverse nicchie di mercato come quella della salute e del benessere, dello sport, dei viaggi, della moda, etc. Tutti i siti presi in esame sono stati scandagliati con uno strumento chiamato Site Audit dell’azienda SEMrush per verificare i principali errori di SEO che ostacolo un corretto posizionamento del sito. Da questa indagine così dettagliata e completa è emersa una cospicua check list di errori comuni che quasi tutti i siti commettono ma che rappresenta un vero attentato al posizionamento nei motori di ricerca.
Gli errori più comuni di un sito web e come individuarli
Dall’analisi è emerso che sono circa 30 gli errori più comuni che un sito web prima o poi si trova a commettere. Un ottimo esercizio, allora, può essere quello di scandagliare il proprio sito in base a questa classifica così da eliminare prontamente quelli che commetti anche tu. Eccoli accorpati per categoria così da facilitarne il controllo.
– Stato http e problemi di server
Gli errori del server e dello stato http, uno fra tutti il famigerato 404 ossia pagina non trovata, sono il modo migliore per far fuggire gli utenti perché si perde il rapporto di fiducia che intercorre fra il portale web e i suoi fruitori. Tutti gli errori che iniziano con il numero 4 sono deleteri per il sito perché indicano l’interruzione di qualcosa. Allo stesso modo anche i link esterni ed interni che conducono ad una pagina non trovata oppure le immagini che non si riescono a visualizzare fanno irritare gli utenti e alla lunga li tengono lontani dal sito perché lo classificano come inaffidabile. Inoltre sono errori estremamente penalizzanti per il posizionamento e rischiano di renderlo praticamente invisibile per i motori di ricerca.
– Non utilizzare i meta tag
I meta tag sono degli elementi chiave che vengono sfruttati dai motori di ricerca per indicizzare le pagine, riconoscerle e classificarle. Si tratta in particolare di title, description e keywords che offrono al sito l’opportunità di puntare sulle parole chiave di proprio interesse. Molti siti, però, ignorano l’importanza di questi tre elementi e compilano queste aree con superficialità oppure non le compilano affatto. Google in mancanza di meta tag provvede a generarli in autonomia, utilizzando le query più utilizzate dagli utenti che non sempre corrispondono al reale contenuto del sito. Vale la pena, quindi, impegnarsi per redigerli correttamente e avere una chance in più per il posizionamento. Altri errori comuni in questo ambito sono la creazione di meta tag troppo lunghi o, al contrario, troppo corti e la loro duplicazione.
– La duplicazione dei contenuti
Ormai si sa benissimo che Google non ama la duplicazione dei contenuti e penalizza con un cattivo posizionamento quei siti che copiano i testi o che utilizzano parti di essi già utilizzati in altre pagine. Per questo motivo si deve avere sempre l’accortezza di scrivere testi originali e unici che siano apprezzati non solo dai motori di ricerca ma soprattutto dagli utenti. Per scongiurare il pericolo di duplicazione è possibile utilizzare dei tools gratuiti che verificano la presenza (e l’eventuale percentuale) di contenuto simile. Gli altri errori comuni che si verificano in questo ambito sono, come già ribadito, la duplicazione di meta tag.
– Non ottimizzare i link
Google e gli altri motori di ricerca premiano con un ottimo posizionamento quei siti che sono in grado di offrire un’esperienza di navigazione piacevole: per questo motivo è importante far sì che l’utente riesca a navigare qualsiasi sezione in modo agevole. I link interrotti, quelli che non collegano a nessuna pagina attiva, sono uno degli elementi che maggiormente infastidisce chi visita un sito. Eppure si tratta anche di uno degli errori più comuni che si possa trovare su un sito. Come mai questo accade? I motivi più frequenti sono due: si utilizza l’underscore nell’indirizzo di una pagina oppure si fa puntare il link ad una pagina http ma su un sito che è in https. È opportuno periodicamente fare una verifica attenta del sito ed eliminare eventuali errori, anche per quanto riguarda i link esterni che puntano a pagine non più esistenti.
– Complicare la ricerca dei crawler
I crawler sono dei software automatici che servono per scandagliare i contenuti del web e indicizzare le pagine. I criteri che questi crawler prendono in considerazione sono diversi e i siti possono aiutare e agevolare le operazioni inserendo tutti quegli strumenti che sono indispensabili per l’indicizzazione, come ad esempio il file sitemap.xml che a sua volta è contenuto nel file robots.txt. Peccato, però, che la maggior parte dei siti dimentichi di effettuare queste operazioni, complicando il lavoro del crawler che, se ostacolato eccessivamente, può decidere di abbandonare il sito oppure lo indicizza in modo sbagliato. Un altro errore molto grave ma altrettanto comune è quello di inserire l’attributo nofollow nei link interni, il modo migliore per non farsi trovare dai crawler.
– Sottovalutare l’indexability
Esistono numerosi tools gratuiti che in pochi secondi effettuano un’analisi dell’indice di indexability del tuo sito e ti offrono risultati dettagliati. Nonostante la maggior parte dei siti riporti indici negativi, i webmaster ignorano questi dati e non correggono quegli aspetti che potrebbero migliorare il posizionamento (o, meglio ancora, la posizionabilità) del sito. Fra gli elementi che possono causare un indice basso ci sono i tag troppo corti o troppo lunghi, un contenuto insufficiente per poter essere scansionato, problemi con gli standard AMP.
– Trascurare le regole dell’AMP
Vhe cosa si intende con la siglia AMP? Si tratta dell’acronimo di Accelerated Mobile Pages che, tradotto in parole semplici, vuol dire che il sito web deve essere ottimizzato anche per la visualizzazione attraverso dispositivi mobile. Da settembre 2020 Google ha chiaramente annunciato che la costruzione responsive del sito è uno degli elementi premianti per il posizionamento: di conseguenza chi non possiede questa costruzione è penalizzato nel ranking. Eppure molti ignorano questa realtà e trascurano le regole dettate nell’AMP per poi ritrovarsi fuori dai risultati delle ricerche in base alle parole chiave di proprio interesse.
– Non curare le prestazioni del sito web
A chi importa la velocità di caricamento del sito? Beh, tanto per fare un nome…a Google! Si è già parlato dell’importanza che il motore di ricerca per eccellenza attribuisce all’esperienza di utilizzo e navigabilità degli utenti e uno dei parametri che tiene maggiormente in considerazione è la velocità di caricamento delle pagine. Un sito lento, infatti, viene abbandonato dagli utenti e se non è interessante per loro di conseguenza non lo è neanche per Google. Altri errori che possono influire su questo aspetto e sulla velocità di caricamento sono la presenza di file CSS e Javascript che non hanno una cache oppure che non sono minimizzati.
– Gli errori multicategorie
Ci sono moltissimi errori che non rientrano nelle categorie fin qui descritte ma che sono vari e per questo possono essere raggruppati in una macro-area multicategorie. Non per questo, però, sono di secondaria importanza ma devono comunque essere individuati e risolti nel più breve tempo possibile. Fra questi ci sono la mancanza dell’attributo ALT, dei reindirizzamenti temporanei, pagine che non rientrano nella Sitemap oppure pagine che per essere raggiunte hanno bisogno di più di tre click. L’elenco potrebbe essere ancora più lungo ma per fortuna l’utilizzo di un software specifico di Site Audit che individua questo tipo di errori può essere un valido aiuto per la ricerca e la risoluzione anche della problematica più piccola.
– Sfruttare tutti gli strumenti a disposizione
Non ci sono più scuse per non prendersi cura del proprio sito perché oggi, grazie alla presenza di strumenti di Tips&Tricks, è possibile individuare velocemente eventuali problematiche e correre prontamente ai ripari. È indispensabile, però, effettuare una continua verifica, magari proprio sfruttando questa check list di Site Audit per verificare, settimana dopo settimana, il perfetto funzionamento del sito.
Conclusioni
Non è una novità che i motori di ricerca, e su tutti Google, siano indispensabili per riuscire a farsi trovare dai clienti: comparire almeno nelle prime due pagine dei risultati per una determinata parola chiave di tuo interesse deve essere l’obiettivo quotidiano del tuo lavoro. Per ottenere ciò devi sfruttare tutte le possibilità a tuo favore che comprendono contenuti interessanti e pertinenti, un’esperienza ottimale di navigazione, la presenza di link autorevoli e molto altro. Google in particolare attribuisce grande attenzione all’usabilità di un sito e ne fa uno dei suoi elementi di valutazione per attribuire il ranking. L’usabilità, però, può essere compromessa da moltissimi fattori come la lentezza di caricamento di una pagina, la presenza di link che conducono a pagine non trovate, l’esistenza di link interni interrotti o di immagini non visualizzabili e così via. Ci sono, poi, una serie di altri errori che compromettono ulteriormente il posizionamento di un sito, come la mancanza di tag oppure la loro redazione scorretta. Il compito di un buon webmaster è quello di verificare costantemente il sito, anche attraverso l’utilizzo di strumenti di controllo molto semplici come quelli messi a disposizione da SEMrush, e porre rimedio il prima possibile a questi errori, per non incorrere in penalizzazioni del posizionamento.
Fonte
Articolo tratto da questo link