Un conseil est toujours bon à prendre, mais malheureusement, la plupart des conseils en matière de SEO qui circulent sont devenus obsolètes. Et même si un conseil est toujours d'actualité, il n'est pas toujours applicable.

Pour résoudre ce problème,  a contacté certains des meilleurs référenceurs du marché et il leur a posé une question simple :

Quel est la meilleure astuce que vous pouvez donner en SEO ?

Il a reçu 47 réponses qu'il a dispatchées en 8 catégories :

Ce dossier est un ensemble de traductions provenant de l'excellent blog Web Gnomes.

SEO technique

Les problèmes techniques ne sont souvent pas être sexy, et peuvent faire mal aux oreilles quand vous entendez parler de choses comme la "canonicalization" et "crawl budgets". Cependant ces problèmes techniques sont souvent la source de plus gros problèmes de référencement d'un site (en particulier des sites avec un nombre significatif de pages).

24. Explorez votre propre site et surveillez la façon dont Google le fait

Will Critchlow est le co-fondateur et directeur marketing de Distilled, une agence de marketing en ligne qui héberge la série de conférences SearchLove aux États-Unis et au Royaume-Uni et qui produit la plate-forme de formation en ligne DistilledU. Vous pouvez trouver Will sur Twitter et Google+.

Mon domaine de prédilection en SEO est le côté technique de la chose. J'aime la création, le contenu et voir les choses se développer, mais pour l'aspect purement SEO, je suis un geek dans l'âme, et je suis toujours fasciné par l'aspect technique.

Concernant ma "meilleure" astuce, c'est difficile. Ça pourrait être l'astuce " la plus utile/ayant le plus d'impact" ou " ce que peu de gens savent (faire)". Je vais vous en donner une de chaque :

Vous devez explorer votre propre site et voir comment Google l'explore également. J'aime bien IIS crawler et Screaming Frog, mais cela dépend de l'importance du site et des problèmes que vous pensez avoir.

Le crawling d'un site peut mettre en évidence de gros problèmes - en particulier sur les gros sites qui ont des sections entières qui n'ont pas été visitées depuis des mois. Concernant Googlebot - c'est toujours un peu surprenant de voir où ils dépensent le budget. À certains égards, Googlebot n'est pas aussi intelligent que nous aimerions le croire.

J'aime aussi surveiller les changements de mon robots.txt et surveiller (l'accidentel) noindex ou des informations incorrectes. Chacune de ces choses peut causer des problèmes importants si elles passent inaperçues, même sur de courtes périodes, et j'ai vu ce genre d'erreur se déployer accidentellement bien trop souvent.

25. Optimisez l'architecture de votre site

Jason Mun est le co-fondateur et directeur de recherche de Bespoke, une agence basée à Melbourne spécialisée dans le référencement et le marketing de contenu. Vous pouvez trouver Jason sur Twitter et Google+.

C'est une question difficile parce que j'aime tous les aspects du SEO, mais si je devais en choisir un qui est mon favori, ce serait les audits techniques. Ce que j'aime c'est quand j'ai l'occasion de faire l'audit d'un grand site de e-commerce. Je définis grand comme le fait d'avoir des milliers et des milliers de produits et un volume de trafic toujours plus élevé.

Les sites Web qui contrôlent la façon dont les robots explorent et interagissent avec le site, savent comment optimiser le crawling.

Plus gros n'est pas toujours meilleur - avoir un plus grand nombre de pages indexées dans les moteurs de recherche n'est pas toujours une bonne chose. Un petit site avec un crawl efficace a tendance à être plus performant, à mon avis.

Voici les choses les plus communes que je vérifie :

  • Le nombre de pages «réels» sur le site
  • Le rapport des paramètres d'URL dans Google Search Console
  • Le rapport de l'état de l'index dans Google Search Console

J'ai tendance à regarder les écarts et les irrégularités avec ce qui précède.

Par exemple, s'il y a une énorme différence entre le nombre de pages sur le site et le nombre de pages indexées, si le site a des URLs qui ne sont pas destinées à être indexées. Ces URLs ont tendance à épuiser le crawl budget.

Voici quelques-uns des scénarios les plus courants où le bugdet crawl se perd :

  • les pages de résultats de recherche
  • les séries paginées
  • les URLs générées par des plugins et applications web
  • le duplicate content interne (par exemple, le même contenu sur différentes URLs)
  • les options de filtrage de produit

Pour remédier à ces problèmes, le tag "nofollow", rel = tag "canonical" et les balises meta des robots sont vos meilleurs amis. Identifiez toutes les pages qui n'ajoutent aucune valeur à l'utilisateur, et canonisez tout contenu dupliqué.

Vous pouvez également utiliser l'option des Paramètres d'URL dans Google Search Console pour informer Google sur la façon dont il doit gérer différentes chaînes d'URLs. Si vous êtes uber geek, vous pouvez même aller un peu plus loin et exécutez une analyse du fichier journal.

En fin de compte, l'objectif est de faire en sorte que les crawlers et les robots :

  • Ne perdent pas de temps sur les URLs qui n'ont aucune valeur et qui ne devraient pas exister.
  • Analysent et indexent les pages les plus importantes pour votre site

26. Apprendre à coder est un pré requis pour être efficace en audit SEO

Glenn Gabe est un consultant en marketing numérique chez G-Squared Interactive et met fortement l'accent sur le SEO, le SEM, la publicité sociale et l'analyse Web. Vous pouvez lire les messages de Glenn sur son blog, The Internet Marketing Driver, et vous pouvez le trouver sur Twitter et Google+.

J'ai toujours dit que les audits techniques SEO apportent énormément d'information. La raison est que les audits approfondis fournissent une analyse approfondie dans un certain nombre de domaines clés.

Bien que je puisse écrire un livre entier de conseils en SEO, il m'a été demandé de donner ma meilleure astuce. Alors, j'ai décidé de fournir une recommandation ultra-importante pour ceux qui cherchent à améliorer leurs compétences en audit de référencement : Apprenez à coder.

Je me sens chanceux d'avoir commencé ma carrière dans le développement d'applications Web. Le SEO technique est un choix naturel pour toute personne qui a fait du code (à la fois côté serveur et côté client). Il y a tellement de choses qui peuvent être mal faites en SEO si un site n'est pas codé correctement (ou si un site est développé sans la bonne compréhension des différents éléments de référencement).

Lors des audits, je regarde souvent le code source des sites de clients pour traquer les problèmes. De l'analyse des métadonnées à l'optimisation des pages pour l'examen des données structurées pour vérifier les directives de SEO comme rel = "canonical" ou les tags meta des robots. Comprendre le code source d'une page web est extrêmement important.

Identifier des problèmes de codage permet souvent de déceler des problèmes techniques graves de SEO qui peuvent avoir des répercussions sur le classement et le trafic de recherche.

Mes recommandations

Commencer par apprendre à coder. Je recommande de commencer avec le HTML et CSS, car se sont des langages faciles à apprendre. Testez vos connaissances en construisant réellement des pages Web, même si elles sont basiques.
Le but n'est pas de devenir un programmeur expert. L'objectif est de comprendre clairement comment construire correctement une page Web, d'apprendre les différents éléments HTML, et de savoir comment utiliser le CSS pour organiser et styliser ces éléments.

Une fois votre diplôme en HTML et CSS obtenu, je vous recommande de passer à coder côté client en JavaScript. En utilisant JavaScript vous pouvez commencer à écrire des scripts qui fournissent des fonctionnalités avancées à vos pages Web. Vous pouvez apprendre comment capter les actions de l'utilisateur, de valider les formulaires, de déclencher des actions supplémentaires, etc. L'objectif principal serait de comprendre comment un langage de script côté client fonctionne avec votre HTML.

Et enfin, vous devez apprendre à écrire du code côté serveur (comme PHP, asp.net, etc.) C'est ce qui fait fonctionner la plupart des sites que vous visitez.
Le code côté serveur traite dynamiquement les requêtes de l'utilisateur, récupère des informations, puis publie ces données sur des pages Web. C'est extrêmement puissant (et important à comprendre pour le SEO).

En un mot, des pages web dynamiques permettent aux développeurs de réaliser des sites web à l'échelle. Et comme vous pouvez le deviner, c'est là que de nombreux problèmes de SEO peuvent survenir. Chaque fois que vous générez du contenu dynamiquement, il peut y avoir un mauvais balisage, du contenu caché, des liens brisés, des pages non optimisées, etc.

Bon nombre des problèmes que je découvre lors des audits sont le résultat d'un code côté serveur bâclé. Et sur des sites importants, le code bâclé peut avoir un impact sur des millions de pages. Et quand Pandas et Phantoms sont à la chasse au contenu Web de faible qualité, vous ne voulez pas que votre code côté serveur déclenche leur algorithmique. Mais c'est exactement ce qui pourrait arriver si votre code génère 40K ou 200K pages contenant du duplicate content, ou si le balisage n'est pas correct sur 500K pages, ou des milliers de lignes de code de script apparaissent dans votre code HTML. Je peux continuer mais je pense que vous voyez où je veux en venir.

Récapitulation

Le fait de comprendre la façon dont les pages Web sont codées, et comment ces pages fonctionnent est d'une importance capitale pour traquer les problèmes de référencement.
Pour moi, l'apprentissage du code est une condition préalable à la réalisation d'audits approfondis. Vous devez savoir ce que vous cherchez afin d'identifier et de résoudre les problèmes. Je vous recommande de commencer dès aujourd'hui.

27. Utilisez l'outil de changement des adresses de Google pour la redirection d'un domaine

Richard Baxter est le fondateur et PDG de SEOgadget, une agence de marketing numérique basée à Londres, Royaume-Uni et San Francisco, CA. Vous pouvez trouver Richard sur Twitter et Google+.

Mon meilleur conseil en SEO porte sur quelque chose que j'ai rencontré récemment, et qui, je pense, peut être d'une grande utilité.

Passez en revu les porte-feuilles de domaine de votre client, et regardez s'il existe toujours des anciennes redirections 301 vers leur domaine actuel. Si l'un de ces anciens domaines "n'a pas été vérifié" par Google Webmaster Tools, vérifiez les. Ensuite, utilisez l'outil de changement d'adresses de Google pour indiquer à Google la nouvelle adresse de ces anciens domaines.

J'ai récemment effectué ce processus avec seogadget.co.uk. Le domaine avait une redirection 301 alors j'ai mis en place un enregistrement TXT DNS et un nouvel enregistrement A pour www.seogadget.co.uk. Ensuite, j'ai vérifié les domaines et changé leur adresse en seogadget.com.

Je pense que ce processus fonctionne mieux que juste une redirection 301 - en fait, je pense que la valeur de 301 a considérablement diminué au fil des années. Le changement d'adresse est beaucoup plus puissant lorsqu'il est exécuté dans les bonnes circonstances.

Lire la suite du dossier : SEO stratégique

L'auteur : un expert à votre service
Jean-Charles Gautard
Nom : Jean-Charles Gautard
Consultant, formateur et intégrateur web depuis plus de 10 ans, je mets mon expertise digitale au service des professionnels amorçant leur transformation digitale. A la recherche d'une stratégie digitale avec le CMS Joomla ? Besoin de conseils ? d'une formation ? d'un site Internet ou Intranet ? Contactez-nous

Articles qui devraient vous intéresser

Sh404SEF : l'extension SEO pour booster votre référencement Sh404SEF : l'extension SEO pour booster votre référencement
Résumé du test Intuitivité : Stabilité : Support : Sécurité : Mises à jour : Interropérabilité :...
Joomla & HTTPS - tutoriel pour basculer en SSL Joomla & HTTPS - tutoriel pour basculer en SSL
Le contexte du HTTPS Le HTTPS est la combinaison du HTTP avec une couche de chiffrement SSL. Le SSL est un procédé...

Commentaires (0)

Il n'y a pas encore de commentaire pour cet article.

Ajouter vos commentaires

  1. Insérer un commentaire en tant qu'invité.
Pièces jointes (0 / 3)
Share Your Location
Contact

Scoop.It de NosyWeb

Twitter de NosyWeb

YouTube de NosyWeb

Facebook de NosyWeb

Google+ de NosyWeb

Flux RSS de NosyWeb

Inscription newsletter de NosyWeb

Dernier article sur la même thématique
Animation et développement de votre visibilité sur les réseaux sociauxAnimation et développement de votre visibilité sur les réseaux sociaux
lot 21 Animation et développement de votre visibilité sur les réseaux sociaux Vos objectifs : Accroître votre visibilité Développer vos ventes Démontrer votre expertise Moderniser votre...