Friday, 30 November 2018

Les 5 chiffres SEO qui nous ont marqué cette semaine (25/11 au 01/12)

Quels sont les 5 chiffres SEO qui nous ont marqué cette semaine ? L’équipe @OnCrawl vous a préparé son top 5 des chiffres les plus marquants. L’ensemble des données utilisées proviennent de sources anglophones. Link building, blogging, YouTube, PPC & DuckDuckGo : découvrez nos 5 actualités SEO de la semaine.

35 % des entreprises locales reconnaissent ne pas avoir de stratégie de link building

Moz a réalisé une enquête auprès de 1400 marketers évoluant dans des petites entreprises et a découvert que près de 35 % d’entre eux n’avaient aucune stratégie de link building mise en place. Un peu moins de 30 % révèlent quant à eux que la rédaction de contenu est leur meilleure méthode pour gagner des liens externes. L’article de Moz propose un ebook dédié aux stratégies de link building pour les sites locaux.
Lire l’article

74 % des bloggers qui mettent à jour d’anciens articles obtiennent d’excellent résultats

Cet article de Moz se demande s’il est plus stratégique de mettre à jour d’anciens contenus ou d’en créer de nouveaux. Ainsi, selon une étude, 74 % des bloggers qui recyclent d’anciens contenus en les mettant à jour et en les publiant obtiennent de très bons résultats. Contrairement aux idées reçues, l’auteur pense qu’il peut s’agir d’une bonne opportunité mais qu’il faut bien prendre le soin de mettre à jour les informations et de changer l’angle de l’article pour proposer un contenu frais et intéressant aux lecteurs.
Lire l’article

Les internautes regardent YouTube pendant 180 millions d’heures sur leurs écrans TV chaque jour

Alors que les internautes visionnent en moyenne 180 millions d’heures de vidéos sur leurs écrans TV chaque jour, Google vient de révéler 3 grandes habitudes en plein changement. Il semblerait que les utilisateurs regardent de plus en plus des vidéos qu’ils ont trouvées eux-mêmes et non pas dans des suggestions, que les vidéos sont de en plus regardées sur des écrans TV et que les sessions sont plus longues. Google Ads a dévoilé de nouvelles fonctionnalités pour répondre à ces besoins.
Lire l’article

41 % des clics sur une page de résultats vont dans le top 3 des annonces payantes

Il est estimé que 41 % des clics sur une page de résultats vont directement dans le top 3 des annonces. L’auteur rappelle que le SEO et le PPC sont deux stratégies complémentaires, différentes mais toutes les deux indispensables pour réussir à atteindre votre cible. Par exemple, les stratégies de SEO permettent parfois de se positionner dans un pack SEO local plutôt dans de viser la première position des classements.
Lire l’article

36 % des internautes choisissent DuckDuckGo comme alternative à Google

Search Engine Journal a mené une enquête sur les alternatives préférées des internautes à Google. Si le moteur de recherche possède 92 % des parts de marché, DuckDuckGo est la meilleure alternative pour 36 % des répondants, là où 32 % choisiraient Twitter, 30 % pour Bing et 2 % pour Yandex. D’autres participants ont également mentionné Ecosia, Qwant et Startpage.
Lire l’article


[Read More ...]

Thursday, 29 November 2018

5 techniques CSS pour améliorer votre SEO

Les avantages du CSS sont bien connus. Le plus évident étant d’ailleurs la rapidité de chargement d’une page web. En revanche, très peu de personnes connaissent ses nombreux bénéfices pour le SEO. Les moteurs de recherche utilisent une logique descendante et analysent avant tout le code d’une page plutôt que ce qui est diffusé pour les utilisateurs. Les contenus les plus importants sont généralement situés en haut d’une page mais ce n’est pas le cas dans un code standard HTML. Utiliser le CSS est un bon moyen d’optimiser votre stratégie SEO.
Dans cet article, nous allons présenter 5 techniques simples pour utiliser le CSS afin d’améliorer votre SEO.

1. Organisez votre contenu

Comme nous l’avons déjà précisé, les moteurs de recherche ne scannent pas les éléments visuels de votre page mais préfèrent analyser votre code. Résultat : votre page pourrait ne pas être lue comme vous l’auriez souhaité. Les moteurs de recherche décryptent l’intégralité d’une page, du coin en haut à gauche à celui en bas à droite.
Par exemple, si vous avez une barre de navigation ou une sidebar situées avant votre contenu, le moteur de recherche va les lire avant tout le reste. Cela va faire baisser vos classements dans les résultats de recherche car vous aurez du contenu dupliqué en haut de votre page.
En utilisant du CSS, vous pouvez organiser votre code comme vous le souhaitez. Vous pouvez positionner vos mots-clés et contenus les plus importants en haut et déplacer les sections les moins importantes en-dessous du contenu principal.

2. Mettez en avant vos mots-clés

Lorsqu’ils décident de ce qui est important sur votre page web, les moteurs de recherche s’intéressent aussi à d’autres balises comme < strong > et < em >. Ces balises sont utilisées pour mettre en avant leur contenu et les moteurs de recherche traitent le texte enveloppé comme plus important que le reste de la page.
Peut-être que vous avez déjà parcouru des pages avec des mots en gras qui semblaient avoir été choisis de manière aléatoire. En réalité, ces pages essaient d’améliorer leurs classements en aidant les moteurs de recherche à trouver leurs mots-clés.
Le CSS vous permet de cacher ces balises aux yeux de vos utilisateurs. De cette manière, vous pouvez conserver un contenu agréable à lire mais aussi vous assurer que les moteurs de recherche trouveront vos mots importants.

3. Réduisez votre ratio entre code et contenu

Utiliser le CSS vous permet d’alléger votre page et aussi de réduire votre ratio code et contenu. Il fournit une meilleure organisation de vos pages et il devient plus simple d’écrire du contenu sémantique et riche.
Une meilleure indexation rend votre contenu plus facile à parcourir non seulement pour les utilisateurs mais aussi pour les bots des moteurs de recherche, aussi connus sous le nom de crawlers web. Lorsque votre page est bien organisée et légère en code HTML, les crawlers peuvent déterminer plus rapidement son thème. Cela peut améliorer votre classement dans les pages de résultats.
Vous devriez vous assurer que tout votre code est lisible. Si votre code HTML est surchargé en texte, les crawlers web auront du mal à déterminer si votre page est pertinente pour une recherche en particulier.

4. Simplifiez vos mises à jour

Avec le CSS, votre contenu est plus facile à trouver mais il s’expose également à des mises à jour régulières. Lorsque votre contenu est fréquemment mis à jour, vos pages restent fraîches et la fraîcheur est appréciée par les moteurs de recherche.
Vous gagnerez aussi du temps lorsque vous devrez réaliser de petites mises à jour comme changer une police. En CSS, il suffit de faire le changement une seule fois, là où le HTML nécessite de revisiter chaque page. Cela vous laisse plus de temps pour mettre à jour les parties les plus importantes, comme le contenu et les titres.

5. Optimisez votre utilisation du cache navigateur

Vous pouvez concevoir des éléments d’une page comme les images, les polices et les couleurs avec du CSS. Après avoir créé votre fiche de style externe et qu’un utilisateur charge une de vos pages pour la première fois, cette fiche va se stocker dans le cache du navigateur. Les pages suivantes se chargeront plus rapidement car le navigateur n’aura plus besoin de recharger la fiche de style.
Dans un code HTML standard, le navigateur doit retrouver, analyser et renvoyer chaque page séparément. Si les crawlers web doivent analyser plus de code avant de trouver votre contenu réel, cela va augmenter le temps de chargement et diminuer la performance. Les crawlers analysent de multiples pages en même temps et ralentir le crawler à cause d’une faible performance peut affecter le nombre de pages classées.
Une fois que vous avez appris comment utiliser le CSS pour un meilleur SEO, vous devez faire attention à votre contenu actuel. De la même manière que votre contenu doit être propre, il doit aussi être parfaitement soigné. Un excellent contenu sert aussi bien les visiteurs que les crawlers web et vous aide à améliorer vos classements dans les résultats. Si votre contenu a besoin de quelques améliorations, il existe de nombreux services et outils pour vous aider. Par exemple, vous pouvez utiliser :

  • Grammarly – un outil de relecture qui identifie les erreurs d’orthographe et de grammaire, de choix de mots, de style et de ponctuation. Il fournit une explication détaillée pour chaque suggestion d’édition ;
  • Handmade Writing – un site web qui offre des services d’écriture et d’édition sur-mesure. Après avoir pris connaissance des détails de vos consignes d’écriture ou d’édition, un rédacteur sera sélectionné pour produire le contenu pour vous ;
  • Hemingway App – un éditeur en ligne qui scanne votre contenu et propose des suggestions pour améliorer sa lecture. L’application détecte les voix passives et autres difficultés de structures de phrases qui peuvent entraver sa lisibilité ;
  • Readable – un logiciel de lisibilité qui fournit des analyses de texte, de densité de mots-clés, d’URL, des scans de sites web et des services de notation d’emails. Vous recevrez une note de lisibilité et d’autres statistiques instructives.

Si vous souhaitez en savoir plus sur des stratégies SEO réussies, vous pouvez lire cet article sur les tendances SEO en 2018.
Utiliser le CSS dans votre web design a de nombreux avantages. En plus d’être facile à utiliser, il est plus adapté pour le SEO que le HTML seul. Avec le CSS, vous pouvez améliorer vos classements dans les pages de résultats et attirer les crawlers web sur votre site.
La séparation entre le contenu et le style vous permet d’adopter une écriture sémantique, riche, légère et de nettoyer le code HTML qui sera optimisé pour le crawl et l’indexation des moteurs de recherche. Et vous n’aurez pas non plus à faire des sacrifices sur le style et l’aspect visuel de votre page.


[Read More ...]

Wednesday, 28 November 2018

Comment bien gérer ses boucles et chaînes de redirection ?

Dans le webinaire “Chaînes et boucles de redirection” du 20 novembre dernier, Erlé Alberton, Customer Success Manager chez OnCrawl, présentait les moyens d’utiliser OnCrawl pour gérer les redirections sur un site.

Retrouvez le replay sur YouTube, ou suivez ci-dessous les points clés du webinaire.

Qu’est-ce qu’une redirection ?

Les redirections sont des status codes HTTP qui indiquent que le contenu de la page se trouve sur une autre URL. Cela comprend les redirections spécifiques suivantes :

  • 301 : redirection permanente
  • 302 : redirection temporaire
  • 307 : redirection temporaire qui force le navigateur à refaire la demande de la nouvelle URL à l’identique à la demande de l’ancienne URL

À noter : OnCrawl a pu constater grâce aux crawls de millions de sites web que la redirection 302 consomme du budget de crawl pendant que Google détermine si la temporalité est terminée. Préférez donc des 301 si vous souhaitez minimiser le budget crawl consommé.

Comment Google gère-t-il les redirections ?

Selon Google, les redirections font partie de la vie d’un site. Elles transmettent de PageRank à leur cible, et ne posent des problèmes que lorsqu’elles apparaissent en cascade.

“À mon avis, les SEOs font trop de bruit autour des redirections. Utilisez la bonne redirection pour son cas, c’est une manoeuvre technique, pas SEO. Ça n’a rien de mystérieux !
— John Mueller

“Le PageRank est désormais transmis par les toutes les redirections.”
— Gary Illyes

“Nous suivons jusqu’à 5 [redirections] dans une chaîne (merci de limiter autant que possible les chaînes de redirection), mais vous pouvez rediriger simultanément autant d’URLs de votre site que vous le souhaitez.”
— Explication donnée dans un webinaire de Google.

Néanmoins, les données OnCrawl permettent de constater que le nombre maximum de redirections suivies par Google se situe plutôt autour de 16.

Qu’est-ce qu’une chaîne et comment cela se produit ?

Une redirection devient une chaîne lorsqu’elle pointe vers une URL cible qui est elle-même une redirection vers une autre URL.

Une chaîne peut apparaître dans les cas suivants :

  • Lors d’une correction de titre d’article, si les URLs sont basées sur les titres des articles
    URL d’origine -> correction de titre -> renvoi vers la nouvelle URL 2 -> correction de titre -> renvoi vers la URL 3
    Ce qui se passe : votre CMS crée souvent une redirection automatique à chaque fois que vous modifiez le titre. Ou, si vous paramétrez manuellement les modifications comme règles dans le fichier htaccess, il se peut que la version d’origine reste dans le fichier.
    Un conseil : partez toujours de l’existant pour établir les nouvelles règles, puis modifiez les anciennes règles pour pointer directement vers l’URL 3.

 

  • À la suite de multiples refontes de site.
    URL d’origine -> refonte -> URL 2 -> refonte -> URL 3…
    Ce qui se passe : lors d’une refonte, des règles de redirection sont inscrites dans le fichier htaccess. Quelques mois plus tard, une partie du site est à nouveau réaménagée. Les nouvelles règles s’ajoutent aux anciennes dans le fichier htaccess, créant des redirections en cascade.

 

  • Migration HTTPS ou un changement de nom de domaine
    URL http (sans www) -> URL http (avec www) -> URL https (sans www) -> URL https (avec www)
    URL http (sans www) -> URL https (sans www) -> URL https (avec www)
    URL http (avec ou sans www) -> URL http (ancien slug) -> URL http (nouveau slug) -> URL https (nouveau slug)
    URL http (avec ou sans www) -> URL https (ancien slug) -> URL https (nouveau slug)
    • Ce qui se passe : les URLs sont redirigées selon vos règles vers la bonne URL. Souvent, cela comprend déjà une étape de redirection, automatique (dans le cas des sous-domaines en www) ou non (lorsque vous avez ajouté une règle pour corriger une URL), avant et/ou après la redirection HTTP en HTTPS.

Qu’est-ce qu’une boucle et comment se crée-t-elle ?

Une boucle de redirections est une chaîne qui se referme. L’un des maillons de la chaîne est redirigé vers une URL qui fait déjà partie de la chaîne. Après environ 20 redirections, ce qui arrive rapidement dans une boucle, l’utilisateur ne voit pas la page.

Quelles statistiques sont disponibles dans OnCrawl ?

Dans le Crawl report, OnCrawl présente 5 graphiques principaux sur l’état des redirections de votre site. Les graphiques se trouvent dans Indexability, puis Status codes.

1. Distribution des status codes HTTP pour tout le site

Ce graphique existe depuis longtemps chez OnCrawl et permet de suivre le pourcentage de pages redirigées (avec status codes de 3xx) sur le site.

2. Tableau résumé de toutes les redirections.

Pour chaque configuration de redirection, ce tableau résume le nombre de pages impliquées mais surtout le nombre de liens qui pointent vers les pages dans la boucle ou chaîne de redirection.

Il y a plusieurs types de redirection:

  • Single redirects : des redirections simples d’URL A vers URL B, et aucune autre redirection n’a lieu. Les redirections simples ne posent pas de problème pour votre SEO. Elles peuvent servir pour conserver la PageRank reçue sur l’ancienne URL si vous avez un backlink qui y pointe. Faites attention aux liens internes qui pointent vers la “mauvaise” partie de la redirection : il suffit de les mettre à jour pour les faire pointer vers l’URL finale.
  • Pages in 3xx chain : une série de 2 redirections ou plus. Elles sont évaluées de bout en bout. On donne le nombre de pages concernées et le nombre de liens qui pointent vers une partie de la chaîne. En cliquant sur les chiffres, vous découvrez les URLs concernées. Ensuite, c’est à vous de les corriger pour faire pointer les liens vers l’URL finale.
  • Pages in 3xx chains with too many redirects : des chaînes avec trop d’itérations. OnCrawl s’arrête après 500 redirections !
  • Pages inside a 3xx loop : des boucles, qui se crée lorsque l’une des pages de la chaîne est redirigée vers une autre page de la chaîne. Par conséquent, il n’y a pas de page finale dans la série de redirections.
  • Pages that are 3xx final targets : pages vers lesquelles une redirection existe mais qui ne redirigent pas elles-mêmes vers une autre page. Si la page cible finale est interdite au crawl, elle n’est pas comptée dans ces statistiques : à vous de déterminer les raisons spécifiques.

3. Représentation de l’état final des redirections

Ce graphique permet de répondre à la question : une fois qu’OnCrawl a fini de crawler toutes les étapes de la boucle ou de la chaîne, quel est le statut de la page de destination finale ?

Le graphique présente les réponses possibles :

  • 200 : la page finale fonctionne
  • 3xx (externe) : la page finale se trouve sur un autre site, mais est elle-même redirigée
  • 4xx : la page finale ne peut pas être trouvée
  • 5xx : la page finale retourne une erreur du serveur
  • Not crawled : le bot OnCrawl n’a pas pu trouver la page : elle se trouve peut-être dans un sous-domaine non crawlé ou est en robots denied dans le fichier robots.txt

Les pages en 3xx, 4xx et 5xx peuvent être vraiment intéressantes à corriger.

Commencez par les 4xx et 5xx (pages en erreur) avant de procéder aux pages en 3xx (ce sont les pages dans des chaînes ou boucles).

4. Répartition de status code par groupe de pages et par profondeur

Ce graphique se présente soit par groupes de pages, soit par profondeur. La version par groupes de pages donne la possibilité d’utiliser la segmentation d’OnCrawl, qui peut catégoriser les pages selon n’importe lesquelles des métriques OnCrawl.

Quelques exemples :

  • En utilisant une segmentation sur les pages qui rankent ou ne rankent pas :
    Quelle est la proportion de status code 4xx ou 5xx dans mes pages que ne rankent pas ?
  • Avec une segmentation sur le nombre d’impressions dans GSC :
    Est-ce qu’il y a des pages qui font zéro impression qui sont affectées par une chaîne dont la cible finale ne répond pas en 200 ?

Dans le deuxième onglet, on voit la distribution de status code en fonction de la profondeur du site. En général, si la profondeur augmente, le nombre de redirections augmente aussi.

5. Répartition des pages inscrites dans les boucles ou les chaînes par groupe de pages et par profondeur

Ce graphique s’ajuste selon la segmentation que vous aurez choisie.

Ce graphique-ci est également visible par profondeur pour que vous puissiez voir où sont localisées les pages qui font partie des boucles et des chaînes de redirection.

Actions à entreprendre pour gérer ses redirections

  • 1. Lister les pages concernées
    Pages de destination finale d’une boucle ou dans une chaîne. Cela vous donnera une bonne notion des pages à corriger ou à interdire au crawl.
    Priorité 1 : Pages dans une boucle. Les boucles sont les plus importantes à corriger.
    Priorité 1 : Pages dans une chaîne avec trop de redirections. Comme les boucles, la correction des chaînes trop longues est une priorité absolue.

  • 2. Changer les liens vers les pages impliquées
    Les liens peuvent être mis à jour pour pointer vers la page finale de la chaîne, ou passés en “nofollow” pour interdire le crawl.
    Priorité à définir selon votre cas : Liens vers pages de destination finale d’une chaîne. Cela vous donnera une bonne notion des pages à corriger ou à interdire au crawl.
    Priorité 1 : Liens vers pages dans une boucle. Les boucles sont les plus importantes à corriger.
    Priorité 1 : Liens vers pages dans une chaîne avec trop de redirections. Comme les boucles, la correction des chaînes trop longues est une priorité absolue.
    Priorité 2 : Liens vers pages dans une chaîne.
    Priorité 3 : Liens vers pages avec une seule redirection vers la page cible finale.

Comment lister les pages ou les liens impliqués dans une redirection ?

Lorsque vous cliquez sur un métrique dans OnCrawl, vous arrivez directement dans le Data Explorer avec un filtre pré-réglé pour donner le détail de l’information sur laquelle vous avez cliquée.

Par exemple, en cliquant sur le nombre de pages qui ne sont pas dans une boucle mais dans une chaîne avec trop de redirections, nous arrivons directement au rapport complet des URLs concernées. Vous pouvez moduler le filtre pour qu’il vous donne toutes les pages qui sont dans une boucle, par exemple.

De la même façon, vous êtes en mesure d’explorer tous les liens qui pointent vers une page : par exemple, pour toutes les pages redirigées, le QuickFilter “Pages pointing to 3xx errors” vous donne tous les liens qui pointent vers des pages redirigées.

Pour ceux qui utilisent l’API OnCrawl, vous avez également un moyen de lister tous les liens qui pointent vers toutes les pages par des requêtes croisées. Nous n’entrerons pas dans le détail ici mais vous pouvez tous les obtenir par type de redirection, avec les ancres et éventuellement mesurer le jus qui y passerait.

Comment tester la redirection sur votre site sans lancer un crawl ?

Vous pouvez obtenir un premier diagnostic avant même de lancer le crawl.

Il est conseillé de tester sa Start URL avant de crawler. OnCrawl valide automatiquement le statut de votre Start URL dès que vous la saisissez dans les paramètres du crawl. Si votre Start URL n’est pas validée, il peut s’agir de plusieurs cas de figure.

  • Votre page Start URL est redirigée. Il s’agit d’un cas assez particulier. Pour Erlé, s’il doit crawler un site, il prend forcément l’URL du domaine. Même si OnCrawl dit que cette URL “semblerait être redirigée…” il forcerait l’utilisation de cette URL, car il reste très intéressant d’analyser le site dans ce cas de figure. L’alerte sur la redirection d’une Start URL n’est pas une erreur. Il s’agit simplement d’une information.
  • Votre page Start URL renvoie une erreur. Par contre, il est possible de mettre une page qui renvoie une erreur comme Start URL. Dans ce cas, le crawler ne peut pas procéder.
  • Votre start URL est dans une boucle. Dans ce cas, OnCrawl vous informe que le crawl ne sera pas possible. OnCrawl ne peut pas déterminer une page cible finale pour la première URL, car vous pointez déjà vers une boucle.

Pour aller plus loin

Analyser vos redirections avec la bonne segmentation
“Status codes breakdown” : repartition de status code final par groupe
Une optimisation SEO part toujours de la possibilité d’une page de faire plus d’impressions. En appliquant une segmentation des pages par tranche d’impressions GSC, on voit des pages qui font 0 impression GSC sur les 45 derniers jours. Cela nous permet de constater qu’une partie de ces pages sont en 3xx et 4xx.

Vous pouvez tout à fait utiliser une autre segmentation pour mieux voir d’autres caractéristiques de données.

“No. of pages inside 3xx chains or loops” : répartition des pages inscrites dans les boucles ou les chaînes
Ce graphique fournit un résumé du nombre de pages qui sont impactées. Encore une fois, cela s’organise par groupe, ou encore par profondeur.

Par groupe, on peut estimer le type de groupe qui est le plus impacté par les boucles et les chaînes de redirections.

En changeant d’onglet, on est capable de voir à partir de quelle profondeur les pages apparaissent dans les boucles et dans les chaînes. Mais ce n’est pas pour autant qu’on perd l’intérêt de la segmentation.

Si vous avez la segmentation par URL qui est fournie par défaut dans OnCrawl, filtrez dans le deuxième filtre de segmentation pour cibler un groupe en particulier, puis descendez à ce graphique pour comprendre quelle est la répartition pour ce type de pages dans votre architecture.

Souvenez-vous qu’une page qui est peu profonde a plus de possibilités d’être indexée qu’une page qui est plus profonde. Cette stratégie permet de porter un focus sur le groupe le plus important pour le site et sur les pages les plus hautes dans l’architecture, pour pouvoir prioriser les actions.

Adapter vos rapports et vos segmentations

OnCrawl est basé sur des métriques. Comme toutes les métriques, les métriques issues de l’analyse sur les redirections sont disponibles dans le Data Explorer.

Vous pouvez ajouter à vos rapports :
– La page cible de la redirection
– La distance en nombre de redirections jusqu’à la fin de la chaîne
– Une indication si la page se trouve dans une chaîne avec trop de redirections
– Une indication si la page se trouve dans une boucle de redirections
– Le nombre d’identification du “cluster”, ou d’un ensemble. Toutes les pages qui appartiennent au même cluster se trouvent dans la même chaîne ou boucle de redirections.
– La page cible finale dans une chaîne et son statut HTTP

Vous pouvez également utiliser ces métriques pour créer des segmentations OnCrawl. Par exemple, cela permettrait de catégoriser les pages avec redirections par le nombre de redirections dans la chaîne, ou encore de cibler les chaînes les plus grandes et les plus petites. On peut également voir les caractéristiques des pages selon leur distance par rapport à la fin de la chaîne : 1 redirection, 2-5 redirections, 6-10, 11-20, plus que 20…

Vérifier la représentation graphique des redirections dans “URL Details”

L’explorateur des détails par URL contient des informations sur la chaîne de redirection d’une page.

Depuis la Data Explorer, vous pouvez cliquer sur une URL pour retrouver plus de détails, y compris les infos des redirections.

Sur la page URL Details, il y a de nombreuses informations sur les redirections concernant cette page. Il y a aussi une représentation visuelle de la chaîne de redirections qui représente :
– l’entrée de la chaîne
– le statut de chaque page de la chaîne
– la cible finale (en vert)
– l’URL actuelle

Ce visuel est également disponible pour les boucles. Les status codes et l’enchaînement sont représentés de la même manière que pour les chaînes.

Quelques bonnes pratiques

Pendant le webinaire, Erlé a partagé les astuces suivantes :

  • Chaque maillon de la chaîne doit pointer vers l’URL ciblée !
  • Chaque lien vers un maillon doit pointer vers l’URL ciblée !
  • Corrigez d’abord les boucles, puis 4xx et 5xx
  • Configurez votre crawl avec une Start URL la plus haute possible
  • Lors des refontes / migrations, créez des configurations de crawl qui ont pour Start URLS les 100 règles de redirections présentes dans vos htaccess et lancez des crawls régulièrement (1 fois par semaine) pour vérifier que votre politique de redirection est toujours en place.
  • Assurez-vous de réduire les redirections en cascade à 1 seule redirection (pensez aux backlinks!)

Des SEOs connus sont allés plus loin pendant la discussion sur Twitter en partageant leurs bonnes pratiques préférées :

“On devrait tâcher de rediriger vers l’URL finale sans chaîne additionnelle.”
— Maria Cieslak

“Oui, les redirections doivent pointer directement vers la cible. Les redirections ralentissent tout, surtout sur mobile, et plus particulièrement lorsqu’il y a plusieurs hôtes. On crawle 5 URLs en chaîne d’un coup, puis on reprend la prochaine fois qu’on vient crawler. Les crawlers sont idéaux pour vous aider à identifier ces problèmes.”
— John Mueller

“C’est également important de chercher la cause des chaînes. 1) lancements de site 2) outils de redirection automatique (par ex. lorsqu’une URL est modifiée) et 3) une équipe de contenu active. Identifier et corriger les chaînes est plutôt facile,, mais c’est encore plus rentable si vous corrigez votre process.”
— Chris Green

Ne pas bloquer les redirections dans robots.txt sauf si elles vont vers un partenaire…
Tester à fond toutes les règles
Tester les règles avec les cookies, cela peut parfois poser des problèmes
Ne pas se soucier des petites choses… mais essayez de corriger les problèmes concernant tout le site
— Gerry White

“Vérifiez que les liens internes pointent vers les cibles finales des redirections :D”
— Señor Muñoz

“Voir mes conseils ici. En gros, je les déteste.”
— Omi Sido

“Une chose que les gens ne prennent souvent pas en compte lors d’une une refonte : les redirections pour les images.”
— Alice Roussel

“Surtout si le site possède +1M URLs, crawler peut devenir assez difficile. Il faut éliminer les chaînes de redirection dès que possible par le suivi régulier de la santé du site par analyse avec crawl automatisé”
— Murat Yatagan

Comment s’informer sur les redirections dans OnCrawl ?

Les slides du webinaire sont disponibles sur Slideshare.

Si vous êtes intéressé par cette fonctionnalité, elle est inclue de base dans les crawls OnCrawl. Il vous suffit d’avoir lancé un crawl après la sortie de la fonctionnalité.

Vous n’avez pas encore de compte OnCrawl ? C’est le moment idéal pour commencer votre essai gratuit !


[Read More ...]

Opération déneigement - Stationnement interdit dans la nuit du 28 au 29 novembre

Québec, le 28 novembre 2018 – La Ville de Québec informe la population que des travaux de déneigement ou d'entretien de la voie publique et des trottoirs sont prévus la nuit prochaine dans certains arrondissements de la ville.

Le stationnement sera interdit selon les modalités suivantes :

Arrondissement de Beauport Le stationnement est interdit de 21 h ce soir à 7 h demain matin. Dans les rues où des feux clignotants orange sont en fonction, le stationnement est interdit de 22 h ce soir à 7 h demain matin.

Arrondissement de Charlesbourg - Le stationnement est interdit de 21 h ce soir à 7 h demain matin. Dans les rues où des feux clignotants orange sont en fonction, le stationnement est interdit de 22 h ce soir à 7 h demain matin.

Arrondissement de La Haute-Saint-Charles - Le stationnement est interdit de 21 h ce soir à 7 h demain matin dans toutes les rues de l’arrondissement.

Arrondissement des Rivières - Le stationnement est interdit de 21 h ce soir à 7 h demain matin. Toutefois, dans l’ancien secteur de Vanier, au sud de la rue Samson, où des feux clignotants orange sont installés, mais non en fonction, le stationnement est permis.

Arrondissement de Sainte-Foy–Sillery–Cap-Rouge - Le stationnement est interdit de 21 h ce soir à 7 h demain matin. Dans les rues où des feux clignotants orange sont en fonction, le stationnement est interdit de 22 h ce soir à 7 h demain matin.

La Ville appelle à la collaboration des citoyens
Les véhicules de déneigement doivent pouvoir circuler librement dans les rues pour les déblayer efficacement. La Ville demande aux citoyens leur collaboration pour :

  • libérer la chaussée pour permettre le passage de la machinerie;
  • respecter les interdictions de stationnement, le cas échéant;
  • placer leurs bacs à ordures et à recyclage dans leur entrée.

Information : déneigement et remorquage
En tout temps, les citoyens peuvent obtenir de l’information sur les conditions de stationnement en vigueur dans leur arrondissement ou sur le lieu de remorquage de leur véhicule en composant le 418 641-6666. Ils peuvent également consulter Info-Remorquage sur le site Internet de la Ville.
Il est aussi possible de s’abonner aux alertes SMS-Déneigement avec son mobile. Il suffit de texter le mot « NEIGE » au 64123. Des frais standards peuvent alors s’appliquer, selon son forfait.


[Read More ...]

Opération déneigement - Stationnement interdit dans la journée du 28 novembre

Québec, le 28 novembre 2018 – La Ville de Québec informe la population que des travaux de déneigement ou d'entretien de la voie publique et des trottoirs sont prévus aujourd’hui dans l’arrondissement de La Cité-Limoilou.

Le stationnement est interdit de 8 h à 16 h lorsque les feux orange clignotent dans les secteurs résidentiels situés :
·           au nord de la rue Soumande (PDF carte);
·           au nord de la 24e Rue entre Henri-Bourassa et Monseigneur-Gosselin (PDF carte);
·           au nord-est de Limoilou, à partir du boulevard des Alliés et de la 23e Rue (PDF carte).

La Ville appelle à la collaboration des citoyens
Les véhicules de déneigement doivent pouvoir circuler librement dans les rues pour les déblayer efficacement. La Ville demande aux citoyens leur collaboration pour :
·         libérer la chaussée pour permettre le passage de la machinerie;
·         respecter les interdictions de stationnement, le cas échéant;
·         placer leurs bacs à ordures et à recyclage dans leur entrée.

Information : déneigement et remorquage
En tout temps, les citoyens peuvent obtenir de l’information sur les conditions de stationnement en vigueur dans leur arrondissement ou sur le lieu de remorquage de leur véhicule en composant le 418 641-6666. Ils peuvent également consulter Info-Remorquage sur le site Internet de la Ville.
Il est aussi possible de s’abonner aux alertes SMS-Déneigement avec son mobile. Il suffit de texter le mot « NEIGE » au 64123. Des frais standards peuvent alors s’appliquer, selon son forfait.

 

 


[Read More ...]

Les 5 chiffres SEO qui nous ont marqué cette semaine (18/11 au 24/11)

Quels sont les 5 chiffres SEO qui nous ont marqué cette semaine ? L’équipe @OnCrawl vous a préparé son top 5 des chiffres les plus marquants. L’ensemble des données utilisées proviennent de sources anglophones. GMB, Merchant Promotions, marketing digital, services de comparaison de prix & Black Friday : découvrez nos 5 actualités SEO de la semaine.

100 % des recherches pour “Black Friday” ont eu lieu entre les 19 et 25 novembre l’année dernière

Google Ads a introduit un format spécial pour le Black Friday et le Cyber Monday. D’après le moteur de recherche, 100 % des recherches pour “Black Friday” ont eu lieu entre le 19 et le 25 novembre l’année dernière. Des recherches ont également montré que 61 % des acheteurs sont prêts à acheter à de nouvelles marques durant la période de Noël. Les entreprises peuvent utiliser ce format exceptionnel en téléchargeant les extensions “Black Friday” et “Cyber Monday” et en créant des groupes de publicités qui ciblent ces mots-clés.
Lire l’article

Les données de GMB composent 25 % du pack local de Google

Les données de Google My Business composent désormais près de 25 % du pack local de Google. Le moteur de recherche a rapidement développé les fonctionnalités de GMB. Rien qu’en 2017, il a sorti Google Posts, Google Q&A ou encore Website builder. Ces nouveaux outils engendrent des changements dans les facteurs utilisés pour conduire les résultats locaux. Pourtant de nombreuses entreprises ne s’intéressent pas encore à ces fonctionnalités. L’auteur conseille de commencer à les exploiter dès maintenant !
Lire l’article

L’ajout de la fonctionnalité “Merchant Promotions” permet d’augmenter les conversions de 9,4 %

Google Ads a lancé un programme “Merchant Promotions” qui permet aux marchands e-commerce de lancer des promotions directement dans leurs publicités. D’après les tests menés par Google, les e-commerçants peuvent bénéficier d’une augmentation de 9,4 % de leurs conversions grâce à cette fonctionnalité et d’une croissance de 9,5 % de leur volume de vente par session. De plus, Google s’appuie sur une étude menée par Ipsos qui montre que 57 % des acheteurs affirment que les promotions / coupons sont très important lors de leur shopping de Noël.
Lire l’article

59 % des marketeux qui embauchent en ce moment affirment que les profils digitaux sont les plus demandés

Le marketing digital influence presque toutes les facettes d’une entreprise aujourd’hui, des ventes au service clientèle, le digital est devenu indispensable. Logiquement, les recrutements de profils en marketing digital ont donc fortement augmenté. Pour cause : 59 % des marketers actuellement en train de recruter jugent que les profils digitaux sont les plus demandés.
Lire l’article

Google a réduit de 85 % les avantages offerts à ses services de comparaison de prix

Tout a commencé l’année dernière lorsque Google a été pénalisé d’une amende de 2,4 milliards d’euros par la Commission Européenne pour pratiques anti-concurrentielles. Il a été ordonné au moteur de recherche de proposer des comparaisons de prix dans Google Shopping. Google a donc lancé son service Comparison Shopping et a proposé des réductions très intéressantes pour inciter les agences de SEA à utiliser ce format. Seulement, beaucoup d’entre elles ont créé de faux sites et publicités pour tirer profit de la situation et apparaître dans Google Shopping. Récemment, le moteur de recherche a donc pris la décision de réduire de 85 % les avantages offerts aux utilisateurs de ses services de comparaison.
Lire l’article


[Read More ...]

Tuesday, 27 November 2018

Opération déneigement - Stationnement interdit dans la nuit du 27 au 28 novembre

Québec, le 27 novembre 2018 – La Ville de Québec informe la population que des travaux de déneigement ou d'entretien de la voie publique et des trottoirs sont prévus la nuit prochaine dans certains arrondissements de la ville.

Le stationnement sera interdit selon les modalités suivantes :
Arrondissement de Charlesbourg - Le stationnement est interdit de 22 h ce soir à 7 h demain matin dans les rues où des feux clignotants orange sont en fonction.

Arrondissement de La Cité-Limoilou - Le stationnement est interdit de
22 h ce soir à 7 h demain matin dans les rues où les feux clignotants orange sont en fonction.

Arrondissement des Rivières - Le stationnement est interdit de 22 h ce soir à 7 h demain matin dans l’ancien secteur de Vanier, au sud de la rue Samson, où des feux clignotants orange sont en fonction.

Arrondissement de Sainte-Foy–Sillery–Cap-Rouge - Le stationnement est interdit de 22 h ce soir à 7 h demain matin dans les rues où des feux clignotants orange sont en fonction.

La Ville appelle à la collaboration des citoyens
Les véhicules de déneigement doivent pouvoir circuler librement dans les rues pour les déblayer efficacement. La Ville demande aux citoyens leur collaboration pour :
·         libérer la chaussée pour permettre le passage de la machinerie;
·         respecter les interdictions de stationnement, le cas échéant;
·         placer leurs bacs à ordures et à recyclage dans leur entrée.

Information : déneigement et remorquage
En tout temps, les citoyens peuvent obtenir de l’information sur les conditions de stationnement en vigueur dans leur arrondissement ou sur le lieu de remorquage de leur véhicule en composant le 418 641-6666. Ils peuvent également consulter Info-Remorquage sur le site Internet de la Ville.
Il est aussi possible de s’abonner aux alertes SMS-Déneigement avec son mobile. Il suffit de texter le mot « NEIGE » au 64123. Des frais standards peuvent alors s’appliquer, selon son forfait.

À propos du déneigement
En chiffres :
·         Budget annuel de plus de 43 M$
·         Près de 2 400 km de chaussées
·         Près de 1 250 km de trottoirs
·         Jusqu’à 1 700 personnes mobilisées pour une opération déneigement
·         Environ 1 300 véhicules pour déneiger les rues de Québec

Avant et pendant une tempête :
Déblaiement des rues et des trottoirs, la neige est poussée sur les côtés pour faciliter la circulation. Les équipes se concentrent d’abord sur les côtes et artères principales et, pour des raisons de sécurité, sur les zones à proximité des hôpitaux et des écoles. Ensuite, les rues secondaires et les trottoirs sont déblayés.

Après une bordée de plus de 10 cm :
Déclenchement d’une opération déneigement. La neige est transportée ou soufflée. Le stationnement dans les rues est alors interdit.
La Ville de Québec compte sur la collaboration de tous les automobilistes afin que les travaux de déneigement ou d'entretien de la voie publique se déroulent dans les meilleures conditions possibles.
[Read More ...]

Comment tirer profit des segmentations avancées OnCrawl ?

Le plus important dans notre métier c’est de réussir un croisement de données SEO efficace et pertinent. Avec l’habitude, on remarque que certains croisements sont plus puissants que d’autres et qu’au fil des créations de segmentations avancées, certaines régularités se dessinent.

“Plein de données c’est bien mais savoir quoi en faire c’est mieux !” Paul Sanches, Président de SEO Hackers

Dans cet article nous tâcherons de vous partager les meilleurs modèles de représentation des données disponibles dans OnCrawl et comment utiliser les croisements pour révéler les optimisations les plus génératrices de valeur. Mais cet article est avant tout un moyen de vous faire comprendre que chaque graphique d’OnCrawl peut (et doit) être abordé sous différents angles de vue.

Vous comprendrez comment chaque prisme par lequel vous abordez un graphique peut révéler une optimisation ou confirmer/infirmer une hypothèse et qu’il est utile de maîtriser les fonctionnalités avancées dans OnCrawl telles que :

  • Les segmentations “metric based”
  • Les customs fields pour utiliser les données scrapées pour grouper les pages
  • Le croisement des segmentations dans les customs dashboards

Tous les exemples de segmentation dans cet article sont disponibles pour téléchargement au format JSON. Pour les appliquer à vos propres données dans OnCrawl, suivez les instructions dans cet article pour créer une nouvelle segmentation. Vous devrez choisir “From an existing set or import” puis “Paste JSON”.

NB : Il est important que vous conserviez exactement le nom proposé pour les segmentations lors de la création pour profiter de nos prochaines updates.

Les segmentations sur les différentes métriques

Une bonne segmentation est une segmentation qui permet de mettre en perspective un champ d’OnCrawl pour les classement des pages sur la base des différentes valeurs d’un jeu de données.

Prenons cinq exemples simples :

Si vous avez un modèle visuel de représentation de ces cinq aspects importants du SEO et que vous pouvez les utiliser dans n’importe quelle analyse d’OnCrawl, vous êtes en mesure de détecter rapidement les optimisations les plus importantes ou porteuses de valeur et de prioriser vos chantiers techniques sur la base de données chiffrées solides.

Et bien c’est ce que les segmentations OnCrawl vous permettent de faire… et nous sommes les seuls à proposer cette fonctionnalité !

Quelques exemples tirés des 5 points précédents :

  • 1. Est-ce que toutes les pages qui rankent sur des potentielles “featured snippets” reçoivent des visites ?

  • 2.  Est-ce que la fréquence de crawl de mes top visited pages est supérieure à la moyenne ?

À priori il y a une forte corrélation 😉

Ou mieux ! Est-ce qu’il y a des pages “top visited” qui ne reçoivent plus de liens ?

  • 3.  Y a-t-il une corrélation entre le nombre de clics depuis la home page et le crawl de Google ?

Confirmé par X le Date source

  • 4.  Y a-t-il un impact du duplicate content sur les rankings ?

  • 5.  Google crawle-t-il plus souvent les pages en fonction de leur rankings ou les rankings indiquent-ils que la fréquence de crawl est reliée aux rankings ?

NB: en tant que Customer Success Manager, nous voyons ce modèle sur la quasi totalité des sites et voici comment l’interpréter :

– De droite à gauche les position s’améliorent et la fréquence de crawl augmente.
– Jusqu’à la position 2-3 qui a 3x plus de bots hits que les positions suivantes de la page 1 de la SERP.
– Mais sur la position 1 (moyenne sur la période), la fréquence de crawl est largement inférieure à tous les autres groupes.

Lorsqu’une page est en Position 1 alors ce n’est plus elle que Google vient vérifier, ce sont ses concurrentes (imaginez ce graphique sur le site de vos concurrents – il est le même dans 90% des cas) donc les pages des sites concurrents en Position 2-3.

Vous l’avez compris, avoir de nouveaux angles de vue dans certaines données permet de tirer des enseignements essentiels pour votre stratégie de référencement naturel.

Voici maintenant quelques segmentations intéressantes.

Temps de chargement

Actuellement le temps d’affichage est un facteur important, tant d’un point de vue utilisateur que pour les crawlers de Google. La segmentation basée sur la métrique “Load Time” permet de classer les pages des plus rapides aux plus lentes et de suivre l’impact du temps de chargement sur les comportements de vos users (croisement avec le CTR si GA est activé), les comportements des bots d’indexation dans les LOGs et les performances ranking avec GSC.

Si le test d’une de ces options vous intéresse, vous pouvez prendre contact avec sales@oncrawl.com

Segmentation : oncrawl-segmentation-seo-load-time.json
Name : SEO load time

Impact de la profondeur sur les temps de chargements
Plus une page est profonde, plus elle met du temps à répondre

NB: par expérience nous savons que plus une page est profonde moins les composants de l’architecture système ont mit en cache les données, les bases de données n’ont pas les requêtes en mémoire, les systèmes de cache n’ont pas leur contenu. Ces pages ne sont pas très sollicitées, c’est normal !

Impact du temps de chargement sur les performances rankings
Plus nombreuses sont les pages qui répondent rapidement, plus il y a de pages qui rankent

Indexabilité

Cette segmentation permet d’identifier rapidement les défauts d’architecture en identifiant les liens internes qui pointent sur les mauvaises versions des pages ou vous indiquer le Inrank (taux de popularité interne) envoyé aux mauvais groupes.
Segmentation : oncrawl-segmentation-seo-indexability.json
Name : SEO indexability

Nombre de liens entrants moyen par type d’indexabilité
Beaucoup de liens perdus sur un groupe en deny robots.txt ainsi que sur des pages “non compliants”

Fréquence de crawl par type d’indexabilité
De nombreuses pages orphelines sont actives et sont les plus consommatrices de budget de crawl

Segmentation Google Search Console

Le croisement des données GSC dans OnCrawl crée de nouveaux champs sur lesquels il est possible de grouper les pages. Positions, CTR, impressions, clics deviennent des segments.

Segmentation : oncrawl-segmentation-seo-load-time.json
Name : GSC impressions

segmentations-article

Représentation de la fréquence de crawl par impressions sur Google
On constate qu’il existe une cohérence dans les données (crawl budget vs impressions)

Segmentation : oncrawl-segmentation-gsc-positions.json
Name : GSC positions

Vision de la performance ranking en fonction de l’architecture
Plus une page est profonde moins elle rank

Segmentation : oncrawl-segmentation-gsc-clicks.json
Name : GSC clicks

Impact de la profondeur sur les clics (donc les visites SEO)
Plus une page est haute plus elle performe en SEO

Segmentation : oncrawl-segmentation-gsc-ranking-pages.json
Name : GSC ranking pages

Impact de la popularité interne sur la capacité à faire des impressions (rankings)
Il y a clairement des actions à entreprendre sur le maillage du site

Segmentation : oncrawl-segmentation-gsc-ctr.json
Name : GSC ctr

Groupement des CTR moyens par page entre les positions 4-10
Cela permet de cibler rapidement les premières pages à optimiser (meilleurs CTR) et de prioriser les actions pour maximiser les résultats

Segmentation sur les logs

Les segmentations issues des logs permettent une représentation évidente pour analyser chaque graphique d’OnCrawl. Lorsque l’on groupe les pages en fonction du nombre de visites SEO (et pourquoi pas par type de bot – mobile/desktop) ou par nombre de bots hits par jour (budget de crawl) on peut visualiser l’impact de chaque élément SEO issu du crawler.

Segmentation : oncrawl-segmentation-log-bot-hits-by-day.json
Name : LOG bot hits by day

Représentation de la fréquence de visites de Googlebot en fonction de la moyenne du nombre de mots par page

Segmentation : oncrawl-segmentation-log-seo-visits-by-day.json
Name : LOG seo visits by day

segmentations-article

Analyse du rapport entre popularité interne et nombre de visites depuis les moteurs de recherche
Plusieurs optimisations à en déduire : les pages les plus populaires sans visites sont à démailler / certaines pages avec de nombreuses visites peuvent être peu populaires et les renforcer serait une bonne optimisation

Segmentation de répartition de la performance d’acquisition

Pour aller plus loin, vous pouvez choisir de grouper les pages en fonction des performances qu’elles réalisent déjà, cela vous permet de cibler des ensembles déjà porteurs de valeur et de repérer rapidement s’il y a des optimisations (depth, Inrank, content, duplication, load time, etc) à mettre en place. En optimisant des ensembles de pages qui ont déjà de bonnes performances d’acquisition, il est possible de créer un effet levier non négligeable sur le trafic. Vos efforts sont maximisés !

Segmentation : oncrawl-segmentation-seo-top-visits-by-day.json
Name : SEO top visits by day

NB : Cette segmentation exemple utilise les données de logs, mais peut être faite avec les sessions GA ou les clics GSC

Les segments sur les données scrapées

OnCrawl permet de récupérer des champs personnalisés issus de règles d’extraction du code source (XPATH ou REGEX). Ces nouveaux champs peuvent être utilisés pour créer des ensembles représentatifs des pages. Les types de pages, le data layer ou les dates de publication peuvent être utilisés pour de nouvelles segmentations.

Segmentation : oncrawl-segmentation-date-published.json
Name : date published

Taux de crawl des pages en fonction de leur date de publication
NB : le champ extrait doit se nommer publicationDate et le type date permet une segmentation glissante qui se verra mise automatiquement à jour à chaque crawl

Représentation du nombre moyen de liens entrants vers les pages en fonction de leur date de publication

Mise en forme de l’architecture du site par date de publication

Segmentation basée sur le pagetype (données data layer)

Une fois vos règles de scraping déclarées dans la crawl config (article sur le sujet) vous obtenez des nouveaux champs qui correspondent exactement aux données que toute votre équipe a l’habitude d’utiliser. Lorsque votre DataLayer est posé, il est utilisé par l’ensemble des métiers qui travaillent avec vous, et fournir des rapports qui utilisent une dénomination commune permet de se rassembler.

Etude du ratio de pages qui rankent / crawlées ou non par Google en fonction du type de page issu du data layer

Le croisement de segments

Prise une par une, ces segmentations sont capables de vous guider dans la découverte d’optimisations ou de facteurs bloquants d’un point de vue macro, mais OnCrawl vous permet également d’utiliser ces segmentations d’une manière unique sur le marché : vous pouvez croiser vos différents modes de représentation et affiner vos analyses en couplant les filtres et des graphiques forcés sur une segmentation dans les Custom Dashboards.

Si vous connaissez la fonctionnalité Custom Dashboard (vidéo youtube / article) vous savez qu’il est possible de forcer une segmentation particulière sur un graphique – setting réalisé en cliquant sur le header du graphique lors de la création du rapport – cela permet de conserver la segmentation globale (celle définie dans le menu en haut de page) et visualiser données dans le graphique avec une représentation issue d’une autre segmentation.

Par exemple :
J’aimerais connaître précisément la diffusion du InRank au sein d’un groupe de pages de la segmentation “Top Destination” et afficher les données pour un pays particulier en utilisant le prisme des “Impressions GSC” dans le graphique.

Illustration du croisement de 2 segmentations dans un même graphique

Conclusions

Lorsque l’on sort du cadre trop restrictif des groupements de pages basés sur les URLs on est en mesure d’explorer les données du site sous des angles très différents et plus précis. OnCrawl est aujourd’hui le seul outil permettant de réaliser cette mise en forme sur l’ensemble des données disponibles.

Avec un peu d’expérience et de curiosité vous allez pouvoir faire parler vos données plus efficacement et obligatoirement trouver des axes d’améliorations SEO pertinents qu’il sera plus simple de prioriser.

La seule limite dans la création et l’exploitation des segmentation est celle de votre créativité, à vous de jouer!

N’oubliez pas : toute l’équipe OnCrawl est là pour vous accompagner dans votre démarche.


[Read More ...]

3 facteurs qui éloignent les utilisateurs et les crawlers de votre page d’accueil

  Votre page d’accueil n’est pas juste un espace dans lequel vous affichez votre nom de marque et votre logo. Il s’agit de la page initial...