Thursday, 28 February 2019

8 erreurs courantes révélées pendant des audits SEO

Après avoir réalisé des audits SEO pendant plus de 10 ans, j’ai analysé beaucoup de sites web. Au cours des dernières années, j’ai remarqué que de nombreux propriétaires de sites faisaient les mêmes erreurs. J’ai fini par devoir montrer les même erreurs dans presque tous les audits SEO que j’ai réalisés ces dernières années. Ces erreurs sont souvent liées au site en général et au web design. Attention, il s’agit bien d’erreurs concernant le site et non pas le SEO. Cependant, ces erreurs peuvent avoir un impact direct sur le trafic et la visibilité dans les résultats des moteurs de recherche. Il était donc de mon devoir de les faire remarquer à mes clients durant mes audits de SEO technique.
J’appelle ces erreurs des erreurs communes car lors des 2 dernières années, 8 audits de SEO technique sur 10 comportaient au moins 80 % d’entre elles. Prenons donc le temps d’analyser ces 8 erreurs communes. Vous pourrez ainsi vérifier que votre site web ne commet pas certaines d’entre elles. Si vous utilisez OnCrawl, vous pourrez plus facilement identifier et réparer ces problèmes. J’ai détaillé chaque erreur ci-dessous et expliqué pourquoi elles sont importantes et comment utiliser OnCrawl peut vous aider à les corriger.

1. Mauvaise migration HTTP vers HTTPs
2. Problèmes de contenu dupliqué
3. Méga menus et maillage interne
4. Problèmes de structure du site
5. Pages et contenus orphelins
6. Problèmes de liens, liens de faible et mauvaise qualité
7. Sur-optimisation ou sous-optimisation
8. Usage incorrect du code ou des directives

Erreur courante : une mauvaise migration HTTP vers HTTPs

Je vois ce problème non seulement lors de mes audits SEO mais aussi en visitant simplement des sites web. L’indicateur principal de cette erreur est le symbole du cadenas brisé dans la barre du navigateur. Si vous vous rendez sur un site avec ce symbole, cela signifie qu’il a un problème de HTTPs. Lorsque les sites web opèrent leur migration de HTTP to HTTPs (de la version non sécurisée à la version sécurisée SSL), chaque mention et lien interne sur le nom de domaine doit être changé en HTTPs. Cela signifie que si le code source référence une image (tous les sites ont des images), il devrait charger cette image en HTTPs et non HTTP. S’il référence le HTTP comme cela :
< img src=”http://www.oncrawl.com/images/logo.png” alt=”OnCrawl logo” />

la page liée à ce code va montrer le fameux symbole du cadenas brisé. L’URL pour oncrawl.com devrait être en HTTPs et non HTTP comme montré ci-dessus. Une autre erreur liée est le maillage interne et la manière dont les pages sont connectées entre elles sur le site. Une migration de site web de HTTP à HTTPs réussie liera toujours une page à une autre en utilisant une URL HTTPs dans le lien, et non HTTP. Si les liens sur le site apparaissent comme cela :
< a href=” http://www.oncrawl.com/support/”>Contact Support

et renvoient vers l’URL HTTP, alors vous obtiendrez probablement une redirection 301 permanente redirigeant les visiteurs vers https://www.oncrawl.com/support/, c’est-à-dire la version HTTPs de la page. Lors du crawl dusite en utilisant OnCrawl, l’outil va remonter BEAUCOUP de redirections. Si votre migration HTTP vers HTTPs est réussie, vous ne devriez pas trouver de redirections lors du crawl de votre site.

Comment réparer cette erreur courante ?

Globalement, tous vos liens internes et références à votre URL dans le code source de votre site devraient pointer vers la version HTTPs et non pas la version HTTP. Si vous utilisez WordPress, vous pouvez rechercher dans toute la base de données de votre site pour trouver les URLs HTTP (qui incluent le nom de domaine) et les remplacer par la version HTTPs. Vous pouvez aussi faire cela dans d’autres CMS qui ont une base de données. Pour plus d’informations, j’ai récemment couvert ce sujet dans un article sur le blog d’OnCrawl intitulé “Réaliser une migration de domaine sans encombre”.

Erreur courante : les problèmes de contenu dupliqué

Les problèmes liés au contenu dupliqué sont très courants et il est en réalité très difficile d’avoir un site avec 0% de contenu dupliqué. Si vous avez un menu principal sur votre site, celui-ci va apparaître sur toutes les pages, donc il est commun d’avoir au moins un peu de contenu dupliqué. Cependant, le plus souvent, l’erreur découle d’un paragraphe de texte (ou même plus !) qui apparaît sur toutes les pages du site. Par exemple, vous pourriez avoir un paragraphe de texte “À propos de l’entreprise” dans le footer de votre site. Cela ne cause pas de problème majeur à moins que vos pages aient moins de contenu que le paragraphe de texte à propos de votre entreprise dans le footer. Si ce texte est de 200 mots alors que le reste de la page ne comporte pas autant de mots (ce qui est courant) alors le texte du footer va l’emporter sur le contenu de la page. Cela peut devenir un problème si vous avez beaucoup de pages sur votre site.

Je me rappelle d’un site que j’ai audité dans le passé qui avait une sidebar comportant des témoignages récents de clients. La barre déroulait l’intégralité du témoignage, donc les visiteurs ne pouvaient en voir qu’un seul à la fois. Généralement, cela n’est pas un problème mais le code source de la page avait plus de 30 témoignages qui se déroulaient tous un par un. Tous les textes de ces 30 témoignages se chargeaient sur chaque page du site, ce qui représentait 3500 mots de contenu. Aucune des autres pages du site n’avaient plus de 3500 mots. Donc toutes les pages du site avaient les mêmes contenus. Nous avons retiré les témoignages de la sidebar et les classements du site et le trafic ont explosé.
Techniquement, il n’y a pas de pénalités pour le contenu dupliqué à moins qu’il soit tellement présent qu’il entraîne une pénalité de spam de Google. C’est plutôt rare, mais si vous copiez des pages et/ou sites web alors vous devrez probablement déjà le savoir. La plupart des sites ne dupliquent pas leur contenu délibérément, ce qui peut causer des problèmes de crawl. Un site peut facilement gaspiller son budget de crawl à cause du contenu dupliqué. Il est important de diriger les crawlers des moteurs de recherche vers les pages qui sont uniques et ont le meilleur contenu.

Comment réparer cette erreur courante ?

Vous pouvez utilisez la fonctionnalité Duplicate Content d’OnCrawl dans le Crawl Report pour en savoir plus sur la quantité de contenu dupliqué que vous pourriez avoir sur votre site. Si le site a des balises titre, des méta descriptions et des titres dupliqués, par exemple, vous devriez enquêter pour découvrir quelles pages sont des dupliquées. Certains sites WordPress vont générer des pages dupliquées avec des balises, catégories et pages archivées comme les pages par date.

Erreur courante : les méga menus

Combien de liens le site a-t-il dans son menu ? J’ai déjà vu des centaines de liens (plus de 200 ou 300) dans un seul menu principal. Cela empêche non seulement les visiteurs de trouver ce qu’ils recherchent mais en plus ce n’est pas bon pour le SEO en général. Nous parlons de méga menus lorsqu’un site a plus de 10 items déroulants, que chacun d’entre eux a 10 items et que certains de ces items ont eux-mêmes des items de sous menu. Cela signifie que vous avez plus de 100 pages toutes liées entre elles. Ces 100 liens renvoyant directement vers 100 pages différentes.

Des sites comme ceux-là peuvent facilement (et devraient) être ré-évalués : la structure du site est probablement mal catégorisée. J’ai déjà réalisé un audit sur un site e-commerce comportant plus de 300 000 pages produits. Le site vendait des fournitures de bureau, d’église et des équipements sportifs. Vous pouviez littéralement être sur une page vendant des bancs d’église puis passer directement sur une page proposant des tapis de yoga. Je ne connais personne qui passe de l’un à l’autre dans leur processus d’achat.

C’est un exemple extrême mais le menu principal dispose de menus déroulants qui permettent à l’utilisateur de naviguer vers des pages aux sujets différents. Imaginez le site web comme un ensemble de sujets ou de mini sites au sein d’un site plus grand. Il y a une page d’accueil mais celle-ci ne devrait renvoyer que vers les catégories principales. Ces pages de catégories devraient ensuite renvoyer vers des pages avec une thématique similaire. Puis, l’utilisateur doit pouvoir naviguer vers une sous-catégorie et directement vers la page produit. Les visiteurs devraient ensuite pouvoir cliquer sur une autre catégorie avant d’aller sur une page qui n’a plus rien à voir.
Lier 200 pages à 200 pages dans un menu n’est jamais une bonne pratique. S’il s’agit d’un méga menu, alors vous devez le corriger. C’est donc aussi lié à des problèmes globaux de structure du site.

Comment réparer cette erreur courante ?

Il y a plusieurs éléments à vérifier afin de vous débarrasser de ce problème de méga menu :

  • Analysez la structure interne de votre site ;
  • Vérifiez les silos de contenu (s’ils existent sur listes) ;
  • Vérifiez les groupes de contenu. Les pages liées entre elles doivent traiter du même sujet.

Erreur courante : problèmes de structure de site

Ce problème est très similaire à celui du méga menu. Si un site dispose d’un méga menu conséquent, alors la structure du site n’est pas idéale. Comme mentionné précédemment, la structure du site doit être pensée de manière à ce que les sujets soient groupés de manière logique. Il est plutôt rare qu’un site dispose d’une page qui soit liée à un sous-thème puis à une catégorie et reçoive toujours des centaines de liens pointant vers elle. Y-a-t-il des pages orphelines sur le site ? Dans le rapport OnCrawl, est-ce que le crawl a relevé des pages orphelines qui ont du trafic et sont indexées mais qui ne sont pas rattachées à la structure du site ?

Comment régler cette erreur courante ?

Jetez un oeil aux rapports de popularité interne d’OnCrawl, vérifiez les groupes de pages par profondeur, la distribution d’Inrank et le flux d’Inrank. Est-ce que le site a un méga menu sur sa page d’accueil ? Est-ce que le lien du méga menu renvoie vers des pages de sous-catégories ? Il ne devrait pas. Au lieu de cela, vous devriez avoir un petit nombre de pages catégories liées dans le menu principal de la page d’accueil.

Y-a-t-il des sujets clairs ou des sections sur le site ? Cela va demander une analyse manuelle de votre site, vous devriez pouvoir dire plutôt facilement s’il n’y a qu’un méga menu avec toutes les pages du site ou s’il y a des sections. Vérifiez également la section Links du rapport OnCrawl.

Remarquez le nombre moyen de liens entrants par page et les liens sortants suivis par page. Il devrait normalement y avoir plus de liens entrants sur les pages que de pages sortantes. Si ces nombres sont proches, ou s’il y a plus de liens sortants que de liens entrants, alors il peut y avoir un problème de structure. Est-ce qu’il y a des pages sur le site avec moins de 10 liens follow ? Est-ce qu’il y a des pages orphelines qui ne sont pas rattachées à la structure du site ?

Erreur courante : les pages et contenus orphelins

Les pages orphelines sont plus courantes que ce que vous pensez. Lorsque le crawler commence à parcourir votre site depuis la page d’accueil et suivre tous les liens qu’il trouve, il ne pourra quand même jamais atteindre une page orpheline car elle n’est pas liée à la structure. Ces pages sont détectées par OnCrawl grâce aux données de Google Analytics, de la Google Search Console et des logs. OnCrawl identifie les pages qui ne sont pas liées au site et les marque comme des pages orphelines. Elles sont en fait plus courantes que ce que vous pourriez penser car les propriétaires de site opèrent souvent des refontes et laissent les pages sur le serveur sans les lier au site. Cela peut être une ancienne version du site, ou du contenu non approprié pour une nouvelle version. Pourtant, ces pages existent encore sur le site même si elles ne sont pas liées directement au site. C’est une réalité et les pages orphelines peuvent recevoir beaucoup de trafic et très bien se positionner.

Comment réparer cette erreur courante ?

Il existe plusieurs techniques pour réparer ce problème courant. En fait, si vous fournissez les bonnes données à OnCrawl, comme les données de Google Analytics, de Majestic, de la Google Search Console et des logs, l’outil identifiera les pages orphelines. Donc, fournissez les bonnes données et vous détecterez toutes vos pages orphelines. Les données de log peuvent être très importantes, car elles peuvent révéler d’autres facteurs et vous aider à récupérer des pertes de trafic et de classements.
Pour corriger cette erreur courante, identifiez les pages orphelines qui sont importantes puis liez-les correctement au site. Vous devriez notamment les relier à votre structure si elles comportent des liens provenant d’autres sites. Vous pouvez voir cela grâce aux données de Majestic. Les liens vers les pages orphelines qui sont liées au site peuvent passer de l’Inrank et du PageRank aux autres pages du site, les aidant ainsi à se classer.

Erreur courante : problèmes de liens et liens de faible ou mauvaise qualité

Analysez les chiffres du Domain Trust Flow et du Domain Citation de Majestic. Généralement, le Trust Flow devrait être au moins plus grand de 10 points que le Citation Flow. Si le Citation Flow est plus grand que le Trust Flow, vous pourriez avoir des liens de faible qualité pointant vers votre site. Faites en sorte d’avoir des liens de qualité pointant vers votre site plutôt que des liens de faible qualité provenant de sites non fiables. Il est commun d’avoir des liens de mauvaise qualité pointant vers votre site, car vous ne pouvez pas contrôler tous les sites qui décident de renvoyer vers vos pages. Cependant, nous pouvons contrôler certains des liens.

Comment réparer cette erreur courante ?

Prenez le temps de vérifier tous les liens de votre site ! Analysez également la liste des pages qui reçoivent des liens. Est-ce qu’il y a des pages qui reçoivent des liens mais qui ne sont pas redirigées ? Peut-être qu’il y a une vieille page qui n’existe plus et qui dispose de liens ? Je vous conseille de ramener le contenu de la page sur une même URL ou d’implémenter une redirection 301 pour renvoyer vers une page traitant du même sujet. Ainsi, vous devriez récupérer ces liens.

Erreur courante : sur-optimisation ou sous-optimisation

L’optimisation on-page d’un autre temps est une autre erreur fréquente. Les meilleures pratiques SEO actuelles ne sont pas suivies et généralement cela résulte en du bourrage de mots-clés, des métadonnées mal écrites (balises titres ou méta description) ou même par un usage inapproprié des balises titres.

Comment réparer cette erreur courante ?

Il est plutôt simple de réparer ce problème : il suffit d’apprendre les meilleures pratiques pour l’écriture des balises titre, meta et d’utiliser un code HTML acceptable. Les listes ordonnées, les puces, l’utilisation de gras, d’italique et des bonnes polices et couleurs sont obligatoires de nos jours. Nettoyer le code HTML et utiliser le bon code de balisage (Schema.org ou JSON-LD) peut vous aider à obtenir de meilleurs classements et plus de trafic des moteurs de recherche.

Erreur courante : l’usage incorrect du code ou des directives

Abuser du Schema.org ou bien utiliser les mauvais codes peut conduire à une action manuelle de Google. Bien que les données structurées soient un bon point pour votre SEO, elles doivent être implémentées correctement ou vous vous exposez à de sérieuses conséquences. De nombreux sites n’utilisent aucun balisage structuré et il s’agit d’une opportunité manquée de nos jours.
D’autres problèmes liés peuvent impliquer une configuration incorrecte du code ou même des conflits de directives sur des pages. Par exemple, si vous utilisez une balise canonique sur une page alors n’empêchez pas les moteurs de recherche de crawler cette page dans le fichier robots.txt. S’ils ne peuvent pas crawler la page, alors ils ne pourront pas voir la balise canonique.
Voici d’autres exemples d’implémentations de code ou des conflits de directives que je vois régulièrement :

  • Usage incorrect des rel next/prev
  • Des directives de balises canoniques incorrectes
  • Des directives de robots.txt incorrectes

Comment réparer cette erreur courante ?

Honnêtement, pour pouvoir repérer et réparer ces problèmes, vous devez être capable de comprendre ce que chacune de ces directives fait et pourquoi elles sont utilisées. Vous n’avez pas besoin d’être développeur pour comprendre le code schema.org mais vous devez comprendre pourquoi et comment il est utilisé. Je ne suis pas développeur mais je peux copier/coller du code et il existe de nombreux générateurs de code pour vous aider dans cette procédure.

En conclusion

Nous faisons tous des erreurs et heureusement certaines d’entre elles sont réparables. Prendre le temps de les corriger conduira à un site mieux optimisé et adapté aux moteurs de recherche et aux visiteurs. Un audit SEO efficace, même s’il est fait par vous sur votre site, va probablement révéler au moins une de ces erreurs, peut-être plus. Personnellement, j’ai réalisé des audits sur mes sites et trouvé des problèmes que je ne connaissais pas avant mais que j’ai pu réparer grâce à des outils comme OnCrawl. Cependant, il est important de prioriser ses actions car certaines des erreurs trouvées n’ont pas toutes le même impact sur vos performances.


[Read More ...]

Du 2 au 10 mars, profitez de la relâche à Québec!

À quelques jours de la relâche scolaire, la Ville de Québec invite les familles à participer aux nombreuses activités offertes sur son territoire.

Pour s’amuser
Pour planifier cette semaine, qui se déroulera du 2 au 10 mars, une panoplie d’idées de sorties (spectacles, ateliers artistiques, théâtre, cinéma, etc.) vous sont proposées dans les six arrondissements, dont le Festival de la jeunesse Beauport.

Pour bouger
Afin de respirer l’air pur et d’être actif, les installations sportives de la ville sont aussi à visiter. Certaines d’entre elles offrent un horaire bonifié pendant cette période. Peu importe ce que dame Nature nous réservera, la patinoire de la place D’Youville et l’anneau de glace des plaines d’Abraham accueilleront les patineurs, grâce à leur système de réfrigération. Quant aux autres patinoires extérieures, il sera possible d’y chausser vos patins si les conditions climatiques sont favorables. Pour savoir si une patinoire de quartier est ouverte ou fermée, il est préférable de s’informer avant de vous déplacer. Consultez les fiches de chacune des patinoires sur le site Internet de la Ville. Profitez-en : l’accès à ces installations est gratuit!

Pour découvrir, se divertir et rêver
Plusieurs activités gratuites pour les jeunes âgés de 2 à 12 ans et leurs familles sont présentées dans les 26 bibliothèques. Pour découvrir la programmation complète : Bibliothèque de Québec

Pour se rendre aux activités
Le transport en commun est gratuit pour les enfants de 11 ans et moins durant la relâche. Pour plus de détails, voir la section Privilège famille du RTC.

 Bonne relâche!


[Read More ...]

Opération déneigement - Stationnement interdit dans la nuit du 28 février au 1er mars

Québec, le 28 février 2019 – La Ville de Québec informe la population que des travaux de déneigement ou d'entretien de la voie publique et des trottoirs sont prévus la nuit prochaine dans les arrondissements des Rivières et de Sainte-Foy−Sillery−Cap-Rouge.

Le stationnement sera interdit selon les modalités suivantes :

Arrondissement des Rivières
- Le stationnement est interdit de 21 h ce soir à 7 h demain matin. Toutefois, dans l’ancien secteur de Vanier, au sud de la rue Samson, où des feux clignotants orange sont installés mais non en fonction, le stationnement est permis.

Arrondissement de Sainte-Foy–Sillery–Cap-Rouge
 - Le stationnement est interdit de 21 h ce soir à 7 h demain matin.Toutefois, dans les rues où des feux clignotants orange sont installés mais non en fonction, le stationnement permis. Le stationnement est également permis dans le secteur de Chauveau.

La Ville appelle à la collaboration des citoyens
Les véhicules de déneigement doivent pouvoir circuler librement dans les rues pour les déblayer efficacement. La Ville demande aux citoyens leur collaboration pour :
· libérer la chaussée pour permettre le passage de la machinerie;
· respecter les interdictions de stationnement, le cas échéant;
· placer leurs bacs à ordures et à recyclage dans leur entrée.


[Read More ...]

Opération déneigement - Stationnement interdit dans la journée du 28 février

Québec, le 28 février 2019 – La Ville de Québec informe la population que des travaux de déneigement ou d'entretien de la voie publique et des trottoirs sont prévus aujourd’hui dans l’arrondissement de La Cité-Limoilou.

Le stationnement est interdit de 8 h à 16 h lorsque les feux orange clignotent dans les secteurs résidentiels situés :
· au nord de la rue Soumande (carte);
· au nord de la 24e Rue entre Henri-Bourassa et Monseigneur-Gosselin (carte);
· au nord-est de Limoilou, à partir du boulevard des Alliés et de la 23e Rue (carte).

La Ville appelle à la collaboration des citoyens
Les véhicules de déneigement doivent pouvoir circuler librement dans les rues pour les déblayer efficacement. La Ville demande aux citoyens leur collaboration pour :
- libérer la chaussée pour permettre le passage de la machinerie;
- respecter les interdictions de stationnement, le cas échéant;
- placer leurs bacs à ordures et à recyclage dans leur entrée.

Information : déneigement et remorquage
En tout temps, les citoyens peuvent obtenir de l’information sur les conditions de stationnement en vigueur dans leur arrondissement en composant le 418 641-6666. Pour connaître le lieu de remorquage de leur véhicule, ils peuvent consulter Info-Remorquage sur le site Internet de la Ville, ou composer le 311.

Il est aussi possible de s’abonner aux alertes SMS-Déneigement avec son mobile. Il suffit de texter le mot « NEIGE » au 64123. Des frais standards peuvent alors s’appliquer, selon son forfait.
[Read More ...]

Wednesday, 27 February 2019

Opération déneigement - Stationnement interdit dans la nuit du 27 au 28 février

Québec, le 27 février 2019 – La Ville de Québec informe la population que des travaux de déneigement ou d'entretien de la voie publique et des trottoirs sont prévus la nuit prochaine dans tous les arrondissements de la ville.

Le stationnement sera interdit selon les modalités suivantes :

Arrondissement de Beauport
Le stationnement est interdit de 21 h ce soir à 7 h demain matin. Dans les rues où des feux clignotants orange sont en fonction, le stationnement est interdit de 22 h ce soir à 7 h demain matin.

Arrondissement de Charlesbourg
- Le stationnement est interdit de 21 h ce soir à 7 h demain matin. Dans les rues où des feux clignotants orange sont en fonction, le stationnement est interdit de 22 h ce soir à 7 h demain matin.

Arrondissement de La Cité-Limoilou
- Le stationnement est interdit de 22 h ce soir à 7 h demain matin dans les rues où les feux clignotants orange sont en fonction.

Arrondissement de La Haute-Saint-Charles
- Le stationnement est interdit de 21 h ce soir à 7 h demain matin dans toutes les rues de l’arrondissement.

Arrondissement des Rivières
- Le stationnement est interdit de 21 h ce soir à 7 h demain matin. Toutefois, dans l’ancien secteur de Vanier, au sud de la rue Samson, où des feux clignotants orange sont en fonction, le stationnement est interdit de 22 h ce soir à 7 h demain matin.

Arrondissement de Sainte-Foy–Sillery–Cap-Rouge
 - Le stationnement est interdit de 21 h ce soir à 7 h demain matin. Toutefois, dans les rues où des feux clignotants orange sont installés mais non en fonction, le stationnement est permis.

La Ville appelle à la collaboration des citoyens
Les véhicules de déneigement doivent pouvoir circuler librement dans les rues pour les déblayer efficacement. La Ville demande aux citoyens leur collaboration pour :
· libérer la chaussée pour permettre le passage de la machinerie;
· respecter les interdictions de stationnement, le cas échéant;
· placer leurs bacs à ordures et à recyclage dans leur entrée.

Information : déneigement et remorquage
En tout temps, les citoyens peuvent obtenir de l’information sur les conditions de stationnement en vigueur dans leur arrondissement en composant le 418 641-6666. Pour connaître le lieu de remorquage de leur véhicule, ils peuvent consulter Info-Remorquage sur le site Internet de la Ville, ou composer le 311.

Il est aussi possible de s’abonner aux alertes SMS-Déneigement avec son mobile. Il suffit de texter le mot « NEIGE » au 64123. Des frais standards peuvent alors s’appliquer, selon son forfait.


[Read More ...]

Opération déneigement - Stationnement interdit dans la journée du 27 février

Québec, le 27 février 2019 – La Ville de Québec informe la population que des travaux de déneigement ou d'entretien de la voie publique et des trottoirs sont prévus aujourd’hui dans l’arrondissement de La Cité-Limoilou.

Le stationnement est interdit de 8 h à 16 h lorsque les feux orange clignotent dans les secteurs résidentiels situés :
· au nord de la rue Soumande (carte);
· au nord de la 24e Rue entre Henri-Bourassa et Monseigneur-Gosselin (carte);
· au nord-est de Limoilou, à partir du boulevard des Alliés et de la 23e Rue (carte).

La Ville appelle à la collaboration des citoyens
Les véhicules de déneigement doivent pouvoir circuler librement dans les rues pour les déblayer efficacement. La Ville demande aux citoyens leur collaboration pour :
· libérer la chaussée pour permettre le passage de la machinerie;
· respecter les interdictions de stationnement, le cas échéant;
· placer leurs bacs à ordures et à recyclage dans leur entrée.

Information : déneigement et remorquage
En tout temps, les citoyens peuvent obtenir de l’information sur les conditions de stationnement en vigueur dans leur arrondissement en composant le 418 641-6666. Pour connaître le lieu de remorquage de leur véhicule, ils peuvent consulter Info-Remorquage sur le site Internet de la Ville, ou composer le 311.

Il est aussi possible de s’abonner aux alertes SMS-Déneigement avec son mobile. Il suffit de texter le mot « NEIGE » au 64123. Des frais standards peuvent alors s’appliquer, selon son forfait.
[Read More ...]

Tuesday, 26 February 2019

Contrôler le crawl et l’indexation : le guide SEO des robots.txt et balises

Optimiser son budget de crawl et empêcher les robots d’indexer certaines pages sont des concepts familiers pour de nombreux SEOs. Mais le diable est dans les détails ! Surtout que les bonnes pratiques ont significativement changé au cours des dernières années.
Un petit changement dans un fichier robots.txt ou sur des balises de robots peut avoir un impact dramatique sur votre site web. Pour s’assurer que cet impact sera toujours positif, nous allons aujourd’hui nous intéresser à ces différents facteurs :

Optimiser le budget de crawl
Qu’est-ce qu’un fichier robots.txt ?
Qu’est-ce que les balises meta robots ?
Qu’est-ce que les balises X-robots ?
Directives des robots & SEO
Checklist des meilleures pratiques pour les robots

Optimiser le budget de crawl

Le robot d’un moteur de recherche dispose d’une “allocation” pour un certain nombre de pages qu’il peut et veut crawler sur votre site. Cela s’appelle le “budget de crawl”.
Vous pouvez trouver votre budget de crawl dans le rapport “Crawl Stats” de la Google Search Console (GSC). Cependant, la Google Search Console est un agrégat de 12 robots qui ne sont pas tous dédiés au SEO. L’outil compte aussi les robots AdWords ou AdSense qui sont des robots SEA. Donc, la GSC vous donne une idée de votre budget de crawl global mais pas sa répartition exacte.

Pour rendre les chiffres plus actionnables, divisez le nombre moyen de pages crawlées par jour par le total des pages crawlables de votre site. Vous pouvez demander ce chiffre à vos développeurs ou lancer un crawl de votre site. Cela vous donnera le ratio de crawl attendu pour commencer vos optimisations.
Vous souhaitez aller plus loin ? Obtenez la répartition précise de l’activité du Googlebot, les pages exactes visitées ainsi que les statistiques des autres crawlers en analysant vos fichiers de log.

Il existe de nombreuses techniques pour optimiser votre budget de crawl, mais il est plus simple de commencer par vérifier le rapport “Coverage” dans la GSC pour comprendre le comportement de crawl et d’indexation de Google.

Si vous voyez des erreurs comme “l’URL soumise est marquée en ‘noindex’” ou “l’URL soumise est bloquée par le robots.txt”, sollicitez vos développeurs pour les corriger. Pour toutes les exclusions de robots, menez votre enquête pour vérifier qu’elles sont bien stratégiques d’un point de vu SEO.
En général, les spécialistes SEO cherchent à minimiser les restrictions de crawl dans les robots. La meilleure stratégie reste d’améliorer votre architecture de site pour rendre les URLs utiles et accessibles aux moteurs de recherche.
Google a souligné qu’une “architecture d’information solide est probablement un usage bien plus productif des ressources que la priorisation du crawl”.
Ceci étant dit, il est bénéfique de comprendre ce qui peut être fait avec les fichiers robots.txt et les balises robots pour guider le crawl, l’indexation et la circulation de l’équité de lien. Et plus important encore, quand et comment mieux les utiliser pour le SEO moderne.

Qu’est-ce qu’un fichier Robots.txt ?

Avant de crawler une page, le robot d’un moteur de recherche va d’abord vérifier le robots.txt. Ce fichier montre aux robots quels chemins d’URLs ils ont l’autorisation de visiter. Mais ces données sont seulement directives, pas obligatoires.
Les robots.txt ne peuvent pas empêcher le crawl de manière fiable, comme un pare-feu ou une protection par mot de passe. C’est juste l’équivalent digital d’une pancarte “n’entrez pas s’il vous plaît” posée sur une porte non verrouillée.
Les crawlers polis, comme la plupart des moteurs de recherche, vont généralement obéir à ces instructions. Les crawlers hostiles, comme des scrapers d’email, des spambots, virus et robots qui scannent les vulnérabilités des sites n’y prêtent souvent pas attention.
De plus c’est un fichier publiquement disponible. Tout le monde peut voir vos directives.

N’utilisez pas votre fichier robots.txt pour :

  • Cacher des informations sensibles. Utilisez une protection par mot de passe.
  • Bloquer l’accès à votre version dev et/ou en pré-prod . Utilisez l’authentification côté serveur.
  • Bloquer explicitement les crawlers hostiles. Utilisez des IP ou des user-agents bloquants (empêchez l’accès à un crawler spécifique avec une règle dans votre fichier .htaccess ou un outil comme CloudFlare).

Chaque site web devrait avoir un fichier robots.txt valide avec au moins un groupe de directives. Sans cela, tous les robots auraient accès libre par défaut, donc chaque page serait crawlable. Même si c’est ce que vous souhaitez, il est préférable de clarifier cela pour tous les acteurs avec un fichier robots.txt. De plus, sans fichier robots.txt, vos logs seraient criblés de fausses requêtes.

Structure d’un fichier robots.txt

Pour être connu des crawlers, votre robots.txt doit :

  • Être un fichier texte nommé “robots.txt”. Le nom de fichier est sensible. “Robots.TXT” ou d’autres variantes ne fonctionneront pas.
  • Être localisé sur le répertoire principal de votre domaine canonique et, si cela est pertinent, des sous-domaines. Par exemple, pour crawler toutes les URLs sous https://www.exemple.com, le fichier robots.txt doit être localisé à https://www.exemple.com/robots.txt et pour sousdomaine.exemple.com à sousdomaine.exemple.com/robots.txt.
  • Retourner un status HTTP 200 correct.
  • Utiliser une syntaxe robots.txt – Utiliser l’outil de test robots.txt de la Google Search Console.

Un fichier robots.txt est composé de groupes de directives. Ceux-ci comportent généralement :

  • Les user-agents : les adresses des différents crawlers. Vous pouvez avoir un groupe pour tous les robots ou utiliser des groupes pour nommer des moteurs de recherche spécifiques.
  • Des disallow : des fichiers ou répertoires spécifiques à exclure du crawl des user agents ci-dessus. Vous pouvez avoir une ou plusieurs de ces lignes par bloc.

Pour consulter la liste complète des user-agents et plus d’exemples d’instructions, vous pouvez lire le guide sur les robots.txt de Yoast.
En plus des instructions “User-agent” et “Disallow”, il existe des directives non-standards :

    • Allow : des exceptions spécifiques à une directive disallow pour un répertoire relatif.
    • Crawl-delay : accélérer des crawlers lourds en disant aux robots combien de secondes attendre avant de visiter une page. Si vous avez quelques sessions organiques, le crawl-delay peut économiser la bande passante du serveur. Mais je conseille de mettre cela en place seulement si les crawlers causent activement des problèmes de chargement de serveurs. Google ne reconnaît pas cette demande mais offre la possibilité de limiter le taux de crawl dans la Google Search Console.
    • Clean-param : empêcher le re-crawl du contenu dupliqué généré par des paramètres dynamiques.
    • No-index : pensé pour contrôler l’indexation sans utiliser du budget de crawl. Ce n’est plus officiellement pris en charge par Google. Bien qu’il est évident que le no-index pourrait avoir un impact, ce n’est pas fiable ou recommandé par des experts comme John Mueller.
  • Sitemap : la meilleure manière pour soumettre votre sitemap XML est via la Google Search Console et les autres outils Webmaster des moteurs de recherche. Cependant, ajouter une directive de sitemap à la base de votre fichier robots.txt aide les autres crawlers qui n’offrent pas forcément d’option de soumission.

Limitations d’un robots.txt pour le SEO

Les robots.txt peuvent empêcher le crawl de tous les robots. De même, interdire aux crawlers l’accès à une page ne l’empêchera pas d’être indexée dans les pages de résultats des moteurs de recherches (SERPs).
Si une page bloquée dispose de facteurs forts de classement, Google pourrait juger pertinent de la montrer dans les SERPs. Même sans avoir crawlé la page.
Comme Google ne connaît pas le contenu de cette URL, le résultat de recherche pourrait ressembler à ça :

Pour empêcher définitivement une page d’être indexée, vous devez utiliser un robot meta tag “noindex” ou un header X-Robots-Tag HTTP.
Dans ce cas, ne bloquez pas l’accès à la page dans le robots.txt, car la page doit être crawlée afin que la balise “noindex” soit détectée et respectée. Si l’URL est bloquée, toutes les balises robots sont inutiles.
De plus, si une page a accumulé beaucoup de liens entrants, mais que Google ne peut pas crawler ces pages à cause du robots.txt, l’équité de lien sera perdue même si Google connaît les liens.

Qu’est-ce que les balises meta robots ?

Placée dans le HTML de chaque URL, la meta name=”robots” dit aux crawlers si et comment ils doivent indexer le contenu et s’il doivent suivre (= crawler) tous les liens de la page et donc transmettre l’équité de lien.
Lorsque vous utilisez la meta générale name=”robots”, la directive s’applique à tous les crawlers. Vous pouvez aussi utiliser un user agent spécifique. Par exemple, la meta name=”googlebot”. Mais il est rare d’avoir besoin d’utiliser plusieurs balises meta robots pour configurer des instructions pour des robots spécifiques.
Il y a deux importantes considérations lorsque vous utilisez des balises meta robots :

  • Similaires aux robots.txt, les balises meta sont directives mais pas obligatoires donc peuvent être ignorées par certains robots.
  • Les directives des robots nofollow s’appliquent seulement aux liens sur cette page. Il est possible qu’un crawler suive le lien d’une autre page ou d’un site sans un nofollow. Donc le robot peut toujours réussir à trouver et indexer votre page non désirée.

Voici la liste de toutes les directives des balises meta robots :

  • index : dit aux moteurs de recherche de montrer cette page dans les résultats de recherche. Il s’agit de l’état par défaut si aucune directive n’a été spécifiée.
  • noindex : dit aux moteurs de recherche de ne pas montrer cette page dans les résultats de recherche.
  • follow : dit aux moteurs de recherche de suivre tous les liens sur cette page et de passer l’équité, même si la page n’est pas indexée. Il s’agit de l’état par défaut si aucune directive n’a été spécifiée.
  • nofollow : dit aux moteurs de recherche de ne suivre aucun lien sur cette page et de ne pas passer l’équité.
  • all : équivalent de “index, follow”.
  • none : équivalent de “noindex, nofollow”.
  • noimageindex : dit aux moteurs de recherche de n’indexer aucune image sur cette page.
  • noarchive : dit aux moteurs de recherche de ne pas montrer les liens cachés de cette page dans les résultats de recherche.
  • nocache : équivalent de noarchive mais seulement utilisé par Internet Explorer et Firefox.
  • nosnippet : dit aux moteurs de recherche de ne pas montrer la meta description ou l’aperçu d’une vidéo de cette page dans les pages de résultats.
  • notranslate : dit aux moteurs de recherche de ne pas proposer de traduction de cette page dans les résultats de recherche.
  • unavailable_after : dit aux moteurs de recherche de ne plus indexer cette page après une date spécifique.
  • noodp : maintenant obsolète, cela permettait auparavant d’empêcher les moteurs de recherche d’utiliser la description de la page de DMOZ dans les SERPs.
  • noydir : maintenant obsolète, cela permettait d’empêcher Yahoo d’utiliser la description de la page dans le répertoire Yahoo dans les résultats de recherche.
  • noyaca : empêche Yandex d’utiliser la description de la page dans le répertoire Yandex dans les résultats de recherche.

Comme indiqué dans la documentation de Yoast, les moteurs de recherche ne prennent pas pas tous toutes les balises meta robots en charge. Certains ne sont même pas clairs sur ce qu’ils intègrent ou non.

* La plupart des moteurs de recherche n’ont pas de documentation spécifique, mais nous supposons que s’ils prennent en charge les paramètres excluant (ex : nofollow), ils le font également pour leur équivalent positif (ex : follow).
** Même si les les attributs noodp et nodyir sont toujours valides, les répertoires n’existent plus, donc il est très probable que ces valeurs n’aient aucun impact.

Communément, les balises robots seront configurées en “index, follow”. Certains SEOs pensent qu’il est redondant d’ajouter cette balise dans le HTML car elles sont déjà paramétrées par défaut. Le contre argument soutient qu’une spécification claire des directives peut aider à empêcher une confusion humaine.
Note : les URLs avec une balise “noindex” seront crawlées moins fréquemment et, si elles sont présentes depuis un long moment, vont éventuellement conduire Google à classer les liens de la page en nofollow.
Il est rare de trouver un cas d’usage où tous les liens d’une page sont placés en “nofollow” avec une balise meta robots. Il est plus commun de voir un “nofollow” ajouté sur les liens individuels en utilisant un attribut de lien rel=”nofollow”. Par exemple, vous devriez penser à ajouter un attribut rel=”nofollow” aux commentaires générés par les utilisateurs ou aux liens payants.
Il est encore plus rare d’avoir un cas SEO où les directives des balises robots n’adressent pas d’indexation basique de comportement de suivi, comme le cache, l’indexation des images, la gestion des snippets…
Le défi avec les balises meta robots est qu’elles ne peuvent pas être utilisées pour des fichiers non-HTML comme les images, vidéos ou documents PDF. C’est là que vous pouvez passer aux X-Robots-Tags.

Qu’est-ce que les balises X-Robots ?

Les X-Robots-Tag sont envoyés par le serveur comme un élément de header de réponse HTTP pour une URL donnée utilisant des fichiers .htaccess et httpd.conf.
N’importe quelle directive de balise meta peut aussi être spécifiée comme un X-Robots-Tag. Cependant, un X-Robots-Tag offre une flexibilité additionnelle et des fonctionnalités avancées.
Vous devriez utiliser un X-Robots-Tag plutôt que des balises meta robots si vous voulez :

  • Contrôler le comportement des robots pour des fichiers non-HTML, plutôt que les fichiers HTML seuls.
  • Contrôler l’indexation d’un élément spécifique d’une page, plutôt que la page dans son intégralité.
  • Ajouter des règles pour qu’une page soit indexée ou non. Par exemple, si un auteur a plus de 5 articles publiés, indexer sa page auteur.
  • Appliquer des directives index & follow à une grande partie du site plutôt qu’à des pages spécifiques.
  • Utiliser des expressions régulières.

Évitez d’utiliser des meta robots et des x-robots-tag sur la même page, cela pourrait être redondant.
Pour voir les X-Robots-Tags, vous pouvez utiliser la fonctionnalité “Fetch as Google” de la Google Search Console.

Directives de robots & SEO

Vous connaissez désormais les différences entre ces trois directives de robots.
robots.txt se concentre sur l’économie du budget de crawl mais n’empêchera pas une page d’être montrée dans les résultats de recherche. Il agit comme le premier gardien de votre site web et demande aux robots de ne pas accéder aux pages sans permission.

Tous les types de balises robots cherchent à contrôler l’indexation et le passage d’équité de lien. Les balises meta robots sont efficaces seulement après que la page ait été chargée, bien que les headers X-Robots-Tag offrent un contrôle plus granulaire. Ils sont efficaces après que le serveur ait répondu à une requête de page.
Grâce à ces outils, les SEOs peuvent faire évoluer la manière dont ils utilisent les directives de robots pour relever les challenges de crawl et d’indexation.

Bloquer les robots pour économiser la bande passante du serveur

Problème : en analysant vos fichiers de log, vous verrez que de nombreux user-agents utilisent de la bande passante sans apporter de réelle valeur :

  • Les crawlers SEO, comme le MJ12bot (de Majestic) ou le Ahrefsbot (de Ahrefs).
  • Les outils qui sauvegardent le contenu digital hors ligne, comme Webcopier ou Teleport.
  • Les moteurs de recherche qui ne sont pas pertinents pour votre marché, comme Baiduspider ou Yandex.

Solution peu optimale : bloquer ces robots avec un robots.txt car il n’est pas garantit que celui-ci soit respecté. De plus, il s’agit d’une déclaration publique donc cela pourrait donner des insights compétitifs à des acteurs tierces intéressés.

Meilleure approche : utilisez la directive la plus subtile pour bloquer le user-agent. Cela peut être accompli de différentes manières mais est généralement fait en éditant votre fichier .htaccess pour rediriger toutes les requêtes de robots non requises vers une 403 : Forbidden page.

Les pages de recherche interne utilisent du budget de crawl

Problème : sur de nombreux sites, les pages de résultats de recherche interne sont générées de manière dynamique depuis des URLs statiques, qui consomment du budget de crawl et peuvent générer du contenu faible ou dupliqué si elles sont indexées.
Solution peu optimale : interdire les répertoires avec le robots.txt. Bien que cela évite les pièges à crawler, votre capacité à vous classer pour des recherches de clients clés et à transmettre l’équité de lien sera limitée.
Meilleure approche : cartographiez de manière pertinente, visez de grands volumes de recherche pour des URLs existantes et adaptées aux moteurs de recherche. Par exemple, pour la recherche “samsung phone”, plutôt que de créer une page /search/samsung-phone, redirigez vers la page /phones/samsung.
Si ce n’est pas possible, créez un paramètre basé sur l’URL. Vous pouvez alors facilement spécifier si vous souhaitez que le paramètre soit crawlé ou non dans la Google Search Console.
Si vous n’autorisez pas le crawl, analysez si de telles pages ont une qualité suffisante pour être classées. Si ce n’est pas le cas, ajoutez une directive “noindex, follow” en guise de solution à court terme, le temps d’améliorer la qualité du résultat pour répondre aux exigences du SEO et des utilisateurs.

Bloquer les paramètres avec des robots

Problème : les requêtes attachées à des paramètres, comme celles générées par la navigation à facette ou le tracking. Celles-ci sont connues pour consommer du budget de crawl, créer des URLs de contenu dupliqué et séparer les facteurs de classement.
Solution peu optimale : empêcher le crawl des paramètres avec le robots.txt ou avec une balise meta robots “noindex”. Les deux vont empêcher le flux d’équité de lien (le premier immédiatement, le second après une période plus longue).
Meilleure approche : assurez-vous que chaque paramètre a une raison claire d’exister et implémentez les règles de commande, qui utilisent les clefs qu’une seule fois et empêchent les valeurs vides. Ajoutez un attribut de lien rel=canonical aux pages de paramètres adaptées pour combiner les capacités de classement. Puis, configurez tous les paramètres dans la Google Search Console, où il y a plus d’options granulaires pour communiquer vos préférences de crawl. Pour plus de détails, consultez le guide de traitement des paramètres de Search Engine Journal.

Bloquer les domaines administratifs ou comptables

Problème : empêcher les moteurs de recherche de crawler et d’indexer du contenu privé.
Solution peu optimale : utiliser un robots.txt pour bloquer le répertoire car il n’est pas garanti que ces pages soit gardées privées en dehors des SERPs.
Meilleure approche : utilisez une protection par mot de passe pour empêcher les crawlers d’accéder aux pages et une directive “noindex” dans le header HTTP.

Bloquer les landing pages marketing et les pages de remerciement

Problème : vous avez souvent besoin d’exclure les URLs qui ne sont pas destinées aux recherches organiques, comme les email dédiés ou les campagnes au coût par clic comprenant des landing pages. De même, vous ne voulez pas que les utilisateurs qui n’ont pas converti visitent vos pages de remerciement via les SERPs.
Solution peu optimale : bloquer les fichiers avec des robots.txt car cela n’empêchera pas les liens d’apparaître dans les résultats de recherche.
Meilleure approche : utilisez une balise meta “noindex”.

Gérer le contenu dupliqué on-site

Problème : certains sites ont besoin d’une copie du contenu spécifique pour l’expérience utilisateur, comme par exemple une version imprimable de la page. Cependant, ils veulent aussi s’assurer que la page canonique, et non pas la page dupliquée, soit reconnue par les moteurs de recherche. Sur d’autres sites, le contenu dupliqué est dû à de faibles pratiques de développement, comme vendre le même item sur de multiples catégories d’URLs.
Solution peu optimale : bloquer les URLs avec un robots.txt empêchera la page dupliquée de transmettre un signal de classement. Le noindex destiné aux robots va éventuellement conduire Google à traiter également ces liens comme “nofollow” et empêcher les pages dupliquées de transmettre de l’équité de lien.
Meilleure approche : si le contenu dupliqué n’a pas de raison d’exister, retirez la source et redirigez vers l’URL adaptée aux moteurs de recherche. S’il a une raison d’exister, ajoutez un attribut de lien rel=canonical pour consolider les signaux de classement.

L’accessibilité du contenu mince des pages relatives au compte

Problème : les pages liées au compte comme le login, l’inscription, le panier, le checkout ou les formulaires de contact sont souvent légères en termes de contenu et offrent très peu de valeur aux moteurs de recherche mais sont nécessaires pour les utilisateurs.
Solution peu optimale : bloquer les fichiers avec un robots.txt car cela n’empêchera pas le lien d’être indexé dans les résultats de recherche.
Meilleure pratique : pour la plupart des sites, ces pages sont très peu nombreuses et vous ne devriez pas constater d’impact sur les KPIs en implémentant une gestion par robot. Si vous en ressentez le besoin, il est préférable d’utiliser une directive “noindex”, à moins qu’il y ait des recherches pour de telles pages.

Les balises de page qui utilisent du budget de crawl

Problème : des balises non contrôlées consomment du budget de crawl et génèrent souvent des problèmes de contenu pauvre.
Solution peu optimale : bloquer l’accès avec des robots.txt ou ajouter une balise “noindex”. Les deux vont empêcher les balises SEO pertinentes de se classer et (immédiatement ou éventuellement) stopper la transmission d’équité de lien.
Meilleure approche : évaluez la valeur de chacune de vos balises actuelles. Si les données montrent que la page apporte de la valeur aux moteurs de recherche ou aux utilisateurs, vous pouvez installer une redirection 301. Pour les autres pages, faites en sorte d’améliorer les éléments on-page afin qu’elles deviennent utiles pour les utilisateurs et les robots.

Le crawl de JavaScript et du CSS

Problème : auparavant, les robots ne pouvaient pas crawler le JavaScript et d’autres contenus média riches. Cela a changé et il est maintenant fortement recommandé de laisser les moteurs de recherche accéder aux fichiers JS et CSS afin de rendre les pages.
Solution peu optimale : bloquer les fichiers JavaScript et CSS avec un robots.txt pour économiser du budget de crawl. Cela peut générer une indexation pauvre et impacter négativement les classements. Par exemple, empêcher les moteurs de recherche d’accéder au JavaScript qui a été utilisé pour une publicité interstitielle ou pour rediriger des utilisateurs peut apparaître comme de la dissimulation.
Meilleure pratique : vérifiez tous les problèmes de rendu avec l’outil “Fetch as Google” ou repérez quelles ressources sont bloquées avec le rapport “Blocked Ressources”, tous les deux disponibles dans la Google Search Console. Si des ressources bloquées pourraient empêcher les moteurs de recherche de rendre correctement la page, retirez l’interdiction du robots.txt.

Checklist des meilleurs pratiques pour les robots

Il est effroyablement commun pour un site web d’avoir été accidentellement retiré de Google à cause d’une erreur de contrôle d’un robot.
Cependant, la gestion des robots peut être un outil puissant dans votre arsenal SEO lorsque vous savez comment l’utiliser. Il faut juste procéder judicieusement et avec attention.
Pour vous aider, voici une checklist rapide :

  • Sécuriser les informations en utilisant une protection par mot de passe.
  • Bloquer les accès aux sites en développement en utilisant l’authentification côté serveur.
  • Restreindre les crawlers qui consomment de la bande passante mais offrent une faible valeur ajoutée avec un user-agent bloquant.
  • S’assurer que le domaine principal et tous les sous-domaines ont un fichier texte appelé “robots.txt” situé tout en haut du répertoire et qui renvoie un code 200.
  • S’assurer que le fichier robots.txt comporte au moins une interdiction avec une ligne de user-agent et une ligne de disallow.
  • S’assurer que le fichier robots.txt a au moins une ligne de sitemap, entrée en dernière.
  • Valider le fichier robots.txt dans le testeur de robots.txt de la Google Search Console.
  • S’assurer que chaque page indexable spécifie ses directives de balise robots.
  • S’assurer qu’il n’y a pas de contradictions ou de directives redondantes entre les robots.txt, les balises robots meta, les X-Robots-Tags, les fichiers .htaccess et les paramètres de la GSC.
  • Réparer toutes les erreurs “Submitted URL marked ‘noindex’” ou “Submitted URL blocked by robots.txt” dans le rapport de la Google Search Console.
  • Comprendre pourquoi les robots sont exclus du rapport coverage dans la GSC.
  • S’assurer que seulement les pages pertinentes sont montrées dans le rapport “Blocked Ressources” de la GSC.

À vous de jouer et de vérifier la gestion de vos robots en vous assurant que vous faites les choses bien !


[Read More ...]

Opération déneigement - Stationnement interdit dans la nuit du 26 au 27 février

Québec, le 26 février 2019 – La Ville de Québec informe la population que des travaux de déneigement ou d'entretien de la voie publique et des trottoirs sont prévus la nuit prochaine dans tous les arrondissements de la ville.

Le stationnement sera interdit selon les modalités suivantes :

Arrondissement de Beauport
Le stationnement est interdit de 21 h ce soir à 7 h demain matin. Dans les rues où des feux clignotants orange sont en fonction, le stationnement est interdit de 22 h ce soir à 7 h demain matin.

Arrondissement de Charlesbourg
- Le stationnement est interdit de 21 h ce soir à 7 h demain matin. Dans les rues où des feux clignotants orange sont en fonction, le stationnement est interdit de 22 h ce soir à 7 h demain matin.

Arrondissement de La Cité-Limoilou
- Le stationnement est interdit de
22 h ce soir à 7 h demain matin dans les rues où les feux clignotants orange sont en fonction.

Arrondissement de La Haute-Saint-Charles
- Le stationnement est interdit de 21 h ce soir à 7 h demain matin dans toutes les rues de l’arrondissement.

Arrondissement des Rivières
- Le stationnement est interdit de 21 h ce soir à 7 h demain matin. Toutefois, dans l’ancien secteur de Vanier, au sud de la rue Samson, où des feux clignotants orange sont en fonction, le stationnement est interdit de 22 h ce soir à 7 h demain matin.

Arrondissement de Sainte-Foy–Sillery–Cap-Rouge
 - Le stationnement est interdit de 21 h ce soir à 7 h demain matin. Dans les rues où des feux clignotants orange sont en fonction, le stationnement est interdit de 22 h ce soir à 7 h demain matin.


La Ville appelle à la collaboration des citoyens
Les véhicules de déneigement doivent pouvoir circuler librement dans les rues pour les déblayer efficacement. La Ville demande aux citoyens leur collaboration pour :
· libérer la chaussée pour permettre le passage de la machinerie;
· respecter les interdictions de stationnement, le cas échéant;
· placer leurs bacs à ordures et à recyclage dans leur entrée.

Information : déneigement et remorquage
En tout temps, les citoyens peuvent obtenir de l’information sur les conditions de stationnement en vigueur dans leur arrondissement en composant le 418 641-6666. Pour connaître le lieu de remorquage de leur véhicule, ils peuvent consulter Info-Remorquage sur le site Internet de la Ville, ou composer le 311.

Il est aussi possible de s’abonner aux alertes SMS-Déneigement avec son mobile. Il suffit de texter le mot « NEIGE » au 64123. Des frais standards peuvent alors s’appliquer, selon son forfait.
[Read More ...]

Opération déneigement - Stationnement interdit dans la journée du 26 février

Québec, le 26 février 2019 – La Ville de Québec informe la population que des travaux de déneigement ou d'entretien de la voie publique et des trottoirs sont prévus aujourd’hui dans l’arrondissement de La Cité-Limoilou.

Le stationnement est interdit de 8 h à 16 h lorsque les feux orange clignotent dans les secteurs résidentiels situés :
· au nord de la rue Soumande (carte);
·  u nord de la 24e Rue entre Henri-Bourassa et Monseigneur-Gosselin (carte);
· au nord-est de Limoilou, à partir du boulevard des Alliés et de la 23e Rue (carte).

La Ville appelle à la collaboration des citoyens
Les véhicules de déneigement doivent pouvoir circuler librement dans les rues pour les déblayer efficacement. La Ville demande aux citoyens leur collaboration pour :
· libérer la chaussée pour permettre le passage de la machinerie;
· respecter les interdictions de stationnement, le cas échéant;
· placer leurs bacs à ordures et à recyclage dans leur entrée.

Information : déneigement et remorquage
En tout temps, les citoyens peuvent obtenir de l’information sur les conditions de stationnement en vigueur dans leur arrondissement en composant le 418 641-6666. Pour connaître le lieu de remorquage de leur véhicule, ils peuvent consulter Info-Remorquage sur le site Internet de la Ville, ou composer le 311.

Il est aussi possible de s’abonner aux alertes SMS-Déneigement avec son mobile. Il suffit de texter le mot « NEIGE » au 64123. Des frais standards peuvent alors s’appliquer, selon son forfait.


[Read More ...]

Monday, 25 February 2019

Opération déneigement - Stationnement interdit dans la nuit du 25 au 26 février

Québec, le 25 février 2019 – La Ville de Québec informe la population que des travaux de déneigement ou d'entretien de la voie publique et des trottoirs sont prévus la nuit prochaine dans tous les arrondissements de la ville.

Le stationnement sera interdit selon les modalités suivantes :

Arrondissement de Beauport Le stationnement est interdit de 21 h ce soir à 7 h demain matin. Dans les rues où des feux clignotants orange sont en fonction, le stationnement est interdit de 22 h ce soir à 7 h demain matin.

Arrondissement de Charlesbourg
- Le stationnement est interdit de 21 h ce soir à 7 h demain matin. Dans les rues où des feux clignotants orange sont en fonction, le stationnement est interdit de 22 h ce soir à 7 h demain matin.

Arrondissement de La Cité-Limoilou
- Le stationnement est interdit de 22 h ce soir à 7 h demain matin dans les rues où les feux clignotants orange sont en fonction.

Arrondissement de La Haute-Saint-Charles
- Le stationnement est interdit de 21 h ce soir à 7 h demain matin dans toutes les rues de l’arrondissement.
Arrondissement des Rivières - Le stationnement est interdit de 21 h ce soir à 7 h demain matin. Toutefois, dans l’ancien secteur de Vanier, au sud de la rue Samson, où des feux clignotants orange sont en fonction, le stationnement est interdit de 22 h ce soir à 7 h demain matin.

Arrondissement de Sainte-Foy–Sillery–Cap-Rouge
 - Le stationnement est interdit de 21 h ce soir à 7 h demain matin. Dans les rues où des feux clignotants orange sont en fonction, le stationnement est interdit de 22 h ce soir à 7 h demain matin.

La Ville appelle à la collaboration des citoyens
Les véhicules de déneigement doivent pouvoir circuler librement dans les rues pour les déblayer efficacement. La Ville demande aux citoyens leur collaboration pour :
· libérer la chaussée pour permettre le passage de la machinerie;
· respecter les interdictions de stationnement, le cas échéant;
· placer leurs bacs à ordures et à recyclage dans leur entrée.

Information : déneigement et remorquage
En tout temps, les citoyens peuvent obtenir de l’information sur les conditions de stationnement en vigueur dans leur arrondissement en composant le 418 641-6666. Pour connaître le lieu de remorquage de leur véhicule, ils peuvent consulter Info-Remorquage sur le site Internet de la Ville, ou composer le 311.

Il est aussi possible de s’abonner aux alertes SMS-Déneigement avec son mobile. Il suffit de texter le mot « NEIGE » au 64123. Des frais standards peuvent alors s’appliquer, selon son forfait.
[Read More ...]

Opération déneigement - Stationnement interdit dans la journée du 25 février

Québec, le 25 février 2019 – La Ville de Québec informe la population que des travaux de déneigement ou d'entretien de la voie publique et des trottoirs sont prévus aujourd’hui dans l’arrondissement de La Cité-Limoilou.

Le stationnement est interdit de 8 h à 16 h lorsque les feux orange clignotent dans les secteurs résidentiels situés :
· au nord de la rue Soumande (carte);
· au nord de la 24e Rue entre Henri-Bourassa et Monseigneur-Gosselin (carte);
· au nord-est de Limoilou, à partir du boulevard des Alliés et de la 23e Rue (carte).

La Ville appelle à la collaboration des citoyens
Les véhicules de déneigement doivent pouvoir circuler librement dans les rues pour les déblayer efficacement. La Ville demande aux citoyens leur collaboration pour :
· libérer la chaussée pour permettre le passage de la machinerie;
· respecter les interdictions de stationnement, le cas échéant;
· placer leurs bacs à ordures et à recyclage dans leur entrée.

Information : déneigement et remorquage
En tout temps, les citoyens peuvent obtenir de l’information sur les conditions de stationnement en vigueur dans leur arrondissement en composant le 418 641-6666. Pour connaître le lieu de remorquage de leur véhicule, ils peuvent consulter Info-Remorquage sur le site Internet de la Ville, ou composer le 311.

Il est aussi possible de s’abonner aux alertes SMS-Déneigement avec son mobile. Il suffit de texter le mot « NEIGE » au 64123. Des frais standards peuvent alors s’appliquer, selon son forfait.
[Read More ...]

Sunday, 24 February 2019

Opération déneigement - Stationnement interdit dans la nuit du 24 au 25 février

Québec, le 24 février 2019 – La Ville de Québec informe la population que des travaux de déneigement ou d'entretien de la voie publique et des trottoirs sont prévus la nuit prochaine dans un arrondissement de la Ville.

Le stationnement sera interdit selon les modalités suivantes :
Arrondissement de La Cité-Limoilou - Le stationnement est interdit de 22 h ce soir à 7 h demain matin dans le boulevard René-Lévesque.

La Ville appelle à la collaboration des citoyens
Les véhicules de déneigement doivent pouvoir circuler librement dans les rues pour les déblayer efficacement. La Ville demande aux citoyens leur collaboration pour :
• libérer la chaussée pour permettre le passage de la machinerie;
• respecter les interdictions de stationnement, le cas échéant;
• placer leurs bacs à ordures et à recyclage dans leur entrée.

Information : déneigement et remorquage
En tout temps, les citoyens peuvent obtenir de l’information sur les conditions de stationnement en vigueur dans leur arrondissement en composant le 418 641-6666. Pour connaître le lieu de remorquage de leur véhicule, ils peuvent consulter Info-Remorquage sur le site Internet de la Ville, ou composer le 311.

Il est aussi possible de s’abonner aux alertes SMS-Déneigement avec son mobile. Il suffit de texter le mot « NEIGE » au 64123. Des frais standards peuvent alors s’appliquer, selon son forfait.

À propos du déneigement
En chiffres :
• Budget annuel de plus de 45 M$
• Près de 2 400 km de chaussées
• Près de 1 250 km de trottoirs
• Jusqu’à 1 700 personnes mobilisées pour une opération déneigement
• Environ 1 300 véhicules pour déneiger les rues de Québec

Avant et pendant une tempête :
Déblaiement des rues et des trottoirs, la neige est poussée sur les côtés pour faciliter la circulation. Les équipes se concentrent d’abord sur les côtes et artères principales et, pour des raisons de sécurité, sur les zones à proximité des hôpitaux et des écoles. Ensuite, les rues secondaires et les trottoirs sont déblayés.

Après une bordée de plus de 10 cm :
Déclenchement d’une opération déneigement. La neige est transportée ou soufflée. Le stationnement dans les rues est alors interdit.

La Ville de Québec compte sur la collaboration de tous les automobilistes afin que les travaux de déneigement ou d'entretien de la voie publique se déroulent dans les meilleures conditions possibles.
[Read More ...]

Friday, 22 February 2019

35e Festival de la jeunesse Beauport : une relâche flamboyante!

Pendant la semaine de relâche, qui se déroule du 2 au 10 mars, la Ville de Québec invite les familles à découvrir et à participer aux nombreuses activités intérieures et extérieures offertes lors du 35e Festival de la jeunesse Beauport.  

Pour l'occasion, un éventail d'activités ont été organisées : spectacles, ateliers artistiques et scientifiques, cinéma, théâtre, activités en plein air, etc. 

Tout a été mis en œuvre pour faire vivre aux petits et aux grands une relâche flamboyante et pour leur permettre de profiter pleinement de ce congé mérité.

Pour connaître tous les détails de la programmation : 35e Festival de la jeunesse Beauport

Bonne relâche!


[Read More ...]

Wednesday, 20 February 2019

Neige annoncée : opérations de déblaiement prévues

Québec, le 20 février 2019 – Les bulletins météo annoncent des précipitations de 10 centimètres de neige sur la ville de Québec. Ces précipitations commenceront cette nuit pour se poursuivre jusqu’en fin de journée demain, le jeudi 21 février.

En vue de ces précipitations, la Ville de Québec informe la population que les équipes des travaux publics seront mobilisées sur le réseau routier et les trottoirs cette nuit et demain matin afin de dégager la neige reçue en vue des déplacements à l’heure de pointe du matin. Le déblaiement des trottoirs et des chaussées se poursuivra en avant-midi.

Les précipitations anticipées se terminant jeudi en fin de journée, les équipes compléteront le déblaiement des rues et trottoirs jusqu’en soirée, puis procéderont par la suite au soufflage et à l’enlèvement de la neige durant la soirée et la nuit de jeudi à vendredi, ainsi que vendredi de jour dans les secteurs le permettant.

À cet effet, les interdictions de stationner dans la rue seront communiquées une fois l’opération déneigement déclenchée.

La Ville appelle à la collaboration des citoyens
Les véhicules de déneigement doivent pouvoir circuler aisément dans les rues pour les déblayer efficacement. Deux obstacles peuvent empêcher les équipes de déblayer les rues comme il se doit : les voitures qui y sont stationnées et les bacs à ordure et à recyclage. La Ville sollicite la collaboration des citoyens pour optimiser les opérations pendant une tempête de neige, au bénéfice de tous.

Véhicules : où et comment les garer?
Le meilleur endroit pour garer son véhicule est l’entrée privée. Lorsque le véhicule doit être laissé dans la rue pendant que le stationnement y est permis, il doit être garé du même côté de la rue que les véhicules qui y sont déjà garés. Ceci évite que la gratte zigzague entre les véhicules ou rebrousse chemin parce qu’elle n’a pas suffisamment d’espace pour passer.

Bacs à ordures et à recyclage : comment les disposer?
Afin d’aider les opérateurs de machinerie à bien travailler et éviter des problèmes de collecte, les bacs devraient toujours être placés dans les entrées privées, et non dans la rue ou le trottoir. Si la collecte tombe un jour de tempête et que les bacs ne sont pas pleins, il est suggéré d’attendre la cueillette suivante pour les sortir.

La Ville remercie les citoyens pour leur collaboration. Celle-ci aide les équipes de déneigement à faire un travail de qualité dans les meilleurs délais.

Quand le stationnement sera-t-il interdit?

Pour connaitre tous les moyens pour s’informer de la tenue d’une opération déneigement, les citoyens sont invités à consulter le site Internet de la Ville de Québec à la section Déneigement, puis Opérations déneigement.

La Ville de Québec fera le point sur les opérations de déneigement en cours de journée du jeudi 21 février.
[Read More ...]

Opération déneigement - Stationnement interdit dans la nuit du 20 au 21 février

Québec, le 20 février 2019 – La Ville de Québec informe la population que des travaux de déneigement ou d'entretien de la voie publique et des trottoirs sont prévus la nuit prochaine dans trois arrondissements.

Le stationnement sera interdit selon les modalités suivantes :

Arrondissement de Charlesbourg - Le stationnement est interdit de 21 h ce soir à 7 h demain matin. Dans les rues où des feux clignotants orange sont en fonction, le stationnement est interdit de 22 h ce soir à 7 h demain matin.

Arrondissement de La Haute-Saint-Charles
- Le stationnement est interdit de 21 h ce soir à 7 h demain matin dans les rues du secteur de Loretteville. Toutefois, le stationnement est permis dans les autres rues de l’arrondissement.

Arrondissement de Sainte-Foy–Sillery–Cap-Rouge
 - Le stationnement est interdit de 21 h ce soir à 7 h demain matin. Toutefois, dans les rues où des feux clignotants orange sont installés mais non en fonction, le stationnement est permis. Le stationnement est également permis dans le secteur de Chauveau.

La Ville appelle à la collaboration des citoyens
Les véhicules de déneigement doivent pouvoir circuler librement dans les rues pour les déblayer efficacement. La Ville demande aux citoyens leur collaboration pour :
· libérer la chaussée pour permettre le passage de la machinerie;
· respecter les interdictions de stationnement, le cas échéant;
· placer leurs bacs à ordures et à recyclage dans leur entrée.

Information : déneigement et remorquage
En tout temps, les citoyens peuvent obtenir de l’information sur les conditions de stationnement en vigueur dans leur arrondissement en composant le 418 641-6666. Pour connaître le lieu de remorquage de leur véhicule, ils peuvent consulter Info-Remorquage sur le site Internet de la Ville, ou composer le 311.

Il est aussi possible de s’abonner aux alertes SMS-Déneigement avec son mobile. Il suffit de texter le mot « NEIGE » au 64123. Des frais standards peuvent alors s’appliquer, selon son forfait.


[Read More ...]

Tuesday, 19 February 2019

Quels problèmes peut causer un manque de parité mobile ?

Dans un environnement en perpétuel changement, les évolutions du comportement online de l’utilisateur ont un réel impact sur nos efforts SEO. L’une des plus grandes transformations récentes étant le passage à un monde mobile-first. Cela est dû aux habitudes des utilisateurs ainsi qu’à la volonté de Google avec son index mobile-first.

Plongeons au coeur du sujet !

Qu’est-ce que la parité mobile ? J’entends déjà certains d’entre vous pleurer (toutes mes excuses pour ceux qui connaissent déjà le concept, vous pouvez passer à la partie plus intéressante ci-dessous :)). La parité mobile consiste à comparer les versions desktop et mobile de votre site web pour vérifier qu’elles sont bien toutes les deux également optimisées. Cela s’applique aussi bien aux sites complètement responsive qu’aux sites qui disposent de versions mobile et desktop séparées.
Il existe plusieurs avantages qui justifient un audit de parité mobile sur votre site web :

  • Aligner l’expérience utilisateur sur tous les appareils
  • Aider le flux de Pagerank ou jus de liens
  • S’assurer que tous les contenus apparaissent de manière égale
  • Atteindre les objectifs de trafic organique
  • Correspondre aux attentes de l’index mobile-first de Google

Les problèmes liés à un manque de parité mobile sont facilement corrigeables. Cela peut nécessiter un temps d’implémentation plus ou moins rapide pour les développeurs.

Les problèmes liés à la parité mobile

Pas de fil d’ariane à suivre

L’un des plus gros problèmes qui ressort lors des audits de parité mobile est le manque de fil d’ariane sur les pages. Cela est particulièrement important pour les sites web e-commerce comme le fil d’ariane dessine un chemin clair permettant aux moteurs de recherche d’atteindre les produits enterrés sur le site.
Ce manque peut devenir un problème lorsque vous travaillez avec un site responsive. Dans cette situation, le fil d’ariane n’est souvent présent que sur la version desktop. Ainsi, lorsque le même site web est réduit, le fil d’ariane disparaît pour laisser place à d’autres variables sur la page, l’espace disponible devient plus précieux.
C’est là que les mondes de l’UX et du SEO se combinent. Il faut prendre le temps d’étudier un nouveau design de page ou les changements récents pour s’assurer que le fil d’ariane est conservé en tant que partie intégrante du site.

Astuce : cela peut sembler logique mais lorsque vous réalisez un audit de parité mobile ou même un audit de changements sur le front end, assurez-vous d’avoir votre téléphone sous la main. Cela permet de vérifier que les changements opérés correspondent bien à vos attentes. Vous seriez surpris de connaître le nombre de personnes qui ne vérifient que la version desktop du site et pensent que cela est suffisant car ils travaillent sur un desktop. Il est en votre faveur d’éviter une mauvaise expérience mobile à vos utilisateurs. Si ceux-ci sont confrontés à un problème, ils pourraient quitter votre site et donc vous faire perdre une potentielle conversion.

Contenu manquant

Tout comme le fil d’ariane peut disparaître, du contenu peut aussi manquer sur un site lors du passage à la version mobile. Donc encore une fois, vérifiez que votre contenu est bien transféré dans son intégralité vers la version mobile du site. Comme souvent répété, “le contenu est roi” et apporte beaucoup de valeur à l’autorité organique des sites web. Les écrans devenant de plus en plus petits sur mobile, Google a annoncé qu’il était capable de lire le contenu caché dans les onglets et les sections “read more”. Cela permet d’optimiser l’espace en utilisant ces astuces.

Menus de site

Les navigations de site web permettent de montrer le chemin vers les pages clés du site aux crawlers. Cela vous aide à diriger les bots vers les pages importantes. Si vous avez deux sites séparés, assurez-vous que les deux menus sont bien à la place souhaitée.

Bon exemple – John Lewis
La marque dispose d’un site web responsive qui inclut tous les liens navigationnels sur écrans desktop et mobile. Simple et agréable !

Desktop

Mobile

Mauvais exemple – Game.co.uk

Le site web de Game n’est pas complètement responsive et dispose d’une version desktop et d’une version mobile comme vous pouvez le voir sur les captures d’écran ci-dessous. Vous pouvez également voir que les menus ne se correspondent pas. Sur les deux sites game.co.uk, les jeux PS4 sont liés de manière complètement différente, ce qui n’est qu’une seule des nombreuses erreurs dans la navigation.

Desktop

Mobile

Sous le capot

Derrière toutes ces jolies choses, il y a un monde parallèle composé de code qui a aussi besoin d’être pris en compte pour obtenir une parité mobile. Surtout si vous avez deux sites web séparés. Il y a de nombreux éléments qui vont différer et qu’il faut vérifier pour maintenir la bonne santé du site.
Pensez à vérifier les éléments suivants :

  • Les références canoniques des pages
  • Les redirections qui pointent vers la version correcte du site
  • Les balises noindex et nofollow sur les pages
  • Les descriptions titre et meta description
  • Les sitemaps
  • L’exactitude des fichier robots.txt
  • L’exactitude des balises hreflang si vous avez des versions internationales

J’espère que cet article vous aura éclairé sur la problématique de la parité mobile. Vous connaissez maintenant les éléments à surveiller et les actions à faire et ne pas faire. Bien que le mobile-first soit présent dans le monde du SEO depuis un moment, ce type de problème survient toujours régulièrement. Donc n’oubliez pas de bien vérifier vos versions desktop et mobile !


[Read More ...]

Opération déneigement - Stationnement interdit dans la journée du 19 février

Québec, le 19 février 2019 – La Ville de Québec informe la population que des travaux de déneigement ou d'entretien de la voie publique et des trottoirs sont prévus aujourd’hui dans l’arrondissement de La Cité-Limoilou.

Le stationnement est interdit de 8 h à 16 h lorsque les feux orange clignotent dans les secteurs résidentiels situés :
· au nord de la rue Soumande (carte);
· au nord de la 24e Rue entre Henri-Bourassa et Monseigneur-Gosselin (carte);
· au nord-est de Limoilou, à partir du boulevard des Alliés et de la 23e Rue (carte).

La Ville appelle à la collaboration des citoyens
Les véhicules de déneigement doivent pouvoir circuler librement dans les rues pour les déblayer efficacement. La Ville demande aux citoyens leur collaboration pour :
- libérer la chaussée pour permettre le passage de la machinerie;
- respecter les interdictions de stationnement, le cas échéant;
- placer leurs bacs à ordures et à recyclage dans leur entrée.

Information : déneigement et remorquage
En tout temps, les citoyens peuvent obtenir de l’information sur les conditions de stationnement en vigueur dans leur arrondissement en composant le 418 641-6666. Pour connaitre le lieu de remorquage de leur véhicule, ils peuvent consulter Info-Remorquage sur le site Internet de la Ville ou composer le 311.

Il est aussi possible de s’abonner aux alertes SMS-Déneigement avec son mobile. Il suffit de texter le mot « NEIGE » au 64123. Des frais standards peuvent alors s’appliquer, selon son forfait.


[Read More ...]

3 facteurs qui éloignent les utilisateurs et les crawlers de votre page d’accueil

  Votre page d’accueil n’est pas juste un espace dans lequel vous affichez votre nom de marque et votre logo. Il s’agit de la page initial...