Tuesday, 30 October 2018

Mes expériences les plus terrifiantes en SEO technique

Un petit bout de code à la mauvaise place. Une structure de site web mal pensée. Un slash manquant sur un lien interne. Tout cela semble complètement innocent. Pourtant, si vous travaillez dans le milieu du SEO technique, ces petites erreurs vous donneront des frissons ! Je réalise des audits de sites depuis des années maintenant et j’ai vu de nombreuses horreurs en termes de SEO technique. Soyez prévenus, je vais revenir sur certaines des erreurs techniques les plus communes dans les prochaines lignes. Cet article n’est pas pour les froussards !

Le cas du site web disparu

Heureusement, ce n’est pas quelque chose dont je suis coupable, mais j’ai été confrontée à ce cas précédemment.
Un prospect vous consulte avec une situation déroutante : leur site se classait très bien sur certains mots-clés à fort trafic, mais après une migration, il est devenu introuvable dans les résultats de recherche.
Je vérifie les facteurs classiques, “est-ce que des redirections ont été implantées” et “est-ce que le sitemap XML a été ajouté à la Google Search Console”, mais cela ne m’apporte aucune solution.
J’ai ensuite vérifié le robots.txt et tout est devenu plus clair ! Dans une tentative de préserver l’invisibilité du site lors de son développement, une commande “disallow” a été ajoutée au robots.txt. Ces deux lignes de code simples : “User-agent:*Disallow:/” ont été oubliées lors du lancement du site et ont rendues complètement impossibles les visites des bots sur ce site qui obtenait pourtant de très bons classements. La réparation est rapide et très simple mais les résultats peuvent être dévastateurs si le code a été laissé trop longtemps.
Je suis confrontée à des sites avec ce problème depuis un an. Vous pouvez imaginer l’état de leurs classements avant que l’erreur soit découverte. Heureusement, voir ce type d’erreurs sur des sites m’a rendue très vigilante lorsque j’accompagne le lancement d’un nouveau site. Ce n’est vraiment pas une erreur que je veux faire !
Je conseille toujours de mettre en place une checklist robuste avant le lancement d’un site. Cela aide à s’assurer que tous les items cruciaux sont bien assurés et que rien n’a été oublié. Assurez-vous que vous continuez de mettre à jour cette checklist avant chaque lancement de site pour empêcher ces problèmes nuisibles comme les “disallow” oubliés.

Les redirections égarées

Une tâche commune lorsque vous travaillez sur le SEO d’un site est de mettre en place des redirections. Que ce soit une seule URL renvoyant une 404 ou un site web entier migrant vers un nouveau domaine, il existe de nombreux cas ou une redirection est nécessaire. Le recensement des redirections est pour moi plutôt thérapeutique. C’est une tâche systématique, et s’il existe déjà une structure connue, cela ne demandera pas trop de travail.
Malheureusement, de part sa nature méthodologique, travailler sur une longue liste d’URLs qui ont besoin de redirections peut conduire à des erreurs. Si l’attention requise n’est pas au rendez-vous, une page peut facilement être redirigée vers une URL qui n’est pas vraiment pertinente, ou bien une chaîne de redirections peut accidentellement être créée.
Une amie très talentueuse m’a récemment confessé qu’elle avait redirigé les pages “panier” d’un site e-commerce vers la page d’accueil. Donc, aucune transaction ne pouvait être réalisée : une expérience véritablement terrifiante ! Cela arrive facilement, surtout si une liste de 404 a été chargée depuis la Google Search Console et n’a pas été correctement vérifiée pour déterminer si ces URLs étaient bien des pages actives.
Mon conseil ? Prenez soin de chaque URL lorsque vous réalisez des redirections. Si vous pensez qu’une URL renvoie une 404 et que c’est la raison pour laquelle vous réalisez une redirection, vérifiez cette théorie afin d’agir ! Si vous rediriger une URL dans le cadre d’une migration, échangez avec les développeurs et assurez-vous que les pages vers lesquelles vous redirigez vont bien exister lorsque le site sera en ligne

Spider trap : une situation récurrente

Le prochain exemple est malheureusement une situation courante sur le web et ce n’est pas quelque chose dont les audits SEO sont responsables : les spiders trap.
Vous pouvez les remarquer lorsque votre site web n’est pas encore volumineux, que vous avez eu le temps de partir en pause déjeuner et que le crawl est toujours en cours. Un spider trap est composé d’un groupe de pages sur un site web qui bloque le bot sur des pages à faible valeur.
Les pages créées automatiquement par des applications qui contiennent des liens vers des pages dynamiques sont souvent les causes des spider trap. Un widget calendrier par exemple peut avoir une page détaillant tous les événements en Janvier 2019 avec un lien qui permet aux visiteurs de cliquer pour voir une page avec les événements de Février 2019. Chaque page contient un lien vers la page des événements du mois prochain. Malheureusement, il peut ne pas y avoir de fin à ces pages et vous pourriez aller jusqu’en Avril 3530 si vous le souhaitiez !
Les bots sont conçus pour suivre des liens sur une page et pour découvrir d’autres pages. Même si un humain n’aurait pas la patience de cliquer sur le lien “voir le mois prochain”, un bot le ferait et continuerait à suivre les liens vers ces pages blanches jusqu’à temps que le temps autorisé sur cette page soit terminé.
Le problème avec les spider trap pour les moteurs de recherche, c’est qu’ils consomment le temps et les ressources des bots et les empêchent de visiter les pages à crawler et indexer. Ils peuvent aussi ajouter un grand nombre de pages de faible valeur aux listes de pages des bots, ce qui va faire diminuer la qualité globale du site.
Les spider trap sont plutôt faciles à repérer avec un crawler. Cependant, il peut être difficile de déterminer ce qui les a créé. Commencez par déterminer l’ancre de texte du lien qui dirige vers ces pages non voulues. Un fois qu’elle a été identifiée, il est bien plus simple de corriger ou d’ajouter une balise méta no-index si nécessaire.

La page morte-vivante

Les pages renvoyant une404 sont naturelle sur le web. Des produits non disponibles en stock, une page supprimée ou un lien vers une page qui n’existe pas : il existe de nombreux moyens de générer une404. Ces codes peuvent être frustrants pour les utilisateurs d’un site car ils ne sont pas en mesure de trouver la page qu’ils voulaient. Mais il y a des réparations qui fonctionnent dans cette situation, comme rediriger la page vers une autre plus pertinente ou même créer une page 404 personnalisée qui aide les utilisateurs à naviguer vers la page qu’ils attendaient.
J’ai relevé d’étranges pratiques au cours des dernières années pour s’assurer de la suppression de pages 404. J’ai constaté un nombre inquiétant de sites web employant des redirections automatiques pour toutes les pages renvoyant un code 404. Plutôt que d’identifier les meilleures pages pour rediriger chaque URL renvoyant en 404, ils redirigent automatiquement vers la page d’accueil, ou pire vers une page “/404” mise en place pour imiter l’apparence d’une véritable page 404. Il y a aussi des cas ou une page devrait retourner une erreur 404 car la ressource originale qui devait être atteinte sur cette URL n’existe plus et que la page ressemble à une page d’erreur. Mais la réponse restait un code 200 “OK”. Cette page morte, est en faite, vivante.
Toutes ces tentatives pour composer avec une 404 sont loin d’être idéales. Renvoyez un code “OK” plutôt qu’une 404 (ou même un 410 “gone”) suggère aux bots que cette page est active et fait partie intégrante de votre site. Cela va pousser les bots à crawler cette page de faible qualité et peut-être même à l’indexer.
Les meilleurs pratiques pour gérer ces pages sont simples. Si la page a une remplaçante alors redirigez-là vers cette URL. Cela va permettre aux utilisateurs de trouver une autre page qui leur sera utile et donnera aux bots une page utile à crawler et indexer. Si la page a été supprimée et ne sera jamais réhabilitée, alors vous pouvez tout à fait créer un code de réponse 410 “gone”. Cela informe les moteurs de recherche que la page ne reviendra pas et donc qu’il n’est pas nécessaire de continuer à la crawler. Cette possibilité n’offre pas à vos utilisateurs la meilleure expérience mais tant que vous les renvoyez vers d’autres pages qui sont pertinentes, cela ne devrait pas empêcher la poursuite de leur voyage.

Restez prudents

J’ai encore d’autres histoires terrifiantes d’erreurs SEO ! Il est crucial de s’assurer que les fondations techniques de vos sites web sont solides. Sinon, vous pourriez perdre beaucoup de temps à essayer de les positionner. Vous pouvez conduire des audits réguliers pour empêcher des changements dans le code ou des ajustements dans le contenu de causer des dommages. Rappelez-vous, un site web performant est le rêve d’un marketer mais un site criblé de problèmes techniques devient rapidement un cauchemar !


[Read More ...]

Déneigement : modification aux heures de stationnement dans les zones à feux clignotants

Québec, le 30 octobre 2018 – La Ville de Québec informe les citoyens qu’une nouvelle réglementation est en vigueur concernant les heures de stationnement lors des opérations de déneigement dans les rues munies de feux clignotants.

Plages d’interdiction étendues
Dorénavant, le stationnement est interdit de 22 h à 7 h (auparavant de 23 h à 6 h 30) lorsque les feux clignotants sont en fonction (règlements R.A.V.Q 1203 et R.V.Q. 2683).

Les feux clignotants se trouvent principalement dans l’arrondissement de La Cité-Limoilou, mais également dans certains secteurs des arrondissements de Beauport, de Charlesbourg, des Rivières et de Sainte-Foy−Sillery−Cap-Rouge.

Les rues munies de feux clignotants où le stationnement est actuellement interdit de 8 h à 16 h, dans le nord de l’arrondissement de La Cité-Limoilou, ne sont pas visées par la nouvelle réglementation.

Périodes moins restrictives pour les artères commerciales
Certaines rues et artères commerciales munies de feux clignotants verront augmenter la période autorisée pour le stationnement dans la rue. En effet, pour les rues listées à l’annexe XVI du règlement R.A.V.Q 1203 et à l’annexe XVI du règlement R.V.Q. 2683, l’interdiction de stationner est réduite de minuit à 7 h (auparavant de 23 h à 6 h 30).

Un gain opérationnel substantiel
Les heures ainsi étendues permettront de diminuer le nombre d’opérations de déneigement se déroulant sur deux nuits pour une même tempête. De ce fait, il s’agit d’un gain important pour les citoyens, qui auront à déplacer leur véhicule moins souvent.

Pour plus de renseignements sur le déneigement à Québec, les citoyens peuvent consulter le ville.quebec.qc.ca à la section Citoyens, puis Déneigement.


[Read More ...]

Friday, 26 October 2018

Les 5 chiffres SEO qui nous ont marqué cette semaine (21/10 au 27/10)

Quels sont les 5 chiffres SEO qui nous ont marqué cette semaine ? L’équipe @OnCrawl vous a préparé son top 5 des chiffres les plus marquants. L’ensemble des données utilisées proviennent de sources anglophones. Avis, Google Maps, Google Local Services, achats en ligne et infographies : découvrez nos 5 actualités SEO de la semaine.

40 % des internautes attendent que les entreprises répondent à leurs avis sur Google

L’auteur de cet article conseille fortement de répondre aux avis laissés sur Google. D’après une enquête, 40 % des internautes attendent une réponse lorsqu’ils laissent un avis. Si l’avis est négatif, vous pouvez reconquérir 35 % des consommateurs avec une bonne réponse. Même si vous ne récupérerez pas les 65 % restant, répondre montre à votre public que votre entreprise est éthique et responsable.
Lire l’article

Maps fournit des informations d’accessibilité pour plus de 40 millions de listings

Google a annoncé que Maps proposait désormais des informations de localisation à 40 millions de listings. L’entreprise attribue cet accomplissement à une initiative lancée l’année passée. En Juillet 2017, Google a commencé à laisser les utilisateurs ajouter des détails aux listings. À cette époque, le moteur de recherche avait autorisé la modification publique des listings à 7 millions d’entreprises. Aujourd’hui, cela s’applique à 30 millions d’entreprises.
Lire l’article

Les publicités Google Local Services reçoivent 13 % de l’ensemble des clics des SERPs

D’après une étude BrightLocal sur plus de 5 500 recherches locales, 13,8 % des clics des SERPs sont destinés aux publicités Google Local Services. De plus, l’étude a montré que près de 25 % des clics vont sur les résultats payants lorsque des publicités Google Local Services sont diffusées. Ce chiffre descend à 14 % lorsque ce type de résultat est absent.
Lire l’article

44 % des acheteurs en ligne commencent leur achat par une requête sur un moteur de recherche

Selon une étude Ipsos, 44 % des acheteurs en ligne débutent leur voyage par une requête sur un moteur de recherche. Pour l’auteur de l’article, le comparatif SEO vs PPC n’a donc pas de sens car le SEO peut cibler des internautes sur des mots-clés à différents stades du tunnel de conversion. Par ailleurs, d’ici à la fin de l’année 2018, 73 millions de coup de téléphone vers les commerces seront réalisés depuis les résultats de recherche.
Lire l’article

Il y a eu une augmentation de 105 % des articles reprenant une infographie entre 2012 et 2018

Cet article s’interroge sur la capacité des infographies à générer des liens. D’après l’étude de Moz, les infographies sont moins populaires que dans les années 2014-2015 mais restent un format de contenu très apprécié. Ainsi, les articles reprenant des infographies ont augmenté de 105 % entre 2012 et 2018. Les articles s’appuyant sur des études ont également connu une forte croissance en 2015 et restent le format le plus apprécié des Content Marketers, avant l’infographie.
Lire l’article


[Read More ...]

Thursday, 25 October 2018

Un guide complet pour obtenir des liens sur des grands sites médias

Le link building reste l’un des aspects les plus challengeants du SEO, car il devient de plus en plus dur d’obtenir des liens qui compte. Surtout que Google a fait beaucoup de progrès pour écarter les liens de mauvaise qualité.
Nous observons un impact croissant des liens qui apparaissent sur de gros sites web, et une influence décroissante des plus petits sites et de ceux qui ont été créés seulement pour générer des bénéfices SEO.
Pour booster votre visibilité, vous devez élargir votre couverture et gagner des liens de la part de ces sites, surtout si vous êtes dans un secteur concurrentiel.
Cela est assez simple si vous travaillez pour une grande marque qui dispose d’un pôle RP, des communicants in-house et d’une solide capacité de rédaction pour vous épauler. Mais qu’en est-il si vous êtes une plus petite entreprise et que chaque centime compte ?
Heureusement, il existe une méthode pour concurrencer les leaders qui va vous permettre d’obtenir des mentions sur d’importants sites. Et je m’apprête à vous la détailler étape par étape dans les lignes qui suivent.

Sommaire

Le nerf de cette approche est de créer un contenu frais que vous pouvez promouvoir pour obtenir des mentions sur des sites tierces. Ça a l’air simple ? Ça l’est, lorsque vous savez comment, et c’est justement ce que nous nous apprêtons à voir.
Nous allons suivre les étapes suivantes :

  • Trouver ses cibles
  • Faire quelques recherches
  • Identifier le crochet
  • Créer quelque chose de beau
  • Établir le contact
  • Faire (beaucoup) de promotion
  • Finaliser la stratégie

Trouvez vos cibles

C’est ici que 99 % des personnes se trompent. Ils se jettent les yeux fermés dans leur nouvelle idée sans se demander comment ils vont la promouvoir. Ne vous précipitez pas.
La meilleure chose que vous pouvez faire avant de vous lancer dans vos recherches et de commencer à produire est de trouver d’autres contenus qui ont eu du succès, une bonne couverture et ont généré beaucoup de liens.
Même si vous n’en trouvez qu’un seul, vous pouvez tout de même l’utiliser pour repenser votre idée et cibler un angle similaire. Ainsi, vous aurez une liste de diffusion déjà ciblée en contactant simplement toutes les personnes qui ont repris ce contenu.
Cependant, si vous prenez un peu plus de temps pour trouver plus d’exemples, vous pouvez commencer à détecter les tendances dans les contenus les plus populaires. Vous pouvez également construire une liste encore plus complète de cibles.
Une fois que vous avez vos exemples d’anciens contenus populaires, vous pouvez débuter votre propre projet. Vous êtes désormais assurés que l’article que vous vous apprêtez à produire dispose d’une sélection de journalistes qui ont déjà écrit sur des sujets similaires.

Faites vos recherches

La clé de votre succès repose sur les recherches que vous pouvez utiliser comme base de votre article.
Les sites d’actualités adorent les news. Étonnant, n’est-ce-pas ? Vous devez donc créer quelque chose de nouveau pour qu’ils puissent le rapporter.
Mais ne pensez pas que cela équivaut à des recherches énormes, complètes et chères. Tant que ce que vous proposez est nouveau, vous avez une chance d’être repris.
Pensez aux endroits dans lesquels vous pouvez récupérer de nouvelles informations, ou reprendre des informations existantes et les combiner ensemble pour créer quelque chose de nouveau. Pour obtenir de nouvelles données, vous pourriez conduire une étude qui n’a pas besoin d’être excessivement chère si vous posez les bonnes questions, ou alors lancer un sondage.
Cela pourrait venir des réseaux sociaux, des sites de statistiques ou bien tout simplement des études d’autres personnes que vous pouvez mélanger entre elles.
Nous avons récemment conduit des projets qui classaient les randonnées selon les hashtags Instagram, commandé des données sur les meilleurs pays pour la faune à un site de statistiques, et élu la meilleure destination de vacances depuis 50 ans grâce à des études historiques combinées.
Lonely Planet les a tous repris. Et ils ont tous reçu plus de 20 liens dont CNN, Travel + Leisure et d’autres grands médias.

Le crochet

Lorsque vos nouvelles idées émergent, pensez à quel pourrait être ‘leur crochet’ pour les journalistes. Quel serait leur titre ? Vous en aurez besoin lorsque vous devrez pitcher plus tard.
Si vous pouvez faire vos recherches autour d’un sujet qui est déjà populaire dans les médias, vous vous donnerez une plus grande chance de réussite. Par exemple, les émissions de TV populaires et les films sont de très bons crochets, surtout si vous pitchez autour de points clés d’une série ou dans la foulée d’une sortie. Nous l’avons fait pour Game of Thrones et nous avons gagné plus de 100 retombées presse (voici comment).
Alternativement, recherchez des rendez-vous populaires sur lesquels les journalistes vont écrire comme par exemple la Saint Valentin ou Noël. Une nouvelle recherche sur la manière dont les gens disent Joyeux Noël à travers le monde juste avant le 25 décembre. Ce sujet aurait des chances de fonctionner ? Oui il pourrait. Et il l’a fait !

Créez quelque chose de beau

Une fois que vous avez fait vos recherches et compilé vos données, la prochaine étape est de rendre tout cela beau ! Ce n’est pas une nécessité mais un bon design procure plus d’autorité et rend le contenu plus susceptible d’être pris au sérieux par des journalistes.
Vous pourriez faire une infographie, créez un header et un sommaire propre ou construire une landing page spéciale pour présenter vos résultats avec des touches interactives.
Quelque soit votre approche, essayez de produire un contenu qui rend bien et met en avant les principales informations de vos recherches.

Trouvez plus de cibles

Au tout début de vos démarches, vous avez trouvé une liste de journalistes à contacter pour promouvoir votre contenu. Il est l’heure de ressortir cette liste avec encore plus de cibles.
Faites quelques recherches dans Google pour trouver des articles sur des sujets similaires. Par exemple, si vous écrivez un article sur les pays les plus spirituels à travers le monde, alors vous devez trouver des journalistes qui ont déjà écrit sur la spiritualité avant et qui sont donc plus susceptibles d’être intéressés (ce sujet a rapporté près de 40 retombées presse).
Vous pouvez aussi rechercher des sujets de niche au lieu de rechercher des journalistes spécifiques. Avec notre sujet des pays spirituels par exemple, nous avons également contacté des blogs et des magazines sur le bien-être pour voir s’ils étaient intéressés.

Le pitch

Une fois que vous avez votre liste de contact, vous devez pitcher votre histoire. Et votre pitch est important. Il doit rapidement montrer pourquoi votre histoire va intéresser le journaliste et quels en sont les principaux points clés.
Cela requiert de faire quelques tests et de s’adapter en fonction de ce que vous pitchez et des personnes que vous visez. Cependant, voici quelques templates que nous utilisons :

Bonjour NOM,
J’espère que vous allez bien et que vous passez un bon mardi ! – Introduction informelle et polie
Nous venons de sortir de nouvelles recherches qui montrent les meilleures destinations à travers le monde depuis plus de 50 ans. J’ai remarqué que vous aviez écrit sur XXX et j’ai pensé que cela pourrait vous intéresser. – Personnalisé afin qu’ils sachent qu’ils ne reçoivent pas un email de masse
Le nouvel index Silver Years Travel a sorti des recherches sur XXX et a montré que le Japon arrivait en tête, suivi par l’Allemagne et l’Italie. – Mettez en avant les points clés
Étonnamment, les États-Unis et l’Australie ne font pas partie du top 20 tout comme d’autres destinations de vacances populaires. – Surlignez des angles/trouvailles étonnantes
Vous pouvez voir l’intégralité des résultats et découvrir toutes les informations de la recherche ici – Insérez l’URL.
J’espère que cela pourra vous intéresser. Je reste à votre disposition pour toutes informations supplémentaires.
Bien à vous,
Tom – Gardez un ton personnel

Mettez en avant vos premières retombées

Lorsque vous commencez à récolter vos premières retombées, il est important de continuer à pousser votre article pour qu’il soit repris par encore plus de monde.
Si vous obtenez une publication sur un grand site média, partagez-la autant que vous le pouvez (plutôt que la publication de votre propre site). Si vous arrivez à rendre ce contenu tendance, cela pourrait étendre son audience et pousser d’autres médias à le reprendre.
Vous pouvez aussi rajouter cela à votre pitch pour d’autres articles, ou vous soulignerez la couverture que vous avez obtenue et montrerez à quel point votre article a bien fonctionné.
Ainsi, le journaliste pourrait penser que cet article pourrait aussi bien marcher pour lui comme il en a la preuve sous les yeux. Voici un exemple :

Bonjour NOM,
J’espère que vous allez bien et que vous passez un bon mardi !
Nous venons de sortir de nouvelles recherches qui montrent les meilleures destinations à travers le monde depuis plus de 50 ans. J’ai remarqué que vous aviez écrit sur XXX et j’ai pensé que cela pourrait vous intéresser.
Le nouvel index Silver Years Travel a sorti des recherches sur XXX et a montré que le Japon arrivait en tête, suivi par l’Allemagne et l’Italie.
Étonnamment, les États-Unis et l’Australie ne font pas partie du top 20 tout comme d’autres destinations de vacances populaires.
Notre article a récemment été repris par Lonely Planet. Il a obtenu beaucoup d’engagement de la part de leur audience et s’est classé comme un de leur sujet les plus tendances – Insérez l’URL – Preuve sociale, tentation pour eux d’obtenir beaucoup d’engagements s’ils le publient.
Vous pouvez voir l’intégralité des résultats et découvrir toutes les informations de la recherche ici – Insérez l’URL.
J’espère que cela pourra vous intéresser. Je reste à votre disposition pour toutes informations supplémentaires.
Bien à vous,
Tom

Cela est bien plus fort que de simplement renvoyer le journaliste vers votre article en lui demandant s’il accepterait d’écrire sur le sujet. Dans ce cas, il s’agit d’un pur arbitrage de leur part. Mais s’ils sont redirigés vers une information qui a déjà été publiée par un autre journaliste, cela montre l’intérêt de votre contenu. Ils seront bien plus intrigués et tentés d’écrire à ce propos.

Continuez la promotion

Tous les articles que vous créez et promouvez ne seront pas des gagnants. C’est comme ça que ça marche lorsque l’on travaille sur des projets créatifs. Mais si vous suivez la procédure ci-dessus, vous obtiendrez des résultats au moins tous les 2 à 3 projets. Lorsque votre article fonctionne, n’hésitez pas à redoubler d’efforts.
Trouvez quelque chose qui retient l’attention est le plus difficile. Donc, lorsque vous tombez sur un sujet qui marche bien, continuez de rechercher des cibles et de contacter des journalistes.
En faisant cela, vous obtiendrez de nombreux liens de grands sites médias vers votre site et cela vous aidera à booster votre performance SEO sur le long terme.


[Read More ...]

Wednesday, 24 October 2018

L’Halloween aux quatre coins de la ville

La Ville de Québec convie les petits monstres, fantômes et sorcières aux activités d’Halloween organisées dans tous les arrondissements.

Il y en aura pour tous les goûts et l’ambiance, tantôt drôle, surprenante ou « affolante », ne laissera personne indifférent.

De nombreuses activités toutes plus originales les unes que les autres vous attendent. Déguisez-vous et participez à la fête!

Pour connaître la programmation, visitez nos idées de sorties.

Dans les bibliothèques
Des activités familiales sont également présentées du 26 au 28 octobre par La Bibliothèque de Québec.

Dans les jardins de l’Hôtel-de-Ville (2, rue des Jardins)
Un décor haut en couleur fait déjà frissonner les visiteurs dans les jardins de l’Hôtel-de-Ville... Passez faire un tour!


[Read More ...]

Amélioration des services aux écocentres : abolition de la limite de 3 mètres cubes et récupération des textiles

Québec, le 24 octobre 2018 – En cette Semaine québécoise de réduction des déchets, la Ville de Québec annonce des améliorations à ces services dans les écocentres afin d’encourager les citoyens à les utiliser pour se départir des matières qui ne vont ni aux déchets ni au recyclage. En effet, la Ville donne accès gratuitement à tous ses écocentres sans aucune limite en ce qui a trait à la quantité de matières apportée par les citoyens. Rappelons qu’auparavant le service était gratuit jusqu’à une limite de 3 mètres cubes par résidence par année.

« Avec l’abolition du 3 mètres cubes par résidence, nous simplifions l’accès aux écocentres pour les citoyens qui n’ont plus à se soucier de la quantité qu’ils apportent pendant l’année, a mentionné Mme Suzanne Verreault, membre du comité exécutif responsable de l’environnement. Cette mesure s’inscrit dans la Vision 2018-2028 pour une saine gestion des matières résiduelles afin de valoriser à 82 % les matières résiduelles générées sur le territoire. »

De plus, la Ville annonce qu’elle mettra en place des cloches de récupération des textiles dans tous les écocentres afin d’offrir aux citoyens un service supplémentaire. L’Armée du salut a été mandatée par la Ville pour gérer ces cloches et redistribuer les textiles récupérés aux personnes qui en ont le plus besoin.

Ni aux déchets ni au recyclage
Les écocentres offrent aux citoyens un endroit pour se départir de manière environnementale des matières qui ne vont ni aux déchets ni au recyclage. Il s’agit en particulier des résidus de construction, de rénovation et de démolition (CRD), des appareils électroniques (TIC), des résidus dangereux (RDD) comme les peintures, les huiles et les pneus et des encombrants. Toutes ces matières peuvent causer des bris aux équipements si elles sont envoyées au centre de tri ou nuire à l’environnement si elles sont brûlées à l’incinérateur. Elles peuvent aussi compromettre la sécurité du personnel en bloquant les machines ou en explosant sous l’effet de la chaleur. Rendre l’accès aux écocentres plus simple devient un encouragement à poser les bons gestes.

Fonctionnement des écocentres
Pour avoir accès aux écocentres, une pièce d’identité est nécessaire soit un permis de conduire, une facture de taxes ou d’électricité, un bail ou un permis de construire.

Cinq écocentres sont accessibles sur le territoire de la ville de Québec :

Arrondissement de Beauport

Beauport

425, boulevard Raymond

Arrondissement de Sainte-Foy–Sillery–Cap-Rouge

Hêtrière

3381, rue de l’Hêtrière

Arrondissement de La Haute-Saint-Charles

Val-Bélair

1472, rue Jean-Bardot

Arrondissement des Rivières

Des Rivières

1700, rue Provinciale

Arrondissement de Charlesbourg

Jean-Talon (Matrec)

1700, boulevard Jean Talon Ouest

Les citoyens peuvent apporter jusqu’à 5 mètres cubes de matières par jour. Pour connaître les heures d’ouverture et tous les détails concernant le fonctionnement des écocentres, il suffit de consulter le ville.quebec.qc.ca/ecocentres

Rappelons qu’en mai dernier, la Ville de Québec a dévoilé sa Vision 2018-2028 pour une saine gestion des matières résiduelles dans laquelle elle s’engage, d’ici 2028, à valoriser 82 % des matières résiduelles générées sur son territoire. Cette Vision s’accompagne d’un Plan de mise en œuvre (PMO) comportant 82 actions qui permettront d’atteindre cet objectif. Les améliorations de services annoncées aujourd’hui en font partie.


[Read More ...]

Tuesday, 23 October 2018

Top 35 des déclarations SEO technique par John Mueller en 2018

Les optimisations techniques reposent sur les fondations globales de votre stratégie SEO. Des optimisations appropriées vous aideront à améliorer votre budget de crawl et à vous assurer que Google est en mesure de détecter et d’indexer le contenu important. Cela va également vous permettre de proposer une expérience utilisateur correcte, ce qui est très important pour les moteurs de recherche.
Dans les paragraphes suivants, vous trouverez 35 des réponses les plus utiles et importantes de John Mueller, Senior Webmaster Trends Analyst chez Google, aux questions techniques régulièrement posées lors des Webmaster Central Hangout Livestreams. L’objectif de cet article est de vous aider à éviter les erreurs techniques et à confirmer vos doutes sur les meilleures pratiques concernant les optimisations techniques.

1. Les erreurs 404 n’affectent pas les classements de vos autres pages

À une époque, il était courant d’entendre que les erreurs 404 avaient un énorme impact sur le classement de toutes les pages du site et étaient un signe d’une réputation négative en général. John a confirmé que ce n’était absolument pas le cas.
Au cours de l’une de mes conversations avec John, il a même affirmé que la présence de ces pages était complètement normale et que leur nombre n’affectait pas négativement les classements du site web.

2. Google estime que deux domaines sont les mêmes s’ils utilisent des paramètres d’URL identiques et partagent le même hébergement

Essayez d’utiliser différents paramètres sur vos URLs si vous avez des domaines avec des hébergements de sites mutualisés. C’est le seul moyen pour que Google puisse les différencier.

https://www.youtube.com/channel/UCWf2ZlNsCGDS89VBF_awNvA

3. Il est peu probable que l’URL finale soit indexée dans une redirection 301

Pour garantir l’indexation des pages qui sont l’objet de redirections 301, assurez-vous que vous utilisez une balise canonicale, des liens internes et une balise hreflang (si nécessaire) vers la page ciblée plutôt que vers la page qui a été redirigée. Sinon, vous communiquez les mauvais signaux à Google, et cela peut significativement le déconcerter et l’empêcher d’indexer les bonnes pages.

4. Google utilise le temps de chargement et le temps de rendu pour évaluer la vitesse d’une page

Selon les mots de John Mueller, l’optimisation du TTFB (time-to-first-byte) n’est pas un facteur de bonne expérience utilisateur. Pour cette raison, Google évalue l’image globale du chargement d’un site plutôt que des métriques séparées. Le temps de chargement et de rendu d’une page sont des facteurs particulièrement pertinents pour les moteurs de recherche. Cela ne prend pas en compte le temps que les bots mettent à crawler une page.

5. Google n’utilise pas d’images CSS

Lorsque vous utilisez des images CSS, comme des arrières-plans, sachez que Google ne les prend pas en compte. Afin que votre image soit montrée dans les résultats d’images, elle doit contenir une balise avec un attribut src=”https://www.example.com/my_image_URL” .

6. La position de vos liens internes sur votre site n’a pas d’importance

John a encore une fois confirmé que la disponibilité des liens internes et leur pertinence pour l’utilisateur sont bien plus importants que leur position sur la page. Il est très important que vous créiez une navigation efficace : le GoogleBot a besoin de pouvoir crawler facilement votre site.

7. Faites attention lorsque vous changez d’hébergeur, Google peut temporairement réduire le taux de crawl

Parfois, nous avons besoin de changer d’hébergeur pour diverses raisons (mauvais accompagnement, serveurs lents, manque de service ou service discontinue). Lorsque vous changez d’hébergeur, gardez en tête que Google va réduire temporairement le taux de crawl de votre site car il ne sait pas encore quel chargement le nouveau serveur peut supporter.

8. Si vous utilisez des cadres JavaScript, testez-les avec la fonctionnalité Rich Snippets de la Google Search Console

Les cadres JavaScript sont une manière très tendance pour construire un site web interactif et élégant. Cependant, ils sont aussi souvent la cause de nombreux problèmes SEO, surtout lorsqu’il s’agit de crawler et d’indexer. John conseille d’utiliser la fonctionnalité Rich Snippets de la GSC pour s’assurer que votre site est correctement crawlé et rendu.

9. Le HTTPS n’affecte pas directement vos classements, mais peut être utilisé comme départage en cas d’égalité

Si vous êtes classés dans des pages de résultats où tous les sites ont des résultats similaires pour tous les facteurs de classement couverts, Google pourrait utiliser le HTTPS pour remonter votre site tout en haut de la page si les autres sites n’ont pas de certificat SSL installé.

10. Les données structurées sont utiles et importantes pour votre site, mais requièrent également de nettoyer votre HTML sans erreurs

Soyez vigilants sur la validation du code HTML de votre site. Éliminez vos erreurs autant que possible car votre implémentation schema.org peut être “cassée” et donc être invalide aux yeux du Google’s Structured Data Testing Tool.

11. La qualité d’un site est jugée par Google selon les basiques des pages indexées seulement

Bien souvent, des questions sont posées à Google à propos de la manière dont les pages qui ne peuvent pas être indexées ou crawlées peuvent affecter la qualité et l’évaluation globale de votre site. John a confirmé que Google évalue seulement les pages indexées par les moteurs de recherche pour déterminer la qualité du contenu des pages de votre site.

12. Un status 410 supprime une page de l’index plus vite qu’un status 404

Dans les périodes de moyen à long terme, les 404 sont presque les mêmes que les 410, car dans les deux cas, les pages seront supprimées de l’index. Rappelez-vous qu’une page avec un status 410 peut être supprimée plus rapidement de l’index, habituellement dans les jours qui suivent.

13. Ajouter un noindex via Javascript n’est pas recommandé

Si vous entrez un noindex dans Javascript, sa considération et son application seront retardés car Google le capturera seulement lors de sa seconde indexation. Le crawl Javascript de Google peut avoir lieu à une date ultérieure et la page peut donc être indexée provisoirement. Afin d’être sûrs d’interdire l’indexation d’une page, utilisez du HTML statique.

14. Le Javascript et le HTML ne devraient pas envoyer des signaux mixtes à Google

Soyez vigilants quant aux signaux que vous envoyez à Google en Javascript et en HTML. Si vous choisissez de configurer un lien pour qu’il ne soit pas suivi en Javascript mais suivi en HTML, alors ce lien sera suivi lors de la première indexation de Google. En effet, Google capture les signaux Javascript uniquement lors de la seconde vague de rendu et d’indexation. Le cas est identique si vous choisissez d’empêcher une page d’être indexée ou les liens de porter du poids.
Idem avec les signaux dupliqués : ne donnez pas les mêmes signaux en HTML et en Javascript. Par exemple, si vous utilisez Javascript pour modifier les balises canoniques ou les balises des méta robots, ne dupliquez pas ces balises en HTML.

15 . Si vous changez le contenu d’une page plus souvent, Google va aussi le crawler plus fréquemment

Google cherche à comprendre à quelle fréquence les contenus d’une page changent. Il modifie la fréquence de crawl du GoogleBot en fonction de cela. Si cette page change son contenu très souvent et régulièrement, Google va aussi augmenter son taux de crawl.

16. Google n’indexe pas le contenu des URLs qui contiennent des #

Faites attention avec la location exacte de l’URL de votre contenu. Si elle apparaît lorsqu’il y a un # dans une URL, par exemple : http://www.example.com/office.html#mycontent, alors elle ne sera pas indexée par Google.

17. Les erreurs de type 4xx n’engendrent pas une perte de budget de crawl

Lorsque vous voyez que le GoogleBot crawle les pages de ce type, cela ne signifie pas forcément que votre budget pour crawler tout le site a été dépensé. Google re-crawle ces pages afin de s’assurer qu’il n’y a rien à indexer et donne des signaux positifs pour crawler plus de pages.

18. Si vous souhaitez indexer votre site rapidement, alors un sitemap et un taux de crawl sont la clé

Chaque serveur dispose d’une capacité différente. Si vous êtes familiers avec les fonctionnalités techniques ou si vous savez que votre serveur a plus de capacité, vous pouvez contacter le centre d’aide de Google Webmaster et demander un plus grand taux de crawl. N’oubliez pas d’envoyer un sitemap avec les nouvelles URLs et dernières dates de modification à la Google Search Console. Cela va aider Google à crawler et indexer vos pages aussi vite que possible.

19. La fréquence de crawl n’a rien à voir avec les classements

Bien souvent, des spéculations sont faites avec les mots “taux de crawl” et de nombreuses personnes commencent à l’associer à de meilleurs classements. Selon les mots de John, un fort taux de crawl ne signifie pas un meilleur classement et vice versa. Le crawl et les classements sont des procédures différentes.

20. Les URLs plus courtes ne sont pas priorisées par Google

Alors qu’il a été affirmé que les URLs plus courtes étaient priorisées, Google déclare ne pas les traiter différemment. Dans une large mesure, cela joue plus un rôle dans l’expérience utilisateur que dans la manière dont Google traite les adresses.

21. Googlebot reconnaît et traite positivement les navigations différentes pour desktop et mobile (responsive)

Dans le cas où vous décidez de créer une navigation pour votre site desktop et une pour votre version mobile responsive codée en HTML, cela ne causera aucun problème pour Google.

22. Google peut différencier des domaines similaires, même avec des profils de liens similaires

Si nous avons deux domaines similaires, Google sera capable de les différencier même s’ils ont des profils de liens très similaires. Cela soulage grandement les webmasters et entrepreneurs dont les concurrents copient agressivement leurs noms de domaine et stratégies de liens. Malgré cette pratique, les sites concurrents ne seront pas préférés par Google.

23. Confirmé : les ancres de textes aident Google à comprendre le sujet d’une page

Les ancres de textes aident Google à définir le thème d’une page au sens large. Bien sûr, cela ne signifie pas que vous devez utiliser certaines ancres de textes à outrance pour obtenir de meilleurs classements.

24. Google n’utilise pas les adresses IP pour le geo-targeting et le SEO local

Dans le passé, Google a utilisé les adresses IP des hébergeurs. Désormais, le geo-targeting et le SEO local sont plus influencés par les ccTLD, generic TLD, hreflang, Google My Business settings et la Google Search Console.

25. HSTS n’est pas utilisé comme signal de classement

Google n’utilise pas HSTS comme facteur de classement, mais John conseille de l’implémenter une fois que les fluctuations de classement dues à la migration en HTTPS sont stabilisées et que la migration est pleinement réussie.

26. La profondeur de clic détermine l’importance d’une page bien plus que la structure de son URL

En d’autres termes, pour Google, il est important de savoir à quelle distance une page est située de la page d’accueil afin de déterminer son importance. Cela est plus important que le niveau ou la structure d’une URL.

27. Assurez-vous que les scripts placés dans le ne le ferment pas prématurément

Selon les mots de John, il y a des sites qui placent les scripts dans le ce qui le ferme, ou des scripts qui ne devraient pas faire partie du < head > du code HTML d’une page. Dans ces cas, Google ne prêtera pas attention à la balise hreflang, par exemple, car cela implique que le < head > aura déjà été fermé. John recommande d’utiliser la fonction “View Code” de l’outil Google Rich Results afin de vérifier ce problème.

28. Googlebot peut reconnaître la navigation multi-facettes et retarder le crawl

GoogleBot parvient à reconnaître les structures d’URL, dont la navigation multi-facettes. Lorsqu’il détecte où est le contenu principal et d’où il dérive, il va ralentir le crawl. Cela peut aussi être grandement influencé par la définition des paramètres de GSC. John souligne également que définir les paramètres de la console est un signal bien plus fort que la canonicalisation.

29. Après avoir migré votre site vers le mobile-first indexing, il est possible que vos pages en cache renvoient en 404 sur Google

D’après John, cela est parfaitement normal et ne devrait pas être un problème pour le crawl et l’indexation. La principale raison est que lorsque vous passez en mobile-first indexing, les pages n’ont pas de version cache dans les moteurs de recherche.

30. Les temps de réponse moyens plus élevés que 1,000ms peuvent limiter le crawl du site

John recommande que le temps de réponse moyen se situe autour de 100ms. Autrement, Google ne crawlera pas autant de pages que ce qu’il pourrait.

https://youtu.be/AjlTNJiSeQ6

31. Les URLs redirigées peuvent apparaître comme des 404 si beaucoup d’URLs sont redirigées vers une autre

Les URLs qui redirigent vers d’autres pages ne devraient pas apparaître comme des erreurs 404 à moins que beaucoup d’autres pages aient été supprimées et redirigées vers une seule et même page.

32. Des migrations HTTPS incorrectes ou incomplètes causent de plus grandes fluctuations de classement

Vous devriez vous attendre à d’importantes fluctuations dans les classements de votre site si :

  • Vous avez migré de HTTP à HTTPS et que vous n’avez pas redirigé toutes les adresses HTTP en HTTPS avec des redirections 301 claires ;
  • Vous avez supprimé beaucoup de pages ;
  • Vous avez bloqué les bots utilisant les robots.txt ;

Pensez à utiliser des redirections 301 car n’importe quel autre type de redirection comme 302 ou 303 obligera Google à retraiter vos URLs.

33. Les images avec un temps de chargement faible peuvent être placées dans le code d’une page en utilisant des balises noscript et les données structurées

Concernant ce type de chargement d’images, il est important pour Google de voir la balise source de l’image. Elle peut également être implémentée via une balise noscript ou des données structurées. Donc même si l’image peut être rendue proprement, que ce soit partiellement ou entièrement, Google va l’associer avec la page.

34. N’utilisez pas de status 503 pendant plusieurs jours pour garder un site dans l’index de recherche

La principale explication est que si votre site renvoie un status 503 pendant plusieurs jours, Google pourrait estimer que votre site ne reviendra pas, au lieu de le considérer comme temporairement indisponible.
Notez également que les erreurs 503 réduisent aussi le taux de crawl et que le crawl s’arrête si une requête pour le fichier robots.txt renvoie également en 503.

35. Google utilise de multiples signaux pour reconnaître les adresses canoniques dans un groupe d’URLs

Google utilise les balises canoniques, redirections, paramètres d’URL, maillage interne et sitemaps pour déterminer quelle page est canonique par rapport à une autre dans un groupe de pages.


[Read More ...]

Friday, 19 October 2018

Les 5 chiffres SEO qui nous ont marqué cette semaine (13/10 au 20/10)

Quels sont les 5 chiffres SEO qui nous ont marqué cette semaine ? L’équipe @OnCrawl vous a préparé son top 5 des chiffres les plus marquants. L’ensemble des données utilisées proviennent de sources anglophones. DuckDuckGo, Moz, YouTube, recherches spécifiques par secteurs & Pinterest : découvrez nos 5 actualités SEO de la semaine.

DuckDuckGo a atteint les 30 millions de recherches quotidiennes

DuckDuckGo a atteint un nouveau record : 30 millions de recherches directes sont réalisées chaque jour sur le moteur de recherche. Cela représente une augmentation de 50 % par rapport à l’année précédente dont le record était de 20 millions de recherches quotidiennes. Le moteur de recherche a notamment connu un pic d’activité autour du 10 octobre, date à laquelle Google a annoncé la faille de sécurité de Google +.
Lire l’article 

Lorsqu’ils sont en difficulté, 78 % des utilisateurs de Moz cherchent par eux-mêmes une réponse sur les moteurs de recherche

Pour comprendre quelles fonctionnalités ils devraient implémenter, Moz a réalisé une enquête auprès de ses utilisateurs. Ainsi, 78 % d’entre eux vont chercher une réponse par eux-mêmes lorsqu’ils rencontrent un problème au lieu de contacter l’assistance. Cela montre que les personnes travaillant dans le marketing digital et le search ont l’habitude d’avoir recours aux moteurs de recherche pour trouver de l’assistance. Cependant, l’étude a également montré que 36 % d’entre eux n’étaient pas parvenus à trouver ce qu’ils cherchaient.
Lire l’article

Les recherches spécifiques aux jeux vidéos mentionnent l’une des 3 marques leaders dans 90 % des cas

Une nouvelle fonctionnalité dans Google Shopping Insights permet de comparer la popularité d’une marque dans les recherches d’une catégorie spécifique. Il semble que dans certains secteurs, les utilisateurs soient plus à même de rechercher des caractéristiques de produits plutôt que des marques spécifiques et inversement. Ainsi, dans le cas du secteur des jeux vidéos, 90 % des recherches sont liées à une marque. À l’inverse, pour les recherches concernant les sacs à dos, seulement 8 % des requêtes impliquent des marques.
Lire l’article

YouTube a pénétré 80 % du marché indien en 10 ans

D’après cet article, la plateforme de vidéo de Google a investi près de 80 % du marché indien en moins de 10 ans. YouTube dispose désormais de 225 millions d’utilisateurs actifs rien que sur mobile. La plateforme est devenue un acteur majeur de l’écosystème web en Inde et le référencement des vidéos y est donc de plus en plus indispensable.
Lire l’article

Pinterest a obtenu une croissance de 40 % grâce à ses fonctionnalités shopping

À la manière de Google, Pinterest rend encore plus simple l’achat de centaines de millions de produits ! Le réseau social a implémenté des liens qui permettent de se rendre directement sur la page produit de la marque. Les nouvelles fonctionnalités shopping de Pinterest vont notamment permettre de voir le prix et les stocks dans l’application. Grâce à ces différentes optimisations, Pinterest a connu une croissance de 40 % de son taux de clics sur les produits.
Lire l’article


[Read More ...]

Thursday, 18 October 2018

Retour sur We Love SEO 2018

Pour la 4ème année consécutive, OnCrawl, Myposeo, AT Internet et RocketLinks organisaient We Love SEO. Cet événement créé pour les SEOs par les SEOs, a rassemblé près de 180 participants, 18 speakers et proposait 4 études de cas, 2 tables rondes et 1 conférence de clôture exceptionnelle en présence de Gary Illyes. Pour ceux qui n’ont pas eu la chance d’être présents, voici un petit résumé de cette journée riche en SEO.

Les conférences en quelques points clés

Comment tirer profit des données de crawl sur un site de petites annonces comme Keljob ?

Erlé Alberton, Customer Success Manager @OnCrawl et Philippe Sasso, Consultant SEO @Resoneo étaient les premiers à monter sur scène. Leur conférence avait pour objectif de présenter les meilleures techniques pour exploiter au mieux les données de crawl afin d’optimiser un site de petites annonces comme Keljob. Voici les principaux points de la conférence à retenir :

  • Le budget de crawl représente le temps, l’énergie et l’argent que Google vous alloue pour parcourir votre site. Plus votre site est facile à parcourir, plus les moteurs de recherche seront satisfaits.
  • Il existe une forte relation entre la fréquence de crawl et les impressions. Pensez toujours à bien organiser votre site pour les visites des bots.
  • Keljob est un site d’offres d’emploi composé de pages volatiles. L’objectif est d’offrir une visibilité rapide aux offres d’emploi avant qu’elles disparaissent. Le challenge de Keljob était de penser son architecture pour qu’elle valorise les croisements intéressants, les offres pertinentes et le trafic naturel.
  • La stratégie était de travailler sur le maillage interne des listes de résultats pour en améliorer la profondeur sans tenir compte des éléments artificiels :
    • Ajout de liens vers les entités géographiques connexes
    • Ajout de liens croisés sur des typologies et des géographies
    • Ajout de liens vers les métiers similaires
  • Résultats : le trafic SEO a été multiplié par 2,5. Avant la stratégie mise en place par Philippe, 72 % des pages disposaient d’une profondeur de niveau 6 et +. Après les différentes actions établies, 50 % des pages n’avaient plus qu’une profondeur de niveau 4 et -.

▶︎ Consulter la présentation
▶︎ Revoir la conférence :

Peut-on encore détrôner les gros sites leaders en SEO ?

Alexandre Sigoigne, CEO @Myposeo et Nicolas Plantelin, SEO Manager @Oui.sncf ont présenté la deuxième conférence de We Love SEO qui portait sur la position indétrônable des gros sites leaders en SEO. Voici les principaux points à retenir de leur intervention :

  • Il existe 4 étapes pour tenter de détrôner les gros sites leaders : la recherche de mots-clés, l’audit de SERP/CC, la détection d’opportunités puis l’élaboration de la stratégie de contenus.
  • Vous pouvez utiliser une formule afin de détecter vos meilleures opportunités : volume moyen/faible de recherche sur un mot-clés x position SEO pixel x position existence x concurrence.
  • Pour analyser le site d’un concurrent, vous pouvez relever le nombre de pages, de backlinks, la taille des contenus et le netlinking des pages.
  • OUI.sncf réalise une veille concurrentielle quotidienne pour surveiller les positions de ses principaux concurrents. Nicolas Plantelin a déjà observé l’arrivée brusque d’un concurrent inconnu auparavant qui a récupéré des positions rapidement. Exemple : Tic Tac Trip a explosé le nombre de requêtes en 6 mois.
  • Les conseils de Nicolas Plantelin et Alexandre Sigoigne pour détrôner les gros sites leaders :
    • Être agile (et rusé)
    • Être en veille (SERP, technos)
    • Diversifier les types de pages
    • Produire (plus) de contenus par thématique
    • Travailler sa notoriété verticale

▶︎ Consulter la présentation
▶︎ Revoir la conférence :

Rattraper son retard en SEO lorsque l’on est un acteur BTP national

Julien Nishimata, Facilitateur et Business Developer @RocketLinks et Sylvain Vidal, Data Analyst et formation @SEO.fr nous ont présenté le cas d’un acteur du BTP national qui a dû déployer d’importants efforts pour rattraper son retard en SEO. Voici les principaux points clés de leur conférence :

  • Le site accompagné par Sylvain et Julien disposait d’un retard SEO, d’une digitalisation tardive et d’une certaine méconnaissance internet. Le site était propre mais manquait de netlinking, de contenu et de méta.
  • Le plan d’action mis en place a permis de mettre en place 170 balises TITLE, 245 balises META description, de réparer 860 erreurs 404 et d’optimiser 155 codes 301.
  • Les équipes de RocketLinks et de SEO.fr ont réalisé un gros effort sur le contenu du site web avec notamment la création d’un silo, de 5 nouveaux textes par semaine et d’un maillage interne pertinent.
  • Ces actions ont permis au site web de passer du 7ème acteur national au 3ème acteur national sur 1 200 mots-clés.
  • Les conclusions de cette conférence sont d’optimiser la vitesse du site, de produire du contenu et un silo pertinent, d’optimiser les meta-descriptions et le taux de clic et de mettre au point une stratégie de netlinking cohérente.

▶︎ Consulter la présentation
▶︎ Revoir la conférence :

Analytics & SEO : les clés d’une stratégie réussie

Deborah Botton, Chef de Produit chez @RadioFrance prend la parole, accompagnée de Christelle Tissot, Head of Customer Success @AT Internet, pour présenter la dernière conférence de la matinée de We Love SEO. L’objet de sa conférence est de montrer comment le référencement est traité dans une maison telle que Radio France qui dispose d’une multiplicité de sites et d’offres. Découvrez les principaux points à retenir de cette étude de cas sur l’analytics et le SEO :

  • Radio France fait du SEO pour valoriser la production des antennes sur le numérique et pour faire connaître les offres au plus grand nombre dans un contexte où la radio subit une pression liée aux nouveaux usages.
  • Les challenges SEO de la marque sont de contourner le “not provided” et de composer avec la fragmentation de la source Google Actualités avec le portail Google News, Google News Producer et Google Search.
  • Radio France a saisi l’opportunité de l’AMP dont Google et beaucoup d’autres plateformes sont adeptes. Depuis, les visites mobiles ne cessent d’augmenter et ¼ du trafic de France Bleu provient d’AMP.
  • Pour optimiser le nombre de pages actives de France Culture, Déborah Botton a monitoré le nombre de pages d’entrées (analytics) et la proportion de pages générant des clics depuis les résultats de recherche (logs). Seulement 22 % des pages de France Culture génèrent du trafic. Ce site a subit de nombreux changements suite à la suppression du contenu dupliqué.
  • Radio France a lancé un site neuf “France Musique” en anglais. Les contenus sont rares et gratuits. Un plan de relations presse a été mis en place afin de créer des liens entrants et de conférer de la popularité au nouveau site.
  • Déborah Botton a donné différents conseils pour faciliter la récupération et l’affichage des données dans les interfaces comme unifier les périmètres desktop et mobiles, créer des métriques personnalisées ou encore segmenter les données.

▶︎ Consulter la présentation
▶︎ Revoir la conférence :

Avènement de l’IA : les leviers du SEO que nous connaissons vont-ils perdre de leur importance au profit de nouveaux indicateurs de référencement ?

Après un déjeuner networking, We Love SEO se poursuivait avec un nouveau format de conférence : les tables rondes. La première table ronde était composée de Virginie Clève, Digital Strategist @Largow, David Dragesco (NinjaLinker), Consultant SEO @ReputationVIP, Emmanuel de Vauxmoret, Directeur d’agence @Eskimoz et Paul Sanches, Président de @SEOHackers. La table ronde était animée par Alexandre Sigoigne et avait pour objectif d’éclaircir le sujet controversé de l’IA et du SEO. Si vous avez loupé la conférence, voici les principaux points à retenir :

  • Quelles sont les pratiques que vous avez aujourd’hui à l’égard du HTTPS ?
    • D’après Emmanuel, passer au HTTPS relève du bon sens mais ne permet pas forcément d’obtenir une augmentation des visites SEO. Attention cependant à bien réaliser la migration HTTPS.
    • Pour Virginie, Google impose le HTTPS parce qu’il ne veut plus répondre aux requêtes de la justice américaine sur les données de navigation. En termes de SEO, elle a vu plus de pertes que de gains dus au HTTPS.
    • David estime que le HTTPS n’a aucun impact sur les classements mais peut avoir des répercussions sur le comportement des utilisateurs qui peuvent fuir votre site suite aux alertes.
    • Paul estime que le passage au HTTPS n’est pas réellement utile et que les propriétaires de sites web ne sont pas obligés de l’accepter.
  • Aujourd’hui on entend beaucoup parler du temps de chargement. Dans quelle mesure ce critère a évolué d’après vous ?
    • Pour Paul, il s’agit encore une fois de bon sens. C’est plus pour les utilisateurs que pour Google qu’il faut optimiser le temps de chargement. Ce critère dépasse le SEO.
    • Pour Virginie, la performance web a un impact très fort sur les classements, notamment mobiles.
    • Emmanuel pense que c’est un sujet complètement indispensable. Les développeurs doivent en prendre conscience et optimiser au mieux les pages.
  • Google est en train de déployer un mobile first index. Est-ce que vous avez constaté des changements ?
    • D’après David, il faut attendre pour avoir des retours. La mise à jour est trop récente et va probablement générer des changements sur le long terme.
    • Pour Emmanuel, ce n’est pas à l’avantage de Google d’amener trop de changements trop vite lors de l’index mobile-first.
    • Virginie pense qu’ils ont commencé par les sites qui étaient prêts, c’est pourquoi nous ne voyons pas beaucoup de changements actuellement.
  • La longueur moyenne des contenus s’est un peu allongée. Que pensez-vous de ces variations de longueur ?
    • Paul reconnaît que rajouter du contenu sur une page est une pratique courante mais il ne faut pas oublier les intentions de l’utilisateur et met en garde sur le keyword stuffing. Par ailleurs, plus le texte est court, moins Google détectera de contenu dupliqué.
    • David explique que Google cherche de plus en plus à implémenter de l’IA et à rendre les bots capables d’interpréter le contenu. Il existe 3 catégories de requêtes : navigationnelles, informationnelles et transactionnelles. Google va ajuster ses résultats en fonction du type de requête. Il faut prendre en compte la notion d’entités nommées : le fait que Google détectent les synonymes. Par exemple, pour les requêtes “assurance auto” et “assurance voiture”, Google proposera les mêmes résultats.
    • Pour Emmanuel, la longueur des contenus est un facteur qui marche encore très bien et il faut travailler avec le principe d’entités nommées.
    • Virginie admet que les contenus trop courts sont pénalisants et que les contenus plus longs sont souvent rédigés pour les requêtes informationnelles. La recherche vocale utilise beaucoup les contenus longs et pertinents.

▶︎ Revoir la conférence : Vidéo à venir.

Demystify SEO: How we can do more with less. Advice from the European frontline.

Place aux speakers internationaux ! We Love SEO se poursuit avec une table ronde 100 % européenne composée de Omi Sido, Senior Technical SEO @CanonEurope, Gerry White, Senior Technical Marketing Consultant @JustEat, Maria Cieslak, Senior Technical SEO Consultant @Elephate et Chris Green, Head of Search @StrategiQ. François Goube, CEO @OnCrawl, anime cette table ronde qui a pour objectif de démystifier le SEO et de confirmer ou d’infirmer les idées reçues. Voici le résumé de la discussion en quelques questions :

  • Quelles techniques utilisez-vous pour diriger votre stratégie de contenu ?
    • Pour Maria, la procédure peut être divisée en 2 parties. La première est d’analyser le contenu d’un point de vue utilisateur puis de vérifier que le contenu est unique avec un crawler.
    • Omi estime que chaque site web est différent et doit disposer de sa propre stratégie de contenu en menant ses propres expérimentations. Si le contenu ne rapporte pas de revenues ou de trafic alors il est inutile.
    • Lors d’une mise à jour touchant le contenu, Gerry conseille de retourner dans les SERPs et de regarder ce qu’on fait les sites classés dans les premières positions pour rester en haut des pages de résultats.
  • Est-ce vous avez des anecdotes SEO pour nous illustrer le concept “Less is more” ?
    • Chris donne l’exemple du site web de l’un de ses clients où il supprimé 80 % des pages du site qui ne disposaient pas de contenu vraiment utile. Le taux de crawl a alors augmenté et permis de faire remonter les classements. Parfois, moins de pages signifie plus de classements !
    • Gerry évoque les soldes mises en place par les sites e-commerce chaque saison. Souvent, ces pages n’ont pas de résultats hors période de soldes. Il conseille de recycler les URLs, le contenu et les pages. Ce sera plus simple de les promouvoir si vous les avez déjà exploité l’année précédente.
    • Maria a participé à une “chirurgie” récemment. Elle a retiré quelques millions de pages d’un site car la structure avait été touchée par une pénalité. Ils ont perdu 90 % de leur trafic organique. Après avoir retiré toutes les pages impliquées, le site s’est reclassé au bout de 2 semaines.
    • Omi rappelle que les vidéos sont aussi du contenu. Avec Canon Europe, ils ont réalisé des interviews qui n’ont pas fonctionné car leur audience était trop jeune. Ils ont alors demandé à 50 cent de participer, ce qui a généré un grand pic dans l’audience.
  • Quelles sont vos astuces pour traiter les pages orphelines ?
    • En arrivant chez Canon Europe, Omi a supprimé des centaines de milliers de pages orphelines, ce qui représentait 60 % du site. Cela a provoqué une augmentation du trafic de 22 %.
    • Pour Gerry, la question est : est-ce que ces pages ont de la valeur ? Si ce n’est pas le cas, le mieux est d’empêcher les bots d’y accéder en les no-indexant.
    • Maria confirme que supprimer des pages est toujours efficace et permet d’éviter la cannibalisation. Il est mieux de construire une landing page avec le contenu correspondant au mot-clé plutôt que de construire 100 pages.
  • Que conseillons-vous de faire avec les pages inactives ?
    • Pour Gerry, cela dépend de la fonction. Certaines pages, qui sont essentielles, ne rapportent pas énormément de trafic mais sont indispensables. Il faut penser à des solutions pour les promouvoir.
    • Chris donne l’exemple d’un site e-commerce qui disposait de nombreuses pages en no-index par manque de contenu. Avec son équipe, Chris a remis du contenu sur ces pages et a commencé à les réexposer aux bots de Google. Il constaté une augmentation de 19 % du trafic organique.
    • Maria pense que l’un des facteurs les plus importants est le trafic. Cela permet de vérifier quel type de page ne génère pas de trafic et de comprendre les problèmes sur ces pages.
    • Pour Omi, 20 % des mots-clés pour lesquels les pages se classent sont utiles et 80 % sont inutiles. Il faut donc redoubler d’efforts pour associer les bons mots-clés aux bonnes pages.
  • Quelle est votre stratégie pour le off-site ?
    • Gerry pense qu’il faut faire du off-site même si votre site web n’est pas parfait. Les liens externes restent très importants et on ne peut pas réellement s’en passer.
    • Pour Chris, il faut d’abord développer un très bon site web avant de se consacrer au off-site. Pour le SEO local, le off-site reste cependant très important.
    • Selon Maria, il faut avoir une bonne approche des résultats et des attentes. Certains sites web attendent un vrai bond dans les classements après avoir obtenu 15 liens mais ça ne fonctionne pas comme ça. Il faut que votre site soit prêt.
    • Omi pense qu’il faut être bon en RP et demander des liens aussi souvent que possible. Il faut aller plus loin que le SEO.
  • Sur quoi allez-vous vous concentrer au cours des 12 prochains mois ?
    • Chris ne pense pas qu’il faut se concentrer sur les changements du search mais plutôt sur la manière dont nous le pratiquons. Nous ne connaissons pas vraiment l’impact que les changements en cours vont avoir mais il faut rester vigilant et faire des tests aussi souvent que possible.
    • Pour Gerry, il ne faut pas juste se fier aux données. Il faut aussi faire les recherches par soi-même et voir ce que cela donne. Il rappelle qu’il faut penser à bien surveiller ses concurrents.
    • Maria pense qu’il faut rester concentrer sur le SEO technique. Le développement web évolue trop rapidement pour Google. Il faut donc faire ses propres tests.
    • Pour Omi, la meilleure réponse serait le machine learning et la recherche vocale mais au final de nombreux sites web ne disposent pas des basiques. Son conseil est de s’assurer que votre site web dispose de solides bases.

▶︎ Revoir la table ronde :

What’s New in Search ?

Gary Illyes, Webmaster Trends Analyst @Google, entre en scène pour donner la dernière conférence de We Love SEO. Il partage les principaux basiques et les nouveautés que Google tient à communiquer aux webmasters. Voici les principaux points à retenir :

  • Les URLs doivent être accessible aux crawlers : pas de #, pensez à incorporer du HTTPS, des sitemaps, des “” avec “href” et à favoriser le maillage interne.
  • Les méta descriptions n’ont pas de limite et Google ne réécrit pas les titres des pages.
  • Les images sont un véritable atout, il faut prendre soin de les référencer correctement (alt-text, légendes, lazyload avec un < noscript > ).
  • Le contenu doit être écrit clairement et contenir peu de publicités.
  • La vitesse de chargement est devenue indispensable. Les sites web doivent être testés dans un outil approprié et les webmasters doivent surveiller plusieurs métriques ainsi que les réactions des utilisateurs à leurs optimisations.
  • Structurez vos données ! Gary conseille d’utiliser les données structurées raisonnablement, de vérifier les nouveaux types et la validité de votre implémentation.
  • L’interprétation des sites a été instaurée il y a quelques années. Google comprend désormais le JavaScript. Ils utilisent Chrome 41 pour cela, ne disposent pas d’accompagnement ES6 ni de stockage d’API.
  • L’interprétation différée rend le suivi des liens plus lent et nécessite plusieurs jours avant d’aboutir.
  • Il n’est pas toujours nécessaire d’instaurer l’interprétation dynamique, à moins que votre page soit exceptionnelle. Cela permet une pré-interprétation pour les crawlers et les réseaux sociaux. Vous pouvez retrouver un guide complet sur l’interprétation de Google ici.
  • Le mobile-first est en plein développement, de nombreux sites ont été touchés et d’autres vont être impactés. Pour vous préparer au mobile-first indexing, vous devez optimiser vos contenus, vidéos, images, métadonnées, données structurées et liens internes pour le mobile.

▶︎ Revoir la conférence :

Vos témoignages

Vous avez été nombreux à réagir à We Love SEO sur les réseaux sociaux. Le #WLS18 s’est même retrouvé en Top Tweets France durant l’événement ! Retrouvez quelques-uns de vos meilleurs témoignages :

Retrouvez toutes les photos et vidéos de #WLS18

Vous pouvez vivre ou revivre We Love SEO sur la page dédiée à l’édition 2018. Vous y retrouvez l’ensemble des présentations ainsi que les photos prises au photomaton.

Vous pouvez également revoir en replay toutes les conférences sur notre chaîne Youtube.

Nous espérons que vous avez apprécié cette édition 2018 de We Love SEO autant que nous et on vous dit à l’année prochaine pour #WLS19 🤘


[Read More ...]

Friday, 12 October 2018

Les 5 chiffres SEO qui nous ont marqué cette semaine (06/10 au 12/10)

Quels sont les 5 chiffres SEO qui nous ont marqué cette semaine ? L’équipe @OnCrawl vous a préparé son top 5 des chiffres les plus marquants. L’ensemble des données utilisées proviennent de sources anglophones. Content marketing, sitelinks, contenu dupliqué, Google + et outils SEO : découvrez nos 5 actualités SEO de la semaine.

Les résultats avec des sitelinks en première position ont un CTR moyen de 80 %

Le SEO est en plein changement et est amené à poursuivre sa croissance dans le futur. Cet article passe en revue les prochains challenges SEO. Ainsi, selon les données de Moz, nous y apprenons que les résultats avec des sitelinks en première position obtiennent un CTR moyen de 80 % contre 30 % pour les résultats disposant d’un knowledge graph.
Lire l’article

90 % des meilleurs marketeurs de contenu préfèrent être utiles que promotionnels

Une récente étude de Content Marketing Institute montre que 90 % des meilleurs marketers en contenu B2B placent les besoins de leur audience avant le message de la marque. Ce principe novateur il y a quelques années est désormais devenu monnaie courante. Par ailleurs, 60 % d’entre eux ont augmenté le budget alloué à la création de contenu, 73 % utilisent l’analytics pour mieux cibler leur audience et 86 % utilisent des campagnes de mailing pour nourrir leur audience.
Lire l’article

 

66 % des sites web ont des problèmes avec le contenu dupliqué

D’après une étude SEMrush conduite sur plus de 100 000 sites web, l’une des erreurs SEO on-page la plus commune est le contenu dupliqué. Plus de 66 % des sites web reconnaissent avoir de sérieux problèmes avec le contenu dupliqué, 93 % disposent de textes inférieurs au ratio HTML et 73 % d’un nombre de mots faible.
Lire l’article

Une faille dans Google+ a exposé les données de 500 000 utilisateurs

Suite à une faille dans Google+, Google a décidé de fermer son réseau social. 500 000 utilisateurs auraient été impactées par cette brèche de sécurité qui permettait aux développeurs d’accéder librement aux données. Le moteur de recherche a révélé que l’usage et l’engagement sur Google+ étaient encore plus faible que ce que l’on pouvait imaginer : 90 % des sessions utilisateurs duraient moins de 5 secondes.
Lire l’article

60 % des marques gèrent leur stratégie SEO avec un outil

D’après une enquête State of Search, presque 60 % des marques ont recours à un outil pour accompagner le développement de leur stratégie SEO. 23 % des répondants se contentent d’outils comme Excel, 14 % utilisent l’outil de leur fournisseur et 7 % disposent de leur propre solution en interne.
Lire l’article


[Read More ...]

Thursday, 11 October 2018

Webinar Digest : audit SEO et analyse de logs en direct avec Bill Hartzer

Le 25 septembre dernier, OnCrawl a eu l’honneur de recevoir Bill Hartzer pour un webinaire sur l’analyse des fichiers de log et l’importance que cela a pour les audits SEO. Il a parcouru son propre site pour montrer l’impact des optimisations sur l’activité des bots et la fréquence de crawl.

Qui est Bill Hartzer ?

Bill Hartzer est un consultant SEO et un expert en noms de domaine avec plus de 20 ans d’expérience. Bill est internationalement reconnu dans son domaine et a récemment été interviewé sur CBS News pour partager son point de vue sur le search..
Au cours de ce webinaire, Bill nous a présenté ses fichiers de log et nous a montré comment il les utilisait dans le contexte d’un audit de site. Il a détaillé les différents outils qu’il utilise pour vérifier la performance de son site et le comportement des bots.
Enfin, Bill a répondu aux questions des participants sur la manière dont il utilise OnCrawl pour dégager des résultats significatifs et fournir des conseils aux autres SEOs.

Comment accéder aux fichiers de log à travers le plugin cPanel pour WordPress ?

Si votre site a été construit avec WordPress et que vous utilisez le plugin cPanel, vous pourrez trouver vos logs directement dans l’interface WordPress.
Naviguez depuis les “Metrics” vers “Raw Access”. Ainsi, vous pourrez télécharger quotidiennement vos fichiers de log depuis le file manager et zipper des archives de fichiers plus anciens.

Examinez les contenus d’un fichier de log

Un fichier de log est un large fichier de texte qui contient des informations sur les visiteurs de votre site, dont les bots. Vous pouvez l’ouvrir dans un éditeur de texte basique.
Ce n’est pas difficile de repérer les potentielles visites du googlebot ou de Bing (identifiables via les fichiers de log), mais il est tout de même mieux de confirmer l’identification du bot en utilisant IP lookups.
Vous pourriez également trouver d’autres bots qui crawlent votre site, mais qui ne sont pas vraiment utiles pour vous. Vous pouvez empêcher ces bots d’accéder à votre site.
OnCrawl va procéder à l’analyse de vos fichiers de log pour vous donner une vue claire et précise des bots qui visitent votre site.

Utilisez vos fichiers de log pour plus d’information sur les Crawl Stats

Les informations sur les Crawl Stats sont disponibles dans l’ancienne version de la Google Search Console dans Crawl > Crawl Stats. Elles vous apporteront de nouvelles perspectives lorsque vous les comparerez aux données de vos fichiers de log.
Les données montrées dans la Google Search Console ne sont pas limitées aux bots SEO Google (elles contiennent tous les bots dont ceux Adsense par exemple) et peuvent donc être moins exactes que les informations que vous trouverez en analysant les fichiers de log.

Détection d’activité de crawl inhabituelle

Bill a observé 3 pics récents visibles dans les statistiques de crawl de la Google Search Console. Ils correspondent à des événements importants qui ont déclenché l’augmentation de l’activité de crawl.

Pic d’indexation Mobile First

À première vue, le pic du 7 septembre dans la Google Search Console peut sembler sans rapport avec les événements sur le site. Cependant, un coup d’oeil aux analyses de logs dans OnCrawl fournit des indices :


L’analyse des fichiers de log nous permet de voir la répartition des différents bots que Google a utilisé pour crawler la page. Il est clair que l’activité du Googlebot desktop a brusquement décliné avant cette date. Ce pic, à la différence des précédents qui étaient plus faibles, est composé presque entièrement de visites sur des pages uniques et déjà indexées par le Googlebot mobile.
Une augmentation de 50 % dans le trafic organique enregistrée par Google Analytics confirme que ce pic correspond à l’indexation Mobile First du site en septembre, des semaines avant l’alerte officielle envoyée par Google !

Modification de la structure de l’URL pour le site

Mi-août, Bill a réalisé des changements dans la structure de son URL pour la rendre plus SEO-friendly.
La Google Search Console a enregistré 2 grands pics juste après cette modification, confirmant que Google identifie les événements majeurs sur un site et les utilise comme signaux pour recrawler les URLs d’un site web.
Lorsque l’on observe la répartition de ces visites dans OnCrawl, on voit que le second pic est moins aigu mais que le taux de crawl reste élevé durant plusieurs jours. Il est clair que Google a repéré les changements, Bill peut le confirmer en observant les différences dans l’activité de crawl au fil des jours suivant ses modifications.

Les rapports et les fonctionnalités OnCrawl utiles pour conduire un audit technique

Les visites SEO et les pages actives SEO

OnCrawl traite vos données de logs pour fournir des informations précises sur vos visites SEO ou les visiteurs humains arrivant des SERPs de Google.
Vous pouvez suivre le nombre de visites, ou analyser les pages SEO actives qui sont des pages individuelles de votre site recevant du trafic organique.
L’un des items que vous devez analyser lors d’un audit est la raison pour laquelle certaines pages indexées ne reçoivent pas de trafic organique (ou, en d’autres termes, ne sont pas des pages SEO actives).

Fresh Rank

Le Fresh Rank, une métrique OnCrawl, fournit des informations essentielles. Dans ce cas : le délais moyen entre le moment où Google crawle la page pour la première fois et où la page reçoit sa première visite SEO.

Les stratégies de promotion de contenu et de développement des backlinks peut vous aider à gagner du trafic plus rapidement pour une nouvelle page. Quelques pages de cet audit, comme les articles de blog promus sur les réseaux sociaux, disposent d’un Fresh Rank plus bas.

Les visites de bot sur les pages et les ressources par status code

Les bots peuvent visiter des URLs qui renvoient des erreurs 404 ou 410. Cela peut concerner les ressources comme le CSS, le JavaScript, les PDFs ou les images.
Vous devez absolument analyser ces éléments durant votre audit. Rediriger ces URLs et retirer les liens internes peut générer des résultats positifs.
Au cours d’un audit, il peut être utile de garder des notes sur les éléments qui doivent être traités, comme les URLs qui renvoient des erreurs de status aux bots.

Rapports de Data Explorer : rapports personnalisés

Le Data Explorer d’OnCrawl offre des quick filters pour produire des rapports qui pourraient vous intéresser. Vous pouvez aussi générer vos propres rapports basés sur les critères qui vous sont utiles. Par exemple, vous pourriez vouloir enquêter sur vos pages SEO actives avec des rebonds et un fort temps de chargement.

Rapports du Data Explorer : pages orphelines actives

En combinant vos données analytics, de crawl et de logs, OnCrawl peut vous aider à découvrir les pages générant des visites organiques et humaines qui n’apportent pas toujours de la valeur à votre site. L’avantage d’utiliser les données de vos logs est que vous pouvez détecter toutes les pages de votre site qui ont été visitées, dont les pages qui pourraient ne pas disposer de code Google Analytics.
Bill a pu identifier les visites SEO organiques sur les feed RSS des pages, probablement par le biais des liens de sources externes. Ces pages sont des pages orphelines du site, elles n’ont pas de pages “parentes” qui renvoient vers elles. Ces pages n’apportent pas de valeur ajoutée à sa stratégie SEO, mais elles reçoivent toujours quelques visites depuis le trafic naturel.
Elles représentent de très bonnes candidates pour commencer les optimisations.

L’analytics search pour les classements de mots-clés

Les données des classements peuvent être tirées de la Google Search Console. Dans l’ancienne version de Google Search Console, vous pouvez aller dans Search Traffic, puis Search Analytics et voir les clics, impressions, CTR et positions des derniers 90 jours.
OnCrawl fournit des rapports clairs sur la manière dont ces données sont liées à l’ensemble de votre site. Ainsi, vous pouvez comparer le nombre total de pages sur le site, le nombre de pages classées et le nombre de pages qui reçoivent des clics.

Impressions, CTRs et clics

La segmentation de votre site vous permet de confirmer, en un seul regard, quels types de groupes de pages sont classés et à quelles positions.
Dans cet audit, Bill utilise les métriques d’OnCrawl pour repérer les types de pages qui tendent à bien se classer. C’est le type de pages qu’il doit continuer à produire afin d’augmenter le trafic du site.
Les clics sur les pages classées sont fortement liées à la position de classement : les positions au-delà de 10 ne sont plus sur la première page des résultats de recherche. Le nombre de clics va donc chuter brusquement pour la plupart des mots-clés.

Segmentation d’un site web

La segmentation OnCrawl est une technique pour grouper vos pages dans des ensembles pertinents. Bien qu’une segmentation automatique soit fournie, vous pouvez éditer les filtres, ou créer vos propres segmentation. En utilisant les filtres Query Languages d’OnCrawl, vous pourrez inclure ou exclure les pages d’un groupe en vous basant sur différents critères.
Sur le site que Bill analyse dans le webinaire, la segmentation est basée sur les différents répertoires du site.


Les pages dans la structure > Crawlées > Classées > Actives
Dans le rapport OnCrawl Ranking, le graphique “Pages in structure > crawled > ranked > active” peut vous alerter des problèmes que rencontrent vos pages classées et visitées.
Ce diagramme vous montre :

  • Les pages dans la structure : le nombre de pages qui peuvent être atteintes à travers les différents liens de votre site ;
  • Crawlées : les pages que Google a crawlées ;
  • Classées : les pages qui sont apparues dans les SERPs de Google
  • Actives : les pages qui ont reçu des visites organiques.

Durant votre audit, vous voudrez comprendre les raisons qui ont causé des différences entre les barres du diagramme.
Cependant, les différences entre le nombre de pages dans la structure et le nombre de pages crawlées peuvent être intentionnelles. Par exemple, si vous empêchez Google de crawler certaines pages en interdisant les robots dans le fichier robots.txt. Vous devez être vigilants sur ce sujet lors de votre aduit.
Vous pouvez en savoir plus sur ces données dans OnCrawl, en cliquant sur le diagramme.

Points clés

Les principaux points clés de ce webinaire sont :

  • Les grands changements dans la structure d’un site peuvent produire des variations dans l’activité de crawl.
  • Les outils gratuits de Google rapportent des données qui sont agrégées, pondérées ou arrondies et qui peuvent être inexactes.
  • Les fichiers de log vous permettent de voir le véritable comportement du bot et les visites organiques. Combinés avec les données de crawl et une surveillance quotidienne, ils représentent un outil puissant pour détecter des pics.
  • Des données fiables sont nécessaires pour comprendre pourquoi et comment des changements se sont produits. Pour cela, il vous suffit de croiser les analyses d’analytics, de crawl, de classements et des données de logs extraites d’un outil comme OnCrawl.

Essayez OnCrawl gratuitement !

Vous souhaitez appliquer ces techniques à votre site pour obtenir des insights d’audit actionnables ?

Vous avez loupé le live du webinaire ? Regardez le replay !

Si vous n’avez pas eu la chance d’assister au live du webinar, ou si vous ne pouviez pas rester jusqu’à la fin, vous pouvez toujours regarder la version complète juste ici :


[Read More ...]

3 facteurs qui éloignent les utilisateurs et les crawlers de votre page d’accueil

  Votre page d’accueil n’est pas juste un espace dans lequel vous affichez votre nom de marque et votre logo. Il s’agit de la page initial...