Friday, 28 September 2018

Les 5 chiffres SEO qui nous ont marqué cette semaine (23/09 au 29/09)

Quels sont les 5 chiffres SEO qui nous ont marqué cette semaine ? L’équipe @OnCrawl vous a préparé son top 5 des chiffres les plus marquants. L’ensemble des données utilisées proviennent de sources anglophones. Yahoo Japon, neural matching, shopping sur mobile, longueur de titre et SEO technique : découvrez nos 5 actualités SEO de la semaine.

Google a augmenté de 20 % la longueur moyenne de ses titres dans les résultats de recherche

Selon RankRanger, Google a étendu le nombre de caractères des titres dans les résultats de recherche de 55 caractères à 67,5 caractères. Cela représente une augmentation de 20 %. Voici une capture d’écran de RankRanger montrant cette augmentation qui aurait débuté le 11 Septembre :


Lire l’article

90 % des Japonais qui disposent de smartphones utilisent Yahoo

Depuis 1996, Yahoo Japon est le moteur de recherche et le portail leader au Japon. L’entreprise affiche actuellement 70 milliards de pages vues et les données montrent que 75 % des internautes sur PC l’utilisent et que 90 % des internautes sur mobile sont également des utilisateurs actifs. De quoi faire de l’ombre à Google ! Si vous souhaitez vous développer au Japon, cet article répertorie les principales actions à mettre en oeuvre pour optimiser le SEO sur Yahoo Japon.
Lire l’article

L’algorithme Neural Matching de Google est utilisé dans 30 % des recherches

Google a récemment annoncé qu’il utilisait un algorithme “neural matching” pour mieux comprendre les concepts. Danny Sullivan a déclaré que l’algorithme était utilisé dans 30 % des recherches. Le moteur de recherche a récemment publié ses recherches sur ce nouvel algorithme qui associe les recherches aux pages web sans aucune aide. Cet algorithme ne sera peut-être pas utilisé ou seulement en tant qu’une partie d’un groupe d’algorithmes mais il montre comment un algorithme de “neural matching” peut fonctionne.
Lire l’article

Le shopping sur mobile compte désormais pour 50 % des transactions en ligne

Les transactions mobiles représentent maintenant près de 50 % des achats en ligne dans de nombreux pays d’après l’étude Criteo’s Global Commerce. Le rapport analyse les activités des acheteurs et exploite les données de 5000 e-commerçants. On y apprend également que la part de marché des transactions in-app a augmenté de 30 % par rapport à l’année dernière.
Lire l’article

30 à 40 % des recommandations courantes pour les audits techniques ne font aucune différence

Dans cet article, Will Critchlow explique ce qu’il a découvert en utilisant l’AB Testing dans ses audits SEO. Ainsi, d’après les résultats de son enquête, 30 à 40 % des recommandations SEO techniques courantes ne font pas vraiment de différence. Les techniques de base qui permettent d’améliorer votre site web ne vont pas forcément vous donner un avantage concurrentiel dans vos classements car la plupart des webmasters font en sorte de respecter ces règles.
Lire l’article


[Read More ...]

Thursday, 27 September 2018

Comment booster votre SEO local en 10 étapes

Le SEO local est plus important que jamais pour les entreprises locales qui tentent de booster leurs revenus. Plus de 50 % des personnes qui ont fait une recherche locale sur leurs smartphones se sont ensuite rendues dans une boutique physique dans la journée. Un véritable avantage pour ces entreprises ! Le SEO local n’est pas vraiment différent du SEO organique, il est juste basé sur du local. Voici 10 étapes pour vous aider à booster votre stratégie de SEO local.

Partagez cette infographie sur votre site web !

Retranscription de l’infographie

Le contenu local

Proposer du contenu local sur votre site est indispensable. Vous devez toujours respecter les règles principales du contenu SEO : valeur, détails et régularité. Mais pour promouvoir votre entreprise locale, vous devez ajouter des termes clés, votre localisation et écrire sur des événements, et lieux locaux ou n’importe quel sujet local qui correspond à votre ligne éditoriale !

Google My Business

Configurer votre page Google My Business est la première étape pour une stratégie de SEO local efficace. GMB est un outil qui vous permet de gérer la manière dont votre entreprise apparait dans Google Search et Maps et de fournir les principales informations à vos utilisateurs. Vous devez simplement ajouter quelques informations basiques : nom, secteur, localisation, horaires et photos.

Google Local Pack

Ce outil construit par Google est une section dans les résultats de recherche qui montre 3 entreprises locales liées à la requête de l’utilisateur. Ce “pack” apparait en 1er dans 93 % des cas. Pour vous positionner sur ces résultats, vous devez ajouter autant d’informations sur votre entreprise que vous pouvez dans votre GMB et collecter les avis en ligne.

Les avis

Justement, les avis sont très positifs pour le SEO local ! 84 % des utilisateurs font autant confiance aux avis en ligne qu’à leurs propres amis. N’hésitez pas à demander à vos consommateurs de laisser un avis s’ils sont satisfaits de vos services/produits. Et n’oubliez pas de toujours répondre aux avis, qu’ils soient positifs ou négatifs. Google affirme que cela vous aidera à booster votre visibilité.

Les citations locales

Une citation locale est une mention en ligne du nom, de l’adresse ou du numéro de téléphone de votre entreprise locale. Vous devez essayer d’avoir autant de citations que vous pouvez dans des listings, annuaires ou sites de critiques en ligne. Cela aidera les utilisateurs à découvrir votre entreprise !

Le balisage de données structurées

Vous pouvez ajouter un balisage de données structurées dans le code de votre site pour fournir des informations sur vos horaires, adresse, menu, site et téléphone aux moteurs de recherche. De plus, les entreprises locales peuvent ajouter des données GPS dans les données structurées et Google peut les utiliser afin de diffuser votre localisation aux utilisateurs, en particulier ceux sur mobile.

Les liens locaux

Obtenir des backlinks de sites web (sites d’actualités, écrivains locaux…) qui ont une influence sur votre marché local est nécessaire pour votre entreprise. C’est encore mieux lorsque ces sites sont autoritaires ! Les liens fournis par des sites considérés comme fiables par Google peuvent vraiment vous aider à booster vos classements. Ces liens doivent idéalement inclure vos mots-clés locaux dans l’ancre de texte.

Le titre & Méta description

Les balises titre et méta description vous permettent de contrôler les premières informations que les utilisateurs découvrent sur votre entreprise dans les SERPs. Vous devez écrire avec attention ces informations capitales sur votre entreprise afin de convaincre les utilisateurs. En tant qu’entreprise locale, vous devriez penser à ajouter vos mots-clés et localisation à votre titre et votre méta description.

Recherche de mots-clés locaux

Première chose à savoir : vos mots-clés doivent inclure votre localisation. Puis, vous devez vous renseigner sur les mots-clés visés par vos concurrents, utiliser Google Autocomplete pour générer des suggestions de recherche et créer une liste de “Service” à “Localisation” qui est une liste de vos services mélangés à votre localisation.

La performance de votre site

Google demande à tous les sites web d’être mobile responsive et de se charger rapidement, même pour les entreprises locales. Pour améliorer la vitesse de votre page, vous pouvez commencer avec des actions faciles comme compresser vos images, implémenter AMP, prioriser le contenu visible et essayer de minimiser le temps de réponse du serveur. Cela vous donnera un avantage concurrentiel !


[Read More ...]

Tuesday, 25 September 2018

Journée culturelle huronne-wendat : plaisir et découvertes pour toute la famille

La Ville de Québec invite les citoyens à participer à la Journée culturelle huronne-wendat qui aura lieu le samedi 29 septembre, de 13 h à 17 h, à la maison des Jésuites de Sillery. L’activité est gratuite.

Danses, chants, musique, langue, jeux, artisanat : le programme de la journée comprend de nombreuses activités ludiques qui permettront d’établir un contact privilégié avec les Hurons-Wendat et d’en savoir plus sur leur culture.

Petits et grands pourront en effet apprendre quelques pas de danses traditionnelles lors de démonstrations de danses et de chants. De plus, des jeux ancestraux seront proposés aux visiteurs qui pourront se divertir au son du tambour. La langue wendat sera également à l’honneur et il sera possible d’en apprendre les rudiments. Enfin, un atelier d’artisanat permettra aux participants de fabriquer de jolis bracelets ou pinces à cheveux.

L’activité aura lieu beau temps comme mauvais temps.

Elle est présentée en collaboration avec les Femmes aux tambours de Wendake, la Maison Andicha et Arakwa Sioui, et elle s’inscrit dans le cadre de l’exposition Ahchiouta’a raconte les Hurons-Wendat du Saint-Laurent, présentée jusqu’au 16 décembre 2018 à la Maison des Jésuites de Sillery.

La maison des Jésuites de Sillery est située au 2320, chemin du Foulon. Elle est ouverte du mercredi au dimanche, de 13 h à 17 h.

Renseignements : 418 654 0259; ville.quebec.qc.ca; maisonsdupatrimoine.com

[Read More ...]

La nouvelle Google Search Console : avantages et inconvénients

La Google Search Console a subi d’importants changements au cours du mois d’août qui ont abouti à l’annonce d’une nouvelle version le 4 septembre. Comme d’habitude, la communauté SEO n’a pas hésité à partager son opinion.
Voici un résumé des principaux changements :

  • Suppression des recherches personnalisées, à faible volume ou de longue traîne dans les vues filtrées ;
  • Simplification de la procédure de déclaration d’un site ;
  • Outil d’inspection des URLs en temps réel (live) ;
  • Un nouveau design pour les rapports Actions Manuelles ;
  • Nouveaux rapports : Couverture d’lndex, Performance, Liens ;
  • Plus de données : 16 mois de données au lieu de 90 jours ;
  • Changements dans la gestion des utilisateurs et des permissions.

Les principaux points positifs

Malgré de nombreuses critiques, nous avons aussi identifié 10 points que nous sommes heureux de découvrir dans la nouvelle Google Search Console.

1. 16 mois de données !

Lors de la transition vers la nouvelle Search Console, Google a étendu la quantité de données disponibles. Dans tous les cas, bénéficier de 16 mois de données est un véritable avantage.
Pour tous ceux qui analysent régulièrement leur performance, être capable de suivre des tendances saisonnières ainsi que les résultats sur le long terme est un vrai plus.

2. Les backlinks

Les informations sur les backlinks sont disponibles dans le nouveau rapport de liens. C’est un avantage, en particulier si vous ne disposez pas d’outil séparé pour suivre les liens de vos pages.

3. La performance incluant le CTR

Le nouveau rapport Performance inclut désormais les CTRs ainsi que les impressions et les clics agrégés. Vous pouvez télécharger les premiers 999 résultats en format CSV pour obtenir le CTR pour les pages individuelles, les mots-clés, pays, appareils et types de résultats. Cela rend les données de la Search Console de plus en plus actionnables.

4. Les notifications sur la santé du site

Si vous utilisez Google Search Console pour détecter des problèmes, ce nouveau système d’alertes est un réel avantage. Au lieu de surveiller les problèmes séparément, Google vous informera lorsque d’importants événements affectent votre site.
Ces notifications apparaissent en haut à droite de la barre du header.

5. Le processus pour la correction d’erreurs

Dans l’ancienne Search Console, vous pouviez soumettre à nouveau des pages corrigées, mais toutes les erreurs qui étaient marquées comme “corrigées” disparaissaient définitivement de votre Search Console.
Avec le nouveau processus, vous pouvez toujours corriger et resoumettre des pages. Cependant, il permet également de détecter les erreurs récurrentes au lieu de supprimer celles marquées comme résolues comme le faisait l’ancienne version.

6. Le rapport d’actions manuelles

Le nouveau rapport d’actions manuelles “liste les cas où un analyste humain a déterminé que les pages sur votre site ne correspondaient pas aux directives de qualité de Google et fournit des informations pour vous aider à corriger le problème”.
Ce rapport contient des items actionnables, et la documentation pour le rapport d’Actions Manuelles propose des suggestions pour aborder les types d’actions qui pourraient se présenter.

7. Les efforts pour inclure la communauté d’utilisateurs

Plus tôt cette année, au cours de la phase bêta, vous pouviez indiquer à Google les fonctionnalités qui vous manquaient le plus. Maintenant que la nouvelle Search Console est sortie, Google recherche des webmasters disponibles pour témoigner sur leur usage.

8. L’inspection en direct des URLs

L’inspection des URLs vous permettra de vérifier le statut d’indexation en direct pour n’importe quelle URL de votre site.
Nous apprécions tout particulièrement les informations sur les statuts des pages canoniques. Vous pouvez voir :

  • L’URL canonique de la page selon la balise rel=”canonical”, si vous en avez configuré une ;
  • L’URL canonique de la page déterminée par Google, s’il en a choisi une lui-même.

9. La documentation de Google

Google a fait un réel effort pour documenter les changements entre l’ancienne et la nouvelle Search Console. Encore plus important, Google a fourni des informations sur :

  • Comment trouver vos anciens rapports dans la nouvelle version ;
  • Comment réaliser des tâches communes qui devraient être faites autrement ;
  • Quelles fonctionnalités ne sont toujours pas prises en charge.

10. Une UI repensée

Certains utilisateurs ont également fait remonter une amélioration de l’UX. Peut-être que vous en faites partie !

Les principaux points négatifs

La plupart des obstacles et difficultés avec la nouvelle Search Console peuvent être résumés en 3 catégories.

1. L’exclusion des données de recherches de faible volume des résultats

Google invoque des raisons de confidentialité pour justifier l’exclusion des données de recherches à faible volume. Cette nouvelle a été accueillie comme une grande perte. La plupart d’entre nous construisons des stratégies qui se concentrent sur les mots-clés à longue traîne. Ainsi, nous sommes présents sur les recherches où nous pouvons fournir les résultats les plus pertinents, au lieu de se battre pour les premiers résultats sur des mots-clés à grand volume. La perte de ces données rend l’usage de la nouvelle Search Console extrêmement difficile dans le cadre de ce type de stratégie.
Si cela vous frustre, vous n’êtes pas le seul. John Mueller a déclaré sur reddit :

“ ces requêtes n’ont jamais été listées dans la Search Console. Le changement concerne le filtre “la recherche ne contient pas”. Nous n’ajoutons plus aveuglément toutes les recherches (les recherches filtrées) aux totaux dans le graph .
Je n’aime pas vraiment faire des changements parce que cela perturbe les suivis sur le long terme des utilisateurs (Qu’est-ce qu’il s’est passé ?!), mais je pense que la nouvelle version est plus propre que l’ancienne et nous aurions dû faire ces changements un jour ou l’autre.”

Si vous êtes un utilisateur OnCrawl, vous n’avez rien à craindre de ce changement, puisqu’il n’y a pas eu de changement sur les données en elles-même. OnCrawl récupère toujours toutes vos données depuis la Google Search Console, dont les recherches non tracées qui n’apparaissent pas dans la Search Console.

2. Un manque de parité dans les fonctionnalités entre l’ancienne et la nouvelle version de Google Search Console

Vous pourriez aussi trouver que certaines des fonctionnalités au coeur de votre usage quotidien ne sont plus disponibles. Dans l’annonce officielle sur le blog de Google webmaster, Google a affirmé :

“Même si l’ancienne Search Console dispose de fonctionnalités qui ne sont pas encore disponibles dans la nouvelle version, nous pensons que les cas d’utilisation les plus fréquents sont inclus de manière améliorée dans la nouvelle Search Console.”

Une liste des problèmes connus est disponible dans la documentation de la Search Console, mais le premier item semble être un fourre-tout :

  • Tous les rapports, outils et fonctionnalités de l’ancien produit n’ont pas encore été mis en œuvre.
  • L’expérience mobile est encore en cours d’élaboration.
  • Les ensembles de propriétés ne sont pas encore pris en charge.
  • Les applications Android ne sont pas encore prises en charge.

Parmi les fonctionnalités et outils qui ne semblent pas encore avoir été implémentés se trouvent la capacité de créer un ensemble de propriétés ou même de supprimer des sitemaps existants.
Si vous recherchez les anciens rapports, pour le moment vous pouvez encore les trouver dans la sidebar. Cependant, Google a déclaré qu’ils seraient supprimés “après une période raisonnable” et recommande fortement d’utiliser les nouveaux rapports même si les anciens sont encore disponibles.

3. Les fonctions prises en charge qui ne fonctionnent pas correctement

Certaines des nouvelles fonctionnalités qui sont présentes dans la nouvelle Google Search Console ne sont pas pour autant fonctionnelles. Par exemple :

    • Les requêtes d’indexation des URLs peuvent être très lentes.
    • Il peut y avoir des disparités dans les rapports d’erreurs entre l’ancienne et la nouvelles Search Console comme le montrent Pete Meyers et Marie Haynes de Moz.

Avez-vous déjà été confronté à des difficultés dans la nouvelle Search Console ? Que pensez-vous du nouveau design ? Faites-le nous savoir dans les commentaires !


[Read More ...]

Friday, 21 September 2018

Les 5 chiffres SEO qui nous ont marqué cette semaine (15/09 au 22/09)

Quels sont les 5 chiffres SEO qui nous ont marqué cette semaine ? L’équipe @OnCrawl vous a préparé son top 5 des chiffres les plus marquants. L’ensemble des données utilisées proviennent de sources anglophones. Mobile, recherche vocale, trafic, leads, ventes en ligne & WordPress : découvrez nos 5 actualités SEO de la semaine.

WordPress dispose de 60 % des part de marché du content management

Cet article propose différents conseils pour les personnes qui souhaitent lancer leur site web. Ainsi, l’auteur conseille de bien choisir la plateforme d’administration de votre site web. Il mentionne WordPress, le leader du secteur qui dispose désormais de 60 % des parts de marché du content management. De nombreux webmasters utilisent WordPress, y compris le média Search Engine Journal qui a été conçu via cette plateforme ! WordPress vous permettra de mettre en place de solides bases SEO sur votre site dès le premier jour.
Lire l’article

60 % des recherches Google sont désormais réalisées via des appareils mobiles

Cet article vous propose un guide complet pour réaliser vos audits SEO. Ainsi, nous y apprenons que 60 % des recherches sont désormais réalisées depuis des appareils mobiles. L’auteur conseille d’optimiser vos sites afin qu’ils soient “mobile-friendly” aux yeux de Google. Vous pouvez tester votre site directement dans l’outil de Google dédié à cela.
Lire l’article

Dans 14 % des cas, la recherche vocale est utilisée pour lancer de la musique

D’après cette étude de HigherVisibility, la recherche vocale est utilisée dans 14 % des cas pour lancer une musique. Dans 9 % des cas, les utilisateurs posent une question drôle à leur assistant vocal, dans 7 % des cas, ils consultent les actualités et dans 5 % des cas, ils demandent des informations sur une entreprise locale.
Lire l’article 

61 % des marketers estiment que générer du trafic et des leads est leur plus grand challenge

D’après une étude Hubspot, 61 % des marketers estiment que générer du trafic et des leads est leur plus grand défi. Cet article propose un guide complet pour apprendre à analyser correctement ses données dans Google Analytics et à booster son SEO pour générer un maximum de trafic et de leads.
Lire l’article

Les ventes en ligne devraient augmenter de 14 % au 4ème trimestre 2018

Pour beaucoup de retailers, le dernier trimestre de l’année représente une grande partie de leurs revenus. Cette année, les ventes en ligne devraient augmenter de 14 % entre septembre et décembre et les ventes en magasin de 3.5 %. De telles prédictions devraient motiver n’importe quel webmaster à optimiser son site web pour générer du trafic qualifié !
Lire l’article


[Read More ...]

Thursday, 20 September 2018

Québec fait appel

La Ville de Québec a annoncé jeudi qu’elle allait porter en appel une décision de la Cour...
[Read More ...]

Interview – Serbay Arda Ayzit, expert SEO et ambassadeur OnCrawl

Nous sommes heureux de recevoir notre ambassadeur turc, Serbay Arda Ayzit, sur notre blog pour en apprendre plus sur lui, son parcours et ses recommandations SEO.

1# Peux-tu te présenter ?

serbay arda ayzit

 

Bien sûr. Je m’appelle Serbay et je vis à Istanbul en Turquie. J’ai terminé un bachelor à l’université et un MBA en Marketing & Communication à Istanbul. J’ai 36 ans et je travaille dans le Marketing Digital depuis 11 ans.

 

 

#2 Comment et pourquoi as-tu commencé le SEO ?

Deux grandes parties de ma vie s’articulent autour du SEO. De 1999 à 2006, j’étais modérateur pour l’un des plus gros forums de Turquie et j’aidais les webmasters à obtenir plus de trafic de Google. Mais à l’époque, Google n’était pas aussi puissant qu’aujourd’hui et nos implémentations restaient très basiques. En 2007, j’ai débuté mon premier travail en devenant spécialiste en marketing online. Mon plus grand atout dans ce job était les connaissances SEO que j’avais acquises auparavant. J’ai donc commencé le SEO juste pour faire du trafic puis c’est devenu mon véritable métier.

3# Tu as travaillé pendant 10 ans pour la plus grande agence de performance digitale de Turquie. Quels sont les plus gros challenges SEO auxquels tu as fait face durant cette période ?

Lorsque j’y repense, mon plus grand challenge était d’essayer de faire quelque chose sur un marché qui était très peu connu. La plupart de mon temps en agence était dédié à éduquer mes clients et leurs équipes. J’ai eu la chance de travailler avec de grandes marques en Turquie. Ce challenge m’a donné l’opportunité d’apprendre à convaincre les CMO et Marketing Managers de l’importance du Search et en leur prouvant le ROI potentiel. Les autres challenges SEO sont principalement dus aux ressources humaines.

4# Tu as également créé Contentus, une entreprise de marketing de contenu. Peux-tu nous expliquer ce que vous y faites ?

Contentus est mon entreprise de marketing de contenu que j’ai créée il y a 5 ans avec mon partenaire. D’après mes expériences lors de conférences, je savais que le marketing de contenu allait devenir très important. Avec mon partenaire, nous nous sommes dit “Lançons-nous en Turquie” et nous avons ouvert. Contentus crée des histoires pour votre blog mais aussi pour les descriptions de vos produits, des infographies, des vidéos basées sur les données que nos rédacteurs ont trouvées. Chez Contentus, tous nos Content Strategists et rédacteurs savent comment utiliser le SEO et les outils de mots-clés pour créer le meilleur contenu possible pour les utilisateurs. Nous accompagnons actuellement 10-15 clients différents dont Jaguar, BMW, Nike…

5# Pourquoi et comment le marketing de contenu et le SEO devraient vivre ensemble ? Des recommandations pour booster la visibilité d’une marque ?

Dans le monde actuel, ces disciplines doivent travailler ensemble. Les consultants SEO peuvent voir les classements des concurrents, les mots-clés potentiels, les écarts et les tendances d’un marché donné. Les agences de contenu peuvent rédiger des contenus de qualité et appuyés sur des données pour créer la meilleure expérience utilisateur et améliorer les classements.
Comprendre les intentions de recherche est crucial d’après moi. Mon seul conseil est de travailler ensemble, d’organiser des sessions de brainstorming pour retracer les intentions de recherche de l’utilisateur. Il peut aussi être efficace d’utiliser un score de contenu basé sur les sujets que vous avez utilisés dans l’article et de configurer des scores d’analytics de contenu en utilisant des événements. Cela vous aidera à comprendre si votre campagne se déroule bien ou non.

6# Quels événements suis-tu sur Google Analytics pour noter le contenu ?

J’utilise des événements depuis les boutons de partage social, le scroll de la page, le temps sur la page puis je crée un score qui calcule ces événements avec une note pour chacun d’entre eux. À la fin, je sais quels articles sont vraiment utiles pour mes clients et quels rédacteurs sont doués.

7# Jouons à un jeu ! Bonne ou mauvaise idée ? Et pourquoi en 2-3 phrases.

AMP pour les sites e-commerce ?

Mauvaise idée car selon moi, cela fait diminuer les taux de conversion. Les versions mobiles sont mieux que AMP.

Sitemap ou pas Sitemap ?

Sitemap bien sûr, pour des objectifs de découverte. Assurez-vous que vos sitemaps soient propres si vous voulez que Google découvre vos contenus frais. Mais ne pensez pas qu’ils vous aideront à être mieux classé.

Est-ce que plus de contenu est toujours une bonne idée ?

Mauvaise idée. “Le moins, le mieux”. Les intentions de recherche sont primordiales. Faites en sorte de créer le meilleur contenu qui résoudra les problèmes de l’utilisateur. Une fois par semaine peut être une bonne fréquence.

Un site web rapide, toujours une bonne idée ?

Toujours une bonne idée. Cela permet d’augmenter le taux de conversion et de vous retrouver avec des utilisateurs moins énervés 🙂

Le meilleur site optimisé que vous ayez vu récemment ?

British Airways est un bon exemple. En tant que site web d’une compagnie aérienne, ils ont réussi à ajouter du contenu pertinent et utile sur des villes et des informations sur leur secteur. Désormais, ils se classent pour des mots-clés stratégiques et pas seulement ceux liés aux billets d’avion.

8# Des expérimentations SEO que tu aimerais mener cette année et pourquoi ?

Oui, j’aimerai conduire quelques expériences pour comprendre ce que Google fait dans ses mises à jour de l’algorithme. Par exemple, j’utilise OnCrawl pour scrapper le contenu de sites web classés afin de comprendre si les numéros de produit dans les catégories améliorent les classements ou non. Je suis actuellement en train de mener ces recherches, je partagerai mes résultats dès que possible.

9# Tu assistes à beaucoup de conférences SEO. Quelle est ta conférence favorite ? Comment choisis-tu tes sujets ?

Search Love est le meilleur événement pour moi. Search Love offre seulement une session durant 2 jours donc vous n’avez pas besoin de choisir. Mais lorsque je dois choisir un thème, je sélectionne des conférences visionnaires comme la recherche vocale, l’IA dans le search, les sessions liées à JavaScript, etc… D’ailleurs, j’interviendrais lors de SearchLove cette année.

10# Tu as rejoint le comité d’ambassadeurs OnCrawl récemment. Quelles sont tes impressions ? Et quelle est ta fonctionnalité favorite ?

C’est un très bon sentiment qu’être ambassadeur pour OnCrawl. Avant d’être ambassadeur, j’utilisais déjà l’outil et je l’adorais. Donc avoir la chance de contribuer encore plus au développement d’OnCrawl est une grande chance pour moi. J’adore mélanger des données de différentes sources de données dans OnCrawl et obtenir les insights qui en découlent. Par exemple, avec les intégrations Search Console et Majestic, je peux voir comment la longueur d’un contenu affecte les backlinks et les classements, ce qui est très utile !

Merci pour ton temps Serbay et pour tes impressions sur le secteur du SEO ! À bientôt 🙂

Écoutez son interview complète :


[Read More ...]

Tuesday, 18 September 2018

6 faits à connaître sur le SEO et Javascript

Connaître les bases du JavaScript est devenu une compétence vitale pour les spécialistes du référencement naturel, bien que jusqu’à récemment, la relation entre ces deux disciplines a été un sujet très controversé.

La question cruciale qui plane entre le SEO et JavaScript est de savoir si les robots des moteurs de recherche peuvent percevoir correctement le contenu d’un site Web et évaluer de façon réaliste l’expérience de l’utilisateur.

Alors que le HTML, qui fonctionne avec PHP, CSS, etc., peut être lu directement par un crawler, un site Web basé sur JavaScript n’est pas accessible d’emblé. Les crawlers de Google analysent d’abord le DOM, et ce n’est qu’ensuite qu’ils parcourent le site Web.

Définitions générales

Avant de nous pencher sur les meilleures pratiques d’optimisation de JavaScript, jetons un coup d’œil rapide à la terminologie de base :

JavaScript est un langage de programmation utilisé pour rendre les pages Web dynamiques et interactives. Vous pouvez placer JavaScript dans un document HTML, ou faire un lien ou une référence à celui-ci.

HTML signifie Hypertext Markup Language (langage de balisage hypertexte). En termes simples, il s’agit d’un organisateur de contenu : HTML fournit la structure d’un site Web (listes, titres, sous-titres, paragraphes, etc.) et définit le contenu statique.

AJAX est Asynchronous JavaScript and XML. Fondamentalement, il met à jour le contenu sans rafraîchir toute la page. AJAX permet aux applications web et aux serveurs de communiquer sans intrusion sur la page en cours.

Cependant, vous devez noter qu’à partir du deuxième trimestre 2018, Google n’aura plus besoin d’AJAX pour parcourir des sites Web basés sur JavaScript.

Un spécialiste du référencement naturel devrait également avoir une compréhension de base de DOM (Document Object Model). Vous pouvez considérer DOM comme un outil utilisé par Google pour explorer et analyser les pages Web.

Tout d’abord, Google reçoit un document HTML et identifie ses éléments JavaScript. Ensuite, le navigateur lance DOM, ce qui permet au moteur de recherche de rendre la page.

1. Laissez les moteurs de recherche voir votre JavaScript

Le fichier Robots.txt est configuré pour fournir aux moteurs de recherche de Google des possibilités d’exploration appropriées. Si vous les empêchez de voir JavaScript, la page apparaîtra différemment pour les robots d’exploration que pour les utilisateurs.

Cela signifie que les moteurs de recherche n’obtiendront pas la pleine expérience de l’utilisateur, et Google peut interpréter ces actions comme une dissimulation.

La meilleure approche est de fournir aux crawlers toutes les ressources dont ils ont besoin pour voir les pages web de la même manière que les utilisateurs.

2. Liens internes

Le lien interne est un puissant outil de référencement utilisé pour montrer aux moteurs de recherche l’architecture de votre site Web et pointer vers les pages Web les plus importantes.

Le conseil le plus essentiel ici : utilisez les liens internes, et n’essayez même pas de les remplacer par des events JavaScript lors des clics.

Oui, les URL de fin sont susceptibles d’être trouvées et parcourues avec des events on-click, mais les web crawlers ne les associent pas à la navigation globale de votre site.

Par conséquent, il serait préférable d’implémenter des liens internes en utilisant des balises d’ancrage régulières dans le HTML ou le DOM, afin de fournir aux utilisateurs une meilleure expérience.

3. Structure de l’URL

Les sites basés sur du JavaScript utilisés pour inclure des identificateurs de fragments dans les URLs, mais les hashes (#) et hashbangs (# !) ne sont pas recommandés par Google.

Une méthode fortement recommandée est l’API d’historique pushState. Il met à jour l’URL dans la barre d’adresse et permet aux sites en JavaScript de tirer parti des URL propres.

Une URL propre est également appelée URL SEO-friendly, qui consiste en un texte simple, facilement compréhensible par les utilisateurs non experts.

Envisagez d’utiliser pushState() pour un scroll infini, de sorte que l’URL se mette à jour chaque fois que l’utilisateur accède à une nouvelle partie de la page. Dans un scénario parfait, l’utilisateur peut rafraîchir la page et rester exactement au même endroit.

Aussi, explorer les meilleures pratiques SEO URL et commencer à les utiliser pour améliorer l’expérience utilisateur.

4. Testez votre site Web

Google est capable d’explorer et de comprendre de nombreuses formes de JavaScript, bien que certaines d’entre elles puissent être plus difficiles que d’autres.

Cependant, il est toujours préférable de prédire les erreurs et les problèmes possibles et de les éviter, alors pourquoi ne pas faire des tests ?

Suivez ces deux étapes de base pour détecter d’éventuelles ruptures :

  • Vérifiez si le contenu de vos pages Web apparaît dans le DOM.
  • Testez quelques pages pour vous assurer que Google est capable d’indexer votre contenu.

Il est crucial de savoir si Google est capable de voir votre contenu et votre JavaScript dans le robots.txt et de l’analyser correctement. Par conséquent, envisagez de vérifier manuellement les éléments de votre contenu et de les récupérer avec Google pour voir si le contenu apparaît.

Vous pouvez tester votre site simplement en utilisant la Google Search Console et la fonction “explorer comme Google”.

Vous pouvez également utiliser certains crawlers qui prennent en compte le javascript comme OnCrawl.

5. Snapshots HTML

Google a introduit les snapshots HTML en 2009 et les a désapprouvés en 2015. C’est une longue histoire et un sujet d’actualité.

Voyons d’abord qu’est-ce qu’un snapshot HTML ?
Le snapshot contient le contenu d’une page après qu’elle a été complètement analysée, interprétée et rendue. Le rôle du snapshot HTML est d’être interprétable sans avoir besoin d’exécuter du code JavaScript.

Ce qu’il faut savoir, c’est que Google supporte toujours les snapshots HTML, bien qu’il ait déterminé qu’il s’agit d’éléments à éviter.

Les snapshots HTML peuvent être nécessaires pour certaines situations, donc vous devriez au moins les connaître.

Par exemple, si les moteurs de recherche ne peuvent pas récupérer le JavaScript sur votre site Web, vous pouvez leur fournir un snapshot HTML, ce qui est mieux que de ne pas avoir votre contenu indexé du tout.

Dans un monde parfait, un site Web utiliserait une sorte de détection de l’agent utilisateur du côté serveur et montrerait le snapshot HTML aux robots et aux utilisateurs.

Notez que Google s’efforce de voir exactement la même expérience qu’un internaute. Par conséquent, il est préférable de retourner les snapshots HTML aux robots des moteurs de recherche.

6. Latence du site

Lorsqu’un navigateur crée le DOM à partir d’un document HTML reçu, il charge la majorité des ressources exactement comme elles sont mentionnées dans le document HTML.

Si un fichier massif existe en haut d’un document HTML, un navigateur chargera d’abord ce fichier énorme, et toutes les autres informations n’apparaîtront qu’après, avec un délai significatif.

L’idée clé du “critical rendering path” de Google est de charger d’abord des informations cruciales pour les utilisateurs. En d’autres termes, placer le contenu le plus essentiel pour les utilisateurs au-dessus de la zone de flottaison.

Si vos fichiers JavaScript ou certaines ressources inutiles bloquent la vitesse de chargement des pages, vous avez probablement un JavaScript bloquant le rendu, également appelé latence perçue.

Cela signifie que vos pages ont le potentiel d’apparaître plus rapidement, mais le code JavaScript les ralentit.

Vérifiez combien de temps il faut pour charger une page avec Page Speed Insights ou d’autres outils similaires. Analysez les résultats pour voir s’il y a un JavaScript bloquant le rendu.

Voici 2 solutions pour résoudre ce problème :

  • Ajoutez l’attribut ‘async’ dans votre HTML pour rendre votre JavaScript asynchrone.
  • Réduire les éléments JavaScript dans le document HTML.

Lorsque vous essayez d’améliorer la situation, gardez à l’esprit les règles de base de JavaScript.

Par exemple, les scripts doivent être classés dans un certain ordre. Si certains scripts référencent des fichiers, ils ne peuvent être utilisés qu’après le chargement des fichiers référencés.

Vous devriez constamment rester en contact avec votre équipe informatique pour vous assurer que toute modification n’interrompt pas l’expérience utilisateur.

Conclusion

Les moteurs de recherche sont en constante évolution, donc ils interpréteront sans doute mieux et plus rapidement votre JavaScript à l’avenir.

Pour l’instant, assurez-vous que votre contenu existant peut être parcouru et obtenu, avec une latence de site appropriée.


[Read More ...]

Friday, 14 September 2018

Les 5 chiffres SEO qui nous ont marqué cette semaine (08/09 au 14/09)

Quels sont les 5 chiffres SEO qui nous ont marqué cette semaine ? L’équipe @OnCrawl vous a préparé son top 5 des chiffres les plus marquants. L’ensemble des données utilisées proviennent de sources anglophones. Temps de chargement, IA, YouTube & SEO local : découvrez nos 5 actualités SEO de la semaine.

53 % des visites sont abandonnées si un site mobile met plus de 3 secondes à se charger

Les serveurs permettant des délais de réponse rapides sont une nécessité en SEO. Et pour cause : 53 % des utilisateurs mobiles vont abandonner une visite si le site met plus de 3 secondes pour se charger. Un site web optimisé est essentiel si vous souhaitez éviter que vos requêtes auprès de la base de données ou encore votre routage soient lents. Google recommande un temps de réponse inférieur à 200ms. L’article détaille différentes actions pour vous aider à améliorer cet aspect de votre site.
Lire l’article

Heliograpf, le robot rédacteur a rédigé près de 850 articles en 2017

Cet article s’intéresse aux rôles de l’IA et du SEO dans la création de contenu. Ainsi, en 2016, le Washington Post a développé son premier spécimen, Heliograf, qui les a aidé à couvrir les Jeux Olympiques de Rio. Ce robot a été créé pour générer de courts rapports sur différents jeux. Cette technologie n’a pas été créée pour remplacer les rédacteurs mais pour les aider à se libérer du temps. Heliograpf a rédigé 850 articles en 2017 et a reçu le prix “Global BIGGIES Awards” dans la catégorie “Excellence in Use of Bots”.
Lire l’article

70 % du temps de visionnage sur YouTube est dirigé par les propres recommandations de YouTube

Les recommandations de YouTube est l’une des innovations les plus réussies que Google n’ait jamais construit. Près de 70 % du temps de visionnage sur YouTube est conduit par les recommandations de YouTube. Le secteur du SEO a tendance a affirmé que “YouTube est le second plus large moteur de recherche”. La plateforme de vidéo a d’ailleurs publié un document (The YouTube Video Recommendation Engine) détaillant comment le système de recommandation fonctionne. Cet article a pour objectif de détailler ces lignes directives.
Lire l’article

63 % des consommateurs utilisent les sites web des entreprises pour faire des achats

Selon une étude de Digital Consumer, 63 % des consommateurs privilégient les sites des marques pour faire des achats. C’est pourquoi il est essentiel que vous ayez optimisé votre site web pour l’expérience utilisateur. L’article souligne que la principale faiblesse des sites en e-commerce est la lenteur de chargement. Ce facteur peut réellement avoir un impact sur votre trafic. Les utilisateurs ne vous donneront pas plus de 10 secondes avant de quitter votre page et Google requiert un temps de chargement aussi rapide que possible et au moins inférieur à 7 secondes.
Lire l’article

61 % des marketers affirment que leur présence organique est leur principale priorité

Ce livre blanc est un guide complet dédié au SEO Local. On y apprend notamment que 61 % des marketers estiment que leur présence organique est leur priorité principale, 78 % des recherches mobiles locales aboutissent à des achats en ligne et la combinaison de résultats organiques et paid génèrent 89 % plus de clics. Généralement, le SEO local est une stratégie qui se concentre sur l’optimisation des efforts locaux, notamment pour les commerces brick-and-mortar.
Lire l’article


[Read More ...]

Thursday, 13 September 2018

Nouveau directeur général à Québec

L’actuel sous-ministre des Finances, Luc Monty, deviendra sous peu le directeur général de la Ville...
[Read More ...]

Les bots SEA & verticals sont désormais inclus dans l’analyseur de logs d’OnCrawl

Nous venons d’intégrer 7 bots additionnels dans notre outil d’analyse de logs. Jusqu’à présent, nous ne traitions que les bots liés au SEO comme le googlebot desktop et mobile. Pourquoi devez-vous suivre ces bots ? Découvrez comment surveiller les bots liés aux recherches verticales et SEA peut s’avérer utile pour votre stratégie SEO.

Pourquoi surveiller des bots supplémentaires ?

Une vue globale du budget de crawl

Votre budget de crawl global inclut le coût des crawls de tous les bots de Google, pas seulement des bots SEO. Vous pouvez examiner les changements dans votre budget de crawl et leurs éventuels impacts sur vos positions en gardant un oeil sur tous les bots qui crawlent votre site.

Les données de la Google Search Console

La Search Console présente la fréquence et le budget de crawl comme valeur globale pour tous les bots de Google. Cela signifie que les visites de tous les bots sont ajoutées ensemble dans la Search Console. Ainsi, le nombre de visites de bots SEO que vous voyez dans OnCrawl sera toujours inférieur à ce que vous voyez dans la Search Console. Ce nombre est plus faible mais permet de comprendre plus précisément comment le budget de crawl est dépensé en fonction des visites SEO.

Avec l’ajout du reste des bots Google officiels, le nombre total de visites de bots sera bien plus exact que ce qui est indiqué dans la Google Search Console. Bonus supplémentaire : nous vous fournissons la répartition de crawl par bot.
Il peut rester des différences, en partie dues à la présence croissante des bots de Google qui ne sont pas toujours officiellement listés, et de ceux qui sont pas encore pris en compte dans OnCrawl, comme le bot AMP.

Identifiez s’il existe une relation entre Adwords et les crawls SEO

Est-ce que les AdsBots et les bots SEO partagent les informations qu’ils ont trouvées à propos de vos URLs ? Il s’agit d’une question fréquemment posée en SEO. Si les AdsBots partagent des informations avec les bots SEO, alors Google devrait avoir besoin de crawler vos pages moins fréquemment car elles auront déjà été crawlées par les AdsBots.

Surveiller le comportement de ces deux types de bots vous permet de déterminer s’il existe une relation entre les bots SEO et les AdsBots.

Tracker le comportement des deux bots peut vous apporter des réponses :

  • Y-a-t-il une corrélation positive entre les bots SEO et le comportement des AdsBots ? (Est-ce que leurs fréquences de crawl augmentent et diminuent ensemble ?)
  • Est-ce qu’une augmentation des visites de AdsBot conduit à une diminution des visites des bots SEO ?

Utilisez les googlebots média pour dégager des tendances

E-commerce : surveillez les googlebot-images et si les recherches image vous rapportent un certain nombre de visites. Comprenez à quelle fréquence vos pages sont crawlées pour leurs images et si le taux de crawl a un impact sur vos clics.

Médias en ligne : pistez le googlebot-image, le googlebot-video, le mediapartners-google pour comprendre à quelle fréquence vos articles sont choisis par Google et pour anticiper plus précisément les impressions et clics.

Surveillez l’interaction entre vos politiques SEO et SEA

Si vous êtes responsable des stratégies SEO et SEA, avoir accès au comportement du bot SEO est un avantage majeur.
Même si vous n’êtes pas en charge des campagnes SEA, contrôler les bots SEA va vous aider à mieux coordonner les stratégies SEO et SEA. Savoir comment ces deux types de bots se comportent peut éviter d’avoir des campagnes conflictuelles sur des URLs sélectionnées.

Les nouveaux bots intégrés dans OnCrawl

Adsense
Ces bots crawlent les pages pour AdSense.

  • Mediapartners-Google (mobile)
  • Mediapartners-Google (desktop)

Adsbot
Ces bots vérifient la qualité et la pertinence des pages utilisées dans les campagnes payantes.

  • AdsBot-Google-Mobile
  • AdsBot-Google (desktop)
  • AdsBot-Google-Mobile-Apps

Media
Ces bots crawlent votre site à la recherche de médias indexables.

  • Googlebot-Image
  • Googlebot-Video

Note : vous pouvez suivre le comportement des bots SEO de Google, Googlebot (mobile) et Googlebot (desktop), dans les autres rapports sur la rubrique Logs Monitoring d’OnCrawl.

Bonnes pratiques pour les bots SEA & verticals dans OnCrawl

  • Vous devez avoir l’option log monitoring active afin d’ajouter la fonctionnalité de traçage des bots SEO & verticals. (Cette information est extraite de vos analyses de logs.)
  • Il est possible de suivre seulement une sélection des bots supplémentaires en filtrant vos fichiers de log avant de les envoyer à OnCrawl. Retirez les lignes de log relatives aux bots que vous ne voulez pas suivre.
  • Si vous filtrez vos fichiers de log avant de les envoyer à OnCrawl, vous aurez besoin d’ajuster vos filtres. Laissez les lignes des bots qui vous intéressent. Vous pouvez baser vos filtres sur les informations de la liste officielle Google bot user-agents.
  • Vous aurez peut-être besoin de consulter l’onglet “Resources” sur de nombreux graphiques si seulement une sélection de bots visite votre site, ou si vous surveillez uniquement quelques bots. C’est le cas si vos pages attirent les bots média, mais pas les bots AdSense ou AdsBot.
  • Utilisez le set de données Logs Monitoring: Events” dans le Data Explorer pour créer des rapports avec ces données.
  • Si une large portion de votre trafic provient de Google News, ou des recherches image ou vidéo, surveillez les googlebots média pour comprendre et prédire les tendances de comportements d’utilisateurs.

Pour commencer avec les bots SEA et verticals

Contactez OnCrawl pour ajouter les bots SEA et verticals à votre plan, ou pour démarrer votre essai gratuit !
Les bots SEA et verticals sont un module complémentaire à l’option Log Monitoring disponible pour les plans OnCrawl Advanced. Si vous utilisez déjà le Log Monitoring, ce module est gratuit à activer mais aura un impact sur le nombre de lignes analysées par OnCrawl et donc sur le tarif.


[Read More ...]

Tuesday, 11 September 2018

Comment tirer profit des nouvelles fonctionnalités de Google Business ?

En juin 2017, Google a sorti Google Posts pour tous les utilisateurs de Google My Business. Cette fonctionnalité leur permet de publier directement via leurs listing Google My Business et d’acquérir encore plus de classements dans les SERPs (pages des résultats de recherche des moteurs de recherche).
Malgré sa promotion, cet outil a été largement sous-utilisé dans les stratégies de SEO et de marketing local. Posts est l’une de ces nouvelles fonctionnalités dont le potentiel n’est pas suffisamment exploité.

Google Posts

À travers Posts, Google a offert aux entreprises la possibilité de publier du contenu concernant des mises à jour d’événements, d’offres et de produits clés directement dans le Knowledge Graph (modèle de résultat ne nécessitant pas de clics).
Les Google Posts sont conçus pour transmettre des informations supplémentaires aux utilisateurs qui recherchent déjà des informations sur votre entreprise, augmentant la valeur des recherches.


Les 4 catégories recommandées dans Posts sont :

  • Événements
  • Offres spéciales / Promotions
  • Mise à jour produit
  • Annonces

Les Google Posts sont accessibles depuis votre page Google My Business. L’option permettant de publier apparaît en-dessous du champs “Informations basiques sur l’entreprise”.
Bien que le champs autorise plus de 1000 caractères, il est important de se rappeler comment et pourquoi vos utilisateurs font des recherches.
Les données suggèrent qu’il est fort probable qu’ils soient sur leur téléphone portable et en mouvement.
Pour cela, la longueur de contenu idéale se trouve entre 150 et 300 mots. Vous devez donc fournir des informations pertinentes de manière précise.
La curation d’article est extrêmement simple. Il vous suffit de choisir un type de contenu et d’entrer les informations standards comme le titre et le corps de texte (les détails).
Puis, vous devez sélectionner un CTA pertinent pour le type de contenu et l’information fournie.
Voici ce que Google a déclaré dans son article de blog :

“ Poster via Google My Business vous permet de publier vos événements, produits et services directement dans Google Search et Maps. En créant des posts, vous pouvez placer un texte opportun, une vidéo ou une photo sous les yeux des utilisateurs qui tombent sur votre listing sur Google.”

D’après mon expérience avec des clients locaux, j’ai remarqué que :

  • Les posts performent mieux lorsqu’ils contiennent des visuels de haute résolution comme des images et des vidéos.
  • Lorsque vous utilisez des images, assurez-vous qu’elles soient de qualité et professionnelles (les petites entreprises peuvent exploiter des outils comme Canva si elles ne disposent pas de ressources design).
  • Il y a une corrélation entre le fait de poster fréquemment et la visibilité des contenus dans le panel Knowledge Graph.
  • Vous pouvez avoir plus d’un post diffusé à n’importe quel moment.
  • 300 caractères est une petite limite, donc n’essayez pas de tout dire et donnez plutôt à l’utilisateur une raison de cliquer sur votre page et de poursuivre son parcours immédiatement.

Vous pouvez voir combien de fois vos posts ont été vus et vos boutons utilisés dans le dashboard de Google My Business.

Google Services

Services permet aux entreprises de secteurs spécifiques (liés au service) d’ajouter leurs services exacts dans leur panel Knowledge Graph.
Ces informations ne sont pas visibles dans les recherches desktop mais le sont sur mobile (ce qui constitue pour beaucoup d’entreprises de service une grande proportion de visibilité et de trafic). Afin d’accéder à ces fonctionnalités, vous devez vous identifier sur votre listing Google My Business ;

1. Cliquez sur l’onglet “Info” en haut à gauche de la barre de navigation ;

2. Sélectionnez “Services” depuis le menu.

Un détail important ici : vous n’avez pas besoin d’ajouter de prix bien que le champ soit visible. Voici d’autres considérations à prendre en compte :

  • Si une phrase ou une qualification au sujet du prix est nécessaire, assurez-vous que cela soit fait de manière très claire dans l’item description.
  • Il n’y a pas d’option pour inclure un CTA contenant un lien ou pour envoyer un utilisateur vers une landing page. Utilisez l’item description pour encourager une visite vers un site web.

J’ai déjà été amené à utiliser le menu de navigation pour quelques clients afin d’informer les structures de parents/enfants des catégories et items dans les configurations de services.

Les descriptions d’entreprise

Il ne s’agit pas d’une fonctionnalité entièrement nouvelle car Google l’avait retirée en Août 2016. Auparavant, les entreprises pouvaient ajouter 100 à 300 mots d’informations sur la marque dans le listing GMB. Désormais, elles peuvent en ajouter jusqu’à 750.
Les descriptions d’entreprises s’adressent principalement aux utilisateurs mobiles qui ne sont pas susceptibles de lire vos meta titres et vos meta descriptions s’ils arrivent de Google Maps ou d’un résultat du pack Google Map. Cela rend la description essentielle pour ceux qui cherchent à améliorer leur visibilité locale.
Actuellement, il n’y a pas de données qui suggèrent qu’ajouter la description de votre entreprise améliore réellement vos performances de recherche locale ou de pack sur map.


[Read More ...]

Légionellose: les victimes obtiennent réparation

Six ans après l’éclosion de légionellose qui a fait 14 décès à Québec, les victimes qui ont intenté...
[Read More ...]

Friday, 7 September 2018

Les 5 chiffres SEO qui nous ont marqué cette semaine (01/09 au 07/09)

Quels sont les 5 chiffres SEO qui nous ont marqué cette semaine ? L’équipe @OnCrawl vous a préparé son top 5 des chiffres les plus marquants. L’ensemble des données utilisées proviennent de sources anglophones. Recherche vocale, stratégies de contenu, link building & trafic mobile : découvrez nos 5 actualités SEO de la semaine.

33 % des foyers utilisent la commande vocale sur d’autres appareils que le mobile de manière régulière ou très régulière

Cet article s’intéresse à la manière dont la sémantique impacte le SEO. En effet, cette discipline a fortement évolué suite à la croissance de la recherche vocale. Les commandes vocales sur mobile sont maintenant monnaie courant et l’utilisation de la fonction vocale sur des appareils autres que le smartphone est fréquente voire très fréquente pour 33 % des foyers.
Lire l’article

33 % des marketers conseillent de rédiger des articles de blog de 1000 à 2000 mots

Search Engine Journal a récemment proposé un sondage qui posait la question suivante : “Lorsque vous rédigez des articles de blog, quelle longueur de contenu idéale recommanderiez-vous pour obtenir de bons classements ?”. Cette question a été posée à des marketers qui ont répondu à 33 % que la longueur idéale était de 1000 à 2000 mots. 32 % estiment que la longueur dépend du contexte, 24 % que 1000 mots ou moins est la meilleure option et 11 % optent pour des articles de plus de 2000 mots.
Lire l’article

19 % des marketers estiment que le link building est la pratique SEO la plus efficace

Zazzle Media a récemment conduit une étude qui posait la question suivante aux marketers : “Laquelle des pratiques SEO suivantes est la plus efficace pour votre marque selon vous ?”. Ainsi, le link building est le grand gagnant avec 19 % des votes, les ajustements techniques arrivent en seconde position avec 15 % des votes et l’optimisation du maillage interne est en troisième position avec 12 % des voix.
Lire l’article

Seulement 37 % des entreprises disposent d’une stratégie de contenu documentée

Cela peut paraître choquant, mais seulement 37 % des entreprises disposent d’une stratégie de contenu proprement documentée, 56 % d’entre elles déclarent être très peu investies dans cette technique et 34 % pensent disposer d’une stratégie de contenu sophistiquée. Par ailleurs, 22 % des entreprises répondantes reconnaissent avoir du mal à choisir les sujets de leurs contenus.
Lire l’article

57 % des mouvements web proviennent du mobile

Depuis quelques mois, Google poussent les sites web à optimiser leur version mobile. Et pour cause, d’après BrightEdge, 57 % des actions sur internet sont réalisées via le smartphone. Vous pouvez utiliser le test Mobile-Friendly de Google pour vérifier si votre site correspond bien aux directives de Google. Enfin, l’article note également l’explosion du trafic vidéo qui représente désormais 62 % des contenus traités par Google.
Lire l’article


[Read More ...]

Thursday, 6 September 2018

Comment utiliser le balisage “Speakable” schema.org pour Google Assistant

Récemment, Google a annoncé l’ajout d’une nouvelle spécificité de schema.org appelée “Speakable”. Ce nouveau balisage a été conçu pour être utilisé pour les articles d’actualité et par Google Assistant.

Si Google Assistant détermine que vos articles sont pertinents pour les besoins de ses utilisateurs, les internautes qui demandent les dernières actualités à propos d’une marque ou d’un sujet particulier se verront lire votre texte speakable.

Speakable a pour objectif de fournir un résumé des points clés d’une actualité mais la documentation indique qu’il est destiné à n’importe quel texte qui est particulièrement “speakable” dans le sens où il est adapté pour les conversions “text-to-speech”. Si le balisage est particulièrement efficace, il peut être adopté en dehors des articles d’actualité.

La création d’un nouveau balisage implique de nombreux points importants pour le futur de l’écosystème du search.

Examinons de plus près comment le balisage “Speakable” fonctionne et ce qu’il signifie pour le SEO.

Google Assistant révolutionne doucement mais surement le SEO

Pour comprendre à quel point le balisage “speakable” schema.org est un atout précieux, nous devons d’abord regarder comment Google Assistant transforme le fonctionnement des moteurs de recherche.

Dévoilé en mai 2016, Google Assistant a rapidement été ignoré par la communauté SEO mais il prend de plus en plus d’importance dans la manière dont les internautes interagissent avec Google.

Remplaçant de Google Now, Google Assistant est capable de maintenir un dialogue en plus des fonctionnalités déjà existantes comme les recherches internet, la programmation d’événements et le paramétrage de profils et de matériels informatiques. Il permet également d’interagir avec des appareils ménagers connectés à internet comme les fours, les machines à café, les réfrigérateurs et les climatisations.

Plus important encore, il inclut la fonctionnalité Google Express qui permet aux utilisateurs d’acheter via Whole Foods, Costco, Walgreens, PetSmart, Bed Bath & Beyond et d’autres magasins en ligne à venir. Google voit clairement Google Assistant comme une source majeure de monétisation et une manière de concurrencer Amazon sur son empire du commerce online.

Et si Google Duplex tient ses promesses, il sera capable d’appeler et de réaliser des réservations avec une voix humaine. Il pourra même gérer les conflits d’agenda et renvoyer l’appel vers un centre d’appel s’il ne comprend pas la conversation.

Nous ne pouvons pas être sûrs de la manière dont la technologie va évoluer mais il est clair que Google attend de son assistant qu’il gère plus et que ses utilisateurs en fassent moins. Nous pourrions bientôt voir des utilisateurs simplement demander à Google de réserver une table dans le restaurant italien le plus proche plutôt que de réaliser une recherche pour “restaurants italiens à proximité”.

Les interactions de ce type ne peuvent pas entièrement remplacer les recherches web traditionnelles. Certaines tâches demanderont toujours l’utilisation d’un écran et l’accès aux sites web classiques. Mais au fur et à mesure que cette technologie va évoluer, le besoin de ce type de recherches deviendra moins pertinent.

En attendant, Gartner estime que 30 % de l’ensemble des recherches seront faites sans écran d’ici à 2020 et ComScore prédit que 50 % des recherches seront basées sur la voix. Inutile de dire que cela va avoir un impact dramatique sur le SEO. Quand sera-t-il utile d’optimiser vos sites pour les recherches traditionnelles ? Et quelles optimisations faudra-t-il mener pour Google Assistant et ses descendants ?

Il est possible que Google (et les assistants digitaux similaires) tentent de construire un “jardin fortifié” autour de ces technologies. Si Google Assistant devient la méthode d’interaction privilégiée des utilisateurs avec les moteurs de recherche, certaines entreprises pourraient se retrouver complètement coupées de l’écosystème du search.

C’est encourageant que Google propose des schémas “Speakable” : cela montre qu’il attend des sites web qu’ils soient optimisés pour Google Assistant. Les sites qui saisissent cette opportunité

pourraient prendre une longueur d’avance sur leurs concurrents. Il est donc important de garder un oeil sur les prochaines mises à jour de ce type à venir.

Obtenir l’approbation pour apparaître dans les résultats actualités de Google

Pour que Google insère les actualités de votre balisage speakable dans les conversations Google Assistant, vous devez d’abord être accepté dans Google News. Vous pouvez probablement inclure le balisage speakable sans avoir à faire cela. Mais il est peu probable que d’autres assistants digitaux adoptent le balisage ou que Google finisse par utiliser votre balise en dehors des résultats liés à l’actualité. Votre balise ne sera pas très efficace si elle n’est pas éligible et approuvée pour les résultats de Google News.

Pour être accepté dans Google News, il y a différents critères que vous devez respecter :

  • Pas d’erreurs grammaticales
  • Un auteur renseigné et des informations sur le contact
  • Des dates de publication
  • Les publicités ne doivent pas excéder le contenu
  • Pas de contenus explicites, illustrés, haineux, dangereux et illégaux
  • Pas de contenus sponsorisés dissimulés
  • Pas de harcèlement, tromperie, spam ou virus

 

Même si ce n’est pas explicitement écrit dans leur documentation, nous recommandons fortement de respecter les points suivants si vous voulez être approuvés :

  • Publier du contenu à date et dont les faits sont vérifiés
  • Google News n’est pas conçu pour le contenu intemporel
  • Les standards en journalisme doivent être publiés et respectés
  • Dans les cas d’un avis sur un sujet précis, l’expertise de journalistes est une véritable plus-value

 

Google requiert également que vous disposiez de ces critères techniques :

  • Chaque article doit avoir une URL unique et permanente
  • Les articles doivent pouvoir être atteints depuis des liens HTML
  • Les articles doivent être en format HTML
  • Les robots.txt et les balises meta ne doivent pas bloquer le Googlebot
  • Le contenu multimédia ne peut pas être inclus dans Google News
  • Utilisez un sitemap Google News pour vous assurer que Google est à jour avec les actualités lorsque vous publiez un article

 

Si vous correspondez aux critères précédents, vous pouvez suivre les instructions de Google pour soumettre votre site à Google News via le Publisher Center ou paramétrer une édition dans Google News Producer.

Implémenter le schéma Speakable

Lorsque les internautes demandent des actualités au Google Assistant, celui-ci lit un extrait d’une actualité. Le balisage Speakable a le même rôle qu’une méta description pour Google Assistant. Il lui permet de lire l’extrait et de dire à l’utilisateur la source du contenu en plus d’envoyer le lien de l’article sur son téléphone.

Au-delà des directives de Google News citées ci-dessus, Google mentionne les techniques et règles de contenu suivantes :

  • N’utilisez pas le balisage Speakable pour le contenu qui n’a pas de sens sans un écran, comme les photos ou l’attribution des sources.
  • N’utilisez pas Speakable sur l’intégralité de l’article. Faites-en usage uniquement sur les points clés. Il ne semble pas y avoir une limite de caractères comme dans le cas des méta descriptions, mais l’idée est de résumer les points clés de l’article.
  • Google recommande que le texte speakable prennent entre 20 et 30 secondes à lire, ce qui correspond à 2 ou 3 phrases.
  • L’actualité doit être divisée en courtes phrases pour que Google Assistant n’ait pas à lire de longues phrases.

 

Le meilleur moyen de comprendre comment fonctionne le balisage est d’observer un exemple. Voici celui fourni par Google :

La magie se produit entre ces balises. La première chose que vous devez changer est le “@type” :

À la place de WebPage, nous aurions également pu mettre Article. Il y a simplement deux différents objets de schéma avec des propriétés différentes. Les deux sont compatibles avec Speakable.

Ensuite, nous nous intéressons au “name” :

Il s’agit juste du nom de l’objet, que ce soit un Article ou une page Web. C’est un endroit stratégique pour inscrire les mots-clés les plus pertinents, mais attention à ne pas en abuser.

Nous entrons désormais dans le réel balisage Speakable :

Le “@type” sera toujours SpeakableSpecification, mais la propriété suivante peut aussi bien être cssSelector que xpath. Les valeurs que vous intégrez ici déterminent le texte qui sera sélectionné pour être utilisé par Google Assistant ou n’importe quel autre assistant vocal capable d’interpréter le balisage.

Dans ce cas précis, le xpath utilise le titre et la meta description de la page. Si vous utilisez ce balisage, vous devez faire la même chose mais uniquement si votre page est structurée correctement.

Je vous conseille de vérifier cela avec l’outil de test des données structurées de Google.

L’URL, bien sûr, doit pointer vers l’URL de la page web ou de l’article.

Implications pour le futur du Search

Ce que le balisage Speakable signifie pour le futur du search va dépendre en partie de la manière dont il est reçu. S’il est largement adopté et prouve son utilité pour Google Assistant, nous pourrions le voir s’étendre au-delà des résultats d’actualités, surtout qu’il est déjà listé en tant que propriété des objets WebPage et pas seulement des Articles.

Cela dépend également de comment ce balisage sera mis à disposition, il pourrait y avoir encore plus à venir. La recherche vocale et les interactions sans écran prenant une part de plus en plus importante dans l’activité des utilisateurs, nous pourrions voir Google soutenir les balisages et metadata. Nous pourrions également voir apparaître des exigences d’approbation plus officielles dans les écosystèmes émergents de Google, en contraste avec les crawls ouverts plus traditionnels.

Que vous voyez ces changements comme une menace ou une opportunité, il est clair que la manière dont les utilisateurs et les moteurs de recherche approchent l’idée du search est en train de changer. Google rêve de devenir un ordinateur à la Start Trek et voit son futur en tant qu’assistant personnel des utilisateurs, pas seulement comme une liste de résultats web. Cela signifie que le SEO est destiné à évoluer, mais aussi qu’il peut devenir encore plus vital.


[Read More ...]

Wednesday, 5 September 2018

Québec accueille les meilleures équipes cyclistes au monde

Québec, le 5 septembre 2018 – La Ville de Québec invite la population à assister en grand nombre à la 9e présentation du Grand Prix Cycliste de Québec qui se tiendra le vendredi 7 septembre. À cette occasion, la capitale accueillera près de 150 des meilleurs coureurs au monde sur un parcours d’une beauté spectaculaire et au tracé des plus exigeants. Il s’agit d’une occasion unique de voir l’une des deux seules épreuves du circuit WorldTour tenues en sol nord-américain.

« C’est une chance pour Québec d’être l’hôte du Grand Prix cycliste, un événement qui occupe une place de choix sur la scène sportive internationale, a affirmé M. Régis Labeaume, maire de Québec. Le vendredi 7 septembre, les citoyens seront aux premières loges pour apprécier cette compétition de haut calibre, au cœur de notre belle ville! »

Le départ de la course sera donné à 11 h dans la Grande Allée Est. La boucle de 12,6 km sera franchie 16 fois par les cyclistes pour un parcours total de plus de 200 km, et ce, jusqu’à 16 h 30 environ. Tous les yeux seront rivés sur Québec alors que la compétition sera télédiffusée en direct dans plusieurs pays.

* Afin de permettre la tenue de cet événement, d’importantes modifications à la circulation et au stationnement seront en vigueur, le jour de l’événement, de 8 h à 19 h, ainsi que les jours qui précéderont, dans les secteurs du Vieux-Québec, de la colline Parlementaire, des plaines d’Abraham, du boulevard Champlain et de la côte de la Montagne. Pour connaître le détail, consulter l’annexe.

Les meilleurs points de vue
La population est invitée à profiter de l’événement toute la journée, sur l’heure du lunch ou à la sortie du bureau. Ce sera une chance unique de voir plusieurs des cyclistes ayant participé au Tour de France.

Site festif de la Grande Allée (entre la place George-V et le parc de la Francophonie)
Il s’agit du site par excellence pour assister à la course dans une ambiance festive. Devant le parc de la Francophonie, des écrans géants permettront de suivre la course en direct. Travailleurs, touristes et passants sont invités à y prendre un lunch sportif.

Site spectaculaire De Laune (intersection de la rue De Laune et de la côte Gilmour – accessible seulement par le terrain des sports des plaines d’Abraham)
Pour les plus téméraires, ce site permettra de voir les coureurs dans une descente des plus rapides. Le virage spectaculaire sur la côte Gilmour en impressionnera également plus d’un.

Site spectaculaire de la Montagne (côte de la Montagne)
Pour voir les grimpeurs à l’œuvre, ce site est incomparable. Les spectateurs auront ainsi l’occasion d’admirer les meilleurs cyclistes dans une côte abrupte qui leur donnera du fil à retordre.

Site de la place D’Youville (coin de la rue des Glacis et de la place D’Youville)
Un autre site idéal pour admirer les meilleurs grimpeurs. À voir : la compétition du Grand Prix de la Montagne.

Le Grand Prix Cycliste de Québec est présenté dans la capitale depuis 2010 et se veut l'un des événements favoris du public. Pour obtenir plus de renseignements et pour consulter la carte du parcours, les citoyens peuvent se rendre au  ville.quebec.qc.ca/grandprixcycliste.

Un été animé à Québec
L’été et l’automne sont particulièrement animés à Québec, avec la présentation notamment des Passages Insolites, du Festival de cinéma de la ville de Québec, du Marathon SSQ de Québec, du festival littéraire Québec en toutes lettres et de nombreux autres événements culturels et sportifs.

Annexe : Modifications à la circulation et au stationnement


[Read More ...]

Tuesday, 4 September 2018

We Love SEO revient pour une 4ème édition !

L’événement search marketing de la rentrée est de retour pour une 4ème édition le 4 octobre prochain à Paris. Cette année, We Love SEO c’est une journée entière de case studies, tables rondes et networking. À vos agendas !

Pourquoi assister à We Love SEO 2018 ?

Suite au succès des années précédentes, les organisateurs de We Love SEO, Myposeo, Rocketlinks, AT Internet et OnCrawl ont décidé de revenir pour une édition 2018 qui s’annonce forte en SEO.
Comme les années précédentes, l’événement est organisé par des SEOs pour des SEOs. We Love SEO se destine principalement aux professionnels du search qui souhaitent faire le plein de bonnes pratiques en matière de référencement naturel. Si vous voulez vous tenir informé des dernières tendances du secteur, obtenir des conseils actionnables et faire des rencontres professionnelles enrichissantes, alors vous devez vous rendre à We Love SEO 2018 !

Du changement au programme de l’édition 2018

Cette année, les organisateurs de l’événement ont décidé d’apporter une nouvelle dimension à We Love SEO en proposant un programme plus étoffé. Cette édition 2018 se déroulera sur une journée entière en présence d’experts SEO internationaux et proposera :

  • Une matinée de conférences sur les dernières bonnes pratiques du search marketing via des études de cas clients actionnables et concrètes ;
  • Un déjeuner networking permettant aux experts d’échanger entre eux ;
  • Un après-midi de tables rondes en présence de 4 speakers français et de 4 speakers internationaux ;
  • Une conférence de clôture en présence de Gary Illyes, figure emblématique chez Google, pour finir la journée en beauté ;
  • Un afterwork pour ceux qui souhaitent poursuivre l’événement.

Vous pouvez retrouver tout le détail du programme sur le site officiel.

NB : L’ensemble des conférences se dérouleront en français à l’exception de la seconde table ronde et la conférence de clotûre.

4 disciplines au coeur du SEO

We Love SEO est un condensé de 4 domaines au coeur du secteur du search : l’analytics, le monitoring des moteurs de recherche, le crawl et l’analyse de logs et le netlinking.
We Love SEO 2018 c’est aussi :

Tout au long de la matinée, vous pourrez assister à 4 études de cas menées par les organisateurs. Chacun d’entre eux invitera un SEO in-house afin de détailler un cas pratique. Ainsi, Julien Nishimata (RocketLinks) interviendra avec Sylvain Vidal (SEO.FR), Erlé Alberton (OnCrawl) avec Philippe Sasso (Resoneo), Alexandre Sisoigne (Myposeo) avec Nicolas Plantelin (Oui.sncf) et Christelle Tissot (AT Internet) avec Deborah Botton (Radio France).

L’après-midi, place aux speakers SEO ! Nouveauté cette année, We Love SEO accueillera 8 speakers pour animer 2 tables rondes. La première table ronde sera constituée de David Dragesco (Réputation VIP), Emmanuel de Vauxmoret (Eskimoz), Virginie Clève (Largow) et Paul Sanches (Impact SEO). La seconde table ronde sera internationale et rassemblera Omi Sido (Canon Europe), Gerry White (Just Eat), Maria Cieslak (Elephate) et Chris Green (StrategiQ).

Enfin, la dernière conférence de la journée sera animée par Gary Illyes, Webmaster Trends Analyst chez Google qui délivrera ses précieux conseils SEO au sujet du moteur de recherche.

Pour réserver vos places, il suffit de vous rendre sur la billetterie officielle. Attention, le nombre de billet est limité.

RDV le 4 octobre au Forum de Grenelle pour We Love SEO 2018 🤘

Informations pratiques

Adresse : Forum Grenelle, 5 Rue de la Croix Nivert, 75015
Entrée : 99 € HT
Billetterie
Site officiel


[Read More ...]

3 facteurs qui éloignent les utilisateurs et les crawlers de votre page d’accueil

  Votre page d’accueil n’est pas juste un espace dans lequel vous affichez votre nom de marque et votre logo. Il s’agit de la page initial...