Saturday, 29 December 2018

Opération déneigement - Stationnement interdit dans la journée du 29 décembre

Québec, le 29 décembre 2018 – La Ville de Québec informe la population que des travaux de déneigement ou d'entretien de la voie publique et des trottoirs sont prévus aujourd’hui dans l’arrondissement de La Cité-Limoilou.

Le stationnement est interdit de 8 h à 16 h lorsque les feux orange clignotent dans les secteurs résidentiels situés :

·au nord de la rue Soumande (PDF carte);

·au nord de la 24e Rue entre Henri-Bourassa et Monseigneur-Gosselin (PDF carte);

·au nord-est de Limoilou, à partir du boulevard des Alliés et de la 23e Rue (PDF carte).

La Ville appelle à la collaboration des citoyens

Les véhicules de déneigement doivent pouvoir circuler librement dans les rues pour les déblayer efficacement. La Ville demande aux citoyens leur collaboration pour :

·libérer la chaussée pour permettre le passage de la machinerie;

·respecter les interdictions de stationnement, le cas échéant;

·placer leurs bacs à ordures et à recyclage dans leur entrée.

Information : déneigement et remorquage
En tout temps, les citoyens peuvent obtenir de l’information sur les conditions de stationnement en vigueur dans leur arrondissement ou sur le lieu de remorquage de leur véhicule en composant le 418 641-6666. Ils peuvent également consulter Info-Remorquage sur le site Internet de la Ville.

Il est aussi possible de s’abonner aux alertes SMS-Déneigement avec son mobile. Il suffit de texter le mot « NEIGE » au 64123. Des frais standards peuvent alors s’appliquer, selon son forfait.

À propos du déneigement
En chiffres :

·Budget annuel de plus de 43 M$

·Près de 2 400 km de chaussées

·Près de 1 250 km de trottoirs

·Jusqu’à 1 700 personnes mobilisées pour une opération déneigement

·Environ 1 300 véhicules pour déneiger les rues de Québec

Avant et pendant une tempête :

Déblaiement des rues et des trottoirs, la neige est poussée sur les côtés pour faciliter la circulation. Les équipes se concentrent d’abord sur les côtes et artères principales et, pour des raisons de sécurité, sur les zones à proximité des hôpitaux et des écoles. Ensuite, les rues secondaires et les trottoirs sont déblayés.

Après une bordée de plus de 10 cm :

Déclenchement d’une opération déneigement. La neige est transportée ou soufflée. Le stationnement dans les rues est alors interdit.

La Ville de Québec compte sur la collaboration de tous les automobilistes afin que les travaux de déneigement ou d'entretien de la voie publique se déroulent dans les meilleures conditions possibles.


[Read More ...]

Friday, 28 December 2018

Opération déneigement - Stationnement interdit dans la nuit du 28 au 29 décembre

Québec, le 28 décembre 2018 – La Ville de Québec informe la population que des travaux de déneigement ou d'entretien de la voie publique et des trottoirs sont prévus la nuit prochaine dans tous les arrondissements de la ville.

Le stationnement sera interdit selon les modalités suivantes :

Arrondissement de Beauport Le stationnement est interdit de 21 h ce soir à 7 h demain matin.

Dans les rues où des feux clignotants orange sont en fonction, le stationnement est interdit de 22 h ce soir à 7 h demain matin.

Arrondissement de Charlesbourg - Le stationnement est interdit de 21 h ce soir à 7 h demain matin.

Dans les rues où des feux clignotants orange sont en fonction, le stationnement est interdit de 22 h ce soir à 7 h demain matin.

Arrondissement de La Cité-Limoilou - Le stationnement est interdit de
22 h ce soir à 7 h demain matin dans les rues où les feux clignotants orange sont en fonction.

Arrondissement de La Haute-Saint-Charles - Le stationnement est interdit de 21 h ce soir à 7 h demain matin dans toutes les rues de l’arrondissement.

Arrondissement des Rivières - Le stationnement est interdit de 21 h ce soir à 7 h demain matin.

Toutefois, dans l’ancien secteur de Vanier, au sud de la rue Samson, où des feux clignotants orange sont en fonction, le stationnement est interdit de 22 h ce soir à 7 h demain matin.

Arrondissement de Sainte-Foy–Sillery–Cap-Rouge - Le stationnement est interdit de 21 h ce soir à 7 h demain matin.

Dans les rues où des feux clignotants orange sont en fonction, le stationnement est interdit de 22 h ce soir à 7 h demain matin.

La Ville appelle à la collaboration des citoyens

Les véhicules de déneigement doivent pouvoir circuler librement dans les rues pour les déblayer efficacement. La Ville demande aux citoyens leur collaboration pour :

·         libérer la chaussée pour permettre le passage de la machinerie;

·         respecter les interdictions de stationnement, le cas échéant;

·         placer leurs bacs à ordures et à recyclage dans leur entrée.

Information : déneigement et remorquage
En tout temps, les citoyens peuvent obtenir de l’information sur les conditions de stationnement en vigueur dans leur arrondissement ou sur le lieu de remorquage de leur véhicule en composant le 418 641-6666. Ils peuvent également consulter Info-Remorquage sur le site Internet de la Ville.

Il est aussi possible de s’abonner aux alertes SMS-Déneigement avec son mobile. Il suffit de texter le mot « NEIGE » au 64123. Des frais standards peuvent alors s’appliquer, selon son forfait.

À propos du déneigement
En chiffres :

·         Budget annuel de plus de 45 M$

·         Près de 2 400 km de chaussées

·         Près de 1 250 km de trottoirs

·         Jusqu’à 1 700 personnes mobilisées pour une opération déneigement

·         Environ 1 300 véhicules pour déneiger les rues de Québec

Avant et pendant une tempête :

Déblaiement des rues et des trottoirs, la neige est poussée sur les côtés pour faciliter la circulation. Les équipes se concentrent d’abord sur les côtes et artères principales et, pour des raisons de sécurité, sur les zones à proximité des hôpitaux et des écoles. Ensuite, les rues secondaires et les trottoirs sont déblayés.

Après une bordée de plus de 10 cm :

Déclenchement d’une opération déneigement. La neige est transportée ou soufflée. Le stationnement dans les rues est alors interdit.

La Ville de Québec compte sur la collaboration de tous les automobilistes afin que les travaux de déneigement ou d'entretien de la voie publique se déroulent dans les meilleures conditions possibles.


[Read More ...]

Friday, 21 December 2018

La poursuite des fouilles du site Cartier-Roberval n’est pas au programme

En dépit des recommandations des archéologues, le site de la colonie fondée par Jacques Cartier en...
[Read More ...]

Les 5 chiffres SEO qui nous ont marqué cette semaine (16/12 au 22/12)

Quels sont les 5 chiffres SEO qui nous ont marqué cette semaine ? L’équipe @OnCrawl vous a préparé son top 5 des chiffres les plus marquants. L’ensemble des données utilisées proviennent de sources anglophones. Amazon, Google +, images dans les SERPs, miniatures vidéos, création de contenu & SEO : découvrez nos 5 actualités SEO de la semaine.

90 % des sessions utilisateurs sur Google + durent moins de 5 secondes

Cet article est dédié au réseau social de Google dont la fermeture est prévue pour le mois d’avril 2019. Ainsi, nous y apprenons notamment que 90 % des sessions sur Google + ne durent pas plus de 5 secondes. Pour rappel, le facteur qui a déclenché la fermeture de la plateforme est une faille de sécurité qui a laissé filtrer des informations sur plus de 500 000 utilisateurs. Devant des chiffres d’engagement si bas, Google a préféré simplement fermé Google + plutôt que de dépenser des sommes importantes pour réparer la brèche de sécurité.
Lire l’article

12,5 % des résultats de recherche proposent des images

L’auteur de cet article vous conseille d’optimiser vos images pour mieux apparaître dans les SERPs et les featured snippets. Pourquoi ? Parce qu’environ 12,5 % des SERPs diffusent des images. Pour booster le classement de vos images, vous pouvez notamment optimiser les noms et balises alt de vos fichiers images, le contexte de l’image, sa taille et sa légende.
Lire l’article

Les miniatures peuvent augmenter le taux de clic de 15 %

Cet article vous propose des bonnes pratiques pour booster les conversions de vos landing pages avec des vidéos. Il est notamment recommandé de penser à soigner la miniature de vos vidéos car celle-ci peut augmenter le taux de clic de 15 %. Par ailleurs, 20 % à 30 % vont regarder une vidéo 10 secondes avant de quitter la page. L’optimisation des contenus pour l’expérience utilisateur doit donc rester l’une des majeures priorités des marketers !
Lire l’article

Seulement 3 % des marketers pendant que le SEO et la création de contenu sont deux disciplines séparées

Selon une étude BrightEdge, seulement 3 % des marketeurs pensent que le SEO et la création de contenu sont deux disciplines séparées. Ce chiffre montre la forte corrélation entre contenu et optimisation pour les moteurs de recherche. Le SEO doit aider les marketeurs à créer une stratégie digitale centrée sur les utilisateurs. Cet article vous propose 12 conseils de SEO technique et de content marketing pour vous aider à mettre en place votre stratégie 2019.
Lire l’article

56 % des acheteurs en ligne se rendent directement sur Amazon, sans passer par la case Google

L’auteur de cet article conseille aux sites e-commerce de lister leurs produits sur Amazon car près de 56 % des internautes se rendent sur Amazon sans passer par la case Google. La plateforme s’est plus ou moins imposée comme le Google du e-commerce. Si vous souhaitez saisir cette opportunité, vous devrez prendre en compte qu’Amazon utilise son propre algorithme, le A9 qui dispose de facteurs de classement parfois très différents de Google car avant tout basé sur la vente et non pas sur l’engagement.
Lire l’article


[Read More ...]

Thursday, 20 December 2018

Temps des Fêtes : ce qui sera ouvert ou fermé à la Ville

À l'occasion du temps des Fêtes, tous les bureaux municipaux seront fermés du 24 décembre au 2 janvier inclusivement. Toutefois, le Centre de relation avec les citoyens (311) répondra aux appels téléphoniques :

  • les 24 et 31 décembre, de 8 h 30 à 13 h
  • les 26 décembre et 2 janvier, de 12 h à 16 h 30;
  • les 27 et 28 décembre, de 8 h 30 à 16 h 30.

Urgence
Les services essentiels (police, protection contre l'incendie et traitement de l'eau) seront maintenus jour et nuit. 

  • Pour toute urgence nécessitant l'intervention des policiers, des pompiers ou des ambulanciers, vous devez composer le 911 en toute temps.
  • Pour rapporter une urgence concernant les travaux publics (aqueduc, égout, éclairage de rue et état de la chaussée, vous pouvez appeler au 311 et choisir l'option 3.

Déchets, matières recyclables et écocentres
Les collectes des ordures et des matières recyclables auront lieu selon l’horaire habituel, à l’exception de celles prévues les 25 décembre et 1er janvier. Celles-ci seront reportées respectivement aux 26 décembre et 27 décembre ainsi qu'aux 2 et 3 janvier

Les écocentres seront fermés les 24, 25 et 26 décembre de même que le 1er janvier. Les autres jours, ils seront ouverts selon l'horaire habituel.

Bibliothèques et installations de loisir
Les bibliothèques de l’arrondissement seront toutes fermées les 24, 25 et 31 décembre ainsi que le 1er janvier. Les 26 décembre et 2 janvier, seule la bibliothèque Étienne-Parent sera ouverte à partir de 13 h.

Les installations sportives seront ouvertes si des activités y sont prévues, notamment les piscines et les patinoires intérieures offriront des séances spéciales d'activités à caractère libre. Informez-vous avant de vous déplacer en consultant la page Internet de l'installation que vous désirez fréquenter.

Les patinoires de quartier seront ouvertes tous les jours de 10 h à 22 h, si les conditions climatiques le permettent, sauf les 24 et 31 décembre, où elles fermeront à 16 h. Aussi, elles seront fermées les 25 décembre et 1er janvier.

Stationnement
Les 25 décembre et 1er janvier, le stationnement dans la rue sera gratuit devant les bornes de péage (parcomètres), sauf dans la rue de la Maréchaussée, où le stationnement demeure payant en tout temps.

Les terrains de stationnement munis de bornes de péage resteront payants, notamment ceux situés au parc de l’Esplanade, devant la gare du Palais, dans le quartier Saint-Sacrement (entre le chemin Sainte-Foy et la rue Marie-Rollet) ainsi que dans le secteur de l’avenue Maguire.  

Par ailleurs, à compter de 6 h, le 24 décembre et jusqu’à 9 h, le 2 janvier, une tolérance sera exercée dans les zones de stationnement à temps limité (30 minutes, 60 minutes, etc.) qui requièrent un permis de stationnement pour résidants pour y garer son véhicule pour une longue durée. C’est donc dire que dans ces zones, on pourra stationner son véhicule dans la rue plus longtemps que la limite de temps permise, peu importe que l’on détienne ou non un permis de stationnement pour résidants.

En ce qui a trait aux zones de stationnement réservées exclusivement aux détenteurs de permis pour résidants et normalement interdites en tout temps aux autres automobilistes, une tolérance sera exercée :

  • le 24 décembre, à compter de 18 h, jusqu’à 9 h le 26 décembre;
  • le 31 décembre, à compter de 18 h, jusqu’à 9 h le 2 janvier.

Tous les autres règlements sur le stationnement seront appliqués, notamment ceux en vigueur lors des opérations de déneigement.

Réseau de transport de la Capitale
Le Réseau de transport de la Capitale (RTC) change de rythme pendant les Fêtes. Les bus circuleront :

  • selon l’horaire du samedi + les 24, 26 et 31 décembre ainsi que le 2 janvier (sans service Couche-tard les 24 et 26 décembre et le 2 janvier). Le samedi + correspond à l’horaire du samedi en plus d’offrir des départs sur les parcours industriels;
  • selon l’horaire du dimanche les 25 et 30 décembre ainsi que le 1er janvier;
  • selon l’horaire du samedi les 27 et 28 décembre. De plus, certains départs sur les parcours eXpress et les parcours industriels seront offerts. Des départs seront également ajoutés sur des parcours réguliers. Notez que le 27 décembre le service Couche-tard ne sera pas en service.

Le Privilège famille sera en vigueur pendant toutes les Fêtes. Les enfants de 6 à 11 ans accompagnés d’un adulte muni d’un laissez-passer valide pourront donc prendre le bus gratuitement du vendredi 21 décembre à 17 h 30 au mercredi 2 janvier inclusivement (jusqu’à trois enfants par adulte).

Le RTC invite sa clientèle à consulter le www.rtcquebec.ca, les outils Nomade temps réel ou à téléphoner au 418 627-2511 pour obtenir tous les détails sur le service offert, les heures d’ouverture de ses Centres d’information et du Centre contact client pendant cette période.

Information automatisée
Besoin de plus de renseignements sur les services municipaux? Rendez-vous sur le site Internet de la Ville de Québec ou appelez au 311, option 4, pour avoir accès à la ligne d’information automatisée ou encore composer celle de votre arrondissement au 418 641-6500.        

Joyeuses Fêtes!


[Read More ...]

La villa Livernois laissée à l’abandon

À la tête d’une dynastie de l’image en un temps où la photographie était reine, Jules-Ernest...
[Read More ...]

Wednesday, 19 December 2018

Opération déneigement - Stationnement interdit dans la journée du 19 décembre

Québec, le 19 décembre 2018 – La Ville de Québec informe la population qu’en raison des dernières précipitations de neige et de la pluie prévue dans les prochains jours, des travaux de déneigement ou d'entretien de la voie publique et des trottoirs sont prévus aujourd’hui dans l’arrondissement de La Cité-Limoilou.

Le stationnement est interdit de 8 h à 16 h lorsque les feux orange clignotent dans les secteurs résidentiels situés :
· au nord de la rue Soumande (carte);
· au nord de la 24e Rue entre Henri-Bourassa et Monseigneur-Gosselin (carte);
· au nord-est de Limoilou, à partir du boulevard des Alliés et de la 23e Rue (carte).

La Ville appelle à la collaboration des citoyens
Les véhicules de déneigement doivent pouvoir circuler librement dans les rues pour les déblayer efficacement. La Ville demande aux citoyens leur collaboration pour :
• libérer la chaussée pour permettre le passage de la machinerie;
• respecter les interdictions de stationnement, le cas échéant;
• placer leurs bacs à ordures et à recyclage dans leur entrée.

Information : déneigement et remorquage
En tout temps, les citoyens peuvent obtenir de l’information sur les conditions de stationnement en vigueur dans leur arrondissement ou sur le lieu de remorquage de leur véhicule en composant le 418 641-6666. Ils peuvent également consulter Info-Remorquage sur le site Internet de la Ville.
Il est aussi possible de s’abonner aux alertes SMS-Déneigement avec son mobile. Il suffit de texter le mot « NEIGE » au 64123. Des frais standards peuvent alors s’appliquer, selon son forfait.

[Read More ...]

Tuesday, 18 December 2018

Opération déneigement - Stationnement interdit dans la nuit du 18 au 19 décembre

Québec, le 18 décembre 2018 – La Ville de Québec informe la population qu’en raison des dernières précipitations de neige et de la pluie prévue dans les prochains jours, des travaux de déneigement ou d'entretien de la voie publique et des trottoirs sont prévus la nuit prochaine dans tous les arrondissements de la ville.

Le stationnement sera interdit selon les modalités suivantes :

Arrondissement de Beauport – Le stationnement est interdit de 21 h ce soir à 7 h demain matin. Dans les rues où des feux clignotants orange sont en fonction, le stationnement est interdit de 22 h ce soir à 7 h demain matin.

Arrondissement de Charlesbourg - Le stationnement est interdit de 21 h ce soir à 7 h demain matin. Dans les rues où des feux clignotants orange sont en fonction, le stationnement est interdit de 22 h ce soir à 7 h demain matin.

Arrondissement de La Cité-Limoilou - Le stationnement est interdit de
22 h ce soir à 7 h demain matin dans les rues où les feux clignotants orange sont en fonction.

Arrondissement de La Haute-Saint-Charles - Le stationnement est interdit de 21 h ce soir à 7 h demain matin dans toutes les rues de l’arrondissement.

Arrondissement des Rivières - Le stationnement est interdit de 21 h ce soir à 7 h demain matin. Toutefois, dans l’ancien secteur de Vanier, au sud de la rue Samson, où des feux clignotants orange sont en fonction, le stationnement est interdit de 22 h ce soir à 7 h demain matin.

Arrondissement de Sainte-Foy–Sillery–Cap-Rouge - Le stationnement est interdit de 21 h ce soir à 7 h demain matin. Dans les rues où des feux clignotants orange sont en fonction, le stationnement est interdit de 22 h ce soir à 7 h demain matin.

La Ville appelle à la collaboration des citoyens
Les véhicules de déneigement doivent pouvoir circuler librement dans les rues pour les déblayer efficacement. La Ville demande aux citoyens leur collaboration pour :
• libérer la chaussée pour permettre le passage de la machinerie;
• respecter les interdictions de stationnement, le cas échéant;
• placer leurs bacs à ordures et à recyclage dans leur entrée.

Information : déneigement et remorquage
En tout temps, les citoyens peuvent obtenir de l’information sur les conditions de stationnement en vigueur dans leur arrondissement ou sur le lieu de remorquage de leur véhicule en composant le 418 641-6666. Ils peuvent également consulter Info-Remorquage sur le site Internet de la Ville.
Il est aussi possible de s’abonner aux alertes SMS-Déneigement avec son mobile. Il suffit de texter le mot « NEIGE » au 64123. Des frais standards peuvent alors s’appliquer, selon son forfait.


[Read More ...]

Pourquoi OnCrawl est bien plus qu’un crawler desktop : Immersion dans notre plateforme SEO basée sur le cloud

OnCrawl a été construit pour répondre aux besoins du premier site e-commerce français en 2015. Cela signifie que nous avons dû adapter nos analyses et composer avec un site web de plus de 50 millions d’URLs dans un court laps de temps. Difficile pour un nouvel acteur, me direz-vous ? En réalité, notre infrastructure, dans laquelle nous avons investi près de 1,5 millions d’euros juste en R&D et qui a précédemment accompagné différents projets de données, a facilité ces analyses de grande envergure. Comme la distinction entre crawlers desktop et crawlers basés sur le cloud reste vague, nous avons pensé qu’il serait utile d’expliquer pourquoi OnCrawl a bien plus à offrir qu’un simple crawler desktop. De nos fortes capacités de scalabilité, aux intégrations tierces en passant par la vitesse d’analyse : découvrez toutes les possibilités offertes par OnCrawl.

Passer à l’échelle vers l’infini et l’au-delà

Les crawlers desktop sont limités dans leur capacité de crawl à cause des ressources et de la mémoire utilisées par les machines sur lesquelles le programme tourne. Il est probable qu’ils ne soient en mesure de crawler que quelques milliers d’URLs par crawl. Si cela peut convenir pour des petits sites web, le crawl prendra tout de même plus de temps par rapport à un crawler SaaS (Software as a Service). Les crawlers basés sur le cloud sont distribués à travers de nombreux serveurs. Il n’existe donc pas de limite de vitesse ou de taille d’une machine.
Cela signifie qu’il n’y a aucun site que nous ne pouvons pas crawler. Nous travaillons aussi bien pour des petits sites web que pour de très grands sites, dont des entreprises du Fortune 500. Nous avons en effet développé notre crawler SEO après que Cdiscount, le plus gros site e-commerce français, nous ait demandé de leur construire une solution sur-mesure pour gérer leurs 50 millions d’URLs et leurs besoins SEO en un seul et même crawl. De plus, notre scalabilité nous a permis d’être élu deux années de suite ‘Best SEO Tool’ aux European Search Awards, la cérémonie leader du secteur du search. Actuellement, nous collectons près de 25 millions d’URLs par jour et par site, où approximativement 1 milliard de pages web et 150 milliards de liens par mois. Vous pouvez en savoir plus sur notre technologie et pourquoi nous respectons les normes RGPD ici.

Vitesse personnalisée, capacités larges

Notre application étant basée sur le cloud, vous n’avez pas besoin de penser aux ressources et capacité de vitesse de votre machine. Cela signifie aussi qu’il n’y a pas de restrictions sur la durée ou le nombre de crawls qui peuvent être lancés. Vous pouvez paramétrer autant de crawls que votre abonnement ne le permet et faire tout à fait autre chose pendant que nous crawlons votre site. En utilisant une solution basée sur le cloud, vous pouvez également fermer la fenêtre de l’application et attendre que l’analyse soit terminée. Le crawl est autonome et ne nécessite aucune surveillance. OnCrawl vous permet de programmer des crawls basés sur vos besoins SEO, que vous ayez besoin de crawler votre site une fois par semaine ou par mois. Vous pouvez aussi décider d’accélérer vos analyses si vous avez besoin d’aller plus vite.
Puisque l’application OnCrawl peut être utilisée pour crawler n’importe quel site web, notre robot va suivre les directives de Crawl-Delay indiquées dans le fichier robots.txt sur le site ciblé (s’il existe).
Autrement, nous limitons le taux de crawl à une page par seconde pour que notre robot ne soit pas trop agressif avec le site ciblé.
Lorsqu’un site a une directive de Crawl-Delay plus élevée que 1, notre application émet un avertissement pour vous prévenir que le crawl sera plus lent que la vitesse demandée.
Si le Crawl-Delay est plus élevé que 30, nous affichons une erreur. Nous ne vous autoriserons tout simplement pas à configurer un crawl avec un délais de crawl aussi haut.
La seule manière de configurer un crawl avec ces pré-requis est d’utiliser un fichier robots.txt virtuel.
Pour ce faire, vous devez d’abord valider le projet avec votre compte Google Analytics, afin que nous puissions nous assurer que vous possédez bien le domaine que vous souhaitez crawler.
Nous avons différents paramètres qui vous permettent de prendre le contrôle sur votre crawl :

  • Accélérer votre crawl ;
  • Mettre en pause, arrêter, relancer ou annuler un crawl ;
  • Programmer un crawl pour éviter les périodes de pic de trafic et ne pas surcharger votre serveur lorsque notre robot analyse votre site ;
  • Voir en temps réel les pages qui ont été récupérées, le nombre d’URLs que nous avons trouvé à ce stade et ralentir le crawl en cas de problème.

OnCrawl

OnCrawl

L’analyse de logs simplifiée

OnCrawl est bien plus qu’un simple crawler SEO. Au cours des dernières années, nous avons également mis au point un puissant analyseur de fichiers de log SaaS qui propose des analyses qu’aucune autre solution SEO n’avait apporté jusqu’ici. Des fichiers de log complets permettent de parfaitement refléter la vie de votre site. Qu’il s’agisse des visiteurs, robots, pages ou ressources affichées, toute l’activité de votre site y est renseignée.
Avec des informations comme l’adresse IP, le status code, le user-agent, le referrer et d’autres données techniques, chaque ligne de logs (données issues du serveur) peut vous aider à compléter votre analyse de site, qui est souvent basée sur des analytics (données basées sur vos clients).
Notre analyseur de logs supporte n’importe quel type de formats de log, des standards comme IIS, Apache sur Ngnix à des formats plus personnalisés. Il n’y a pas d’analyses que nous ne pouvons pas gérer. Nous permettons également à nos utilisateurs de récupérer leurs données de logs directement depuis des solutions tierces comme Splunk, ELK / Elastic Stack, Amazon S3, OVH (ES) ou Cloudflare.
Cela signifie que vous n’aurez plus de problèmes si vous utilisez un hébergeur de logs spécifique, comme cela a pu être le cas précédemment avec nos concurrents. Cela permet également aux services juridiques frileux de partager leur logs de le faire en toute confiance, puisque ceux-ci restent hébergés chez leurs solutions de gestion des logs. A noter que l’application OnCrawl gère les données personnelles sous forme d’adresses IP des visiteurs de votre site Web. Ces informations sont nécessaires pour distinguer de manière fiable les Googlebots des autres visiteurs.
Les adresses IP ne sont pas stockées dans l’application OnCrawl. Ces données n’existent que dans le fichier d’origine que vous téléchargez sur votre FTP privé et sécurisé.

Par ailleurs, le téléchargement automatique de vos fichiers de log se fait un FTP privé et sécurisé. Cela ne nécessite que quelques étapes pour compléter votre analyse de fichiers de log.

OnCrawl

Vous pouvez aussi surveiller le traitement de vos fichiers en temps réel et voir si des erreurs bloquent leur téléchargement.

OnCrawl

Des intégrations tierces illimitées

OnCrawl a travaillé sur le développement de connecteurs intégrés avec les solutions leaders sur le marché du search qui sont indispensables pour les SEOs : Google Search Console, Google Analytics, Adobe Analytics ou Majestic, pour en nommer quelques unes. Intégrer ces solutions dans votre audit n’a rien de redondant : elles vous procureront une vue plus complète de la performance et de la santé de votre site et vous montreront comment les robots et visiteurs se comportent réellement sur votre site. Vous économiserez également beaucoup de temps et d’efforts car vous n’aurez pas besoin de manier ces données manuellement dans des fiches de calcul Excel ou multiplier les connexions à différents outils.

Rapport de backlink

Nous avons construit une relation de confiance avec Majestic, la solution leader d’analyse de liens. Nos analyses croisées vous permettent de combiner vos données de crawl et de logs avec vos données de backlink pour comprendre leur influence sur votre trafic SEO et la fréquence de crawl. Une fois que vous aurez mis en place une segmentation à l’échelle du site de groupes de pages personnalisés en fonction de vos KPIs les plus importants. Vous pouvez également visualiser le nombre de backlinks en fonction du taux de profondeur de la page ou examiner le nombre de backlinks qui a une influence sur le comportement de Google.
Les analyses que nous proposons, dans lesquelles les données de backlinks sont corrélées et combinées au niveau de l’URL et du passage du bot, sont actuellement uniques sur le marché.

OnCrawl

Rapport de classement

Nous avons également développé un connecteur unique avec la Google Search Console pour comprendre comment votre site est trouvé et indexé et si vos optimisations on-page ont un impact sur le trafic et l’indexation. Nous fournissons des insights standards mais exhaustifs sur la distribution de mots-clés, les impressions, les clics et le taux de clic au fil du temps, que ce soit sur desktop ou mobile, pour des mots-clés brandés ou non brandés ou en fonction de vos groupes de pages. Plus important, nous offrons aussi des analyses uniques qu’aucun de nos concurrents ne propose.
OnCrawl utilise vos segmentations et données issues de vos fichiers de log pour interpréter vos données de classement. Ainsi, vous pouvez identifier les caractéristiques communes des pages qui se classent et de celles qui ne se classent pas en fonction de la profondeur, de la popularité interne, du nombre de mots, des liens internes, du temps de chargement et de l’évaluation des titres. Au-delà de ça, vous pouvez aussi examiner l’impact de la longueur de la description et des données structurées sur le taux de clic.
Enfin, OnCrawl Rankings vous permet de combiner vos données de crawl, logs et Search Console à l’échelle pour mettre en avant les pages classées et comprendre si le budget de crawl influence vos positions. Aucun autre crawler, que ce soit desktop ou basé sur le cloud, ne propose ce type de fonctionnalités.

Rapport Analytics

Nous vous permettons de vous connecter à votre Google Analytics ou Adobe Analytics (ex-Omniture) pour comprendre comment le SEO on-page et technique affecte les performances de trafic organique depuis les moteurs de recherche. Nous vous aidons à surveiller les performance de trafic SEO et le comportement des utilisateurs en fonction de chaque section de votre site.

Ingestion de CSV

Bien que nous travaillons sans cesse sur de nouvelles intégrations pour des solutions tierces, nous ne voulions pas vous laisser sans la possibilité d’intégrer un type de données particulier dont vous pourriez avoir besoin pour vos audits SEO technique. C’est pourquoi, nous vous permettons de télécharger vos fichiers CSV à l’échelle (vous pouvez télécharger des millions de lignes) pour ajouter une nouvelle couche de données au niveau de l’URL. Vous pouvez construire vos propres segmentations et filtres basés sur ces données particulières (données de classements, CRM, business, Google Ads,…) pour voir si vos pages les plus stratégiques remplissent vos objectifs.

API ouverte, analyses personnalisées

OnCrawl est basé sur une plateforme construite autour d’une API. L’API REST d’OnCrawl est utilisée pour accéder à vos données de crawl et gérer vos projets et vos crawls. Afin d’utiliser cette API, vous devrez avoir un compte OnCrawl, un abonnement actif et un access token.
Vous pouvez créer votre propre application pour réclamer cette API très facilement. Cela peut être fait en utilisant une API token générée par le compte utilisateur ou en utilisant une application OAuth pour se connecter à OnCrawl en utilisant le compte utilisateur.
Utiliser notre API, vous permet d’écrire des applications qui tirent profit des nombreuses fonctionnalités OnCrawl déployées dans votre propre environnement, en utilisant le langage de programmation et les plateformes que vous préférez. Cela signifie que vous pouvez créer des rapports personnalisés, intégrer vos données dans d’autres plateformes et automatiquement déclencher un crawl lorsqu’un site est mis à jour.
De plus, pour rendre cette intégration plus simple pour vous, tous nos graphiques incluent les appels API et le format de réponse dans l’icône d’information.

OnCrawl

OnCrawl

Tendances et optimisations au fil du temps

OnCrawl organise vos crawls par date au sein de vos projets. Nous stockons vos données de crawl lorsque votre abonnement est actif, ce qui signifie que vous pouvez continuer de suivre des mois ou même des années d’analyses. Notez cependant que si vous utilisez notre fonctionnalité de Log Monitoring, l’application OnCrawl gère les données personnelles dans le format de l’adresse IP des visiteurs de votre site. Cette information est utilisée afin de distinguer la fiabilité entre les Googlebots et les autres visiteurs. Les adresses IP ne sont pas stockées dans l’application OnCrawl. Les données existent seulement dans le fichier originel que vous avez téléchargé dans votre FTP privé et sécurisé.
Nous offrons également diverses fonctionnalités qui vous permettent de comparer deux crawls, basés sur la même configuration pour repérer les tendances et changements au fil du temps. Il s’agit d’une très bonne manière de comparer une version de pré-prod et une version live pour vérifier si tout s’est bien déroulé au cours d’une migration.
Vous pouvez aussi partager vos projets avec vos collègues ou clients, ce qui est un très bon moyen de prouver la valeur de vos optimisations et de partager vos résultats.

OnCrawl

Montre l’évolution du contenu dupliqué entre deux crawls

OnCrawl

Montre l’évolution des mouvements de profondeur entre deux crawls

Analyse sémantique encore et encore

L’innovation est au coeur de notre ADN et nous avons pour objectif d’évangéliser le SEO technique depuis des années. Avec près de 15 ans d’expérience en traitement de problèmes liés au langage naturel, Tanguy Moal, CTO chez OnCrawl, nous a aidé à fusionner les technologies de sémantique et de Big Data pour donner du sens aux gigantesques volumes de données disponibles sur le web. Nous avons mis au point le tout premier détecteur de contenu similaire en utilisant l’algorithme Simhash.

OnCrawl

Groupe de pages similaires avec une évaluation canonique. Groupes qui peuvent être filtrés par nombre de pages ou pourcentage de contenu similaire.

Nous avons récemment travaillé sur un détecteur de contenu sous forme de carte thermique qui aide nos utilisateurs à identifier les blocs de contenu unique et le pourcentage de duplication à travers les pages web et le site en général. La sémantique fait partie de notre crawler SEO : les analyses n-grams qui sont disponibles depuis le début, aident les utilisateurs à mieux comprendre quelles séquences de mots sont distribuées au sein du site. Nous sommes le seul crawler basé sur le cloud avec de telles capacités. Dans un secteur où les recherches conversationnelles sont de plus en plus courantes, le SEO sémantique vous aide à améliorer le trafic d’un site grâce à des méta données qui ont du sens et à un contenu sémantiquement pertinent qui peut clairement fournir une réponse pour une intention de recherche spécifique.
OnCrawl est bien plus qu’un crawler desktop et offre des analyses SEO inégalées basées sur le cloud. OnCrawl vous permet d’agir pour réellement comprendre comment les moteurs de recherche se comportent sur votre site et créer votre stratégie SEO avec confiance.


[Read More ...]

Saturday, 15 December 2018

Agence Marketing Montreal

Vous pensez: les agences de marketing web ont l'air si internationales aujourd'hui. Savez-vous pourquoi nous sommes si confus quant aux conditions des agences de marketing? Je vais certainement vous informer pourquoi il en est ainsi. Avec le temps, de nombreuses personnes (à l'exception de l'agence de publicité) ont commencé à utiliser les programmes de développement de marques. Ces programmes ou tâches sont en fait devenus une activité secondaire pour les propriétaires de petits magasins, les étudiants, etc.




Comment choisir votre prochaine agence de marketing web?

Pour quelques dollars étranges, ils vous promettent un super. Les endroits où vous achetez tous vos articles fixes pour le bureau peuvent vous proposer de développer votre nom de marque en proposant du matériel avec les logos de votre marque. D'autre part, les étudiants ont choisi, entre autres, de prendre des vidéos et des images de l'entreprise pour construire la marque au moyen des médias sociaux, moyennant un revenu à temps partiel.

Une entreprise de publicité et de marketing ou une agence marketing est une entreprise personnalisée qui aide à développer le nom de votre marque de la manière la plus fiable possible. Une agence de marketing a en fait un ensemble spécialisé de personnes qui apprennent efficacement leur travail pour donner une valeur lucrative et qui valent également la peine de gagner du temps.





Les fonctions d'une agence marketing

L'agence marketing a beaucoup de fonctions à faire. Ces fonctionnalités comprennent la conception Web, la publicité et le marketing sur les réseaux sociaux, les vidéos sur Internet, la publicité télévisée, la recherche de service, la stratégie de marque, les relations publiques, le développement de campagnes, la thésaurisation, les courriers électroniques et les lettres d’information, les annonces et dépliants, etc. Les caractéristiques des agences de publicité ne se limitent pas à celles-ci. Par conséquent, il s’agit d’un service complet, c’est-à-dire d’une promotion sans faille des produits ou de la marque.

Jonathan Loiselle
1155 Metcalfe St #1708
Montreal, QC H3B 2V6
(438) 806-0850


[Read More ...]

Jonathan Loiselle Media

2388 Avenue de Lisieux

Ville de Québec, QC G1E 0E9

(418) 473-1544

Friday, 14 December 2018

L’aéroport de Québec desservi par bus dès juin

L’amélioration du service de transport en commun à l’aéroport Jean-Lesage de Québec devrait se faire...
[Read More ...]

Les 5 chiffres SEO qui nous ont marqué cette semaine (09/12 au 16/12)

Quels sont les 5 chiffres SEO qui nous ont marqué cette semaine ? L’équipe @OnCrawl vous a préparé son top 5 des chiffres les plus marquants. L’ensemble des données utilisées proviennent de sources anglophones. Avis & recherches locales, marché international du search, vidéo & tendances SEO 2019 : découvrez nos 5 actualités SEO de la semaine.

85 % des internautes pensent que les avis datant de plus de 3 mois ne sont plus pertinents

D’après cette nouvelle étude de BrightLocal, les internautes placent une grande confiance dans les avis en ligne. Surtout lorsqu’ils sont récents. Un nombre important de consommateurs (40 %) ne prennent en compte que les avis de moins de deux semaines et 85 % considèrent les avis de plus de 3 mois comme non pertinents. Par ailleurs, l’étude a révélé que les recherches locales ont augmenté par rapport à l’année dernière. 56 % des internautes font au moins une recherche locale par mois contre 41 % l’année passée.
Lire l’article

Bing et Yahoo détiennent 6 % du marché du search aux États-Unis

Ce n’est pas un secret : Google domine largement le marché du search. En revanche, cet article montre que ce n’est pas forcément le cas dans tous les pays. Si Bing et Yahoo ne possèdent que 6 % du marché du search aux Etats-Unis, Baidu a séduit 80 % de la population chinoise et Yandex domine également le marché russe avec plus de 50 % des parts. Google n’est donc pas indétrônable dans tous les pays !
Lire l’article

64 % des entreprises locales reconnaissent que Google devient leur “nouvelle page d’accueil”

D’après cette enquête menée par Moz, 64 % des entreprises locales considèrent Google comme leur nouvelle page d’accueil. Entre les Local Service Ads, le zero-click SERPs et autres services proposés par Google, ils pourraient se demander : “Est-ce que j’ai vraiment encore besoin d’un site web ?”. L’auteur de l’article souligne son désaccord avec cette interrogation et montre que 65 % des marketers observent une forte corrélation entre l’organique et le classement local.
Lire l’article

81 % des marketers utilisent la vidéo comme un outil marketing

La vidéo est devenue essentielle pour une stratégie de marketing de contenu. Par exemple, Hubspot a montré que 81 % des entreprises utilisaient la vidéo et que 76 % observaient une augmentation des ventes grâce à la vidéo. Un format qui ne devrait cesser de prendre de l’importance dans les années à venir et qui devrait s’installer durablement dans les stratégies SEO & PPC.
Lire l’article

74 % des acheteurs en ligne affirment que les résultats de recherche textuels ne sont plus suffisants

Cet article s’intéresse aux nouvelles tendances SEO qui devraient apparaître en 2019. Ainsi, l’auteur révèle que 74 % des consommateurs estiment que les résultats textuels ne sont plus suffisants pour trouver un produit. Ces derniers attendent des résultats riches, visuels et personnalisé à l’heure ou l’intelligence artificielle permet d’obtenir de nouveaux formats et channels de recherche.
Lire l’article


[Read More ...]

Thursday, 13 December 2018

Réaliser une migration de domaine sans encombre

Il existe de nombreuses raisons qui pourraient vous pousser à réaliser une migration de nom de domaine. Cela peut être le passage d’un nom de domaine vers un autre, la combinaison de plusieurs sites web en un seul ou simplement une migration HTTP vers HTTPs. Les migrations de domaine ne sont pas forcément fastidieuses. Cependant, si elles ne sont pas réalisées correctement, elles peuvent avoir de sérieuses conséquences négatives comme la perte de trafic ou de classement, ce qui peut également signifier une perte de chiffre d’affaires.

Migrer de HTTP à HTTPs

Note : Bill a séparé cet article en différentes vidéos qui résument sa réflexion.

La migration le plus commune est lorsque vous passez d’un site non-sécurisé à un site sécurisé. Les URLs de votre site web vont passer de HTTP à HTTPs. Si vous n’avez pas encore procédé à ce type de migration, je vous recommande de sérieusement envisager de passer à un site web sécurisé. Les moteurs de recherche considèrent le HTTPs comme un facteur de classement. Les dernières versions de navigateurs comme Google Chrome et Firefox ont commencé à prévenir les utilisateurs lorsqu’ils visitent des sites web non-sécurisés.


Exemple d’un avertissement Firefox qui apparaît lorsque vous visitez une page chargeant des ressources HTTP sur une URL HTTPS.

Migrer votre site d’une version HTTP à une version HTTPs implique différentes étapes importantes. Ces étapes incluent le certificat SSL du site puis la vérification que le site web a bien été complètement migré :

  • Acheter un certificat SSL et installez-le sur le site web. De nombreux hébergeurs web vous proposeront de vous vendre et d’installer le certificat à votre place.
  • Une fois que le certificat est installé, vous devrez crawler votre site pour vous assurer que toutes les références internes HTTP ont bien été transférées en HTTPs. Certains hébergeurs feront les changements et mises à jour nécessaires mais certains ne prendront pas la peine de le faire. C’est là qu’interviennent les crawlers comme OnCrawl.

Après avoir réalisé des centaines de migrations HTTPs au cours des dernières années et avoir été consulté de nombreuses fois pour des problèmes liés à cette migration, je peux affirmer qu’une erreur revient très souvent. Généralement, les sites web ne sont pas entièrement migrés de HTTP à HTTPs. La migration n’est pas complètement terminée. Par exemple, les pages sur le site peuvent ressortir correctement lorsque vous tapez https://www.votredomaine.com dans un navigateur web mais les liens sur le site pointent toujours vers la version HTTP. Les images sur le site peuvent être référencées via la version HTTP, ce qui engendre l’apparition du symbole “cadenas brisé” dans le navigateur web lorsque vous visitez l’une de ces pages.
Lorsque vous migrez un site web de HTTP à HTTPs, il est crucial que la migration de domaine soit complètement réalisée. Installer un certificat SSL sur votre site n’est pas suffisant. Ce n’est que le début de la procédure de migration. Avant de commencer votre migration HTTPs, prenez le temps de :

  • 1. Mettre à jour tous les liens internes pour qu’ils pointent vers le HTTPs ;
  • 2. Revoir et vérifier les paramètres du CMS (exemple : les paramètres du WordPress…)
  • 3. Mettre à jour les références des images et des scripts, comme les fichiers CSS et JavaScript. N’importe quelle URL interne qui est référencée dans le code du site doit être passée de HTTP à HTTPs. Cela inclut les balises canoniques.
  • 4. Crawler le site avec un crawler comme OnCrawl pour vérifier que les références internes et les liens internes ont bien été téléchargés. Vous aurez besoin d’utiliser le mode “URL list” d’OnCrawl afin de crawler l’intégralité de la liste.

Configurez un nouveau crawl et ajoutez “Data Sources” à votre crawl. Puis, cliquez sur l’onglet “URL Files” pour télécharger la liste des URLs.


Dans ce cas, j’ai sélectionné l’option “List of URLs” et ajouté la liste des URLs des redirections 301 que j’avais déjà ajoutée à mon fichier .htaccess. J’ai ajouté ces URLs dans un fichier texte que j’ai ensuite compressé dans un fichier .ZIP.
Une fois que vous avez lancé votre crawl et qu’il est complet, vous devriez pouvoir aller dans le Data Explorer et voir les redirections pour vous assurer qu’elles montrent bien toutes des redirections 301 permanentes. Voici un exemple ci-dessous, des données que j’ai utilisées pour détecter les redirections configurées suite à la migration de certains contenus vers mon nouveau domaine.


Vous pouvez aussi obtenir une vue générale de ces données dans le rapport Status Codes :


Vous pouvez trouver plus d’information sur ce mode et la manière dont il fonctionne ici.

  • 5. Configurer des redirections 301 permanentes de HTTP vers HTTPs.

Votre site ne devrait pas s’appuyer uniquement sur des redirections 301 permanentes. Si vous ne mettez pas à jour vos liens internes sur votre site, par exemple, alors les liens internes vont causer des redirections 301, ce qui n’est pas une bonne chose. Lorsque vous crawlez votre site depuis la page d’accueil, vous ne devriez pas rencontrer de redirections ou d’erreurs 404. Les redirections doivent rester en place le temps que vous préveniez tout le monde (moteurs de recherche et visiteurs) que vos URLs passent de HTTP à HTTPs. De plus, vous devrez rediriger les clics d’autres sites web qui pointent toujours vers la version HTTP de votre site. Mais, cliquer sur un lien de votre site qui pointe vers une autre page ne devrait pas causer de redirection. Vous avez le contrôle sur votre site et il s’agit d’une partie courante de la maintenance globale de votre site.
Lorsque vous arrivez à ce stade, vous êtes prêts pour la migration vers HTTPs. Pour la plupart des migrations de domaine, une fois que le certificat SSL est en place sur votre site, surtout sur un WordPress, je me lance et procède à la migration. Je mets à jour toutes les références internes au HTTP ainsi que les paramètres WordPress (Settings/General) pour informer WordPress de l’existence des nouvelles URLs HTTPs.

  • Faites une sauvegarde de votre site.
  • Dans WordPress, mettez à jour les paramètres généraux (settings / general) afin que l’adresse WordPress et l’adresse du site pointent vers la version HTTPs de votre site.
  • Utilisez les plugins Better Search et Replace pour chercher la version HTTP de votre site et la remplacer avec la version HTTPs. Je préfère rechercher l’URL entière, comme http://www.votresite.com/ et la remplacer avec https://www.votresite.com/ afin que les bons changements apparaissent dans les URLs. Ce plugin vous permet de rechercher dans l’intégralité de la base de données WordPress et de réaliser les changements appropriés sur tout le site.
  • Ajoutez le code de redirection dans le fichier .htaccess du site afin qu’il se redirige vers le HTTPs. Alternativement, il y a des plugins qui vous aideront à forcer le HTTPs à travers le site, redirigeant le HTTP vers le HTTPs.
  • Si vous utilisez un CDN comme Cloudflare.com, vous pouvez mettre à jour les paramètres pour forcer le HTTPs là aussi.
  • Pensez à acquérir le HSTS Preload List pour Google Chrome. Analysez le site avec https://hstspreload.org. Si tous les paramètres sont corrects, il vous autorise à soumettre cette liste. S’il reste des erreurs dans le paramétrage, le site vous le notifie afin que vous puissiez faire les changements.
  • Mettez à jour les paramètres Google Analytics afin qu’il sache que vous utilisez maintenant du HTTPs et non plus du HTTP.
  • Mettez à jour votre signature de mail, profils réseaux sociaux et n’importe quels autres liens pointant vers votre site.

Après votre migration, vérifiez bien toutes les versions de votre site dans la Google Search Console. Pour la plupart des sites sans configuration de sous domaines personnalisés, il y en a au moins 4 que vous devrez vérifier :
https://
https://www
http://
http://www
Une fois que vous aurez réussi à migrer votre site en HTTPs, le trafic de “l’ancienne version” devrait ensuite chuter alors que le trafic vers la version HTTPs que vous utilisez commencera à augmenter. Les représentants de Google ont affirmé que tant que vous redirigez correctement vers le HTTPs, vous ne devriez avoir aucun risque de perte de trafic, car la migration aura été réalisée correctement. Pourtant, je vois très régulièrement des sites qui ne parviennent pas à réaliser une migration complète et c’est à ce moment-là que les classements et le trafic chutent dramatiquement. Le passage en HTTPs a de nombreux bénéfices tant qu’il est réalisé correctement.

Migrer d’un domaine à un autre

Un autre type de migration de nom de domaine qui arrive plus souvent que l’on ne pense est une migration où vous passez d’un nom de domaine à un autre. En général, cela arrive lorsque vous avez un long nom de domaine ou un nom de domaine qui utilise un TLD (Top Level Domain) non adapté. Puis, vous tombez sur un nom de domaine peut-être plus court ou tout simplement mieux : il s’agit d’un nouveau nom de domaine gTLD qui contient vos mots-clés. Vous l’achetez et prévoyez de migrer votre site vers ce nom de domaine nouvellement acheté. Vous n’avez pas de raisons d’avoir peur des migrations de domaine de ce type. Vous ne perdrez pas vos classements ni votre trafic si elle est bien bien réalisée.

Donc, vous changez de nom de domaine, et migrez vers un nouveau nom. Découvrons ensemble les étapes qui vous permettront de réaliser cette migration sans encombre.
Tout d’abord, il faut comprendre qu’il y a en général deux scénarios différents :

  • Vous achetez un nom de domaine qui était déjà enregistré. Il pourrait s’agir d’un nom de domaine expiré, que vous avez acheté sur un site d’enchères, sur un “drop catcher” ou bien directement auprès d’une autre personne.
  • Vous achetez un tout nouveau nom de domaine qui n’a jamais été enregistré auparavant. Jamais. Vous pouvez vérifier cela dans les archives d’internet (une véritable machine à remonter le temps ! ) sur www.archive.org.

Il est extrêmement important que vous compreniez les différences entre ces deux scénarios. L’ancien statut de votre nom de domaine pourrait avoir un énorme impact sur son utilisation future. Par exemple, si le nom de domaine a déjà été enregistré, il pourrait avoir eu un passé mouvementé :

  • Avoir de bons (ou mauvais) liens pointant vers lui ;
  • Avoir été utilisé pour un sujet complètement différent du vôtre ;
  • Avoir été utilisé pour du spam (et avoir du contenu spammé ou avoir envoyé des emails spam) ;
  • Être banni des moteurs de recherche.

Dans la plupart des cas, il est possible d’obtenir un nom de domaine avec un passé propre ou du moins nettoyé. Mais pas sans efforts. Si votre nom de domaine a déjà été enregistré dans le passé, je vous recommande de paramétrer un microsite avec du contenu lié à votre thématique. Le contenu doit être le même que celui que vous allez utiliser pour pouvoir rediriger vers votre futur site. Laissez ce microsite (au moins 3 à 5 pages) pendant quelques semaines (ou plus) pour vous assurez que l’utilisation de ce nom de domaine ne pose pas de problèmes. Assurez-vous qu’il est bien indexé dans les moteurs de recherche. Ainsi, lorsque vous procéderez à la véritable migration, vous serez conscients de tous les potentiels problèmes liés à ce nom de domaine. Faites bien cette vérification préalable ou engagez quelqu’un avec de l’expérience pour le faire à votre place. Verified Domains propose également un service complet de vérification du passé d’un nom de domaine.
Si le nom de domaine n’a jamais été enregistré auparavant ni utilisé pour un autre site web alors vous êtes chanceux. Vous n’avez pas à vous préoccuper d’éventuels problèmes liés à son passé. Je vous recommande tout de même quelques vérifications préalables pour vous assurer de sa fiabilité.
Si vous êtes sûrs de votre nouveau nom de domaine, alors la première étape est de prendre connaissance de tout le contenu présent sur le site existant et de trouver toutes les URLs potentielles qui ont pu exister sur le site. Par exemple, vous pouvez réaliser un crawl complet avec OnCrawl et les options suivantes :

  • Les données de fichiers de log ;
  • Les données de Google Analytics ou Adobe Analytics ;
  • Les données de la Google Search Console ;
  • Les données de backlinks de Majestic.com.

En incluant toutes ces données dans le crawl d’OnCrawl, vous vous assurez de trouver toutes les URLs qui ont existé sur le site. De cette manière, toutes les redirections que vous paramétrez (en redirigeant l’ancien nom de domaine vers le nouveau) prendront en compte tout le trafic et les liens potentiels que l’ancien nom de domaine a pu avoir.
La procédure pour passer d’un nom de domaine à un autre est très simple et inclut les étapes suivantes :

  • 1. Vérifiez toutes les versions de chaque site dans la Google Search Console. Cela inclut les versions http://, https://, http://www, et https://www. Identifiez également tous les sous domaines dont vous avez la connaissance.
  • 2. Crawlez le site entièrement en utilisant OnCrawl. Ajoutez les données de Google Analytics, de la Google Search Console, de Majestic.com et des fichiers de log à votre crawl. Vous pourrez plus facilement identifier toutes les URLs possibles ainsi. Faites une liste de toutes les URLs que vous avez rencontrées, une liste massive d’URLs uniques. Vous en aurez besoin plus tard.
  • 3. Configurez les redirections. Utilisez les redirections 301 permanentes pour rediriger l’ancien nom de domaine vers la nouvelle version du domaine. Idéalement, cela signifie rediriger chaque ancienne version du nom de domaine vers la nouvelle version.
  • 4. Testez les redirections et assurez-vous que vous ne redirigez pas plusieurs fois. Par exemple, il ne doit pas y avoir de redirection 301 permanente depuis http://www.anciendomaine.com vers https://www.anciendomaine.com/ puis vers https://www.nouveaudomaine.com/. Il est facile de faire cette erreur. Vérifiez qu’il n’y a bien qu’une seule redirection et pas plusieurs.
  • 5. Utilisez l’outil de changement d’adresse de Google pour informer Google que vous changez de nom de domaine. Si les redirections sont correctement configurées, Google le confirmera avec cet outil.
  • 6. Mettez à jour les paramètres de Google Analytics pour pointer vers le nouveau nom de domaine. Même si vous voulez garder vos anciennes données dans Google Analytics, vous devez quand même éditer l’URL dans les paramètres de Google Analytics.
  • 7. Crawlez à nouveau le site, en utilisant la liste que vous avez préalablement créée. Cela vous permet de vous assurez que toutes les anciennes URLs sont correctement redirigées vers les nouvelles URLs. Utilisez le mode “URL List” d’OnCrawl pour crawler votre liste d’URL.

Configurez un nouveau crawl et ajoutez “Data Sources”. Puis cliquez sur l’onglet “URL Files” pour télécharger le fichier contenant la liste d’URLs.


Vous pouvez trouver plus d’information sur le mode liste ici.
Vous devrez maintenir ces redirections en place pendant un long moment. Je recommande de ne jamais retirer les redirections qui renvoient depuis l’ancien nom de domaine vers le nouveau. Les anciennes URLs vont rester dans l’index de Google pendant longtemps, j’ai vu certaines y rester pendant au moins 3 ans si les redirections restent en place. L’ancien nom de domaine se montrera dans les résultats de recherche seulement si vous le recherchez. L’ancien nom de domaine ne devrait se classer pour aucun mot-clé si les redirections sont bien restées en place et sont correctement paramétrées.

Combiner plusieurs sites web en un seul

Un jour, vous pourriez avoir besoin de combiner le contenu de plusieurs sites en un seul. Beaucoup d’étapes sont similaires dans les procédures de combinaison de contenu ou de déplacement. Mais la situation se complique lorsqu’il faut décider quel contenu déplacer, quel contenu rediriger et quel contenu supprimer complètement du site (et donc ne pas déplacer).

Je recommande de suivre les étapes suivantes pour combiner deux ou plusieurs sites en un seul :

  • 1. Crawlez tous les sites en utilisant OnCrawl. En incluant les données de Google Analytics, Google Search Console, Majestic.com et de logs dans vos crawls, si possible. Vous devez réaliser ce crawl pour pouvoir identifier toutes les URLs possibles. Faites une liste de toutes les URLs que vous avez rencontrées, une liste massive d’URLs uniques. Vous en aurez besoin plus tard.
  • 2. Créez une feuille de calcul dans Excel avec toutes les URLs de tous les sites web. Celle-ci peut inclure plusieurs onglets, un pour chaque site et un pour le “nouveau” site que vous créez. Lancez-vous dans la procédure fastidieuse de lister toutes les pages du “nouveau” site et cartographiez les pages de l’ancien site que vous déplacez, celles que vous combinez et ainsi de suite. Il s’agit de la partie la plus critique de toute la procédure et également la tâche sur laquelle vous devez passer le plus de temps.
  • 3. Une fois que vous avez votre feuille de calcul et la liste des URLs qui doivent être redirigées et des contenus qui doivent être déplacées ou combinées, mettez au point un plan pour combiner et déplacer le contenu. Cela inclut bien sûr les changements navigationnels (changements de maillage interne) que vous devrez également cartographier. Gardez en tête qu’il est recommandé de conserver autant d’URLs que possible. Si vous combinez des sites web en un seul, il peut être utile de garder les mêmes URLs.
  • 4. Durant cette procédure, je recommande de commencer avec un nouveau hébergeur ou VPS dans un environnement de développement (pas un site ouvert au public et crawlable par les moteurs de recherche). Cela vous donnera suffisamment de temps pour migrer votre contenu, ajouter des liens internes et mettre à jour la navigation. Certains aiment exploiter ce temps pour créer un nouveau site avec un nouveau design. Déplacez le contenu et mettez à jour le nouveau site.
  • 5. Une fois que le nouveau site et le contenu que vous avez déplacé ou combiné vous convient, vous pouvez commencer à implémenter les redirections. Utilisez la feuille de calcul que vous avez préalablement créée ainsi que les données de crawl d’OnCrawl pour vous aider avec les redirections.
  • 6. Assurez-vous que toutes les version des domaines (http://, https://, http://www., et https://www) ainsi que les sous-domaines ont bien été vérifiés dans la Google Search Console.
  • 7. Mettez en place les redirections, et autorisez les moteurs de recherche à crawler le nouveau site. Si vous avez changé d’hébergeur web, vous devrez mettre à jour les serveurs du nom de domaine afin qu’ils pointent également vers le nouveau serveur.
  • 8. Utilisez l’outil de changement d’adresse de Google pour informer Google que vous êtes passés d’un nom de domaine à un autre. Vous aurez besoin de faire cela pour chaque domaine que vous déplacez ou combinez. Si les redirections sont correctement configurées, Google va reconnaître la migration lorsque vous configurerez le changement d’adresse.
  • 9. Mettez à jour les paramètres de Google Analytics pour pointer vers le nouveau nom de domaine. Vous pourriez ne pas pouvoir garder toutes vos anciennes données comme vous ne faites pas que migrer d’un domaine à un autre. Vous devriez ouvrir un nouveau compte Google Analytics pour le nouveau domaine ou le nouveau site. Vous pouvez également transférer celui que vous utilisez sur votre site actuel.
  • 10. Crawlez tous les sites une nouvelle fois, en utilisant la liste que vous avez préalablement créée, pour vous assurez que toutes les anciennes URLs redirigent correctement vers les nouvelles URLs. Utilisez le mode “URL List” d’OnCrawl pour recrawler toutes les URLs ou vérifier les redirections.

Configurez un nouveau crawl et ajoutez les “Data Sources”. Puis, cliquez sur l’onglet “URL Files” pour télécharger le fichier de la liste d’URLs.


Vous pouvez trouver plus d’information sur ce mode liste ici.

  • 11. Pour le nouveau contenu que vous avez déplacé ou mis à jour, vous pouvez utiliser les outils Google Fetch et Render pour demander à ce que Google recrawle le site.

Que vous migriez de HTTP à HTTPs, d’un domaine à un autre ou que vous combiniez des sites web en un seul, vous devrez procéder à un crawl. Utilisez les crawls pour trouver toutes les URLs possibles (pages) qui ont pu exister sur le site, et exploitez les données lorsque vous configurez les redirections. Il est impératif que vous utilisiez les redirections 301 permanentes pour minimiser le nombre de rebonds des visiteurs (ou des bots des moteurs de recherches) et pour les diriger vers la destination finale. Je vois trop souvent des problèmes avec les classements dans les moteurs de recherche ou des chutes de trafic à cause d’une mauvaise migration de site, ou des migrations où les procédures n’ont pas été suivies correctement. Avec un bon plan, une compréhension de l’intégralité de la procédure et une vérification aguerrie, votre prochaine migration de domaine se déroulera sans encombre et sans aucune perte de trafic ou chute de classements.


[Read More ...]

Wednesday, 12 December 2018

La ministre des Affaires municipales ordonne une enquête sur le maire de L’Ancienne-Lorette

La ministre des Affaires municipales, Andrée Laforest, a demandé mercredi à la Commission municipale...
[Read More ...]

Cet hiver : bains libres gratuits au PEPS de l'Université Laval

Cet hiver, la Ville de Québec en collaboration avec le Pavillon de l’éducation physique et des sports de l’Université Laval (PEPS) offre des bains libres gratuits à l’intention des citoyens.

Les samedis 12 janvier, 16 février, 16 mars et 6 avril de 16 h à 17 h 30, les utilisateurs auront accès gratuitement aux trois bassins suivants :

·       Piscine olympique : 10 couloirs de nage 25 m

·       Piscine avec tremplins : jeux gonflables

·       Bassin récréatif

 

L’entrée est gratuite pour toute la famille sur présentation d’une preuve de résidence (exemple : permis de conduire). La gratuité est pour les citoyens de la ville de Québec. Les non-résidants doivent payer le droit d'entrée régulier. Le casque de bain est obligatoire (vente sur place au besoin). Notez que le stationnement intérieur est aussi gratuit pour les résidants lors de ces bains libres.

 

La Ville de Québec et l’Université Laval ont une entente concernant l’utilisation des infrastructures du PEPS. Cette entente permet d’offrir aux citoyens des installations sportives et récréatives améliorées, de proposer des sites d’entraînement adaptés aux athlètes et d’accueillir des événements sportifs majeurs. Les installations d’une qualité et d’une modernité exemplaires permettent de bonifier l’offre d’activités sportives.

 

Renseignements : www.peps.ulaval.ca

 

Bonne baignade!


[Read More ...]

Tuesday, 11 December 2018

Comment déterminer le périmètre d’un crawl et gérer vos réserves de budget de crawl ?

Lorsque l’on évoque la notion de budget de crawl, on touche une corde sensible dans l’écosystème du SEO. D’un côté, les sceptiques qui pensent que le budget crawl est une définition brillamment marketée, rien de plus, et de l’autre, les partisans d’une technique utilisée par Google pour prioriser l’exploration des pages d’un site. Du côté de Google, il est dit que le budget crawl est ainsi appelé par abus de langage par les professionnels du SEO et qu’il ne devrait pas y avoir lieu de s’en soucier pour les sites de moins d’un million de pages. On pourrait toutefois le dénommer ressources de crawl pour être un peu plus proche, à minima des termes évoqués dans les brevets.
En somme, le budget de crawl ou quel que soit son nom est un indicateur de plus dans les débats, âprement discuté mais jamais vraiment démontré.
Il y a toutefois deux indicateurs cités par Google dont on entend peu parler :

  • Le crawl rate limit : qui permet à Google de définir la vitesse de crawl idéale sans menacer les performances globales du site.
  • Le besoin d’exploration (crawl demand) : qui permet d’accroître le nombre de pages crawlées sde manière ponctuelle : refonte, jeu de redirections, etc.

Pourtant, il y a une chose qui met tout le monde d’accord : les lignes de logs ne mentent pas. “Log files are so underrated” pour citer John Mueller.

Qu’est-ce qu’une réserve de budget de crawl ?

On définit le budget de crawl comme une unité de temps à l’intérieur de laquelle Google définit, en fonction d’un score d’importance, les URLs à explorer.  A fortiori, on admet souvent que le budget de crawl d’un site web donné mériterait d’être optimisé : faire en sorte que davantage de pages soit explorées par Google par rapport à un instant T.
C’est là qu’intervient la notion de réserve de budget de crawl. Il s’agit précisément d’identifier les explorations inutiles actuelles de Google sur certaines pages afin de transférer son exploration à d’autres pages.

On pense naturellement aux erreurs “4 double x” autant sur les pages que sur les ressources. On peut rapidement s’apercevoir que Google perd son temps sur des pages qui n’ont plus lieu d’être. C’est une première réserve à travailler : récupérer du hit pour favoriser l’exploration de Google sur des pages à réelle valeur ajoutée.

Et la même logique vaut pour les explorations effectuées via les User Agent hors SEO :

On peut aussi utiliser intelligemment les segmentations personnalisées créées via OnCrawl afin d’identifier les URLs qui ne méritent aucune attention de la part de Google. De très nombreuses raisons peuvent permettre d’identifier ces URLs : tags qui permettent de classer le contenu rédactionnel mais qui n’ont aucune valeur ajoutée en tant que page web, pages liées au tunnel de commande, etc.

On sait également que lorsque le périmètre de crawl n’est pas atteint, Google peut être amené à crawler des URLs qui n’ont pas ou plus aucune valeur ajoutée, dès lors retirées de l’architecture du site : les pages orphelines.
Certaines peuvent continuer à recevoir des hits de Google. Lorsque le cas se présente et lorsque ces pages ne reçoivent plus de SEO visits, il convient également de les traiter en priorité afin de réaffecter la réserve de hits à d’autres pages.

Comment mesurer les résultats ?

Notre discipline est tout sauf une science exacte. Une question se trouve en tête de liste lorsque nous évoquons l’exploitation des réserves de budget de crawl : “comment je peux dire si, une fois les optimisations apportées, Google s’intéresse à mes autres pages ?”.

On peut d’abord facilement s’apercevoir si oui ou non les optimisations que l’on apporte à un lot de pages données induisent le comportement attendu côté Google.

L’illustration est plutôt criante de vérité ici : malgré quelques rebuts après le 19 janvier 2018, on voit clairement que le crawl de Google sur nos pages inutiles est proche du néant.

Si on s’intéresse maintenant aux pages nouvellements crawlées, on s’aperçoit que pour notre groupe “budget de crawl efficient”, on passe en moyenne de 58% de pages nouvellement crawlées par jour à 88%.

En appliquant le Base filter sur notre groupe de pages à abattre, on s’aperçoit également clairement du résultat :

Il est aujourd’hui difficile voire impossible d’identifier précisément un schéma de crawl : soit définir un point d’entrée et suivre url par url le chemin de Google pour un groupe de pages en particulier. Certainement parce que Google ne se comporte pas ainsi et, pour aller plus loin, son comportement ne suit certainement aucune logique. L’identification des bénéfices suite à l’exploitation des réserves de budget de crawl demeure donc inexacte car nous ne pouvons mesurer précisément les tenants et aboutissants. Toutefois, à la lumière des illustrations et métriques énoncées plus haut, on note clairement une modification globale du comportement de Google entre nos pages à budget de crawl efficient et non efficient.


[Read More ...]

3 facteurs qui éloignent les utilisateurs et les crawlers de votre page d’accueil

  Votre page d’accueil n’est pas juste un espace dans lequel vous affichez votre nom de marque et votre logo. Il s’agit de la page initial...