Catégories
Livres Blanc

Livre blanc : Le référencement sur Google pour les débutants (par Google)

De mémoire de marketeur, je ne me rappelle pas avoir souvent vu des guides pour le référencement écrit par Google et destiné au grand public. Étant donné le marché foisonnant de livres (blancs ou non) qui s’en chargent, il n’y avait tout simplement pas le besoin. Pour autant, avec la masse nouveautés lancées lors de la dernière google dance, l’équipe Search devant bien mettre à jour leur best-seller maison.

Un guide de plus pour le référencement ?

Et bien, oui, un de plus. Ce guide, c’est un peu comme le manuel d’un magnétoscope caméscope téléphone. On en a pas tellement besoin quand on sait passer des coups de fils et ajouter des contacts, mais là il est question de grosse compet’ !  Autour de 6 chapitres, l’équipe Search vous explique comment tirer profit de leur produit. On couvre donc:

  1. Un rappel de ce qu’est le SEO
  2. Comment tirer partie de la structure de son site
  3. Comment optimiser son contenu
  4. Gerer les spiders
  5. Indexer un site mobile
  6. Promouvoir votre site

Alors bien sur tout du long, il va falloir lire un peu entre le lignes. Par exemple, on apprend peu de choses sur la gestion de sites multi-langues, si ce n’est qu’on peut extrapoler un peu en partant des « Best Practices » (pages 5 à 9, par exemple).

Un peu plus loin, Google revient sur un thème assez équivoque: les sites optimisés pour son système d’indexation. On aura tout entendu (« Prepare two sitemaps: one for users, one for search engines ») et son contraire (« Create content primarily for your users, not search engines »), mais en sortant ce livre blanc, Google espère probablement mettre fin à la polémique. En résumé, il est maintenant recommandé de créer non seulement un site facilement indexable mais aussi de proposer à google des sitemaps simplifiées, voire du contenu simplifié. On reste proche de techniques douteuses donc la règle du bon sens reste de mise.

Livre blanc : Le référencement sur Google pour les débutants (par Google) -L’un des points qui me chagrinera à titre personel reste le positionnement de Google par rapport aux commentaires sur les forums. Là encore, un sujet longuement discuté mais à la différence du point précèdent, pas question de transiger : le nofollow s’impose. Avec ce petit attribut de la balise a, les éditeurs de forums et de blogs sont sensés décourager les spammeurs et ne plus offrir de « link juice ». Au quotidien, c’est très compréhensible et les éditeurs de sites un peu soucieux auront déjà sauté sur l’occasion… mais en parallèle, d’un point de vue économique, ca veut dire qu’à moins d’avoir ses propres sites satellite, il devient très difficile pour les PME de sortir du lot. D’un point de vue plus idéologique, ca veut dire aussi que le partage de lien en commentaire n’est plus valorisé comme une source fiable et légitime.

A ma grande surprise, pas de mention des efforts récents pour favoriser les sites rapides (Google caféine), pas de mention des changements d’AdWords et rien sur Docs ou goog.gl non plus. On aurait peut être crié au monopole 🙂

Et donc ?

En 2010, pour devenir célèbre sur internet, il faut maitriser les outils de publication communautaire. Non, pas les commentaires dont on vient de parler, mais les services de soumission aux agrégateurs de news, les services de géolocalisation et les médias viraux. Outre l’omnipresence des twitters, foursquare et  facebook (public), on notera par ailleurs la forte remontée de slideshare.net. A l’inverse Digg et Delicious sont au bord du gouffre.

Il y a 10 ans, google (qui débutait) indexait les annuaires (vous vous rappelez du DMOZ ?). 10 ans plus tard, ce sont les indexeurs spécialisés qui se font indexés à leur place. Au bout du compte, pas tant de changement : il faut coller aux besoins et habitudes de consommation de votre cible pour vous faire repérer.

Le téléchargement, c’est par ici.

Bonne lecture
Grégory Raby

Catégories
Developper

Developper : l’url rewriting #1 – comment donner du sens à vos urls ?

Les procédures de définition d’un projet web mettent naturellement ce que l’on trouve dans le site. L’identité visuelle, l’ergonomie, les chemins que les utilisateurs devront parcourir pour atteindre leur objectifs sautent à l’esprit puisque c’est ce que l’on voit et ressent dès les premières minutes sur un site. Depuis que Google est en position de quasi-monopole dans la plupart des pays, on prend aussi en compte des mots clefs (taxonomie, règles d’édition du contenu) et d’informations moins visuelles (comme le titre des fenêtres ou les textes descriptifs des images). Ça fait déjà une longue liste de tâches à accomplir pour être au niveau par rapport à vos concurrents potentiels. La bonne nouvelle, c’est qu’il y a encore des moyens de se différencier et de marquer des points de manière efficace ou de combler votre retard actuel. Comme le nom « url rewriting » l’indique, l’idée est de reformater les urls pour leur donner plus de pertinence, de sens.

Reformater mes urls ?

En ré-écrivant des urls dynamiques, il y a de fortes chances pour que la structure qui se déploie dans la barre d’adresse de votre navigateur paraisse plus logique aux yeux de vos visiteurs. C’est déjà quelque chose que vous voyez au quotidien sans vous en rendre compte. Normal, on ne remarque que si nous parait compliqué. Ainsi, de l’exemple #1 on pourra passer à l’exemple #2 en quelques étapes.

Exemple #1:
https://www.site.com/comparaison.php?categorie=172201&c=fr&l=fr

Exemple #2:
https://voyages.site.fr/billet/avion

1er avantage: imaginons que l’on voit cette url dans les pages de résultat d’un moteur de recherche (SERP), il y a fort à parier que que les visiteurs cliquent davantage sur l’url qui comprend les mots clefs qui correspondent à leur recherche.

2ème avantage: entre deux pages comprenant un contenu globalement similaire, traitant du même sujet, sans vrai facteur différenciateur; devinez laquelle de ces pages sera indexée plus facilement que l’autre ?

Pour autant, le champ d’application de l’url-rewriting est bien plus large que ce simple exemple. En fonction des besoins de vos projets, on pourra approcher cette fonctionnalité en s’axant sur:

  • la sécurité : cacher des failles potentielles liées à certains scripts,
  • le SEO : améliorer le référencement naturel des pages du site et le click-through,
  • le Customer Experience : les visiteurs peuvent mieux appréhender la structure du site… et on aime tous pouvoir se repérer sur un site,
  • les webanalytics : imaginez un rapport de trafic / revenu (basé sur les répertoires de vos urls) qui ait du sens,
  • l’opérationnel : pas besoin de changer toutes vos urls (ni de perdre le trafic ou Page Rank associé) lorsque vous lancez ou re-« brandez » un produit ou un site.

Chacun de ses points peut être une raison suffisante pour se lancer dans cet exercice.

Ok, j’en veux changer la structure de mes urls, je fais comment ?

Il existe des centaines de très bon sites qui couvrent l’implémentation technique sous les différents serveurs web qui existent aujourd’hui (enfin quand même surtout Apache et Microsoft IIS). Sans  réinventer ou recopier ce qui a été fait ailleurs, voilà déjà quelques pistes qui vont vous donner de quoi commencer.

Revenons à la définition de l’url rewriting. Le principe est de de vous permettre d’écrire des règles permettant au serveur de modifier les urls des contenus recherchés par les visiteurs. On a donc bien une notion de règles (à définir) que le serveur (Apache ou IIS) devra interpréter.

Concrètement, je veux transformer quoi en quoi ?

La première étape est donc de faire un état de ce que vous avez et de voir en quoi vous voulez le transformer. Bien que cela tombe sous le sens, il est important de bien se poser la question sous différents angles. Est-ce que ce que vous pourriez imaginer sur un coin de table serait pertinent une fois que vous regarder à vos rapports de statistiques ? Est-ce votre site est la cible d’attaques incessantes contre lesquelles il faudrait penser à se protéger ?

La meilleure méthode reste de commencer à griffonner sur un bout de feuille Excel les urls type que vous avez aujourd’hui, trier celles que vous voulez reformater et imaginer comment vous pourriez les simplifier. Vous n’avez pas besoin de simplifier TOUTES les urls de votre site, une approche branche par branche peut être se révéler bien plus pertinente ou en tous cas permettre de valider les acquis et la méthode.

Comment je dis ça au serveur ?

Cette fois, cela va dépendre du langage et du type de serveur que vous utilisez pour faire tourner votre site. Il exise grosso-modo 2 types de serveurs web : Apache (qui se couple généralement avec PHP & MySQL) et Microsoft IIS (qui se couple généralement avec ASP.NET).  D’après Woozweb (observatoire de sites) la part de serveurs Apache tourne autour des 80% du marché alors que IIS ne récolte que près de 20%. Apache représente a peu près 80% du marché mondial, vous trouverez par conséquent beaucoup plus de documentation à ce sujet, pour autant IIS n’est pas en reste et vous permet d’atteindre exactement les mêmes objectifs. Commençons donc avec le couple Apache & PHP.

Méthodologie sous Apache

On se bornera ici à faire quelques tests donnant des directions sur ce que vous pouvez développer de votre côté. En aucun cas il ne s’agit d’une liste exhaustive.

1. Assurez-vous que votre serveur Apache gère l’url rewriting.

Il se peut que, en fonction de votre hébergeur ou de la manière dont est configuré le serveur, les instructions ne soient pas prises en charge. Commençons par savoir si le module est actif.

Créez le fichier « info_config_apache.php » comprenant cette simple ligne de code:

<?php phpinfo(); ?>

Ouvrez votre navigateur à l’adresse en question et regardez si « mod_rewrite » fait partie des modules listés. Si ce n’est pas le cas, je vous conseille de vous reporter à la FAQ de votre hébergeur. S’il s’agit de votre propre serveur, vous trouverez toutes les démarches ici. Enfin, si vous êtes hébergés chez 1and1, l’instruction ne s’affichera pas dans la liste pas mais vous pourrez tout de même faire de l’url rewriting.

2. Essayons ensuite de passer une ou deux commandes de test pour être sur que tout fonctionne bien avant de se lancer.

En fonction de votre hébergeur (notamment en hébergement mutualisé) il se peut que vous deviez rajouter quelques lignes de code. Lancez donc votre éditeur de code, Dreamweaver ou Notepad, et créez (ou éditez) un fichier « .htaccess » à la racine de votre site. Le fichier « .htaccess » permet de faire énormément de choses très utiles dans de nombreux domaines; si vous n’en avez jamais entendu parlé, je vous conseille d’aller et avant de continuer. Tout le monde est revenu ? Ok, on commence donc avec ce petit bout de code:

Options +FollowSymlinks
RewriteEngine on
RewriteBase /

RewriteRule   ^perdu.html$   gagne.html  [L]

Placez le à la racine de votre site, et créez au passage le fichier gagne.html. Si vous avez la flemme, téléchargez les deux fichiers en question et de-zippez les sur la racine de votre site.

Une fois les fichiers en place, il vous reste juste à tester avec votre navigateur si tout fonctionne bien. Tapez donc l’url de votre site (https://www.monsite.com/perdu.html) et vous devriez être redirigé de manière transparente vers le fichier gagner.html. Si ca marche, passez à l’étape suivante. Si ca ne marche pas (probablement « erreur 500 »), essayez de retirer la première puis la troisième ligne de code du fichier .htaccess.

3. Passons maintenant à la phase finale, la mise en production de ce que vous aviez griffonné un peu plus tot.

Pour cela il existe tout un langage et une syntaxe. Je ne livrerai ici que 2 exemples typiques et des sites permettant d’approfondir.

Forcer le sous-domaine « www » ?

Options +FollowSymlinks
RewriteEngine on
RewriteBase /
RewriteCond %{HTTP_HOST} ^votre_site\.com$
RewriteRule ^(.*)$ https://www.votre_site.com/$1 [R=301,L]

Si vous tapez « votre_site.com », le serveur affichera et interprètera automatiquement « www.votre_site.com ». Visitez le site Apache Mod Rewrite pour creuser cet exemple.

Cacher les extensions de fichiers

Options +FollowSymlinks
RewriteEngine on
RewriteBase /
RewriteCond %{SCRIPT_FILENAME} !-d
RewriteRule ^([^\.]+)$ $1.php [NC,L]

Allez sur votre site, et vous y verrez toutes vos pages fonctionner sans le « .php », c’est à dire comme un nom de répertoire. Visitez le site Apache Mod Rexrite pour creuser cet exemple.

Dans un prochain article, nous reviendrons sur la syntaxe assez barbare utilisée ici -les expressions rationnelles- et nous verrons que cette norme est extrêmement pratique et puissante dans de nombreux domaines. D’ici là vous pouvez continuer à parcourir des exemples d’url rewriting et même d’autres possibilités offertes par la manipulation d’un fichier .htaccess.

Méthodologie sous IIS

Microsoft oblige, IIS nous offre une API pour faire ces même manipulations. On utilisera pourra utiliser l’application ISAPI (Internet Server Application Program Interface) développée par Helicon qui revient à triturer un fichier .htaccess sous Apache. On notera d’ailleurs que ISAPI 3.0 permet d’importer un fichier .htaccess, ce qui n’est pas sans intérêt. Découvrez ISAPI 3.0 et d’autres logiciels du même style .

IIS gérant nativement l’ASP.NET, vous pourrez aussi passer par une approche « code » si vous n’avez pas accès à la configuration de votre serveur. Voilà de quoi vous mettre sur la voie !

Le temps de digerez tout ca et j’aurai fini un deuxième article sur une série d’exemples prioritaires pour vos réécritures d’url sur Apache. D’ici là, commencez déjà à imaginer si certaines de vos urls devraient être réécrites et si oui, lesquelles et pour donner quel résultat ! Tout un programme.

Catégories
Les bons liens

Gratuit: 5 générateurs de Sitemaps pour donner de la visibilité à vos pages

La découverte des pages d’un site, d’autant plus lorsqu’il est récent ou contient beaucoup de pages, peut être un processus extrêmement long. Pour commencer, votre site va recevoir la visite des robots / spiders / crawlers de google et d’autres moteurs. Ils vont regarder une page puis une autre jusqu’à quitter votre site. Ça parait simple et imparable, pour autant, ça ne se passe jamais aussi simplement que ça. D’une part la page la mieux indexée pour Google peut ne pas être celle que vous attendiez, mais surtout toutes les pages ne seront pas mécaniquement ajoutées aux SERPs, pour plusieurs raisons (pertinence, manque de popularité, contenu dupliqué, …).

Afin de rendre cette étape plus simple pour tout le monde, on pourra donner aux robots un plan du site. Pour cela, on va placer un fichier « robots.txt » à la racine de votre site. Ce fichier peut contenir de nombreuses instructions, mais aujourd’hui, le code suivant nous suffira:

Sitemap: https://www.monsite.fr/sitemap.xml

Une fois cette première étape franchie, il faut donc s’attaquer à la partie épineuse du problème qui nous réunit aujourd’hui : comment générer un fichier xml valide et bien fait qui retrace l’ensemble de mes pages ? Et bien c’est assez simple. Il existe une structure, une « langue » reconnue par l’ensemble des robots, que ce soit google, yahoo, msn live et des milliers d’autres. En voilà un aperçu:

<?xml version="1.0" encoding="UTF-8"?>
<urlsetxmlns="https://www.sitemaps.org/schemas/sitemap/0.9">
<url>
<loc>https://www.example.com/</loc>
<lastmod>2005-01-01</lastmod>
<changefreq>monthly</changefreq>
<priority>0.8</priority>
</url>
</urlset>

Pour vous donner une idée de ce que ça donne sur ce site, allez voir mon fichier sitemap.xml.

Comment générer gratuitement son sitemap ?

En partant de ce schéma officiel, de nombreux services ont vu le jour en proposant d’automatiser cette tâche pour vous. En voilà un top 3 ayant pour trait commun d’être gratuits. Chaque solution propose un angle d’approche différent et vaudra nombre de solutions payantes.

Générateur de sitemap externe : XML-sitemaps.com

Gratuit: 5 générateurs de Sitemaps pour donner de la visibilité à vos pages -

De l’ensemble des services web créant des sitemaps en ligne je n’ai retenu que celui là. Comme beaucoup de services, XML-sitemaps permet de choisir certains paramètres comme la fréquence de rafraîchissement du contenu et le calcul de l’importance des pages. Quelques secondes plus tard, le site vous donne votre sitemap utilisant les tout derniers schémas XML (0.9)  supportés par le W3C en version XML ainsi que compressé GZIP. On devra quand même jeter un coup d’œil au fichier avant de le mettre en ligne mais la qualité du scan est vraiment honnête. Le site se distingue aussi en vous rappelant ou placer votre fichier sur votre serveur et comment s’assurer qu’il soit bien lu par Google.

A noter que le service gratuit se borne aux 500 premières urls, ce qui peut rapidement devenir handicapant dans le cas d’un blog par exemple. Évitez le service de broken links (facturé $5.00) sachant que Linktiger.com le fait gratuitement.

Generateur de sitemap interne : PHP XML Sitemap Generator

Gratuit: 5 générateurs de Sitemaps pour donner de la visibilité à vos pages -

Toujours dans le monde du freeware, au tour maintenant des scripts embarqués. Imaginons que vous ayez un site tournant en PHP, ce serait quand même plus simple de pouvoir cliquer sur lien et que tout se fasse en tâche de fond pour vous: création du sitemap, mise en ligne sur le serveur et soumission aux moteurs ! Et bien c’est ce que fait PHP XML Sitemap Generator.

Generateur de sitemap dans WordPress : Google (XML) Sitemaps Generator for WordPress

Gratuit: 5 générateurs de Sitemaps pour donner de la visibilité à vos pages -

Ce blog tournant sous WordPress, je me devais de couvrir ce CMS. Ce plugin est non seulement l’un des mieux noté par la communauté des utilisateurs de WordPress mais il est aussi directement recommandé par Google. Mis à jour très régulièrement, on retrouvera toutes les fonctionnalités listées au sujet des scripts ou services précédents.

Bien entendu, l’excellent Yoast SEO peut aussi vous faire un très bon sitemap (en plus de vous forcer à suivre les meilleurs standards SEO. Il peut cependant manquer d’options par rapport à Google XML Sitemap Generator qui lui est dédié à la tâche.

Je fais quoi de mon sitemap ?

Quelque soit la solution retenue, une fois qu’on a un sitemap, il ne faut pas hésiter à aller le dire à Google et Bing. Tous les moteurs de recherche ont une page « webmaster » permettant de soumettre cette info. On retiendra :

Les outils permettant de soumettre votre sitemap à des centaines d’annuaires et moteurs sont assez inutiles. Mieux vaut passer un peu de temps dans les pages de configuration de Google et Bing pour s’assurer que tout s’y passe bien.

Catégories
Livres

Lectures: Le référencement sur Google

Alors que je me lance sur un nouveau projet personnel, je voulais rafraichir mes connaissances en matiere de referencement si possible en évitant le retour à la case depart.

Chacun son livre

Referencement Sur Google Avant de me lancer, j’ai donc cherché dans deux Fnac, sur Fnac.com et sur Amazon.fr. Mes critères etaient de trouver un livre d’un bon niveau technique sans pour autant être un cours de code. J’ai toujours une préference pour les bouquins qui savent faire comprendre l’esprit plutot que de s’attarder à un outil ou une fonctionalité. Après avoir feuilleté de nombreux livres, je suis tombé sur Le référencement sur Google (Le guide complet). En 300 pages, Gilles Grégoire construit intelligement un etat de ce qui marche, de ce qui est mal vu et des mythes que l’on entretien à force de parler d’indexation.

La premiere partie du livre parle des grands principes, des risques mais aussi des benefices d’un referecement bien fait. J’ai particulierement apprecié les exemples chiffrés visant à demontrer qu’une approche A est plus rentable qu’une approche B. C’est aussi grace à cette rigueure que le premier chapitre met en confiance; on comprend bien qu’il ne s’agit pas d’un ènième bouquin ecrit par un blogueur 2.0 avec des boutons flashy, mais par un acteur du monde de l’entreprise qui sait ce que rentabilité signifie. Le sixième chapitre couvre d’ailleurs plus en profondeur les indicateurs à mettre en place pour s’assurer que les efforts sont rentables, ciblés et pertinents.

Du deuxième au cinquième chapitre, l’auteur passe en revue des problematiques et y apporte un regard croisé entre retours d’experience, tendances du marché et possibilités technique à ne pas negliger (url rewriting par exemple).

Ce que j’en pense

Ce livre m’a vraiment appris quelques points technique valide que j’ignorais et rien que pour ca je ne regrette pas ma lecture. Pour autant, la vraie force de ce livre d’après moi reside dans sa capacité à donner des pistes à personnaliser tout en gardant en vue les grands concepts (page rank, duplicate content et politique de backlinks).

Il n’était plus disponible à la Fnac, mais vous pourrez le trouver sur ma boutique amazon pour la modique somme de 14€ (livraison gratuite).

Bonne lecture !

Catégories
Définir Veille

Outils : Des mots-clés tendance et moins chers avec Google Insights for Search !

En faisant mon tour du web matinal je suis tombé sur un article assez plat du JdN couvrant la sortie en Bêta du service Insights for Search de Google.  Outre le buzz bruit qui entoure chaque sortie de webservices chez Google, je dois admettre que cet outil est fascinant à plusieurs titres.

Folksonomy

Ce nouveau service permet de trouver le mot clé le plus populaire parmi l’audience (géographique et/ou temporelle) qui vous intéresse. Pour arriver à cela, l’interface ultra-simpliste nous demande le type de recherche à effectuer et … la liste de mots clés à auditer. Dans l’exemple ci-dessous, j’ai cherché à comparer la popularité des keywords classiques faisant référence au marketing internet.

Outils : Des mots-clés tendance et moins chers avec Google Insights for Search ! -
Vous pouvez comparer jusqu’à 5 mots clés

Google se démarque de la concurrence (Yahoo&Overture / SeoQuake / … AdWords!) en proposant de filtrer les résultats par zone géographique et par période. C’est le vrai plus de ce service.

Outils : Des mots-clés tendance et moins chers avec Google Insights for Search ! -

Le menu déroulant « Catégories » n’a pas montré de réelle pertinence sur les recherches limitées à la France. De manière générale, même pour les US, ce filtre ne m’a pas convaincu, d’autant que je n’ai pas pu trouver d’explications claires sur les critères qui permettent à Google de catégoriser par secteurs et sous-secteurs d’activité (DMOZ / Meta ?). Alors oui, comme le disent Elan Dekel et Niv Efron, ce filtre permet d’ecarter un « Apple » (le constructeur) des résultats de recherche fruitiers, mais mon sentiment est que si un terme est vraiment trop dominant, ça ne vous mènera pas bien loin de l’utiliser dans un autre contexte. Certainement un axe de développement d’ici à ce que le service sorte de sa phase Beta (ah ah ah …).

Pour la petite histoire, voilà les résultats proposés pour cette comparaison. Sans trop de surprise, le « cybermarketing » n’attire pas autant les foules que le « marketing internet ». On voit aussi que le « emarketing » et le « e-marketing » se tiennent dans un mouchoir de poche… cela dit, rien n’empêche de cumuler !

Outils : Des mots-clés tendance et moins chers avec Google Insights for Search ! -
Mais où est ce bouton « Trendline » ? 🙂

Et moi, j’en fais quoi de ces « Insights » ?

Imaginons que comme beaucoup de monde, vos clients / vous pensez connaître vos visiteurs, leurs habitudes de recherches et les raisons pour lesquelles ils viennent chez vous. Vous achetez des temps à autres quelques mot-clés via AdWords et les résultats sont à peu près toujours ce que vous escomptez. L’un des points d’Insights est de vous donner une image du marché des recherches, pas seulement au moment de votre requête mais aussi sur les 4 dernières années. La représentation graphique en elle même est assez éloquente pour être utilisée comme support en réunion.

Imaginons maintenant que vous ayez raffiné la liste de vos mots-clés d’après leur popularité (cf Folksonomy). Vous êtes au top du marché, le torse bombé et surs de vous. C’est déjà mieux mais quand viendra le moment d’acheter du positionnement, ce sont aussi ces mots-clés qui vous coûteront le plus cher, mécaniquement. On touche alors à l’autre atout de Insights: déterminer les keywords qui montent. Il se créer tous les jours de nouvelles expressions, on rattache tous les jours des lieux à des évènements, des services à des bénéfices clients… et pour savoir comment se repérer là dedans, il vous suffit de suivre les courbes et le suggestions dynamiques. Comme toujours une « jolie image » aide à vendre l’idée mais ici on a en plus le moyen de bien faire son boulot de veille et de le partager visuellement avec ses collaborateurs.

Bref, Insights simplifie la validation des mot-clés à utiliser pour le réferencement naturel dans votre projet internet. Si vous avez aussi recours au Paid Search, il vous aidera à optimiser votre choix de keywords en démontrant un compromis entre volume de recherche et coût moyen par clic.

Pour autant, je suis assez surpris que ce service ne soit mis en route qu’en 2008, 10 ans après les débuts du géant de la recherche !

L’outil est accessible ici : https://www.google.com/insights/search/

Grégory Raby