Nos derniers articles

Vers un référencement 2.0 ?

Pilier reconnu du commerce en ligne, le référencement, qu’il soit naturel ou payant, est aujourd’hui sujet à la mise en place de réelles stratégies – au même titre que l’emailing, l’affiliation , l’e-paiement, etc – avec un objectif : générer du trafic qualifié et offrir une visibilité optimale. Mais pour en arriver à cette maturité, ce secteur, à l’image du e-commerce, a fortement évolué ces dernières années. Exit donc les stratégies artisanales, les tricheries et autres astuces désormais répréhensibles. Aujourd’hui, le référencement nécessite une connaissance et une expérience indispensables.

Car autour d’algorithmes de recherches, de règles fixées par l’incontournable moteur de recherche Google, de l’arrivée du web 2.0, les pratiques ne cessent non pas tant de changer que d’évoluer.

Être référenceur ne consiste plus uniquement à acheter des mots clés aux enchères où créer des liens commerciaux. Non, il s’agit bel et bien de mettre en place des stratégies plus globales, plus complexes, plus techniques. C’est désormais le site internet dans sa globalité (de sa construction, à son contenu), mais aussi dans son environnement-notamment concurrentiel- qui sont étudiés en détail.

Et les évolutions à venir, notamment via le Smartphone, la géolocalisation, les réseaux sociaux, etc. promettent encore de belles évolutions du métier de référenceur.

Retour sur les principes du référencement SEO et SEM

Le concept du référencement est finalement simple : améliorer le positionnement d’un site sur les moteurs de recherche, soit en travaillant sur un certain nombre de guidelines (règles éditoriales) pour le Search Engine Optimization (SEO) – ou référencement naturel- appliqués à un site soit en gérant un budget d’investissement pour l’annonceur (liens sponsorisés ou SEM – Search Engine Marketing-) et l’achat de mots clés. Les deux produits ont pour but d’améliorer la visibilité sur un moteur de recherche.

Autrement dit, le référencement quel qu’il soit est le canal de visibilité qui permet d’acquérir le plus de visiteurs et d’atteindre un objectif : pousser l’internaute à acheter ou remplir un formulaire.
Pour Romain Didrich, directeur de Kaizen Marketing Group, « le SEO consiste à essayer de rendre son site plus visible et mieux placé sur la partie gratuite des moteurs de recherche en fonction des requêtes des acheteurs potentiels, plus que d’après les demandes spécifiques de l’annonceur. Quatre paramètres me semblent essentiels aujourd’hui. Avec par ordre d’importance:

  • le contenu. Il doit être pertinent, unique et original,
  • la navigabilité et la lisibilité – aussi bien pour les utilisateurs que le « Google Bot » (structure, hiérarchisation, maillage interne, fil d’Ariane…),
  • le netlinking (les autres sites qui pointent vers le votre),

  • les mises à jour (pour avoir un contenu toujours d’actualité et, à terme, des passages plus réguliers des Bots et Crawlers)

L’idée, précise Dominique Cerruti, Directeur général de Relevant Traffic France est de remonter toujours sur les mêmes requêtes, mais toujours en naturel. On ne peut pas influencer sur l’achat de budget de mots clés. Ainsi, nous travaillons sur le site de l’annonceur en suivant le balisage sémantique, en veillant au bon fonctionnement des liens, à l’organisation optimale (arborescence, titres, etc.) du site et à la qualité de son contenu qu’il soit en texte, image ou vidéo

Et puis nous avons le SEM ou référencement payant où « l’art qui consiste à positionner des annonces stratégiquement pour obtenir des visites qualifiées, avec un CPA ou un ROI sous contrôle permanent », confie Romain Didrich. Pour Dominique Cerruti, « il s’agit de créer un trafic immédiat et qualifié en adaptant un message publicitaire spécifique  et dans ce secteur on peut avoir deux personnes qui annoncent sur un mot-clé et pour d’autres 25 annonceurs. Il s’agit donc de trouver le bon compromis entre le prix à payer pour être premier ou deuxième et la rentabilité de l’investissement. ».
Et Romain Didrich de préciser deux aspects, selon lui, essentiels pour maîtriser le SEM :

  • le ciblage éditorial: il est impératif de ne diffuser que sur une audience ciblée et identifiée par sa requête. Montrer une annonce sur une requête non pertinente (ex: enchérir sur ‘tapis’ au sens large peut faire apparaître une annonce pour une requête du type « tapis de course d’occasion Bordeaux » alors qu’on vend uniquement des tapis de salon neufs livrés à Paris) c’est soit payer pour un visiteur non qualifié qui aurait cliqué par erreur ou curiosité, soit, ce qui est plus grave encore, faire baisser son niveau de pertinence ce qui doit être compensé par une enchère toujours supérieure. Options de ciblage, exclusions, longue traîne, accroche marketing, ligne éditoriale… sont autant de paramètres essentiels à une campagne performante.
  • le suivi des enchères et le pilotage de la rentabilité dans le temps: sans outils de suivi des commandes et de gestion des enchères performants, il est pratiquement impossible de connaître le retour sur investissement de ses campagnes. Il semble évident aujourd’hui que la rentabilité de chaque mot-clé doit être suivie dans le temps, et les enchères ajustées en permanence selon le chiffre d’affaires, les conversions, la gestion des stocks, la saisonnalité… Dans l’idéal, il s’agira d’anticiper les fluctuations plutôt que d’avoir à y réagir.

Deux concepts pour une stratégie

Ces deux outils sont aujourd’hui indissociables. Il n’est plus possible, ni même question de mettre en place une stratégie de référencement efficace sans envisager une action sur le SEO et le SEM. Car si pour le premier, « l’objectif est de générer un trafic immédiat et d’augmenter le chiffre d’affaires de l’entreprise, pour le second l’orientation est davantage liée à l’image de l’entreprise pour asseoir la marque et son site sur le long terme », confie Dominique Cerruti.
Référencement naturel ou référencement payant sont à étudier de concert et même au-delà puisque qu’aujourd’hui ils s’intègrent dans une stratégie de marketing global et les entreprises se voient proposer des stratégies globales et complémentaires autour du référencement, de l’e-mailing, de l’affiliation, etc.

Des complémentarités oui ! Mais des attentes importantes des clients.

Le référencement n’est pas une donnée évidente aux yeux des entreprises. Entre leur envie de trouver leur site en tête des résultats de recherche Google et atteindre cet objectif, il y a parfois des incompréhensions. « En fonction des objectifs de nos clients, de la qualité de leur site internet (tant en termes de contenu que d’organisation) et surtout en fonction de leur budget, nous commençons par étudier les différentes possibilités », explique Dominique Cerruti. Un site vitrine ou un site relais de publicité off-line n’auront pas les mêmes objectifs. Les stratégies mises en place et les moyens seront différents. Et de reprendre : « Nous travaillons pour un site d’emploi informatique. Sur le moteur de recherche, ils arrivaient en première position et se sont retrouvés du jour au lendemain en seconde position. Cette « chute » aurait pu n’avoir que peu d’impact. Mais comme leur position était un argument fort des commerciaux de ce site, nous avons été missionnés pour le faire remonter à la première place ».

La prédominance de Google mis à mal ?

Si aux Etats-Unis, plusieurs moteurs de recherche travaillent avec les entreprises : Bing, Yahoo et Google, en France et depuis quelques années, Google représente plus de 90% de parts de marché. Par conséquent, les entreprises suivant une logique économique « naturelle » investissent tous leurs efforts d’investissement sur le moteur de recherche de Google en espérant qu’ils auront des répercussions sur les autres moteurs de recherche. Et cette stratégie semble fonctionner. Sauf que depuis quelques mois, le moteur de recherche Bing semble vouloir s’implanter en France de manière durable.
Pour Romain Didrich, « si cette prise de conscience de MSN par rapport à la montée en puissance de Google est tardive, on ne peut que se réjouir qu’un contre pouvoir ou plutôt qu’une alternative (pour être plus politiquement correct) se mette en place. Aujourd’hui, les internautes utilisent Google pour la pertinence de ses résultats. Les annonceurs pour l’audience ». Ce lancement ne changera pas profondément la donne, selon Dominique Cerruti. « Seule une alliance avec Yahoo peut avoir des impacts et détrôner la suprématie de Google – des discussions sont en cours et le rapprochement devrait prendre au moins 18 mois -. Et sur l’outil Bing, nous avons un peu de recul, grâce à sa présence plus importante aux Etats-Unis. Par exemple, sur Yahoo, l’internaute trouvera au bout de 5 ou 6 clics ce qu’il cherche. Et à la requête « vol Paris-New-York », Bing mettra en position haute les prix des billets d’avion et non la qualité du contenu d’autres sites. Autrement dit, ce moteur de recherche brule les étapes pour conserver les internautes en misant avant tout sur la pertinence des conversions. Son orientation est indéniablement commerciale avec l’idée de préférer la rétention d’internautes plutôt que de servir de relais comme Google en travaillant sur la pertinence ».

L’avis de Romain Didrich rejoint celui de Dominique Cerruti et à la question de ce qui a changé, il répond naturellement « rien… pour le moment ! L’arrière-boutique de Bing reste toujours MSN AdCenter, à la fois lourd à manipuler, incomplet, procédurier… bref pas une sinécure. Le nombre d’utilisateurs et l’activité en général n’ont que peu évolué, malgré le buzz du démarrage et le « forcing » de Microsoft via la vente de Windows et IE. Malgré tout, nous souhaitons vivement qu’aussi bien le contenu, la pertinence des résultats et l’interface (et son API) s’améliorent, ce qui à terme pourrait constituer cette alternative intéressante. Au final, cela reste l’internaute qui décide et c’est là toute la beauté d’Internet ».

De la recherche en temps réel à recherche personnalisée

Concepts qui font couler beaucoup d’encre, le premier consiste à une recherche locale. « C’est, le fait de rechercher un restaurant ou une carte sur internet, explique Dominique Cerruti. Il répond au besoin de l’internaute de trouver la réponse immédiatement, tout de suite. Le second, sera plus un concept, celui de suggérer à l’internaute certaines requêtes en fonction de son comportement. Par exemple, Gmail crawl les mails et adapte les sites, avec une idée : suggérer et faciliter les recherches en fonction du comportement des internautes ». Ces deux concepts sont relatifs au ciblage comportemental qui témoigne de la force de frappe d’un outil comme Google et sa capacité à exploiter un nombre important de données relatives au usages et comportements du consommateur. Cet outil est très puissant et efficace, mais marque clairement un risque d’intrusion important dans la vie privée des internautes. L’on pourrait d’ailleurs comparer ces nouvelles fonctionnalités à celle offertes par le moteur de recherche Bing. Mais, comme rien n’arrête l’évolution, la recherche en temps réel et la recherche personnalisée sont une tendance nouvelle et de fond qui tend à orienter l’internaute dans sa recherche. « Si cela peut nous faciliter la tâche, poursuit Dominique Cerruti, il ne faut pas oublier que les moteurs de recherche ont bâti leur force sur la pertinence des résultats. A force de vouloir tout suggérer, on oubliera ce que les internautes recherchent ».
Les nouveaux outils et supports tels que Google Maps ou l’Iphone surfent sur ces concepts. « La recherche locale se développe à grande vitesse, poursuit ce dernier. Nous avons des résultats de recherche où les liens de Google Maps apparaissent en première position. Il est ainsi possible en tapant dans le moteur de recherche le nom d’un restaurant et sa Ville, de trouver la carte de sa localisation. L’Iphone permet les mêmes fonctionnalités et appuie ce côté « immédiateté » de plus en plus recherché par les consommateurs. Là encore et je tiens à le souligner, la limite de ces outils existe. Lorsqu’un internaute ne trouve pas ce qu’il recherche, il risque de se lasser et de modifier son comportement sur le net. Quant aux annonceurs, le risque existe aussi. Si Google commence à se tromper dans l’analyse des comportements déviés des internautes, cela risque d’engendrer des données faussées et des risques liés aux investissements et aux stratégies, notamment de référencement ».

De plus, le savoir et les techniques des référenceurs n’ont cessé d’évoluer en fonction des mises à jours successives des algorithmes des moteurs de recherche (principalement celui de Google)».

Social Media Optimization (SME) et réseaux sociaux

Difficile pour tous les outils de l’e-marketing d’ignorer les réseaux sociaux deviennent un nouveau pilier, créateur de nouveaux métiers. Mais quels sont les impacts sur le référencement ? A en croire Dominique Cerruti et Romain Didrich, ils ne sont pas encore visibles ou assez importants. Le référencement via ces « réseaux sociaux » (twitter, facebook et ses 400 millions d’usagers, etc.) n’est pas encore intégré par Google. Mais les potentiels en termes de ciblage comportemental sont immenses.
« A mon sens, les réseaux sociaux n’ont aujourd’hui d’impact que sur le référencement des personnes (noms propres), lance Romain Didrich. Le réseau social est risqué et à double tranchant. L’on peut bien se faire une réputation (bonne ou mauvaise) du jour au lendemain et à grande échelle. L’internaute type membre de réseaux sociaux n’est pas activement en train de chercher des offres pour des produits ou services. Les résultats proposés par les annonceurs sont contextuels et parfois sans rapport avec la personnalité ou les besoins de l’internaute.

Les mots sont souvent sortis de leur contexte et les annonces peuvent parfois être désobligeantes voire injurieuses pour ceux qui les voient. Une invective amicale via Facebook d’un proche sur votre calvitie n’invite pas systématiquement la publicité d’un annonceur pour des produits contre la chute de cheveux. Beaucoup n’y prêtent pas attention, certains pensent qu’il s’agit d’une intrusion dans leur vie privée voire leur intimité.

Une chose est sûre, les réseaux sociaux sont encore trop neufs pour que les annonceurs sachent comment les prendre et que les agences puissent prétendre connaître les « best practices ».

Si ces réseaux sociaux peuvent faire couler beaucoup d’encre, la volumétrie que nous avons pu mesurer en termes de ventes pour nos annonceurs par exemple est relativement négligeable. En ce qui nous concerne, il ne s’agit pas de « search marketing » mais de marketing contextuel (ou social, ce qui revient au même). Il ne s’agit donc pas d’une demande explicite d’un prospect potentiel… mais bien de publicité majoritairement non-sollicitée.

Si l’impact pour une marque peut être positif en termes de visibilité; si l’impact pour le SEO peut être positif en termes de pagerank, je ne peux m’empêcher de faire le parallèle avec la télévision ou l’on montre des pubs pour les jouets pendant les coupures de dessins animés, ou encore aux réunions Tupperware entre copines! Tant que chacun y trouve son compte et se prête volontiers au jeu, aucun souci. J’imagine déjà les entreprises qui, allant trop loin dans le « réseautage » et la publicité dissimulée, se prendront un violent retour de flamme et saboteront leur réputation plus vite qu’il ne faut de temps pour le dire. Et de conclure, « le réseau social oui, mais seulement si la démarche est transparente ».

« Notre rôle de référenceur consiste à positionner du contenu et d’amener un trafic qualifié vers nos clients, confie Dominique Cerruti. Et si nous commençons à travailler avec Facebook, ce n’est pas pour que l’outil nous amène des requêtes, mais cible des populations ». Et là, l’outil trouve son intérêt. « Nous allons pouvoir cibler une population de femmes, par exemple, dans tel endroit précis de la France. Ce ciblage permettra de gérer plus finement un budget média. Il est vrai que ces outils offrent des données comportementales plus importantes que celles offertes par Google. Mais le référencement de ces réseaux n’est pas encore intégré totalement par les moteurs de recherche. Par exemple, twitter n’est pas référencé par Google et Facebook commence à l’être, même si nous n’allons pas miser dessus à notre niveau. Or on s’aperçoit de manière générale que tous les outils issus du web 2.0 que ce soit les blogs, les forums ou les réseaux sociaux ne sont pas bien référencés par Google. Je pense que sa philosophie – l’internaute créateur et acteur du contenu – ne correspond pas du tout à celle de Google qui mise sur la pertinence. Et même s’il nous arrive de créer des pages facebook pour certains de nos clients, ces commandes et demandes sont à la marge. Nous travaillons dans ce cas sur la visibilité de nos clients et essayons de créer des liens avec les consommateurs cibles et du client ou, comme ce fut le cas, nous travaillons avec certains marchands pour écouler les stocks de marchandises, via twitter. Mais, une chose est sûre, le SMO est amené à se développer. Aujourd’hui l’e-réputation, le buzz restent un peu flous et complexes à intégrer dans une stratégie de référencement.

Les principales évolutions de demain

« La recherche locale, en temps réel et personnalisée additionnée aux nouveaux et multiples supports tel que le mobile, vont modifier les usages, les comportements et de facto les stratégies, notamment en référencement, lance Dominique Cerruti. L’émergence porte vraiment sur le ciblage du comportement, à condition, comme je l’ai évoqué plus haut d’éviter trop d’intrusion. Déjà des nouveautés puissantes arrivent à l’image de Youtube qui va permettre aux annonceurs de créer des vidéos et à vouloir les référencer ». Pour Romain Didrich, la principale évolution est « sans doute le référencement sur les smartphones. Par ailleurs, l’algorithme de Google montre la voie noble en mettant l’internaute au cœur du process de classement des annonces: le taux de clic et donc la popularité est l’élément principal du référencement payant, devant l’enchère. Le contenu et donc la pertinence s’affirment comme éléments principaux du référencement naturel, devant les « techniques » des webmasters ». Et ce dernier de conclure : « la géolocalisation devrait elle aussi progresser pour les commerces et entreprises de proximité ».

Encadré : petit historique du référencement

Si au début, dans les années 1997, 1998, les entreprises ne savaient pas trop pourquoi elles créaient un site web, et ne se souciaient pas de leur visibilité. Si dans ces mêmes années finalement peu de sites (au regard de leur nombre aujourd’hui) existaient et si leurs contenus étaient médiocre en termes de qualité, pour les référenceurs, il s’agissait de se concentrer sur le positionnement du site sur les moteurs de recherche. Plus de 10 ans après la donne a entièrement changé. Le référencement payant a succédé au référencement naturel, la stratégie virale a fait son apparition et aujourd’hui, l’e-social émerge.

En parallèle, le moteur de recherche Google, son buisness model et son algorithme ont largement fixé les règles du jeu. C’est en 1998, que Google a fait la différence avec les autres moteurs de recherche en ayant l’idée géniale d’ajouter un critère supplémentaire : celui de la notoriété. Il s’est intéressé aux liens référents. Plus un site aura des liens via d’autres sites, mieux il sera référencé (principe dit de la recommandation). Google a basé sa réussite sur cette innovation. Google n’a jamais investi en pub. Il a tout joué sur la qualité de son algorithme.

En effet, Google mesure la pertinence d’un site selon un système de maillage.

Il convient de distinguer trois grandes familles de critères :

  • la base technique : il faut faire attention à la manière dont le site est codé et faire attention au code source d’un site. Si ce code est bien fait, le site sera mieux référencé, car plus lisible pour le moteur de recherche.
    la famille éditoriale ;
  • la notoriété, qui correspond à l’ancien principe de recommandation : le nombre et la qualité des liens référents sur des sites externes qui font un lien vers mon site contribuent à référencer d’autant mieux le site en question.

Encadré : quelques conseils utiles (source : Google)

Le référencement est un métier soumis à de nombreuses règles. Ne pas les suivre, y déroger ou tricher aura des conséquences directs sur le site internet ; au point de disparaître purement et simplement du moteur de recherche. Afin d’éviter un tel désagrément coûteux, Google a mis en place une liste de recommandation que vous trouverez ci-après.

Consignes concernant la conception et le contenu

Hiérarchisez clairement le contenu de vos pages et créez des liens texte pertinents. Chaque page doit être accessible à partir d’au moins un lien texte statique.

Créez un plan de site dont les liens pointent vers les sections les plus importantes de votre site. Si le plan de votre site comporte plus de 100 liens, nous vous conseillons de le répartir sur plusieurs pages.

Concevez un site utile et riche en informations et rédigez des pages présentant votre contenu de façon claire et pertinente.
Essayez d’imaginer les termes susceptibles d’être utilisés par les internautes pour trouver votre site et insérez ces termes dans vos pages.

Pour présenter les éléments les plus importants de votre site (noms, contenu, liens, etc.), utilisez du texte plutôt que des éléments graphiques. En effet, notre robot d’exploration ne reconnaît pas les informations contenues dans les éléments graphiques. Si vous devez utiliser des images pour du contenu textuel, pensez à utiliser des attributs « ALT » afin d’inclure une brève description.

Assurez-vous que le texte associé aux balises et aux attributs alt est descriptif et pertinent.
Assurez-vous que vos liens fonctionnent correctement et que le code HTML de vos pages ne présente pas d’erreurs.
Si vous utilisez des pages dynamiques (l’URL de la page contient alors le caractère « ? »), n’oubliez pas que ces pages risquent de ne pas être explorées correctement par certains robots de moteur de recherche. Il est donc conseillé de limiter le nombre et les paramètres de ces URL.
Limitez le nombre de liens par page (moins de 100 par page).

Consignes de qualité

Concevez vos pages en pensant d’abord aux internautes et non aux moteurs de recherche. Ne trompez pas les internautes et ne leur présentez pas un contenu différent de celui destiné aux moteurs de recherche (technique appelée « cloaking » ou dissimulation).
Évitez les « astuces » destinées à améliorer le classement de votre site par les moteurs de recherche. Pour savoir si votre site Web respecte nos consignes, posez-vous simplement la question suivante : « Suis-je en mesure d’expliquer à un site Web concurrent quelles sont les solutions que j’ai adoptées pour améliorer mon site ? ». Vous pouvez également vous poser les questions suivantes : « Ces solutions sont-elles d’une aide quelconque pour les internautes ? » « Aurions-nous fait appel à ces techniques si les moteurs de recherche n’existaient pas ? »
Ne participez pas à des systèmes de liens conçus pour améliorer artificiellement le classement PageRank de votre site. Évitez tout particulièrement les liens vers des sites de spam ou des « sites douteux » sur le Web, car ces liens risqueraient d’avoir une incidence négative sur le classement de votre site.
N’utilisez pas de programmes non agréés pour demander l’indexation de vos pages, vérifier votre classement, etc. Ces programmes consomment des ressources informatiques et constituent une infraction à nos Conditions d’utilisation (cf site de Google). Google déconseille l’emploi de produits tels que WebPosition Gold™, qui envoient des requêtes automatiques ou programmées à Google.

Autrement dit, évitez les textes ou liens cachés, n’utilisez pas de techniques de dissimulation (« cloaking ») ni de pages de redirection trompeuses, n’envoyez pas de requêtes automatiques à Google, évitez de remplir vos pages de mots clés non pertinents et sans rapport avec le contenu réel de votre site, ne créez pas plusieurs pages, sous-domaines ou domaines présentant du contenu dupliqué, ne créez pas de pages générant des opérations malveillantes, telles que les tentatives de phishing ou encore les installations de virus, de chevaux de Troie ou d’autres programmes malveillants, évitez les ‎pages satellites (« doorway ») créées exclusivement pour les moteurs de recherche ou d’autres solutions, telles que les programmes d’affiliation, sans véritable contenu informatif et si votre site fait partie d’un programme d’affiliation, assurez-vous qu’il est utile aux utilisateurs. Présentez un contenu pertinent et original pour inciter les internautes à visiter votre site en premier lieu.

Consignes techniques

Pour vérifier le fonctionnement de votre site, utilisez un navigateur texte tel que Lynx. La plupart des robots d’indexation de moteur de recherche visualisent en effet votre site de la même manière que Lynx. Si certaines fonctionnalités (JavaScript, cookies, ID de session, cadres, balises DHTML ou contenus Flash) vous empêchent d’afficher la totalité de votre site dans un navigateur texte, il est possible que les robots rencontrent des difficultés similaires lors de leur exploration.
Évitez de faire appel à des ID de session ou à des arguments permettant de suivre les chemins empruntés par les robots sur votre site. Ces techniques sont utiles pour analyser le comportement des internautes, mais le mode d’exploration des robots est entièrement différent. L’utilisation de ces techniques peut donner lieu à une indexation incomplète de votre site, car les robots ne peuvent pas toujours éliminer les URL qui semblent différentes, bien qu’elles pointent vers la même page.
Vérifiez que votre serveur Web prend en charge l’en-tête HTTP If-Modified-Since. Cet en-tête permet à votre serveur Web d’indiquer aux robots Google si le contenu de votre site a évolué depuis la dernière exploration. Cette fonctionnalité permet de limiter la consommation en bande passante et l’exploitation inutile d’autres ressources informatiques.
Utilisez un fichier robots.txt sur votre serveur Web. Ce fichier indique aux robots d’exploration les répertoires de votre site qui peuvent ou non être explorés. Vérifiez que ce fichier est adapté à votre site, faute de quoi vous risquez de bloquer l’accès de notre robot d’exploration Googlebot. Pour plus d’informations sur le contrôle des robots susceptibles de visiter votre site, consultez la page http://www.robotstxt.org/faq.html. Pour tester votre fichier robots.txt et vérifier que vous en faites une utilisation appropriée, servez-vous de l’outil d’analyse du fichier robots.txt disponible dans les Outils Google pour les webmasters.
Si votre entreprise acquiert un système de gestion de contenu, assurez-vous que le système crée bien des pages et des liens explorables par les moteurs de recherche.
Utilisez le fichier robots.txt pour éviter l’exploration des pages de résultats de recherche ou d’autres pages générées automatiquement par les moteurs de recherche et qui sont sans intérêt particulier pour les internautes.
Testez l’affichage de votre site dans différents navigateurs.

Encadré : le marché du seach marketing

Le marché du Search Marketing reste un marché en croissance, avec des taux oscillant entre 10 et 15% de croissance à l’année. Le marché global (SEO +SEA) est estimé entre 800 et 900 millions d’euros à l’année en France.
Ce chiffre est à mettre en perspective avec les 2 milliards d’euros estimés du marché de la publicité online dans lequel sont également inclus le « display », l’affiliation, les annuaires, l’e-mailing et les comparateurs de prix.
Pour mémoire, l’e-publicité représente autour de 10% des dépenses publicitaires globales, tous média confondus, part qui ne cesse d’augmenter pour représenter d’ici 3 à 5 ans près de 20% des dépenses publicitaires.
1,2 milliard : Le nombre d’internautes dans le monde, réalité sans doute plus proche de 1,5 à 1,8 aujourd’hui
3,6 milliards de recherche : par jour, 100 milliards par mois sur les moteurs de recherche (Google, Yahoo, Bing)
Principale motivation de la recherche : trouver des informations sur un produit (26% des internautes le citent comme la raison numéro 1)
78% des Français achètent à distance (4 sur 5 via Internet, un chiffre en constante augmentation)

Encadré : présentation des acteurs
Kaizen Marketing Group

Créée début 2005 sous le nom commercial Affili Action S.A.R.L., Kaizen Marketing Group est une agence de marketing Internet à la performance. Leur crédo est de fournir aux clients désireux d’augmenter les volumes d’affaires de leurs sites des prestations de marketing en ligne en se rémunérant principalement en fonction de la performance incrémentale mesurée apportée. « Au fil des années, notre expérience dans les domaines du SEM, du SEO, de l’affiliation s’est progressivement étoffée pour inclure la création de sites Internet plaquettes et e-commerces complets, confie Romain Didrich. Nous proposons désormais toute la gamme de services allant de la création de l’identité et de la charte graphique, jusqu’au développement de socles techniques et d’interfaces utilisateurs complexes, en passant par l’hébergement et la sécurisation des données sur des serveurs dédiés.

Laisser un Commentaire