Le SEO va se muter au profit du GEO (Generative AI Engine optimization)

Cette semaine j’ai eu une discussion avec les podcasteurs Français Les éclaireurs du numériques (le podcast sera bientôt disponible). J’y parlais des déboires de Gemini de même que de mon expérience au Social Media Marketing World 2024 et des changements que l’IA apportera à notre domaine du marketing numérique. Entre autres, je donnais l’exemple d’un assistant IA génératif qui est présentement capable de planifier tout un voyage pour l’usager et qui très bientôt fera aussi les réservations pour celui-ci.

À titre d’hébergeur, de restaurateur ou de prestataire touristique, la présence web se devra d’être optimisée pour ce genre de requête. Les techniques de référencement habituelles devront donc s’ajuster pour satisfaire aux besoins de ces nouveaux robots, afin d’apparaître dans les suggestions évoquées. Cette réalité est certainement vraie pour l’industrie du tourisme, mais elle l’est aussi pour tout type d’entreprise qui devra elle aussi s’adapter aux nouvelles réalités qui sont maintenant générées par l’intelligence artificielle. C’est en gros ce que l’on nomme GEO pour Generative Engine optimization ou Optimisation pour l’IA Générative.

 

Voici donc un exemple éloquent de cette réalité.

L’exemple ci-dessous a été généré avec ChatGPT mais aurait pu aussi l’être avec hyperwriteai.com ou plusieurs autres intelligences artificielles génératives.

Voici la requête :

User
Vous êtes un spécialiste du voyage d’affaires.

User
planifier pour moi un voyage de 4 jours de Montréal à Toronto du 5 mars au 9 mars pour une personne en me proposant le transport le moins dispendieux et le plus rapide et l’hôtel 4 étoiles et + le plus près du centre des congrès à un coût/bénéfice le plus avantageux

Et la réponse :

ChatGPT
Pour un voyage d’affaires de Montréal à Toronto, l’efficacité et le confort sont primordiaux, tout en gardant un œil sur le budget. Voici une proposition qui combine transport économique et rapide, ainsi qu’un hébergement de qualité près du Metro Toronto Convention Centre, le cœur des affaires et des congrès à Toronto.

Transport Montréal-Toronto

Option recommandée : Train VIA Rail
• Avantages : Confortable, vous permet de travailler pendant le trajet grâce au Wi-Fi gratuit, évite les tracas de l’aéroport.
• Durée : Environ 5 heures.
• Coût : Les tarifs varient, mais en réservant à l’avance, vous pouvez trouver des allers simples en classe économique à partir de 45 $ CAD, ce qui est généralement moins cher et plus pratique que l’avion, en tenant compte du temps d’arrivée à l’aéroport et des éventuels retards.

Hébergement à Toronto

InterContinental Toronto Centre
• Localisation : À côté du Metro Toronto Convention Centre, idéal pour les voyages d’affaires.
• Avantages : 4 étoiles, offre un accès facile aux quartiers d’affaires et de loisirs, dispose de commodités haut de gamme (spa, piscine, restaurant sur place).
• Coût : Les tarifs des chambres varient en fonction de la disponibilité et du moment de la réservation. En général, vous pouvez vous attendre à des tarifs à partir de 250 $ CAD par nuit pour une chambre standard. Les tarifs peuvent être plus avantageux lors de la réservation à l’avance ou via certaines plateformes de réservation offrant des réductions.

Itinéraire Suggéré
Jour 1 : Départ de Montréal (5 mars)
• Prenez le train VIA Rail tôt le matin pour maximiser votre première journée à Toronto.
• Arrivée à Toronto, check-in à l’InterContinental Toronto Centre.
• Journée libre ou réunions préliminaires.
Jour 2 & 3 : Journées de Congrès/Travail (6-7 mars)
• Petit-déjeuner à l’hôtel ou dans un café à proximité.
• Journées consacrées aux activités professionnelles.
• Dîners dans des restaurants proches du centre-ville ou réceptions liées au congrès.
Jour 4 : Dernières Réunions et Retour (8 mars)
• Réunions matinales ou temps libre pour explorer.
• Départ en début d’après-midi via VIA Rail pour retourner à Montréal.
• Arrivée à Montréal en fin de journée.

Conseils supplémentaires
• Réservation Anticipée : Pour le train et l’hôtel, réserver bien à l’avance vous garantira les meilleurs tarifs et disponibilités.
• VIA Rail Discount : Regardez pour des rabais, comme des tarifs pour jeunes professionnels, ou des promotions spéciales.
• Fidélité et Récompenses : Si vous êtes membre de programmes de fidélité avec VIA Rail ou l’hôtel, n’oubliez pas de mentionner votre numéro de membre lors de la réservation pour accumuler des points.
Ce plan combine efficacité et confort, tout en restant conscient des coûts, ce qui est essentiel pour un voyage d’affaires réussi.

Requête additionnelle

User

Avec un budget de $120/jour suggérez moi les meilleurs restaurants aux environs pour le déjeuner et le souper de chaque jour de ce périple

Et la réponse :

ChatGPT
Avec un budget de 120 $ CAD par jour pour les repas à Toronto, vous pouvez profiter d’une excellente variété de cuisines et d’expériences gastronomiques. Voici des suggestions de restaurants pour le déjeuner et le dîner, en gardant à l’esprit la proximité du Metro Toronto Convention Centre et un bon rapport qualité-prix.

Jour 1 (5 mars) : Arrivée et Exploration
Déjeuner – Pai Northern Thai Kitchen
• Cuisine : Thaïlandaise authentique
• Prix moyen : 20-30 $ CAD par personne
• Description : Pai est connu pour ses saveurs authentiques et son cadre vibrant, parfait pour un déjeuner décontracté mais savoureux.

Dîner – Canoe
• Cuisine : Canadienne contemporaine
• Prix moyen : 60-80 $ CAD par personne
• Description : Situé au 54e étage du TD Bank Tower, Canoe offre non seulement une cuisine raffinée mais aussi une vue imprenable sur la ville. Un dîner ici est une expérience mémorable.

Jour 2 (6 mars) : Congrès/Travail
Déjeuner – The Loose Moose
• Cuisine : Américaine, bar
• Prix moyen : 15-25 $ CAD par personne
• Description : Proche du centre de congrès, c’est l’endroit idéal pour un déjeuner rapide mais satisfaisant avec un grand choix de bières et de plats américains classiques.

Dîner – Terroni
• Cuisine : Italienne
• Prix moyen : 30-50 $ CAD par personne
• Description : Terroni est réputé pour sa cuisine italienne authentique, ses pâtes faites maison et sa sélection de vins. Un choix parfait pour un dîner relaxant après une journée de travail.

Jour 3 (7 mars) : Aventures Urbaines
Déjeuner – Assembly Chef’s Hall
• Cuisine : Variée, food hall
• Prix moyen : 10-20 $ CAD par personne
• Description : Ce food hall regroupe plusieurs stands de restauration de qualité, offrant une grande variété de choix, parfait pour un déjeuner rapide et savoureux.

Dîner – Miku
• Cuisine : Japonaise, sushi
• Prix moyen : 40-60 $ CAD par personne
• Description : Miku est célèbre pour son Aburi Sushi. Ce restaurant offre une expérience culinaire japonaise moderne dans un cadre élégant au bord de l’eau.

Jour 4 (8 mars) : Dernières Réunions et Retour
Déjeuner – Momofuku Noodle Bar
• Cuisine : Asiatique, ramen
• Prix moyen : 15-25 $ CAD par personne
• Description : Pour un déjeuner rapide mais mémorable, Momofuku Noodle Bar propose d’excellents bols de ramen et d’autres plats asiatiques innovants.

Dîner – Richmond Station
• Cuisine : Bistrot, Canadienne
• Prix moyen : 30-50 $ CAD par personne
• Description : Un restaurant détenu par un chef gagnant de “Top Chef Canada”, connu pour ses ingrédients locaux et ses plats créatifs.

Conseils pour rester dans le budget
• Eau : Demandez de l’eau du robinet au lieu de boissons en bouteille pour accompagner vos repas.
• Spécialités du jour : Optez pour les spécialités du jour ou les menus fixes qui offrent souvent un bon rapport qualité-prix.
• Réservations : Faire des réservations peut aider à éviter les attentes et à planifier votre budget.

Ce plan de repas combine une variété de cuisines et d’expériences, de l’authentique cuisine thaïlandaise à la fine cuisine canadienne, tout en restant dans votre budget quotidien.

ChatGPT peut faire des erreurs.

Comment faire du GEO pour s’adapter à l’intelligence artificielle générative?

C’est d’abord la recherche de l’Université Princeton, GEO: Generative Engine Optimization de novembre 2023, qui est venu bouleverser le relatif statu quo du référencement. Les auteurs décrivent ainsi les transformations qu’apportent l’intelligence artificielle générative.

The recent success of large language models (LLMs) however has paved the way for better systems like BingChat, Google’s SGE, and perplexity.ai that combine the strength of conventional search engines with the flexibility of generative models. We dub these new age systems generative engines (GE) because they not only search for information, but also generate multi-modal responses by synthesizing multiple sources. From a technical perspective, generative engines involve retrieving relevant documents from a database (such as the internet) and using large neural models to generate a response grounded on the sources, to ensure attribution and a way for the user to verify the information.

Les entreprises devront donc, au risque de ne perdre de la clientèle, s’adapter rapidement à ces changements. Selon SEO.AI voici les différences entre le SEO et le GEO.

SEO vs GEO

Selon SearchEngineLand, les techniques qui devront être utilisées afin de bien se positionner face à ce nouveau paradigme sont :

Tested techniques. Nine optimization tactics were tested across 10,000 search queries on something that “closely resembles the design of BingChat”:
1. Authoritative: Content was modified to be more persuasive while making authoritative claims.
2. Keyword Stuffing: More keywords were added to match the query.
3. Statistics Addition: Quantitative statistics were added, instead of qualitative discussion.
4. Cite Sources: Relevant citations were added.
5. Quotation Addition: Quotations from credible sources were added.
6. Easy-to-Understand: Simplified the language.
7. Fluency Optimization: Improved the fluency.
8. Unique Words: Added to content wherever possible.
9. Technical Terms: Added to content wherever possible.
The search query data set was compiled from Google, Microsoft Bing, Perplexity.AI Discover, GPT-4 and other sources.
Topic-specific optimization. The report said:
• “Overall, our analysis suggests that website owners should strive towards making domain-specific targeted adjustments to their websites for higher visibility.”
For example, adding citations increased visibility for Facts, while focusing on Authoritative optimizations improved performance in the Debate and History categories.
To be clear, when the paper discusses “domains” it’s talking more about broad categories, not an online domain name. This would also be true in SEO – specific optimizations are different in healthcare versus payday loans.

Les marketeurs numériques de même que les développeurs web ont donc beaucoup de pain sur la planche pour ajuster les présences web de leurs clients à ces nouvelles réalités.

Pourquoi avoir une FAQ (questions-réponses) sur votre site?

La formule “question-réponse” aussi communément appelée FAQ (Frequently Asked Questions) est tout à fait appropriée pour augmenter les visites sur votre site web et améliorer votre référencement.

Souvent les gens ne cherchent pas les réponses (puisqu’ils ne les connaissent pas) mais plutôt, il inscrivent leurs questions dans les moteurs de recherches. Si ces questions se retrouvent dans votre site, que la réponse est adéquate et que de surcroit, votre site a mis en place Schema.org qui est un standard de web sémantiques (qui sont des microdonnées permettant aux robots d’indexation de saisir plus précisément le sens des pages indexées) vous serez bien positionné pour améliorer votre pertinence et donc votre référencement. Au préalable, il est intéressant de vérifier avec vos clients quelles questions ils se posent et de valider à l’aide de recherches de mots clés et d’autres techniques d’investigation web, les questions précisent que recherchent les internautes/clients. Vous pourrez donc adéquatement garnir votre FAQ.

De plus, si chacune des questions, sur la page générale de la FAQ, se trouve à être des hyperliens menant à une page avec son URL propre, dont le titre inclut la question et qu’elle se retrouve de surcroit avec un méta-tag H1, vous venez d’être très efficace pour l’un des nombreux critères favorisant votre bon positionnement dans les moteurs de recherche (comme Google par exemple).

Par ailleurs, si vous parlez de votre sujet ou de votre organisation sur les médias sociaux, il est possible qu’on vous pose des questions, dont les questions qui sont déjà dans votre FAQ. Si vous avez déjà plusieurs URLs de ces questions et que vous pouvez répondre succinctement et y ajoutant votre lien menant vers la réponse sur votre site, vous augmenterez aussi le nombre d’hyperliens externes menant vers votre site. Il s’avère que c’est aussi l’un des autres critères importants d’un bon positionnement web, que d’avoir un grand nombre d’hyperliens signifiants, menant vers votre site.

Ces tactiques d’optimisation de la formule « question-réponse » sont donc à même d’améliorer grandement votre présence web.

Ma discussion à propos de la loi C-18 et des médias sur le podcast La French Connection


La French Connection se décrit comme suit :
Podcast international sur la sécurité et le hacking. Nouvelles et opinions du Québec et de l’Europe!

Il est animé par Patrick Mathieu et Jacques Sauvé. D’ailleurs voici la présentation que Jacques Sauvé en fait sur Twitter:

Bon…si vous ne savez pas trop quoi faire en fin d’semaine, vous pouvez écouter cet épisode spécial de La French Connection !

J’avais mis une vidéo ici au mois d’août demandant de l’aide à comprendre la Loi C-18 des Libéraux, le blocage des nouvelles sur Meta, etc. Je n’y comprends rien !

Je voulais en discuter avec quelqu’un qui pourrait nous éclairer sur les enjeux, donc Pat et moi avons invité
@MichelleBlanc
!! Vraiment cool qu’elle ait accepté de faire ça avec nous.

Bonne écoute !

Pour écouter c’est ici : https://securite.fm/special/2023/11/30/episode-0x233.html#7a667d3e

Les photos ou pourquoi certains sites touristiques sont trop lent?

Il m’arrive souvent d’avoir des mandats de diagnostic de site web. J’en ai eu dans plusieurs secteurs d’activité. Récemment, j’ai travaillé pour une organisation du secteur touristique. Comme plusieurs organisations, ils ont donné le mandat de création de leur site web à une agence généraliste. Une agence qui fait de la pub, du placement, des médias sociaux, de la stratégie et du web. Ils semblent être bons dans tout. Ils ont fait un très beau site, mais disons qu’ils ne sont vraiment pas cassé la tête pour faire un site efficace. Personnellement, je préfère travailler avec des développeurs de site plutôt qu’avec des agences. Ils sont souvent plus consciencieux avec le code, les fonctionnalités, les plugiciels et la performance du site. En outre, ils développent sans personnaliser à l’excès et ils choisissent des plugiciels qui ne vont pas restreindre les performances du site. En outre, lorsque vient le temps de faire une mise à jour, le site ne plante pas parce que les plugiciels sont aussi mis à jour.

Toujours est-il que l’un des gros problèmes des acteurs touristiques, en plus de choisir les mauvaises agences avec qui ils travaillent, est qu’ils valorisent le visuel. Je les comprends tout à fait. On veut faire rêver le touriste et quoi de plus efficace qu’une photo léchée qui le fera rêver. Or, souvent, ils ont des photos époustouflantes, mais qui sont dans un format et avec une grosseur qui ralentissent énormément le site web ce qui empêche l’internaute de prendre connaissance des contenus. Ils ne réalisent pas (comme vous le voyez dans les photos ci-dessous tirées de https://codeburst.io/5-steps-to-speed-up-your-image-heavy-website-65c874a86966 ) que l’œil ne voit pas vraiment la différence de qualité sur le web.

image resizing

JPG, PNG vs WebP

L’une des solutions est d’encoder vos images avec le standard WebP, plutôt qu’avec le PNG ou le JPEG habituel. Cela réduira déjà la grosseur de l’image de 25% à 34%, ce qui est déjà énorme sur une page web contenant plusieurs images.

Utiliser ChatGPT pour son contenu web, c’est se tirer dans le pied

Ce matin, une bonne amie me partage cette nouvelle et me demande ce que j’en pense.

« D’ici 2025, 90 % du contenu en ligne sera généré par l’IA »

Ma réponse fut: J’ai de gros doutes!

Voici donc une réponse plus détaillée…

ChatGPT est un outil qui a été développé à partir de contenus glanés sur le Web de 2020 à 2021. Il n’est donc pas « à jour » pour des contenus qui traiteraient de sujets contemporains. Par ailleurs, le programme de ChatGPT est conçu pour ne pas créer de contenus négatifs ou toucher à des sujets sensibles comme de la violence, le sexe ou des contenus considérés dangereux. De plus, ce logiciel a des biais le rendant incapable de prendre position. Il se doit d’être générique, sans danger, vrai et instructif. Il ne pourra donc pas décortiquer une situation réelle et présenter les pour et les contre d’une problématique. En outre, il ne présentera donc qu’un consensus de ce qu’il a collecté des contenus au moment de sa mise en ligne. Les consensus, comme c’est souvent le cas, évoluent dans le temps et peuvent changer drastiquement. Mais l’argument le plus important est que ChatGPT n’a aucune créativité. Il n’est pas capable d’être authentique, ce qui est la base même d’un contenu qui pourrait devenir viral ou simplement intéresser les lecteurs. Bien que j’étais spéciale durant mon enfance et que j’aimais lire les encyclopédies, on s’entend que c’est loin d’être le cas pour tous.

Utiliser ChatGPT et être pénalisé par les moteurs de recherches.

Disons que vous êtes un luthier et que vous utilisez chatGPT pour générer des textes pour votre site web. Les contenus que générera ChatGPT existent donc déjà sur le web. Il en fera une synthèse et vous la présentera. Imaginez aussi que l’un de vos compétiteurs a la même idée et génère lui aussi des contenus pour parler du même sujet. Il y a de fortes chances que vous soyez tous les deux pénalisés pour contenus dupliqués, ce qui est contraire à l’algorithme de Google entre autres. Vos contenus en plus de ne pas être authentique, ne seront donc pas non plus originaux.

Par ailleurs, selon searchenginejournal, les contenus générés automatiquement sont contre les directives aux webmestres de Google.

Automatically Generated Content Is Against Google’s Webmaster Guidelines
Regardless of the tools used to create it, content written by machines is considered automatically generated. As Mueller is quick to point out, Google’s position on auto generated content has always been clear:

“For us these would, essentially, still fall into the category of automatically generated content which is something we’ve had in the Webmaster Guidelines since almost the beginning.

And people have been automatically generating content in lots of different ways. And for us, if you’re using machine learning tools to generate your content, it’s essentially the same as if you’re just shuffling words around, or looking up synonyms, or doing the translation tricks that people used to do. Those kind of things.

My suspicion is maybe the quality of content is a little bit better than the really old school tools, but for us it’s still automatically generated content, and that means for us it’s still against the Webmaster Guidelines. So we would consider that to be spam.”

Mais Google est-il capable d’identifier les contenus générés automatiquement?

ChatGPT travaille déjà et a promis d’inclure un filigrane « watermark » dans ses contenus, permettant d’identifier les contenus générés automatiquement. Par ailleurs, les recherches en ce domaine précèdent les innovations de ChatGPT. Cette preuve de tricherie, serait cachée dans des lettres, des mots ou des tournures de phrases, qui bien qu’ils apparaissant aléatoires à nos yeux, avec la clé cryptographique du propriétaire de ChatGPT, il serait aisé d’identifier le faussaire. Et ce, même s’il changeait certains mots pour tenter de faire passer un contenu généré automatiquement, par la création d’un rédacteur. Vous pouvez avoir les détails de cette procédure dans l’article de Techcrunch, OpenAI’s attempts to watermark AI text hit limits, It’s proving tough to rein in systems like ChatGPT.

Il y a certainement encore des débats sur l’efficacité ou non et l’approche propriétaire ou open source d’en tel filigrane, mais la conclusion de l’article de Techcrunch est sans équivoque. Tôt ou tard, les fourbes se feront pincer…

 

“You could worry that all this stuff about trying to be safe and responsible when scaling AI … as soon as it seriously hurts the bottom lines of Google and Meta and Alibaba and the other major players, a lot of it will go out the window,” Aaronson said. “On the other hand, we’ve seen over the past 30 years that the big internet companies can agree on certain minimal standards, whether because of fear of getting sued, desire to be seen as a responsible player, or whatever else.”

(notez que ce qui suit et est tiré de ChatGPT, sont des images et que leurs contenus sont donc invisibles aux moteurs de recherches. Si elles avaient des filigranes, ils seraient aussi invisibles…)pourquoi-il-ne-faut pas-utiliser-CHATGPT-pour-contenus-web

Chatgpt-pour-medias-sociaux

ChatGPT-pour-medias-sociaux-suite

MAJ
Une nouvelle application Québécoise permettrais d’identifier les contenus autogénérés selon l’article La chasse au ChatGPT est ouverte. il s’agit de Detector https://detector.dng.ai/fr

MAJ2
Le pote Yves William sur Facebook, demande à ChatGPT ce qu’il pense de ce billet. Voici le résultat…

ce que pense ChatGPT de ce billet

Analyse compétitive web

Voici le Cinquième cours de Marketing Entrepreneurial que j’enseigne à HEC Montréal. Il traitera de:

  • Analyses primaire et secondaire
    Identifier le marché et les compétiteurs
    Analyser leurs présences web
    Analyser ceux qui communiquent avec eux
    Comprendre ce qu’ils offrent et à quel coût
    Faire des tableaux comparatifs
  • Le 1er cours qui est une revue sociodémographique des médias sociaux est ici
    Médias sociaux et le web pour les entrepreneurs (le web ce n’est pas une question de budget, mais de philosophie)

    le 2e cours
    Qu’est-ce que le marketing de contenus et pourquoi la publicité coute cher et que le contenu est ROI

    le 3e cours
    Rédiger pour le web et les médias sociaux de façon stratégique

    le 4e cours
    Monitorage, veille et comment chercher sur le web

    Monitorage, veille et comment chercher sur le web

    Voici le Quatrième cours de Marketing Entrepreneurial que j’enseigne à HEC Montréal. Il traitera de:

    • Les types de veille
    • Monitorage organisationnel
    • Les outils de monitorage et de veille
    • Monitorage collaboratif
    • Les « sites d’autorités »
    • Les influenceurs du secteur
    • Cas DessinsDrummond


    Le 1er cours qui est une revue sociodémographique des médias sociaux est ici
    Médias sociaux et le web pour les entrepreneurs (le web ce n’est pas une question de budget, mais de philosophie)

    le 2e cours
    Qu’est-ce que le marketing de contenus et pourquoi la publicité coute cher et que le contenu est ROI

    le 3e cours
    Rédiger pour le web et les médias sociaux de façon stratégique

    Rédiger pour le web et les médias sociaux de façon stratégique

    Voici le Troisième cours de Marketing Entrepreneurial que j’enseigne à HEC Montréal. Il traitera de:

    • La rédaction Web, storyline et les diverses politiques éditoriales
    • Comment écrire pour le Web
    • L’analyse de mots-clés
    • L’importance des titres, des éléments du corps du texte et des balises méta
    • Les hashtag
    • L’infolettre
    • Les diverses politiques : d’utilisation du web pour les employés, éditoriale, des commentaires
    • Charte éditoriale
    • Calendrier éditorial
    • La règle des tiers en photographie


    Le 1er cours qui est une revue sociodémographique des médias sociaux est ici
    Médias sociaux et le web pour les entrepreneurs (le web ce n’est pas une question de budget, mais de philosophie)

    Et le 2e cours
    Qu’est-ce que le marketing de contenus et pourquoi la publicité coute cher et que le contenu est ROI

    Petite histoire des mensonges des GAFA et des autres médias sociaux

    Lorsque j’ai commencé ma carrière, je disais que l’audience publicitaire télévisuelle était une création de l’esprit. Lorsqu’on disait que telle émission de tv avec 1 million de téléspectateurs, on ne savait pas combien se levaient pour aller aux toilettes durant les pauses publicitaires. Et avec l’arrivée des enregistreurs numériques personnels, les gens enregistraient leurs émissions favorites et zappaient en grande vitesse les pubs. C’était le cas ici au Canada puisqu’à l’époque, les Américains eux avaient TIVO qui escamotait automatiquement les pubs. Mais ici, étant donné que les câblodistributeurs étaient aussi des producteurs de contenus (songeons à Bell, Rogers ou Videotron), ils avaient toujours refusé de faire entrer cette technologie ici. Alors lors de mes conférences, je disais on compare les chiffres d’audience télévisuelle qui sont une création de l’esprit, aux chiffres du web qui eux sont fiables puisque nous mesurons les clics et la conversion, qui bien que ces chiffres sont beaucoup moins imposants, eux par contre sont vrais.

    En 20 ans, les chiffres du numérique ont explosé et les fraudes numériques aussi

    Même si les chiffres télévisuels sont une forme de création de l’esprit, il demeure qu’ils sont colligés par des agences indépendantes des diffuseurs. Nielsen, étant le leader mondial en ce domaine. Ces chiffres, quoiqu’imparfaits, sont tout de même neutres et l’imperfection est égale pour tous les diffuseurs. On peut donc objectivement comparer la popularité d’une émission télévisuelle à une autre, et un diffuseur à son compétiteur. Il en est de même pour la radio. D’ailleurs je dis à mes clients que s’ils tiennent à faire de la pub télévisuelle, ils devraient privilégier les canaux sportifs, la météo et les canaux d’information continue puisque ce sont le genre d’émission qu’on écoute en direct sans enregistrer au préalable.

    À mes débuts, il y avait un foisonnement d’outils d’analyse statistique de fréquentation de site indépendant. Mais ils étaient tous payants. L’arrivée de Google Analytics bouleversa ce marché. Comme Google Analytics était gratuit, il tua la compétition. Selon Wikipédia, Google Analytic aurait même 80% du marché mondial. Cette réalité est déjà en soi problématique. Comment peut-on objectivement faire confiance à un outil d’analyse d’audience qui mesure lui-même l’efficacité de sa sœur Google, comme outil de création d’achalandage vers un site web?

    Mais on pouvait toujours se fier à d’autres outils pour mesurer le trafic mondial. Il y avait toujours Alexa, qui nous donnait une idée externe à Google. Alexa s’est aussi associé à Internet Archive et Wayback Machine. Or que s’est-il passé en 1999? Alexa fut acheté par Amazon.

    Quelques années plus tard, on vit naître Twitter, Facebook, YouTube et tous les autres. Il s’avère que chacun d’eux offre généreusement ses outils d’analyse statistique interne. À plusieurs reprises, ces outils ont été sévèrement critiqués pour avoir grossi les chiffres de fréquentation ou de visionnement. D’ailleurs Facebook a plusieurs fois été critiqué pour ses chiffres suspects, voire carrément frauduleux. (dans Wikipédia)

    In July 2012, startup Limited Run claimed that 80% of its Facebook clicks came from bots Limited Run co-founder Tom Mango told TechCrunch that they “spent roughly a month testing this” with six web analytics services including Google Analytics and in-house software. Click fraud (Allege reason) Limited Run said it came to the conclusion that the clicks were fraudulent after running its own analysis. It determined that most of the clicks for which Facebook was charging it came from computers that were not loading Javascript, a programming language that allows Web pages to be interactive. Almost all Web browsers load Javascript by default, so the assumption is that if a click comes from one that is not, it’s probably not a real person but a bot.
    (…)
    Facebook offers an advertising tool for pages to get more “like”. According to Business Insider, this advertising tool is called “Suggested Posts” or “Suggested Pages”, allowing companies to market their page to thousands of new users for as little as $50.

    Global Fortune 100 firms are increasingly using social media marketing tools as the number of “likes” per Facebook page has risen by 115% globally. Biotechnology company Comprendia investigated Facebook’s “likes” through advertising by analyzing the life science pages with the most likes. They concluded that at as much as 40% of “likes” from company pages are suspected to be fake. According to Facebook’s annual report, an estimated 0.4% and 1.2% of active users are undesirable accounts that create fake likes.

    (…)
    In August 2012, Facebook revealed that more than 83 million Facebook accounts (8.7% of total users) are fake accounts. These fake profiles consist of duplicate profiles, accounts for spamming purposes and personal profiles for business, organization or non-human entities such as pets. As a result of this revelation, the share price of Facebook dropped below $20. Furthermore, there is much effort to detect fake profiles using automated means, in one such work, machine learning techniques are used to detect fake users.

    Pour YouTube, vous pouvez lire l’excellent article The Flourishing Business of Fake YouTube Views, qui encore une fois, explique comment on peut s’acheter des « vues » sur Youtube, via de faux comptes. Déjà en 2014, dans mon billet Click Farms (les fermes de clics) ou comment se faire fourrer heureux, comment il était facile et payant, de frauder les statistiques numériques et en 2007, je parlais de la conférence AirWeb qui avait pour mission de partager les connaissances contre le pourriel des moteurs de recherche et en 2006, Google et Yahoo se faisaient ramasser pour les fraudes par clic.

    J’y disais :

    Le hic, Google et Yahoo ne sont pas transparents sur les procédures qu’ils utilisent afin d’identifier et de neutraliser les fraudeurs de clics. Autre os dans le discours des moteurs de recherche, dans le même souffle ils disent protéger leurs clients, mais ne pas avoir suffisamment de données pour le faire !??

    Mais si vous étiez l’une de ces entreprises, seriez-vous réellement convaincus que de lutter pour éliminer 20% de votre chiffre d’affaires (à l’époque) ou 50% de votre chiffre d’affaires (aujourd’hui) soit une bonne chose votre entreprise? Poser la question, c’est y répondre. D’ailleurs, outre les scandales sporadiques à ce sujet, tout est bien dans le meilleur des mondes. Comme ils ont des algorithmes secrets, des bases de données « barrées à double tour » et que leurs outils statistiques sont internes, il est plutôt facile de dire n’importe quoi. Or, pour la première fois, le voile sera levé sur « ces secrets professionnels » par nul autre que Elon Musk. Comme je l’expliquais dans mon récent billet : Twitter, Musk et la fondamentale et perturbante question des bots (robots).

    Comme pour tous les autres médias sociaux, les algorithmes sont secrets, nous n’avons pas d’informations précises sur le nombre de vrais et de faux abonnés et ce qui est encore pire pour certains autres joueurs du web, dont Facebook et Google, nous ne savons que peu de choses sur le réel taux de « faux clics » et de ce que ces entreprises font réellement pour les enrayer. J’ai écrit une couple de fois ici à propos du chercheur Augustine Fou, qui prétend que 50% des clics publicitaires seraient de faux clics (à mes débuts il y a 20 ans, on parlait de 20%). Mais comme ces monstres ne sont pas sur le point de se faire acheter, donc auditer, nous n’avons réellement aucun outil indépendant pour valider les prétentions qu’ils mettent de l’avant depuis toutes ces années.
    Voilà donc une autre des raisons pourquoi l’achat de Twitter par Musk, est l’équivalent d’un tremblement de terre sur la planète des médias sociaux et des GAFA…

    Dans l’article Ad Fraud – The Hidden Way Ad Tech Is Stealing Your Ad Dollars, on apprend que

    Today, ad fraud is perpetrated in several different ways:
    • Hidden ads: Ads are displayed in such a way that the user doesn’t actually see them. For example, ads are just 1×1 pixel ads, are displayed outside the viewing area, or are overlapping in an iframe. This kind of ad fraud targets ad networks that pay based on impressions vs clicks.
    • Click hijacking: Hackers insert malware into computers to redirect a click from one ad to another one
    • Bot ad fraud: Hackers use bots to generate thousands of fake clicks on an ad or fake visits to a website displaying the ads. Bots fake legitimate human website visitors and fake real browsers by declaring they are Chrome, Safari, or Firefox.
    • Fake websites: Today, there is a significant number of fake websites that have no content except ads. Moreover, since the sites contain only random ads, no humans visit them. These fake websites were created solely to make money from advertising. Fake websites can mimic real websites by simply passing false information in bid requests.

    Ad networks and ad exchanges have turned a blind eye to ad fraud as their existence helps to line their pockets. What makes matters even worse is that advertisers rely on data from attribution platforms like Google Analytics to understand the marketing interactions customers have with their brand so they can make better ad buys. However, clicks can be manufactured out of thin air by directly loading click-through URLs, affiliate links, or click trackers. Hackers can also imitate humans using mobile devices to record and replay fake engagement.

    La solution est donc d’investir dans le marketing de contenus sur son propre site, dans les publicités sur les sites web qu’on visite soi-même, sur les médias télévisuels en temps direct ou à la radio, dans l’imprimé et dans tous les cas, d’impérativement mesurer les ventes réelles tributaires de la conversion des abonnés en se foutant des métriques de vanités.

    Je rappelle aussi encore une fois que Procter & Gamble a coupé son budget de publicité numérique de $200 Millions sans aucun impact sur ses ventes et en augmentant sa portée de 10%. Ça devrait, en principe, en faire réfléchir une couple…

    Ha oui, il semblerait, selon Newsweek, que 50% des abonnés Twitter de Joe Biden, soient de faux comptes! Cela semble très loin du compte de 5% de faux compte qu’avance Twitter…

    Comment l’immobilier résidentiel et les concessionnaires automobiles se font bouffer par la transformation numérique

    Il y a deux secteurs en particulier qui sont réfractaires à la transformation numérique et qui en payent le prix sans pour autant oser le changement. Les structures historiques de ces secteurs y sont pour quelque chose. Mais bientôt, certains joueurs devront se réveiller. Il s’agit des secteurs de la vente immobilière résidentielle et des concessionnaires automobiles. Les deux secteurs ont en commun d’avoir valorisé « les vendeurs », d’êtres déjà en ligne, mais de se faire manger la laine sur le dos parce que bien qu’ils soient en ligne, ils y sont d’une manière déficiente et étant dépendant des pressions externes qui sont exercées sur eux.

    Secteur de la vente immobilière résidentielle en ligne

    Avez-vous déjà remarqué que les sites des bannières immobilières focalisent à grands frais sur les acheteurs? On y présente avec moult détails, les propriétés à vendre. Ils oublient l’un des éléments fondamentaux de la transaction immobilière, celle des vendeurs. La structure historique de l’immobilier est composée d’un agent immobilier indépendant ou faisant partie d’une agence immobilière. Cette agence fait partie à son tour d’une bannière. Ce sont les bannières qui feront le marketing numérique des agences et des courtiers. Mais leur clients sont avant tout les agences. Or, les agences et les courtiers ont toujours valorisé leur mainmise sur les vendeurs. Ce sont eux qui signent des contrats avec les vendeurs et qui insistent auprès de la bannière pour avoir « l’entier contrôle » sur eux. Ils useront de diverses tactiques marketing comme des envois postaux, des publicités traditionnelles et numériques, des publicités avec affiches de propriétés à vendre sur la façade de leurs bureaux et la publication de leurs propriétés à vendre sur CENTRIS. Mais il n’y aura pratiquement rien pour parler aux vendeurs sur les sites de bannières. C’est comme une loi non écrite qui interdit à celles-ci de communiquer avec eux. Comme les clients des bannières et leurs sources de revenus sont les agences et les courtiers de la bannière, ils n’ont d’autres choix que d’obtempérer et de ne pas leur déplaire.

    À contrario, DuProprio ou Fairsquare (anciennement Purplebricks) ne sont pas embourbés dans la guerre de tranchée historique des relations courtier/agence/bannière et parlent abondamment aux vendeurs. C’est même la communication principale que l’on trouve sur la page d’accueil des sites. Ils ont compris que pour avoir un inventaire de maisons à vendre, il fallait d’abord convaincre les vendeurs de leur confier leur propriété. De plus, en se faisant, le vendeur sauvera énormément sur la commission au courtier qui ne sera plus que de 3%.

    Il s’agit donc là de deux modèles d’affaires bien différents. Mais gageons qu’à moyen terme, les modèles d’affaires de DuProprio ou Fairsquare, feront de plus en plus mal aux bannières, strictement parce qu’ils n’osent toujours pas parler directement en ligne aux très nombreux propriétaires qui voudront vendre leurs maisons…

    Secteur de la vente automobile

    Le secteur de la vente automobile souffre lui aussi de la sclérose aux changements que vit l’industrie de la vente immobilière et que vivait l’industrie hôtelière en ligne il y a quelques années. Autour des années 2000, les hôteliers investissaient très peu dans leurs sites web et leurs marketing internet. N’y connaissant pas grand-chose, ils préféraient laisser les hotels.com, booking.com et Expedia.ca le faire à leurs places. Sauf qu’à un moment donné, ils réalisèrent que les commissions devenaient exorbitantes et qu’ils perdaient le contact essentiel avec le client qui devenait celui des agences de ventes en ligne. C’est un peu la même chose qui se passe avec le secteur de la vente automobile. Ils ont externalisé leurs présences web à des agences qui incidemment, offrent aussi leurs propres sites web de vente de véhicules neufs et usagers. Ils font donc les sites de concessionnaires, à gros prix. Ils sont souvent barrés et pour ajouter un pop-up de promotion, un blogue ou une fonctionnalité additionnelle, ça se fera encore une fois à gros prix, avec de très longs délais et cela si le fournisseur accepte de faire les changements. D’ailleurs, soi-disant pour assurer la sécurité de leurs plate-formes, le client sera souvent exclu des fonctionnalités de l’interface de gestion, ce qui lui aurait permis de faire lui-même les modifications additionnelles sur une plate-forme WordPress standard par exemple. Finalement, ce qui est particulièrement payant pour les concessionnaires comme l’entretien et le service y sera présent avec le strict minimum. Ces sites seront donc perméables pour moteurs de recherches pour le strict minimum comme pour les requêtes « nom de marque/ville » ou « nom de concessionnaire », mais totalement absent pour « changement d’huile/marque » ou « pneu/marque/ville » qui sont pourtant le pain et le beurre des concessionnaires. D’ailleurs pour les requêtes de type « marque X/usagé/région » les concessionnaires seront totalement absents des résultats naturels (à moins de faire des publicités Adwords qui incidemment seront gérées par les mêmes fournisseurs) et ce seront les sites développés par et des fournisseurs qui garniront les résultats naturels et des requêtes. Ils se serviront d’ailleurs de ceux-ci pour vendre des espaces publicitaires à leurs clients « concessionnaires » à un tarif préférentiel s’ils ont déjà l’ensemble de leur portefeuille numérique.

    Voici quelques-unes de ces agences:

    360.agency
    d2cmedia.ca
    dealer.com
    auto123.com

    Tout ça pour vous dire que si un concessionnaire gérait à l’interne ses présences web et sociale et sa stratégie et publicité numérique et qu’il travaillait sur le positionnement naturel de son entretien et de ses ventes de véhicules neufs et usagers avec un marketing de contenus adéquat, il s’en tirerait certainement mieux en termes de coûts associés au Web. Il pourrait même couper par deux ces coûts tout en augmentant significativement les retombées économiques d’une saine présence web.

    Comme c’était le cas pour les hôteliers autour de l’an 2000, comme ça l’est encore pour plusieurs commerces de détail et comme ça l’est pour l’immobilier résidentiel et les concessionnaires automobiles, la transformation numérique n’est pas que d’être en ligne en sous-traitant ses présences à un joueur externe. C’est surtout de comprendre comment son propre modèle d’affaires doit s’adapter au numérique, comment les consommateurs trouveront (ou pas) ce qu’on a à vendre et surtout comment on peut, avec le moins d’intermédiaires qui ont des conflits d’intérêts et grugent une portion importante de nos revenus, se positionner pour tirer le maximum de revenus avec le minimum de coûts associés…