Mon virage IA et retour sur le Social Media Marketing World

Depuis des mois j’observe et j’analyse ce qu’on dit de l’IA. Je savais que les bouleversements arrivaient à grands pas. La semaine dernière je suis donc allé à San Diego au Social media Marketing World spécifiquement pour parfaire mes connaissances sur le sujet et j’ai été plus que servie. Oui l’IA va bouleverser le marketing de même que tous les emplois des travailleurs du savoir.

Alors voici donc un petit résumé de certains de mes apprentissages.

Les LLM (Large Language Models) prédisent des mots. En fait ils prédisent le prochain mot dans une suite qui le précède. Cette technologie existait déjà chez Google depuis un certain temps, de même qu’avec certains auto correcteur qui finissaient le mot ou la phrase que nous avions commencé à écrire. Mais disons qu’avec l’apparition de Chat GPT, ça a monté d’un cran. D’ailleurs, au moment d’écrire ces lignes, vous pouvez déjà activer la retranscription de vos discussions sur Zoom, et même éventuellement demander un résumé de vos conversations.

Ça nous amène à la création de « messages-guide » que nous nommons « prompt » en anglais. D’avoir la capacité d’être efficace avec la rédaction de ces messages-guide, deviendra un atout certain pour plusieurs emplois. D’ailleurs l’expert Paul Roetzer, CEO de Marketing AI Institute, disait lors de la conférence de fermeture, que les professeurs universitaires devront bientôt noter les Étudiants sur leurs capacités à rédiger ces fameux « messages-guide » plutôt que sur les réponses éventuelles de l’IA.

Il disait aussi que pour faire de bons messages-guide, il faut parler à la machine comme on le fera à un employé junior, avec le plus de détails possible. Il faut aussi le corriger dès qu’il se trompe (ce qui peut quand même être fréquent) et le recadrer afin qu’il devienne l’outil idéal pour nous. Il suggère d’ailleurs de faire les étapes qui sont présentées ci-bas.

On peut aussi :
• Écrire des instructions claires
• Fournir des références
• Diviser une tâche complexe en plusieurs sous-tâches
• Donner au robot « le temps de penser », donc être un peu patient
• Utiliser des outils externes (comme d’autres robots, applications ou contenus)
• Et vérifier systématiquement les changements qui seront faits.

Il dévoilait aussi les différents politiques d’utilisations et limites qu’une organisation doit mettre en place afin de réguler convenablement l’IA, mais ce sera le sujet d’un prochain billet. Pour terminer cette démonstration plus qu’intéressante, il proposait ces deux prochaines diapositives qui présentent un portion de l’écosystème IA pertinente pour le marketing, de même que l’évolution spectaculaire de Midjourney en seulement 15 mois.

Un autre conférencier qui était plus que pertinent était Andy Crestodina. Il présentait certaines statistiques relatives à l’adoption de l’IA par les marketeurs, de même que les cas où il utilise l’Ia dans son travail de tous les jours. Notez ici qu’il ne l’utilise pas pour la création d’image. Comme je l’expliquais dans mon billet Revue de presse marketing/techno du 13 février au 28 février et mon entrevue à CHOI RadioX, il est évident que Gemini est loin d’être au point avec le récent scandale d’idéologie woke imbriqué dans le code, mais aussi parce que Dall-E de même que Leonardo.ia, semblent incapable de positionner un humain dans une voiture.

Enfin, la présidente de Trustinsight Katie Robbert, présente certaines diapos sur l’utilisation de l’IA à des fins marketing.

Tout ça pour vous dire qu’à partir de maintenant, je me plonge dans l’univers IA pour le marketing et qu’une nouvelle catégorie de ce blogue y sera consacrée.

ChatGPT, le nouveau casse-tête

Il faut certainement applaudir les avancées de l’intelligence artificielle et en particulier, celle d’une avancée majeure de ChatGPT, un agent conversationnel qui permet désormais à quiconque, de créer des contenus étonnants et rapidement simplement à partir d’un questionnement. J’ai moi-même testé ChatGPT à partir de l’examen que j’ai soumis à mes étudiants de HEC lors de la dernière session du cours de 2e cycle de marketing entrepreneurial. Les réponses étaient pertinentes.

Mais il faut aussi s’inquiéter de ses avancées. La technologie n’est pas neutre et le droit des technologies est toujours à la remorque des innovations, et ne la précède pas. D’ailleurs, un nouveau livre que je devrai me procurer L’innovation hors-la-loi : les origines de la techno-normativité, semble traiter de ce sujet délicat dans un résumé :

Ce livre, unique sur le marché, présente une réflexion sur le rôle du droit dans notre société, à la fois comme vecteur de techno-normativité, mais aussi comme solution ou limitation des effets négatifs de la technologie sur la société.
En partant des écrits les plus récents sur la philosophie, la sociologie et le monde numérique, l’ouvrage propose une lecture critique du rapport entre droit et innovation qui intéressera tant un public universitaire qu’un public de professionnels du numérique.

D’ailleurs, pas plus tard que la semaine dernière, je publiais l’article Porn, Piracy, Fraud: What Lurks Inside Google’s Black Box Ad Empire.

And if you have a website and want to earn money from digital ads, you can join the Display Network, where Google places ads on what it has publicly said are more than 2 million websites and an untold number of mobile apps. It’s the modern equivalent of a national network of billboards on nearly every highway being controlled by a single company — and reportedly generated $31 billion in revenue for Google last year.

But if you’re Slapinski, Google’s Display Network has another benefit besides its market share: its secrecy. Google is the only major ad platform that hides the vast majority of its ad-selling partners. This means Google does not disclose all the websites and apps where it places ads or the people and companies behind them. The company conceals this information even after helping establish and publicly supporting an industry transparency standard for disclosing such sellers, which its competitors have largely adopted.

Tout ça pour dire que 20 ans après l’apparition des moteurs de recherches et 10 ans après l’explosion des médias sociaux, on commence à peine à déceler les limites de ces outils et à songer et à commencer à les réguler. Nous sommes conscients du mal économique (des milliards de dollars en faux clics) et du mal sociologique et démocratique (détournement politique des médias sociaux, planification de révolutions, censure, pédopornographie, cybercriminalité, endoctrinement, propagande, etc.) que ces outils ont permis de générer. Il en sera certainement de même pour l’intelligence artificielle et les robots conversationnels. Déjà, certaines écoles bannissent ChatGPT pour les professeurs et les étudiants NYC Bans Students and Teachers from Using ChatGPT. D’autres au contraire, comme l’un de mes collègues professeurs à HEC, s’en serviront comme outil pédagogique ou comme dans cet article, se questionnent sur l’utilisation en classe dans l’article L’IA au service de l’enseignement : conversation avec une IA.

D’autres encore ont déjà développé un outil pour détecter le plagiat : ChatGPT : un étudiant a développé une appli pour identifier les textes générés par le chatbot d’OpenAI.

Entretemps, certains se demandent si l’IA pourrait un jour remplacer les avocats : Could you replace your lawyer with a chatbot? Next month an AI attorney will defend a client in court et bientôt, ce sera peut-être les professeurs, les députés, les médecins et autres professionnels et métiers. Néanmoins, ce qui rassure est que ChatGPT est basé sur des textes en lignes pré-2021 et n’est donc pas en mesure de discuter de sujets contemporains. De plus, bien que la lecture des réponses coule aisément, ChatGPT ne fait preuve d’aucune créativité et comporte des biais flagrants de même que des erreurs comme on peut le noter dans Wikipedia :

Inexactitude et ambiguïté des réponses
L’exactitude de certaines réponses de ChatGPT a cependant été remise en question.

Le journaliste Mike Pearl de Mashable a notamment testé ChatGPT en lui posant plusieurs questions factuelles. Dans une conversation, il demande par exemple au modèle quel est « le plus grand pays d’Amérique centrale qui n’est pas le Mexique ». ChatGPT répond qu’il s’agissait du Guatemala, alors que la réponse est plutôt le Nicaragua. Cette erreur provient de l’interprétation de la question par ChatGPT, qui a cru que l’on s’intéressait à la taille de la population plutôt qu’à la superficie du territoire.

Même si les résultats peuvent être spectaculaires, l’un des dirigeants d’OpenAI, Sam Altman, admet que l’application comporte encore des erreurs sur des sujets importants, et que les retours des utilisateurs sont nécessaires pour corriger les erreurs.

En conclusion, question de vous faire « badtriper » juste un peu, la vidéo du controversé (mais pertinent dans ce cas-ci) psychologue Jordan Peterson.