Utiliser ChatGPT pour son contenu web, c’est se tirer dans le pied

Ce matin, une bonne amie me partage cette nouvelle et me demande ce que j’en pense.

« D’ici 2025, 90 % du contenu en ligne sera généré par l’IA »

Ma réponse fut: J’ai de gros doutes!

Voici donc une réponse plus détaillée…

ChatGPT est un outil qui a été développé à partir de contenus glanés sur le Web de 2020 à 2021. Il n’est donc pas « à jour » pour des contenus qui traiteraient de sujets contemporains. Par ailleurs, le programme de ChatGPT est conçu pour ne pas créer de contenus négatifs ou toucher à des sujets sensibles comme de la violence, le sexe ou des contenus considérés dangereux. De plus, ce logiciel a des biais le rendant incapable de prendre position. Il se doit d’être générique, sans danger, vrai et instructif. Il ne pourra donc pas décortiquer une situation réelle et présenter les pour et les contre d’une problématique. En outre, il ne présentera donc qu’un consensus de ce qu’il a collecté des contenus au moment de sa mise en ligne. Les consensus, comme c’est souvent le cas, évoluent dans le temps et peuvent changer drastiquement. Mais l’argument le plus important est que ChatGPT n’a aucune créativité. Il n’est pas capable d’être authentique, ce qui est la base même d’un contenu qui pourrait devenir viral ou simplement intéresser les lecteurs. Bien que j’étais spéciale durant mon enfance et que j’aimais lire les encyclopédies, on s’entend que c’est loin d’être le cas pour tous.

Utiliser ChatGPT et être pénalisé par les moteurs de recherches.

Disons que vous êtes un luthier et que vous utilisez chatGPT pour générer des textes pour votre site web. Les contenus que générera ChatGPT existent donc déjà sur le web. Il en fera une synthèse et vous la présentera. Imaginez aussi que l’un de vos compétiteurs a la même idée et génère lui aussi des contenus pour parler du même sujet. Il y a de fortes chances que vous soyez tous les deux pénalisés pour contenus dupliqués, ce qui est contraire à l’algorithme de Google entre autres. Vos contenus en plus de ne pas être authentique, ne seront donc pas non plus originaux.

Par ailleurs, selon searchenginejournal, les contenus générés automatiquement sont contre les directives aux webmestres de Google.

Automatically Generated Content Is Against Google’s Webmaster Guidelines
Regardless of the tools used to create it, content written by machines is considered automatically generated. As Mueller is quick to point out, Google’s position on auto generated content has always been clear:

“For us these would, essentially, still fall into the category of automatically generated content which is something we’ve had in the Webmaster Guidelines since almost the beginning.

And people have been automatically generating content in lots of different ways. And for us, if you’re using machine learning tools to generate your content, it’s essentially the same as if you’re just shuffling words around, or looking up synonyms, or doing the translation tricks that people used to do. Those kind of things.

My suspicion is maybe the quality of content is a little bit better than the really old school tools, but for us it’s still automatically generated content, and that means for us it’s still against the Webmaster Guidelines. So we would consider that to be spam.”

Mais Google est-il capable d’identifier les contenus générés automatiquement?

ChatGPT travaille déjà et a promis d’inclure un filigrane « watermark » dans ses contenus, permettant d’identifier les contenus générés automatiquement. Par ailleurs, les recherches en ce domaine précèdent les innovations de ChatGPT. Cette preuve de tricherie, serait cachée dans des lettres, des mots ou des tournures de phrases, qui bien qu’ils apparaissant aléatoires à nos yeux, avec la clé cryptographique du propriétaire de ChatGPT, il serait aisé d’identifier le faussaire. Et ce, même s’il changeait certains mots pour tenter de faire passer un contenu généré automatiquement, par la création d’un rédacteur. Vous pouvez avoir les détails de cette procédure dans l’article de Techcrunch, OpenAI’s attempts to watermark AI text hit limits, It’s proving tough to rein in systems like ChatGPT.

Il y a certainement encore des débats sur l’efficacité ou non et l’approche propriétaire ou open source d’en tel filigrane, mais la conclusion de l’article de Techcrunch est sans équivoque. Tôt ou tard, les fourbes se feront pincer…

 

“You could worry that all this stuff about trying to be safe and responsible when scaling AI … as soon as it seriously hurts the bottom lines of Google and Meta and Alibaba and the other major players, a lot of it will go out the window,” Aaronson said. “On the other hand, we’ve seen over the past 30 years that the big internet companies can agree on certain minimal standards, whether because of fear of getting sued, desire to be seen as a responsible player, or whatever else.”

(notez que ce qui suit et est tiré de ChatGPT, sont des images et que leurs contenus sont donc invisibles aux moteurs de recherches. Si elles avaient des filigranes, ils seraient aussi invisibles…)pourquoi-il-ne-faut pas-utiliser-CHATGPT-pour-contenus-web

Chatgpt-pour-medias-sociaux

ChatGPT-pour-medias-sociaux-suite

MAJ
Une nouvelle application Québécoise permettrais d’identifier les contenus autogénérés selon l’article La chasse au ChatGPT est ouverte. il s’agit de Detector https://detector.dng.ai/fr

MAJ2
Le pote Yves William sur Facebook, demande à ChatGPT ce qu’il pense de ce billet. Voici le résultat…

ce que pense ChatGPT de ce billet

L’arnaque de l’IA et nos impôts qui payent pour ça

Une cliente et amie qui travaillait pour une multinationale technologique a changé d’emplois pour travailler chez une start-up en Intelligence Artificielle. Elle n’y travaille plus outrée de ce qu’on lui a demandé de faire ou de ne pas faire. C’est que cette entreprise est fortement financée à même nos taxes (comme plusieurs start-up en IA), qu’une portion importante de ces subventions devraient aller en marketing et que très peu de cet argent se rend effectivement à ce poste primordial pour l’essor de l’entreprise. En outre, tout et n’importe quoi seraient de l’intelligence artificielle. C’est que c’est maintenant « le mot-clé » à la mode auprès des investisseurs et gouvernements et qu’il assure des retombées financières trébuchantes et sonnantes. Il suffit d’avoir un soi-disant algorithme pour se prétendre être en intelligence artificielle. D’ailleurs, personne ne pourras voir l’algorithme en question puisqu’il fera partie des « avoirs intangibles stratégiques » de l’entreprise. C’est drôlement opportun disons.

Sarcastiquement, Le Figaro titrait récemment, 40% des start-up européennes d’intelligence artificielle n’utilisent pas d’intelligence artificielle. On peut y lire :

Un leurre, joliment enrobé. Deux cinquièmes des start-up européennes d’intelligence artificielle n’utilisent en fait aucune technologie assimilable à de l’intelligence artificielle, d’après le rapport «The State of Ai» (l’état de l’IA) de la société d’investissement londonienne MMC Ventures. L’entreprise a mené l’enquête auprès de 2830 start-up européennes prétendant être spécialisées dans le domaine, en cherchant à en savoir plus sur les programmes d’intelligence artificielle utilisés à travers les entretiens avec leurs dirigeants et des recherches sur leurs sites Internet. Mais ils n’ont trouvé de preuves de l’utilisation réelle de ces technologies que pour 1580 d’entre elles. Malgré le manque d’intelligence artificielle dans leurs produits, 40% prétendent développer des programmes d’apprentissage automatique, utiliser des réseaux neuronaux ou encore faire de la reconnaissance d’image, note le Financial Times, qui rapporte l’étude.

Ça me rappelle la glorieuse époque 2005-2010 alors que nous investissions massivement en développement logiciel et que deux entrepreneurs sur cinq que je rencontrais, venaient de développer le nouveau CMS qui devait bouleverser la planète à $2000 de location par mois alors que WordPress qui est gratuit, existait déjà.

D’ailleurs, la conclusion de L’Institut de recherche et d’informations socioéconomiques (IRIS) dans le document Financer l’intelligence artificielle, quelles retombées économiques et sociales pour le Québec ? est plutôt ironique…

La mise en place d’un écosystème de l’IA exige une implication politique et financière considérable de la part de l’État. Ces investissements dans le secteur innovant des big data et de l’IA pour la relance de la croissance économique ont été justifié, en partie, par la crise économique mondiale de 2007-2008. Or, ces efforts sont menacés par l’incertitude liée aux retombées locales du capitalisme numérique, qui favorise plutôt la concentration des richesses et des résultats de la recherche entre les mains d’un nombre restreint d’acteurs. Si une réflexion éthique accompagne désormais le développement de l’IA, aucun espace institutionnel spécifique n’encadre pour l’instant les activités économiques des acteurs de ce secteur. De ce fait, non seulement les risques sociaux ne sont pas réellement minimisés, mais rien n’assure que des investissements publics majeurs se métamorphoseront en retombées collectives pour les Québécois·e·s.

Vous pourriez aimer lire mon billet de 2015
Ras-le-bol de l’innovation