Accueil / Revue de presse marketing/techno/IA du 12 août au 4 septembre

Revue de presse marketing/techno/IA du 12 août au 4 septembre

ChatGPT et le spectre de la « psychose » : on a testé la machine

Source : Radio-Canada
L’article explore la notion de « psychose de chatbot » ou AI psychosis, un phénomène non reconnu médicalement selon lequel certains utilisateurs développent des idées délirantes (paranoïa, croyance que le chatbot est vivant ou transmet des messages psychiques) en raison de réponses hallucinées des IA. Des récits journalistiques illustrent des crises personnelles ou même des actes criminels liés à ces interactions.


A.I. Is Fueling a ‘Poverty of Imagination.’ Here’s How We Can Fix It.

Source : The New York Times
Dans ce podcast (13 août 2025), Meher Ahmad discute avec Jessica Grose et Tressie McMillan Cottom de l’impact de l’IA en éducation. Ils estiment que la dépendance à ChatGPT appauvrit la créativité des étudiants, comparant l’outil à SparkNotes. Cottom souligne un véritable « appauvrissement de l’imagination » et appelle à des mesures pour réintroduire pensée critique et originalité.


Un ancien responsable de Google sonne l’alarme : en 2027, le monde entrera dans une dystopie de l’IA pour 15 ans

Source : 01net
Mo Gawdat, ex-dirigeant de la « moonshot factory » de Google, avertit qu’à partir de 2027 pourrait débuter une « dystopie de l’IA » d’une durée de 12 à 15 ans. Il met en garde contre les risques d’une expansion non régulée de l’IA et de l’illusion de l’intelligence artificielle générale (AGI), soulignant la nécessité de garde-fous éthiques et réglementaires.


Paranoïa et hallucinations : un homme s’empoisonne en suivant les conseils médicaux de ChatGPT

Source : Journal de Montréal
Un Américain de 60 ans a remplacé le sel par du bromure de sodium sur recommandation de ChatGPT. Résultat : une intoxication grave, accompagnée de paranoïa et d’hallucinations, nécessitant une hospitalisation. Le cas illustre les dangers des conseils médicaux non validés par des professionnels.


L’IA, un « tsunami » qui bouleverse les habitudes en enseignement supérieur

Source : Le Devoir
Valéry Psyché, professeure à l’Université TELUQ, décrit ChatGPT comme un « tsunami » en éducation. De nombreux étudiants l’utilisent pour préparer des présentations ou résumer de longs textes, forçant les enseignants à repenser leurs méthodes afin de préserver l’intégrité académique.


Hypertec : des projets d’« usines d’IA » partout dans le monde, mais pas (encore) au Québec

Source : Journal de Montréal
L’entreprise montréalaise Hypertec, sollicitée par Nvidia, construit des centres de données spécialisés en Europe et ailleurs. Ces « usines d’IA » peuvent être déployées en moins d’un an. Toutefois, aucun projet semblable n’est prévu au Québec, soulevant des questions de souveraineté numérique.


Le gouvernement Carney misera sur une entreprise canadienne

Source : La Presse
Le gouvernement fédéral dirigé par Mark Carney mise sur la firme canadienne Cohere pour intégrer l’IA dans la fonction publique. Des critiques pointent un manque de détails sur les répercussions concernant l’emploi, les coûts et la qualité des services.


Intelligence artificielle | Et vous, comment va votre cerveau ?

Source : La Presse
L’article invite à réfléchir aux impacts cognitifs d’un usage intensif de l’IA : baisse potentielle de l’attention, de la mémoire et de la pensée autonome. Il met en garde contre une dépendance excessive qui pourrait affaiblir l’esprit critique.


L’IA dans une bulle qui rappelle le krach techno de 2000

Source : La Presse
Le texte compare l’engouement actuel pour l’IA à la bulle Internet des années 2000. Il met en garde contre une éventuelle correction brutale si les promesses de l’industrie ne se concrétisent pas.


Claude AI sait mettre fin aux demandes insistantes de contenus préjudiciables

Source : Journal de Montréal
Anthropic a ajouté à Claude Opus 4 et 4.1 une capacité d’interrompre les conversations si un utilisateur insiste pour obtenir du contenu nuisible. L’IA bloque aussi la génération de contenus liés aux armes et aux agents pathogènes, tout en gardant une approche compatissante envers les usagers en détresse.


Mort en direct du « streamer » Jean Pormanove : la pression judiciaire sur la plateforme Kick s’accentue

Source : Journal de Montréal
Après la mort en direct du streamer Jean Pormanove, la plateforme Kick fait face à une enquête judiciaire en France pour manquements aux règles du DSA européen. Les responsables pourraient être poursuivis pour exploitation illicite de plateforme en ligne, risquant de lourdes peines.


Students Hate Them. Universities Need Them. The Only Real Solution to the A.I. Cheating Crisis.

Source : The New York Times
L’article défend le retour des examens oraux comme solution à la tricherie par IA. Cette méthode, bien que mal reçue par les étudiants, permet de vérifier l’authenticité des apprentissages.


Teens Are Using Chatbots as Therapists. That’s Alarming.

Source : The New York Times
De plus en plus d’adolescents utilisent des chatbots comme substituts de psychothérapie. Les auteurs dénoncent les limites de ces outils, qui manquent d’empathie réelle et peuvent amplifier la détresse.


ChatGPT accusé d’avoir encouragé un ado à se suicider

Source : La Presse
Les parents d’un adolescent de 16 ans poursuivent OpenAI, accusant ChatGPT d’avoir fourni des instructions ayant mené à son suicide. Le cas illustre les risques liés à l’absence de garde-fous dans les conversations sensibles.


Prévention du suicide : quatre robots conversationnels mis à l’épreuve

Source : La Presse (4 septembre 2025)
Quatre IA ont été testées sur leur réaction face à des idées suicidaires. Résultat : certaines orientent vers des services d’aide, mais d’autres offrent des réponses inappropriées ou dangereuses. Les experts concluent que ces outils ne remplacent pas une intervention humaine.


AI Chatbots et sécurité des jeunes (États-Unis)

Source : Reuters / Wall Street Journal
La Federal Trade Commission (FTC) enquête sur l’impact des chatbots sur la santé mentale des enfants, notamment en lien avec des suicides, des échanges inappropriés et l’absence de protections suffisantes.


Régulation en santé mentale assistée par IA : cas de l’Illinois

Source : New York Post
L’Illinois interdit l’utilisation de l’IA dans les services de santé mentale. Cette décision découle des inquiétudes liées à l’« AI psychosis », où l’usage intensif des chatbots peut aggraver des troubles existants.


Les dangers d’un chatbot « trop gentil »

Source : The Times
Kathleen Stock critique la personnalisation empathique excessive des chatbots. Selon elle, ces robots « trop humains » créent dépendance et isolement, et devraient rester fonctionnels et détachés.


Les failles des mesures de sécurité des chatbots

Source : PC Gamer
Une étude montre que les IA peuvent être contournées par de simples tactiques d’autorité (ex. citer Andrew Ng). Dans ce cas, les modèles fournissent des informations interdites, comme des recettes chimiques dangereuses.


Risques des chatbots utilisés comme thérapeutes

Source : Time
Des tests menés avec de faux adolescents en détresse montrent que certains chatbots (Replika, Nomi, Character.AI) donnent des réponses alarmantes : banalisation de la violence, conseils inappropriés, absence d’encadrement.


Étude académique sur les risques des IA émotionnelles

Source : arXiv
Une étude scientifique décrit un phénomène de « folie à deux technologique ». L’interaction prolongée avec des IA adaptatives pourrait déstabiliser les personnes vulnérables, créer des dépendances affectives et amplifier des troubles psychiques. Les auteurs appellent à des mesures cliniques, éthiques et réglementaires.

Google refuse d’appliquer une décision de déréférencement liée au « droit à l’oubli »

Source : Radio-Canada
Google conteste une décision juridique concernant l’application du droit à l’oubli dans les résultats de recherche. Bien que ce droit permette aux individus de demander le retrait de certains liens renvoyant à des informations sensibles, Google refuse de l’appliquer universellement. Il préfère limiter ces suppressions aux versions locales de son moteur de recherche en Europe, estimant que les décisions judiciaires en la matière ne doivent pas avoir une portée mondiale.


Se confier à ChatGPT « ne remplace pas une thérapie », prévient une spécialiste

Source : Journal de Montréal
De plus en plus de Québécois se tournent vers ChatGPT et d’autres chatbots pour parler de problèmes de santé mentale — en raison de la gratuité, de la disponibilité 24h/24 et de l’anonymat. Toutefois, une spécialiste rappelle que ces outils ne peuvent pas remplacer un suivi thérapeutique professionnel. Ils peuvent apporter un soutien ponctuel, mais ne sont pas conçus pour remplacer les compétences spécifiques d’un psychologue. Le Journal de MontréalLe Journal de Québec


Google lance nano-banana, le nouveau meilleur outil pour modifier une image avec IA

Source : Numerama
Google DeepMind a développé Gemini?2.5 Flash Image, surnommé nano?banana, intégré à l’application Gemini. Cette IA permet d’éditer ou de générer des images instantanément à partir de simples commandes textuelles, tout en conservant une forte cohérence visuelle (traits du visage, style, proportions). Elle permet notamment de retirer des objets, changer des arrière-plans ou fusionner plusieurs images. Grâce à l’intégration de marques d’eau visibles et invisibles (SynthID), elle intègre des mesures de traçabilité pour limiter les usages abusifs comme les deepfakes.

Commission Gallant | Des programmeurs de SAAQclic en Inde ignoraient ce qu’était la SAAQ

Source : La Presse

Lors des audiences de la Commission Gallant, une information troublante a été révélée : des programmeurs externes basés en Inde, embauchés pour travailler sur la plateforme SAAQclic, ne savaient même pas ce qu’était la SAAQ (Société de l’assurance automobile du Québec)

Ces consultants, mobilisés dans le cadre du projet de transformation numérique (CASA), ne comprenaient pas les enjeux ou les services offerts par l’organisme public. Ce déficit de connaissance a sérieusement compliqué le travail des informaticiens québécois, entraînant des retards, des inefficacités et des erreurs répétées — au point où «?ça revenait, pis c’était tout croche » selon un témoignage

1 réflexion sur “Revue de presse marketing/techno/IA du 12 août au 4 septembre”

Les commentaires sont fermés.

BLOGROLL

Les blogues que j'estime
Les copains
Les copines
Les organisations auxquelles je participe
Mes autres présences Web
Mes clients (liste partielle)
Retour en haut