Technologies Internet

Commentaires ou articles sur différents aspects des technologies Internet du commerce électronique.

Commerce de détail en ligne Commerce électronique: mythes Marketing Internet marketing mobile Moteurs de recherche et référencement de sites Web Technologies Internet

Les problèmes avec Wix, Web.com, Votresite.ca Liki.com et autres faites-le vous-même

Au tournant de 2005, les crédits d’impôt à la R ET D numérique avaient vu naître une multitude d’entrepreneurs qui avaient tous inventé le CMS (Content manager system ? Gestionnaire de contenu) qui devait révolutionner la planète. Je ne me souviens plus le nombre d’entrepreneurs que j’ai rencontrés pour leur dire que leur solution existait déjà et que leur version de « faite-le vous-même » (FLVM) avec ma cochonnerie se comparait mal avec ce qui existait déjà .

Durant presque 10 ans, je voyais encore des logiciels de mise en ligne propriétaire (dont l’outil appartient au fournisseur et pour lequel le client pait en croyant avoir la propriété de son site), mais disons que le phénomène de la soi-disant « magie du facile et performant » avait pratiquement disparu. Mais depuis 2013, cette tendance au « faites-le vous-même » revient en force. C’est d’abord Wix qui a inondé Facebook de publicités faisant l’apologie de sa magie. S’en est suivi une avalanche de copycat et d’hébergeurs qui ont tous proposé de vous mettre en ligne plus facilement, rapidement et moins cher que la concurrence.

Ainsi vous avez Godaddy qui vous propose pour 2 $ par mois d’acheter votre nom de domaine et de créer et d’héberger votre site. Ils disent même :

Apprenez à créer avec une rapidité et une facilité déconcertantes un site Web grâce à notre créateur de sites Web maintes fois récompensé.

Ce qui est déconcertant est que des gens d’affaires tombent dans le panneau.

Au Québec, vous avez le même genre de situation avec François Charron qui a fait le tour du Québec avec son initiative Branchons les PME et durant laquelle il vantait les mérites d’être sur sa propre plate-forme Votresite.ca. De même, lors d’un récent reportage de RDI économie on vous présentait l’autre bouton à quatre trous, Liki.com, sur lequel vous pourriez faire un site web transactionnel en moins d’une heure.

En fait ils ont tous raison. Ils disent la vérité lorsqu’ils prétendent que vous pouvez être en ligne rapidement et à peu de frais (quoique cela soit très relatif puisque les coûts afférents s’additionnent très rapidement). Cependant, le serez-vous efficacement et avec des résultats et de la visibilité? Là est toute la question. Ce n’est pas parce que vous achetez un encadré dans le feuillet paroissial que vous pouvez vous targuer de faire de la publicité…

Avant d’illustrer les nombreux problèmes de ces différentes plates-formes, je souligne quelques points positifs que je leur trouve. Tout d’abord, vous aurez certainement un sentiment de réalisation personnelle et la fierté d’avoir fait vous-même votre site web. C’est déjà ça. Par ailleurs, si on vous cherche par votre nom, il y a de fortes chances que l’on vous trouve. Mais dans ce cas, on ne parle certainement pas d’acquisition de clients. Si on vous cherche par votre nom, c’est qu’on vous connait déjà. Mais vous pourriez avoir exactement le même résultat, et ce tout à fait gratuitement. En effet, GoogleMyBusiness vous donnera le même résultat et vous n’avez qu’à vous y inscrire et à vous monter un profil. Vous pourrez y ajouter des photos et des textes, tout comme ces plates-formes vous le proposent. De surcroit, depuis maintenant quelques mois, ces présences GooglemyBusiness se classent même avant ceux des pages jaunes qui sont pourtant payantes, pour des requêtes génériques comme « plombier à Verdun ». Ce qui risque d’être drôlement difficile à faire (voire impossible) avec les plates-formes présentées plus haut.

Les nombreux problèmes des faites-le vous-même

Une limite de thèmes sans originalité

En affaire et surtout en commerce de détail, votre brand et votre personnalité ont de l’importance. Avec les « faites-le vous même » vous aurez le même look que des milliers d’autres sites. D’ailleurs, vous choisirez probablement le thème qu’offre le FLVM que vous trouvez le plus beau. Il y a de fortes chances que tous ceux qui sont avec ce même FLVM, choisissent aussi le même thème. Difficile de se démarquer dans ce contexte.


Un référencement médiocre voire, inexistant

La majorité des FLVM sont en sous-domaine du domaine du fournisseur. Ainsi, votre URL sera quelque chose comme « XYZ.votresite.ca ». Ce sera vraiment très bon pour « votresite.ca », mais pour « XYZ », ce ne sera pas des plus performant. Ils vous permettront de rediriger votre « XYZ.ca » vers « XYZ.votresite.ca », mais dans les faits, votre URL ne sera qu’un masque de l’URL prédominante qui restera « XYZ.votresite.ca ». Par ailleurs, en octobre dernier, les sites de la populaire plate-forme Wix étaient éjectés de Google. Déjà qu’ils n’y figuraient pas très bien. Aussi, la majorité des sites fait avec les FLVM (voir la totalité) ne sont pas « web responsive » c’est-à-dire qu’il ne s’ajuste pas aux téléphones mobiles et aux tablettes. Google pénalise très fortement les sites qui ne sont pas adaptés aux mobiles dans son algorithme de recherche.

Les options et outils de référencement et les outils statistiques y seront minimaux, voire inexistants. Ce dernier point est probablement bénéfique. Dans le fond, il est peut-être mieux pour votre égo de ne pas savoir à quel point personne ne visitera votre site.

Le hold-up possible de votre nom de domaine

L’un de mes clients a fait affaire avec l’un de ces FLVM et après une expérience difficile et peu productive, décida de faire construire son site et de s’héberger lui même. Malheureusement son fournisseur ne voulait pas lui redonner son nom de domaine hors de sa plate-forme.

Vous n’êtes pas chez vous

La pérennité de votre investissement internet et marketing est entre les mains de quelqu’un d’autre qui peut, sans préavis fermer, être vendu ou décider que votre site, votre boutique ou vos contenus ne répondent plus à leur politique d’utilisation. Tout comme je le dis souvent pour les gens qui sont sur Facebook, vous n’êtes pas propriétaire, vous êtes locataire avec tous les inconvénients que cela comporte. Aussi, si un jour vous décidiez d’avoir votre propre site web, vous pourriez perdre une partie importante, voir la totalité, des efforts et des coûts associés à l’investissement FLVM que vous aurez faits.

Si vous avez la chance extraordinaire d’avoir une base de données client avec ces outils (ce qui dans la majorité des cas est impossible), cette base de donnée confidentielle et dont vous être légalement responsable, sera aussi partagé avec l’entreprise qui vous fournit le FLVM et pour laquelle vous n’avez aucun contrôle. Songez aussi que lorsqu’il est temps de vendre votre entreprise, la base de donnée client est l’un des actifs potentiellement très lucratifs de votre entreprise. Avec ces outils vous n’en aurez pas le contrôle ou pire, vous n’en aurez tout simplement pas.

Le Web c’est votre présence à la face du monde

Avant d’être en ligne, il est des questions primordiales comme « pourquoi y être »? En fonction de vos réponses, vous aurez à déterminer des mesures de rendement de vos efforts et investissements. Voulez-vous recruter, vendre, communiquer, influencer, faire des relations publiques ou autre? Est-ce que ces objectifs d’affaires peuvent évoluer dans le temps? Voudrez-vous ajouter des fonctionnalités au fil des mois? Ne serait-ce que de faire un simple sondage auprès de votre clientèle? Toutes ces questions cruciales risquent de trouver des réponses très décevantes.

Dans la vie, il n’y a pas de magie et lorsqu’il y en a, on appelle ça aussi de l’illusion. Pour avoir des résultats, il faut une vision, des objectifs, du travail et de l’investissement. Si faire un site web est si facile, il y a de fortes chances que de vous trouver sur le web sera par contre une tâche impossible…

Ce billet est la suite de Les magasins de vente au détail vivent ce qu’ont vécue les agences de voyages il y a dix ans

MAJ
Je viens d’apprendre à l’instant (via un statut Facebook de l’agence Nubee) que le bouton à quatre trous dont je vous parle dans ce billet, Liki.com, annonce la fermeture de sa plate-forme le 2 juillet prochain. Lorsque je vous disais que vous n’êtes pas chez vous…

Les problèmes avec Wix, Web.com, Votresite.ca Liki.com et autres faites-le vous-même Lire la suite »

Technologies Internet

Le sexisme au féminin en communication et technologie

Ça fait des années que plusieurs associations tentent de convaincre les jeunes femmes de s’intéresser aux technologies de l’information et d’y travailler. Il y a maintenant plus de femmes dans les diverses facultés universitaires, mais les TI sont encore un secteur très majoritairement masculin. Ça doit changer.

Un ami qui me veut du bien, me suggère de rejoindre l’organisation FCT Les femmes en communication et technologie. Il m’invite donc à participer à leur événement de la rentrée automnale L’Habit fait le Moine! — Dress for Success!

Vous vous demandez souvent qu’est-ce que je vais porter? Est-ce que ce vêtement m’avantage? Est-ce que cet ensemble est approprié? Si c’est le cas, joignez-vous à nous en septembre prochain pour notre premier événement de la saison 2015-2016 et venez découvrir « Les Effrontés », stylistes personnels.

J’ai certainement encore beaucoup de choses à apprendre côté vestimentaire et je ne suis certainement pas « la pitoune corporative » par excellence. Mais disons que ce premier contact avec cette organisation qui se targue de motiver les femmes à performer en TIC, me laisse froide.

Goals
To be the catalyst for women’s leadership in the technology, media and telecommunications sectors
To facilitate women’s career advancement through programs of mentorship, skills and leadership training, networking, and recognition
To promote and champion gender participation and leadership in knowledge based industry sectors in Canada
To assist companies access diverse talent necessary for competitive advantage

Ma propre vision d’être une femme qui travaille et milite en technologie, n’inclut vraiment pas d’acquérir les compétences me permettant de devenir « la pitoune corporative » parfaite….

Le sexisme au féminin en communication et technologie Lire la suite »

À titre de conférencière Commerce de détail en ligne Technologies Internet

Les sept raisons d’aller à MCETECH

Depuis ses tout débuts, j’étais partenaire avec l’évènement MCETECH. J’ai fait partie du premier comité organisateur et j’ai développé une franche camaraderie avec le professeur Hafedh Mili, ce chercheur informatique de haut niveau et directeur du LATECE (Laboratoire de Recherche sur les Technologies du Commerce Électronique).

C’était une manière de me tenir à jour sur les dernières avancées technologiques, mais aussi d’échanger avec ces grands penseurs de l’informatique. D’ailleurs, plusieurs de mes anciens professeurs à la Maitrise en commerce électronique font partie de son comité scientifique. Mais c’était aussi l’occasion d’apprendre lors des divers ateliers qui y sont présentés. D’ailleurs, le 15 mai prochain, j’y donnerai l’atelier: Les stratégies de contenus sur les médias sociaux pour contrer l’inefficacité publicitaire.

Mais pour vous convaincre d’aller y faire un tour, j’ai demandé à Hafedh de me vendre MCETECH, comme si je n’y connaissais rien. Voici donc ce qu’il m’a envoyé :
(dont l’argument béton : Pas de discours de vente d’éditeurs de logiciels: on n’est pas un trade-show. 🙂 )

1) 4 jours d’activités variées ciblant décideurs, architectes, gestionnaires, développeurs, et chercheurs, intéressé(e)s par divers aspects des applications déployées sur Internet, avec une emphase sur les aspects informatique (architectures de déploiement, analyse de données, frameworks de développement d’applications web) et gestion (processus, marketing, CEM, CRM). Sans oublier la dimension sociale de la technologie, dont la cyberjustice (http://www.mcetech.org/workshops/cyberjustice.php), et les préoccupations liées au profilage et la confidentialité des données (http://www.mcetech.org/workshops/epersonas.php)

2) Pas de discours de vente d’éditeurs de logiciels: on n’est pas un trade-show. Que ce soit les chercheurs qui présentent les résultats de leurs dernières trouvailles, ou les présentateurs ou présentatrices de tutoriels (dont une célèbre consultante en stratégie de marketing internet), ils/elles donnent l’heure juste. Les conférences de recherche (voir http://www.mcetech.org/program.php) ont fait l’objet d’une sélection rigoureuse par un comité international de pairs (40 chercheurs, issus de 4 continents/14 pays, voir http://www.mcetech.org/committees.php).

3) Concernant les tutoriels, nous nous sommes efforcés de concocter un programme solide de 10 tutoriels couvrant divers aspects allant de la stratégie d’affaires (e.g. stratégies de contenus pour médias sociaux pour remédier à l’inefficacité publicitaire, alignement de BPM avec architecture d’entreprise, règles d’affaires, utilisation de RFID pour optimiser les processus en milieu hospitalier), à du savoir-faire portant des normes (accessibilité), architectures (applications mobiles), ou APIs (JHipster, Spring Boot, Netflix OSS, Big data 101 avec Python). Voir http://www.mcetech.org/workshops-tutorials.php

4) depuis sa fondation (2005), la série de congrès MCETECH s’est donné comme mission d’agir comme catalyseur d’innovation pour l’industrie TI Montréalaise et Québécoise, en faisant le pont entre la recherche et la pratique, de part l’offre d’activités destinées aux uns et aux autres, créant d’amples opportunités de réseautage. Pour cette sixième édition, MCETECH organise une activité de maillage industrie-chercheurs, parrainée par le Conseil de Recherches en Sciences Naturelles et en Génie (CRSNG, www.nserc-crsng.gc.ca). Cette activité vise à établir des relations entre, d’une part, des entreprises en TI ayant des problématiques en R&D ou des besoins d’innovation, et d’autre part, des chercheurs Canadiens (essentiellement Québécois/Montréalais et Ontariens/Outaouais) ayant des expertises pertinentes, et ce, pour résoudre ces problèmes par de la recherche collaborative financée, en bonne partie, par des fonds provinciaux/fédéraux. Cette activité, qui aura lieu le premier jour du congrès (12 mai) est gratuite pour les entreprises (mais les places sont limitées). Voir http://www.mcetech.org/workshops/networking.php

5) La série de congrès MCETECH (www.mcetech.org) est sans but lucratif, et s’appuie sur le travail de beaucoup de bénévoles pour maintenir des frais d’inscriptions bas (de l’ordre de 200 $/jour), allant des étudiantes et étudiants qui gèrent l’accueil et la logistique, aux divers présentateurs/conférenciers. Tout surplus budgétaire sert à payer des bourses aux étudiant(e)s impliqué(e)s.

6) une maudite bonne gang sympathique, où vous aurez la chance de nouer de nouveaux contacts, ou de retrouver d’anciens camarades de classe, ou des professeurs que vous avez peut-être eus à l’UQAM, l’UdeM, HEC, Polytechnique, Concordia, ETS, McGill, etc.

7) des forfaits d’inscription flexibles, permettant, entre autres, à deux personnes de la même organisation de se partager un passe à la conférence. voir http://www.mcetech.org/registration.php

Les sept raisons d’aller à MCETECH Lire la suite »

cyberintimidation Edito sans question Gouvernement électronique Innovation Médias sociaux Plan numérique pour le québec politique et internet Technologies Internet

Vive l’Ontario pour la réflexion numérique

J’ai de plus en plus de contrats me venant de notre province voisine l’Ontario. J’en suis très ravie et triste à la fois. Ça me fait grand plaisir de voir mon expertise de plus en plus en demande à l’extérieur du Québec, mais là ou le bât blesse, est que ce sont des mandats pour lesquels on ne se questionne pas encore, ou trop peu au Québec. Pire encore, si on se questionne là-dessus, on demande aux experts de faire ça « gratis ».

Voici deux exemples. En 2013 nous avions les états généraux sur l’enseignement supérieur. Tentez de retrouver des documents à ce propos sur Google, nous renvoit aux nombreux documents des divers groupes de pressions, syndicats et autre (comme celui de la Fédération des enseignantes et enseignants de CEGEP (CSQ) (PDF)). Pratiquement rien du côté gouvernemental. D’ailleurs, ces discussions tournaient autour « de la gratuité scolaire » plutôt que sur la question plus fondamentale de « comment le numérique bouleverse et bouleversera l’éducation » qui n’a pas été traité. C’est ce dont je discuterai demain à Toronto lors de l’évènement Les Tablettistes financé par le groupe MediaTFO. D’ailleurs, lors de ces fameux états généraux québécois, ceux qui y allaient y étaient gratuitement (sauf pour les fonctionnaires ou recteurs d’université qui de toute évidence étaient payés pour ça).

Par ailleurs, je viens de terminer la rédaction d’un rapport de recherche commandé et payé par les CALACS francophones d’Ottawa et financé par Condition féminine Canada. Ce rapport sera rendu public au mois de mai prochain. Il traite de la cyberagression sexuelle. Au même moment, mon propre gouvernement me demande de faire partie d’un comité d’experts qui se penche sur la cyberintimidation. Ce comité composé de sous-ministres, de fonctionnaires de haut niveau et de professeurs d’université, se rencontrera 6 jours complets. Seuls mes déplacements seraient payés. On me demande de faire du « pro bono ». Par principe, j’ai refusé. Pourtant, le premier ministre Couillard a décidé d’en faire une de ses priorités, comme il est indiqué sur le site du Parti Libéral :

Un geste d’intimidation, de violence ou de maltraitance est un geste de trop. Chaque personne doit pouvoir s’épanouir dans un environnement sain et sécuritaire. Chaque personne, quels que soient son âge, son sexe, son orientation sexuelle, son origine ethnique a droit à la dignité. Un gouvernement libéral fera de la lutte contre l’intimidation une priorité.

Méchante priorité?

Malgré cette « radinité » de mon propre gouvernement, j’ai accepté l’automne dernier de faire « du gratis » pour Le Forum des Idées du premier ministre. Depuis des années, je fais aussi « du gratis » en militant pour un plan numérique pour le Québec. Cependant, j’attends toujours impatiemment « la stratégie numérique » promise par le premier ministre. Entretemps, je prends connaissance de l’article Une cartographie de l’accès à Internet haute vitesse dans LesAffaires, je m’attriste que nous faisions partie du tiers monde internet et j’observe que trois des acteurs de la Commission Charbonneau touchent un million en honoraire, que la commission Robillard devrait coûter 3.8 millions et que le gouvernement dépense plusieurs milliards en services informatiques au Québec. Cependant, lorsqu’il est temps de se questionner sérieusement sur l’impact du numérique sur divers aspects de notre société, faut faire ça gratis!

J’aurais vraiment dû devenir avocate ou intégratrice en Technologie de l’information. Ça ne prépare certainement pas le futur, mais ça paye vraiment très bien le présent…

Vive l’Ontario pour la réflexion numérique Lire la suite »

Big data Commerce de détail en ligne Commerce électronique : articles Innovation Marketing 2.0 Stratégies de commerce électronique Technologies Internet Web 2.0

Les ratés de la personnalisation en ligne et la faiblesse de l’approche algorithmique

C’est en lisant Why Websites Still Can’t Predict Exactly What You Want de Harvard Business Review que ça m’a frappé. Les entreprises numériques ont encore bien des croûtes à manger avant d’avoir une personnalisation en ligne, digne de ce nom. Je vous en avais déjà parlé dans mon billet Certains ratés de la personnalisation numérique.

Toujours est-il que dans l’article de HBR, l’auteur met le doigt sur une possible explication de ces lacunes de personnalisation.

All that data and still an underwhelming result. What’s happening here? It seems that it’s a matter of how the companies position personalization. They regard it as a tool for upselling–they want to push us out of our comfort zone, to buy new things, and to buy more things. To achieve that goal, the companies can’t just look at one’s historical browsing or purchase patterns. Instead, data scientists look for traits in similar customers. When you position personalization this way, you build algorithms that are based on finding variables.

En effet, depuis l’avènement de « la filtration collaborative » d’Amazon, (c’est-à-dire ceux qui ont aimé ce produit ont aussi aimé tel, tel et tel autre produit, ce qui représente tout de même plus de 50% des ventes d’Amazon) les entreprises se sont confinés à l’analyse prédictive. Il s’agit donc d’une tentative d’upselling (concrétiser la 2e vente). Par contre, très peu, voire aucun effort n’est encore mis sur l’historique de consommation, ce que l’on nomme les données invariables. Comme l’auteur le mentionne, sur Amazon, si ça fait déjà quelques achats que je fais pour acquérir des souliers de grandeur 13WW, il y a de fortes chances que si je magasine encore des chaussures sur Amazon, ce le sera pour la même grandeur de chaussure. Pourtant, cette simple donnée invariable, qui améliorerait très sensiblement mon expérience usager en ligne, n’est toujours pas utilisée.

Pourquoi faire simple lorsqu’on peut faire compliqué?

C’est un peu la conclusion de l’auteur de l’article. Ce n’est pas sexy de travailler sans algorithme et il n’y a pas de valorisation pour les geeks qui les développe. Ça faciliterait par contre grandement la vie des clients internautes et les fidéliserait aussi sans doute à la marque

In short, these kinds of easy wins aren’t sexy enough for data scientists. And maybe they fear their effort would go unnoticed if we can get better personalization without teams of PhD’s spending three years to create hundreds of algorithms.
Data scientists are vital to the future economy and advanced algorithms are an extremely important part of their work. But from a market-facing perspective, simplicity and quick wins should be part of the data science toolbox.

Les ratés de la personnalisation en ligne et la faiblesse de l’approche algorithmique Lire la suite »

Edito sans question politique et internet Technologies Internet

La Stratégie numérique du Canada et la bonne blague du gouvernement Harper

Nous sommes encore loin d’un Plan numérique pour le Canada, mais au moins, industrie Canada sort finalement de sa torpeur numérique et accouche de sa Stratégie numérique pour le Canada (PDF). C’est déjà un départ et un pas dans la bonne direction. Cette initiative nommée « Canada numérique 150 », vise à concorder avec le 150e anniversaire de la confédération. C’est un peu, beaucoup de relations publiques politiques, mais disons que les objectifs énoncés, sont plutôt chétifs. Mais au moins, ils seront une amélioration à ce que nous avons déjà.

Par exemple, comme le mentionne Direction informatique, cette initiative repose sur cinq piliers.

Sous le pilier « Un Canada branché », le gouvernement du Canada regroupe des initiatives telles que l’élargissement de la portée de l’accès à Internet haute vitesse à plus de 98 % de la population, le développement de politiques relatives aux télécommunications mobiles et l’optimisation de l’utilisation des ondes sans fil publiques.

Le pilier « Un Canada protégé » chapeaute des initiatives qui portent sur la sécurité des transactions en ligne, la protection de la vie privée et la protection contre la cyberintimidation et les menaces en ligne.

Sous le pilier « Les possibilités économiques », Ottawa réunit des initiatives qui visent à faciliter l’utilisation des outils numériques par les entreprises, ainsi que le recours aux données volumineuses par les organisations et les gouvernements.

Le pilier « Le gouvernement numérique », de son côté, regroupe des initiatives dont le but est de faciliter l’accès en ligne aux services et à l’information de l’administration fédérale. Aussi, on y trouve des initiatives qui favorisent l’utilisation de données ouvertes gouvernementales pour améliorer le développement économique et la collaboration entre divers intervenants.

Enfin, le pilier « Le contenu canadien » réunit des initiatives qui faciliteront la production et l’accès au contenu numérique à caractère historique ou culturel.

La bonne blague du gouvernement Harper

Un Canada branché

Ce que définit Industrie Canada comme un Canada Branché est « accès à Internet haute vitesse à plus de 98 % de la population ». Or, comment définissent-ils cette haute vitesse? Pas 1000 MBPS comme le Kansas ou le Vermont, pas 100 MBPS comme les villes participant à l’initiative iCanada, non un gros 5MBPS et pour 98% de la population. Wow, une chance que je suis assise, car je crois bien que je tomberai renversée de cette vision du futur. D’ailleurs, à lire le site d’Industrie Canada, j’apprends que ma ville, Chertsey a DÉJÀ le 5MBPS???

Heureusement qu’ils rajoutent le nota bene plus bas

La couverture au sein d’une collectivité dépend de sa superficie, de la conception du réseau à large bande, de la topographie locale et d’autres facteurs. Dans certains cas, les fournisseurs de services Internet (FSI) ne parviendront pas à offrir le service à tous les foyers d’une collectivité désignée comme étant desservie.

Et nous jouirons de cette connectivité supersonique d’ici 2017, mais selon industrie Canada, vous en jouissez probablement déjà. Au moins le Ministre James Moore trouve les mots pour nous inspirer et présenter cette vision du futur

Le Canada a l’occasion de devenir un chef de file en cette nouvelle ère, mais le gouvernement a un rôle essentiel à jouer dans l’établissement, par des politiques publiques efficaces, des bonnes conditions pour encourager et aider les Canadiens à tirer pleinement profit des possibilités transformationnelles de l’avenir numérique. Voilà pourquoi le gouvernement a tracé une voie qui dote la population du pays des outils, des compétences et des protections nécessaires pour mettre à profit ces possibilités numériques.

Wow, je vais mieux dormir ce soir…

Dans un autre registre (mais en fait pour illustrer le même manque de vision, mais au provincial) dans l’article du journaliste Pierre Asselin dans Le Soleil Le cabinet analphabète on peut lire :

Ah oui, c’est vrai, le numérique.
Appelez ça comme vous voulez, technologies de l’information ou informatique, c’est le domaine qui transforme nos sociétés, mais ne cherchez pas de ministre responsable à Québec. Tout d’abord, ça n’intéresse pas nos députés. La plupart d’entre eux sont, à peu de choses près, analphabètes en ce domaine.
Il fut une époque où cette ignorance était pardonnable, mais elle est aujourd’hui inexcusable, au sein d’une administration qui se prétend moderne.
Le numérique est au coeur même du rôle de l’État. On a bien un ministère pour planifier, construire et entretenir nos routes. Pourquoi n’y en a-t-il pas un pour superviser notre infrastructure informatique? Pour définir les orientations et les politiques de l’État en cette matière?
L’État québécois manque cruellement de personnel spécialisé, cette expertise stratégique a été abandonnée aux firmes de consultants. Il y a des politiques à élaborer, pour appuyer le secteur privé comme le secteur public; des positions à prendre sur la neutralité d’Internet, la protection des renseignements et de la vie privée. Ce ne sont pas les défis qui manquent.

MAJ
Question de vous faire sourire (ou rager, c’est selon), voici un article du Wall Street Journal qui explique comment la Norvège ammène la très ahute vitesse dans le cercle polaire et qui a l’une des plus rapides connection internet de la planète In Bjørndalen, Norway, a Small Cabin Enjoys Some of the World’s Fastest Internet

Disons que les conseillers du ministre Moore ont encore des croûtes à manger…

La Stratégie numérique du Canada et la bonne blague du gouvernement Harper Lire la suite »

Facebook Google + Médias sociaux Outils et références politique et internet Technologies Internet Twitter ou le microblogging YouTube

#QC2014 Le poids des partis et des mots-clés sur les médias sociaux, le PQ en avance

Dans mon billet Les partis politiques et les chefs de partis sur le Web durant la campagne provinciale 2014, j’observais une très nette avance du PQ dans les recherches de Google avec GoogleTrends. Je concluais :

Réflexion prédictive
Les sondages donnent présentement le PLQ gagnant, mais si l’histoire se répète, le Web donne plutôt le PQ gagnant (ne disions-nous pas que Google est le catalogue des intentions). C’est d’ailleurs ce qui s’était passé avec le NPD lors de récentes élections fédérales…

Question de vérifier si c’est aussi le cas sur les médias sociaux, j’ai utilisé l’outil (encore en bêta) eListen d’engagmentLabs pour mesurer le poids des partis et de certains mots-clés de cette campagne électorale 2014 entre le 19 et le 26 mars 2014. Plusieurs observations m’étonnent.

Tout d’abord il apparait évident dans les tableaux deux et trois de la présentation suivante, que le feu de l’action conversationnelle électorale des médias sociaux se passe principalement sur Twitter.

Par ailleurs, si l’histoire récente de monitorage des médias sociaux est un bon indicateur de la tendance du vote le jour de l’élection (comme ça a été le cas pour la dernière élection fédérale avec GoogleTrends), on peut déjà donner le PQ gagnant, contrairement à ce que nous dit les sondages.

Dans les tableaux quatre, cinq et six suivant vous remarquerez que le PQ est deux fois plus discuté que le PLQ sur les médias sociaux. Vous remarquerez aussi que le mot-clic le plus utilisé de cette campagne est PKP et Péladeau qui à eux seul, récoltent 22% de toutes les mentions. C’est dire à quel point sa participation à cette élection a fait jaser et à quel point les enjeux comme la santé ou l’éducation sont absents.

Ça me fait dire sur mes propres médias sociaux

#Jeudiconfession suis TELLEMENT triste de cette campagne électorale vide d’idée et pleine de bouette focussée strictement sur les chefs

#QC2014 Le poids des partis et des mots-clés sur les médias sociaux, le PQ en avance Lire la suite »

Commerce de détail en ligne géolocalisation Marketing Internet Moteurs de recherche et référencement de sites Web Stratégies de commerce électronique Technologies Internet Tourisme en ligne

Sites internationaux, de commerce en ligne ou touristique et contenus dupliqués

Comme vous le savez sans doute déjà les engins de recherches et Google en particulier, n’aiment pas les contenus dupliqués qui sont associés aux polluposteurs et content scraper (copieurs de contenus web). Leurs algorithmes punissent donc sévèrement les sites qui sont perçus à tort, ou à raison, comme étant de vils copieurs de contenus.

J’ai un client particulier qui fait du commerce en ligne à la grandeur de l’Amérique et pour qui je devais rédiger un appel d’offres. J’ai aussi un autre client dont l’architecture particulière permet de présenter son offre selon différentes requêtes possibles. Ses pages se présenteront donc selon différentes URL des requêtes des engins de recherches du site.

Mon client qui fait du commerce en ligne aura un site francophone avec un TLD .ca, un site anglophone dédié au Canada avec un TLD .com et un site américain dédié aux États-Unis avec un TLD .US. Le contenu de chacun de ces sites sera le même, avec une version francophone pour le Québec et quelques particularités de paiements et de géolocalisation différentes pour les États-Unis. Mais pour le reste, les contenus seront identiques. J’ai aussi un client touristique qui aura un site avec différentes manières de présenter son même contenu. On pourra voir par exemple les hôtels par étoiles, par zone géographique ou par prix. Chacun des hôtels aura sa page propre avec son propre contenu. Mais en fonction des requêtes, une URL spécifique sera créée pour, disons les hôtels 3 étoiles, mais ces nouvelles pages présenteront le même contenu que chacune des pages spécifiques de chaque hôtel.

Comment donc résoudre les problématiques de contenus dupliqués sans être pénalisés par les engins de recherche?

Pour les sites internationaux, Google comprends qu’il est pratiquement inévitable que le contenu soir dupliqué. Mais les machines (les robots) n’ont pas toujours le réflexe de comprendre les aléas d’une présence internationale. De le spécifier dans l’outil Webmaster tool, va assurer qu’il n’y a pas de quiproquo technologique disons.

Aspects techniques
Vous devrez utiliser l’élément « rel=“canonical” link » dans l’outil pour webmestre de Google et sur les différents sites. Dans l’exemple de mon client international cité plus haut, l’URL canonique sera celle du Canada avec le .com les autres URL seront donc les URL alternatives.

Il faudra aussi coder le rel= »alternate » hreflang= »x » tel qu’expliqué dans la notice aux webmestres de Google https://support.google.com/webmasters/answer/189077 afin d’indiquer quelle est la langue spécifique de chacune des URL. Dans mon exemple, nous dirions que pour l’URL .com, les versions dans les langues alternativesseraient: fr-ca et en-us

De plus, il faut cibler la bonne géolocalisation pour chaque URL dans le webmaster tools: https://support.google.com/webmasters/answer/62399

Finalement, d’héberger chacun des sites localement, augmentera sensiblement sa visibilité dans les résultats des engins de recherches, pour les recherches locales.

Pour mon autre client touristique qui a des pages dynamiques résultantes d’une requête de l’engin de recherche ou de la duplication possible des contenus à cause de catégorisations différentes de ces mêmes contenus, il faudra suivre les indications et suggestions présentées par econsultancy dans l’article How to avoid duplicate content issues in ecommerce. Comme cet article est assez technique et tout à fait complet, je vous suggère fortement de le lire et de le mettre en application 🙂

MAJ

Ce billet a été rendu possible grâce à l’aide et l’expertise des spécialistes de l’analytique et du référencement de WAO Marketing et d’Orénoque. Un merci particulier à jacques Warren et Louis Durocher.

Sites internationaux, de commerce en ligne ou touristique et contenus dupliqués Lire la suite »

Big data Blogue Facebook Médias auxquels je collabore Medias et Internet Médias sociaux Moteurs de recherche et référencement de sites Web Relations publiques Internet Technologies Internet Twitter ou le microblogging

#Charte Analyse des sentiments exprimés sur les médias sociaux à propos de la Charte des valeurs

Mise en contexte :

Comme vous le savez déjà, je me suis exprimée pour La charte des valeurs québécoises et je faisais partie des 20 Janette qui ont signé la lettre de Madame Janette Bertrand, qui elle-même a généré un mouvement massif d’appui populaire.

Mais cela étant dit, ça ne m’empêche pas d’être « neutre » et « objective » lorsque vient le temps d’analyser ce qui s’est dit sur les médias sociaux. Par ailleurs, l’analyse que je vous partage plus bas a été réalisée par deux collaborateurs d’importance, qui n’ont aucun enjeu personnel ou corporatif avec les discussions autour de la Charte. Il s’agit de SAS Canada (client de longue date et SAS est le pionnier de l’analyse de données et de l’analyse prédictive) et de Inbox, entreprise française spécialiste de la connaissance clients et usagers et du big data également implantée au Canada et ayant développé un complexe algorithme sémantique francophone permettant de faire de l’analyse de sentiment en français (ce qui est très rare parce que la majorité des outils disponibles sont anglophones et n’ont pas la capacité d’analyse de sentiments et du prédictif).

SAS Canada et Inbox ont l’habitude de travailler entre-autres avec des grosses boîtes financières, d’assurances ou de commerce de détail, de médias internationaux et du secteur public. Ce sont eux entre autres qui font de la détection de fraude par l’analyse de très grands volumes de contenus (Big Data) pour les cartes de crédit ou les assurances. Grâce à sa technologie, Inbox a été la première source à identifier la fin de la récession en France, deux semaines avant tout le monde. Tout ça pour vous dire que lors d’une discussion avec SAS et Inbox sur la difficulté d’expliquer l’importance du « big data » à des clients potentiels (parce que ce n’est pas sexy) je leur propose d’utiliser leur technologie pour un sujet chaud de l’heure (comme la charte des valeurs québécoises). Ainsi, les gestionnaires pourront facilement comprendre en extrapolant, comment eux-mêmes pourraient bénéficier de la compréhension de ce qui se dit sur les médias sociaux, pour leur propre organisation. Voici donc le rapport d’analyse de SAS Canada/Inbox sur les discussions sur les médias sociaux à propos de la charte des valeurs.

Pour comprendre les graphiques

Voici une analyse de sentiment « Big Data » de différents thèmes discuté sur les médias sociaux (Facebook, Twitter, blogue) à propos de la Charte des valeurs québécoises. Remarquez en abscisse « LE VOLUME DES MESSAGES » et en ordonnée « L’INDICE DE POSITIVITÉ DU MESSAGE » qui est aussi appelé « analyse de sentiment. Ceci est une version préliminaire de l’analyse, qui est toujours en cour. Étant donné que le projet de loi du PQ risque d’être déposé dans les prochains jours, un grand volume de commentaires continuera d’alimenter les discussions médias sociales. Pour comprendre comment se fait l’analyse de sentiment, je vous dirai qu’avec l’algorithme d’Inbox un terme comme « crise » contiendra 1000 paramètres différents afin de déterminer le contexte de ce mot spécifique et de savoir si on parle par exemple « d’une crise économique » ou si plutôt « il a pété une crise ». Leur analyse de sentiment est donc fiable à 85% et la marge d’erreur est la même pour tous. Aussi, si par exemple un twitt parle de Dalila Awada et qu’il contient un hyperlien vidéo, comme l’hyperlien et le vidéo ne seront pas analysés, ce ne sera que le contenu de la mise en contexte précédant l’hyperlien qui sera pris en compte.

Le corpus

Les sources suivantes ont été analysées:
• Twitter
• Facebook
• Forum Yahoo
• JM : Journal du Montréal avec 3 sous-forums:
http://blogues.journaldemontreal.com/politique/,
http://blogues.journaldemontreal.com/droitdecite/,
http://www.journaldemontreal.com/auteur/richard-martineau )
• LP : LaPresse avec 3 sous-forums :
http://blogues.lapresse.ca/boisvert,
http://blogues.lapresse.ca/edito,
http://blogues.lapresse.ca/avenirmtl )

Mon analyse

J’attire votre attention sur les diapositives 3, 4 et 5. Vous remarquez qu’elles sont des portraits des discussions médias sociaux des 14, 21 et 31 novembre octobre. Vous remarquerez sans doute aussi qu’au 14 octobre, la majorité des mots clés, personnalités et organisations associés au débat de la charte sont perçus très négativement. Par contre, après le 21 octobre, ces mêmes termes (en plus de celui de # Janette qui commence à apparaitre), font passer plusieurs mots du côté positif. Vous remarquerez aussi qu’étrangement, Charles Taylor est vu plus négativement qu’Adil Charkaoui, mais que son collègue Gérard Bouchard jouit d’une négativité beaucoup moins grande. Vous observerez sans doute aussi que le Conseil du Statut de la femme est l’entité la plus méprisée et que la CQCI est l’organisation qui récolte la plus positive des mentions sur les médias sociaux, mais vous observerez que le volume des messages qui y est associé est somme toute insignifiant comparativement aux Janette par exemple. Observez aussi que Les Anti-Charte et les pro-charte sont tous deux du côté négatif des discussions, que le volume des discussions est somme toute équivalent, mais que les pro-charte sont beaucoup moins détestées que les anti-charte. Finalement, les inclusives ont 10 fois moins de mentions que les Janette, et elles sont à peine perçues plus positivement que les Janette et elles sont toutes deux du côté positif des discussions. Je pourrais continuer de vous faire mes observations, mais vous comprenez sans doute maintenant le principe et je ferai cette discussion de vive voix la semaine prochaine lors d’une conférence au Salon BI. Donc bonne lecture et bonne analyse ?

 

MAJ

Ce billet a été repris intégralement par le HuffingtonPost

#Charte Analyse des sentiments exprimés sur les médias sociaux à propos de la Charte des valeurs Lire la suite »

Code-source libre Stratégie d'affaires Stratégies de commerce électronique Technologies Internet

L’éternel débat : un CMS à code source ouvert ou codé en dur?

Hier j’ai partagé le statut suivant sur les médias sociaux :

Passer la journée à interviewer des fournisseurs web suite à un appel d’offres avec un client = On a de la belle expertise au Québec

Or, dans ma messagerie Facebook, une connaissance qui s’adonne à être développeur, me fit parvenir ce message et une discussion s’en suivit :

Interlocuteur

Il me semble que tu as discuté de l’avantage des CMS par rapport à des sites codés entièrement à la main…
Je ne sais pas si j’ai contribué à ce sujet, ni tes conclusions. Mais j’ai quelques remarques à ce sujet, rafraichies par une expérience que j’ai vécu ajourd’hui, est-ce que ça t’intéresse ?

Moi

Oui pourquoi pas

Interlocuteur

Désolé pour la longueur, c’est pour ça que j’ai demandé avant
Aujourd’hui, j’ai un autre exemple sous la main: les sites avec CMS se font hacker comme c’est pas permis.
Je dois bien avoir programmé et/ou supervise pas loin d’une centaine de sites web, dont une vingtaine qui sont sur des CMS, particulièrement Joomla, mais aussi Drupal, WordPress et SPIP.
Jusqu’à présent, à ma connaissance, aucun des sites programmés entièrement à la main n’a été hacké. Versus _tous_ les sites sur CMS, dont certains plusieurs fois.
Je crois que c’est dû à différents facteurs :
– c’est plus facile de trouver des failles dans le code des CMS, que dans le code d’un site fait « à la main », car le code des CMS est accesible publiquement et gratuitement, pas celui développé juste pour un site.
– comme pour les virus pour Mac vs Windows, plus une plateforme est répandue, plus c’est plus « payant » soit en « bragging rights », soit en dollars, selon les intentions du hacker de trouver des failles exploitables. Si un hacker trouve une faille dans un de mes sites « fait main », ce sera dommage pour moi, mais aussi pour lui, car il n’aura trouvé la « clé sous le paillasson » pour un seul site. Alors que s’il trouve une faille dans un CMS, c’est « bonjour la visite! ».
– les CMS utilisent des plugins et des « Templates » qui sont parfois de provenance douteuse. Il est très difficile de tout vérifier ce code pour des « backdoors » et autres failles exploitables même si en théorie la « communauté » veille au grain, il en passe toujours entre les mailles du filet. Pas simple non plus de le garder à jour ces plugins, surtout qu’il y a une forte rotation, chez les auteurs de ces plugins, extensions, modules, templates, alouette! Récemment, je travaillais avec un programmeur de plugin Vietnamien, qui m’a demandé les paramètres d’accès FTP, pour le compte sur lesquel est un de mes sites!
– finalement, il n’est pas toujours simple de faire migrer un site vers une version à date du CMS. Ce qui fait que plusieurs webmestres et clients retardent les mises à jour. Et comme ces mises à jour concernent souvent des améliorations au niveau de la sécurité, avec chaque jour qui passe qu’un système n’est pas mis à jour, ses chances qu’un hacker lui trouve une faille augmentent…

Moi

c’est un intéressant point de vue. Mais un site codé en dur peut difficilement rivaliser en fonctionnalité/coût et en intelligence avec celui développé par une foule de passionnés. Par ailleurs, même la CIA et le NSA sont en open sources.
et on s’entend que pour un site à vocation informationnelle ce n’est pas si critique

Interlocuteur

C’est comme pour le reste dans la vie, c’est toujours utile d’avoir des bons backups
Pis pour la CIA et la NSA, ils ont tout avantage à attirer les méchants qui viennent se jeter gratis dans leur bouche et ils ne manquent pas de ressources pour « patcher » et avoir du code « custom » non plus.

Moi

et attaché un client à qu’un seul fournisseur est aussi le peinturer dans l’coin

Interlocuteur

Oh, absolument. Ça dépends vraiment du but du site, les très cheaps ne valent pas le trouble et les assez gros peuvent se payer du code in-house. Les CMS sont idéaux tout le reste qui est entre ces deux extrèmes.

Y’a quand même l’exception des sites web qui sont vraiment bien codés, avec plein de commentaires dans le code etc… quand c’est bien fait, ce n’est pas si difficile à reprendre pour un autre codeur qui a les qualifications. Les clients ne sont alors pas si mal pris que ça. Et pour ce qui est des CMS, ça arrive aussi que c’est tellement mal foutu qu’il faille tout rebâtir de zéro. En fait, les CMS ne sont pas nécessairement une garantie que ce soit facile ou même juste possible de reprendre un projet par une autre équipe.

L’éternel débat : un CMS à code source ouvert ou codé en dur? Lire la suite »

BLOGROLL

Les blogues que j'estime
Les copains
Les copines
Les organisations auxquelles je participe
Mes autres présences Web
Mes clients (liste partielle)
Retour en haut