Les sept raisons d’aller à MCETECH

Depuis ses tout débuts, j’étais partenaire avec l’évènement MCETECH. J’ai fait partie du premier comité organisateur et j’ai développé une franche camaraderie avec le professeur Hafedh Mili, ce chercheur informatique de haut niveau et directeur du LATECE (Laboratoire de Recherche sur les Technologies du Commerce Électronique).

C’était une manière de me tenir à jour sur les dernières avancées technologiques, mais aussi d’échanger avec ces grands penseurs de l’informatique. D’ailleurs, plusieurs de mes anciens professeurs à la Maitrise en commerce électronique font partie de son comité scientifique. Mais c’était aussi l’occasion d’apprendre lors des divers ateliers qui y sont présentés. D’ailleurs, le 15 mai prochain, j’y donnerai l’atelier: Les stratégies de contenus sur les médias sociaux pour contrer l’inefficacité publicitaire.

Mais pour vous convaincre d’aller y faire un tour, j’ai demandé à Hafedh de me vendre MCETECH, comme si je n’y connaissais rien. Voici donc ce qu’il m’a envoyé :
(dont l’argument béton : Pas de discours de vente d’éditeurs de logiciels: on n’est pas un trade-show. :-) )

1) 4 jours d’activités variées ciblant décideurs, architectes, gestionnaires, développeurs, et chercheurs, intéressé(e)s par divers aspects des applications déployées sur Internet, avec une emphase sur les aspects informatique (architectures de déploiement, analyse de données, frameworks de développement d’applications web) et gestion (processus, marketing, CEM, CRM). Sans oublier la dimension sociale de la technologie, dont la cyberjustice (http://www.mcetech.org/workshops/cyberjustice.php), et les préoccupations liées au profilage et la confidentialité des données (http://www.mcetech.org/workshops/epersonas.php)

2) Pas de discours de vente d’éditeurs de logiciels: on n’est pas un trade-show. Que ce soit les chercheurs qui présentent les résultats de leurs dernières trouvailles, ou les présentateurs ou présentatrices de tutoriels (dont une célèbre consultante en stratégie de marketing internet), ils/elles donnent l’heure juste. Les conférences de recherche (voir http://www.mcetech.org/program.php) ont fait l’objet d’une sélection rigoureuse par un comité international de pairs (40 chercheurs, issus de 4 continents/14 pays, voir http://www.mcetech.org/committees.php).

3) Concernant les tutoriels, nous nous sommes efforcés de concocter un programme solide de 10 tutoriels couvrant divers aspects allant de la stratégie d’affaires (e.g. stratégies de contenus pour médias sociaux pour remédier à l’inefficacité publicitaire, alignement de BPM avec architecture d’entreprise, règles d’affaires, utilisation de RFID pour optimiser les processus en milieu hospitalier), à du savoir-faire portant des normes (accessibilité), architectures (applications mobiles), ou APIs (JHipster, Spring Boot, Netflix OSS, Big data 101 avec Python). Voir http://www.mcetech.org/workshops-tutorials.php

4) depuis sa fondation (2005), la série de congrès MCETECH s’est donné comme mission d’agir comme catalyseur d’innovation pour l’industrie TI Montréalaise et Québécoise, en faisant le pont entre la recherche et la pratique, de part l’offre d’activités destinées aux uns et aux autres, créant d’amples opportunités de réseautage. Pour cette sixième édition, MCETECH organise une activité de maillage industrie-chercheurs, parrainée par le Conseil de Recherches en Sciences Naturelles et en Génie (CRSNG, www.nserc-crsng.gc.ca). Cette activité vise à établir des relations entre, d’une part, des entreprises en TI ayant des problématiques en R&D ou des besoins d’innovation, et d’autre part, des chercheurs Canadiens (essentiellement Québécois/Montréalais et Ontariens/Outaouais) ayant des expertises pertinentes, et ce, pour résoudre ces problèmes par de la recherche collaborative financée, en bonne partie, par des fonds provinciaux/fédéraux. Cette activité, qui aura lieu le premier jour du congrès (12 mai) est gratuite pour les entreprises (mais les places sont limitées). Voir http://www.mcetech.org/workshops/networking.php

5) La série de congrès MCETECH (www.mcetech.org) est sans but lucratif, et s’appuie sur le travail de beaucoup de bénévoles pour maintenir des frais d’inscriptions bas (de l’ordre de 200 $/jour), allant des étudiantes et étudiants qui gèrent l’accueil et la logistique, aux divers présentateurs/conférenciers. Tout surplus budgétaire sert à payer des bourses aux étudiant(e)s impliqué(e)s.

6) une maudite bonne gang sympathique, où vous aurez la chance de nouer de nouveaux contacts, ou de retrouver d’anciens camarades de classe, ou des professeurs que vous avez peut-être eus à l’UQAM, l’UdeM, HEC, Polytechnique, Concordia, ETS, McGill, etc.

7) des forfaits d’inscription flexibles, permettant, entre autres, à deux personnes de la même organisation de se partager un passe à la conférence. voir http://www.mcetech.org/registration.php

Vive l’Ontario pour la réflexion numérique

J’ai de plus en plus de contrats me venant de notre province voisine l’Ontario. J’en suis très ravie et triste à la fois. Ça me fait grand plaisir de voir mon expertise de plus en plus en demande à l’extérieur du Québec, mais là ou le bât blesse, est que ce sont des mandats pour lesquels on ne se questionne pas encore, ou trop peu au Québec. Pire encore, si on se questionne là-dessus, on demande aux experts de faire ça « gratis ».

Voici deux exemples. En 2013 nous avions les états généraux sur l’enseignement supérieur. Tentez de retrouver des documents à ce propos sur Google, nous renvoit aux nombreux documents des divers groupes de pressions, syndicats et autre (comme celui de la Fédération des enseignantes et enseignants de CEGEP (CSQ) (PDF)). Pratiquement rien du côté gouvernemental. D’ailleurs, ces discussions tournaient autour « de la gratuité scolaire » plutôt que sur la question plus fondamentale de « comment le numérique bouleverse et bouleversera l’éducation » qui n’a pas été traité. C’est ce dont je discuterai demain à Toronto lors de l’évènement Les Tablettistes financé par le groupe MediaTFO. D’ailleurs, lors de ces fameux états généraux québécois, ceux qui y allaient y étaient gratuitement (sauf pour les fonctionnaires ou recteurs d’université qui de toute évidence étaient payés pour ça).

Par ailleurs, je viens de terminer la rédaction d’un rapport de recherche commandé et payé par les CALACS francophones d’Ottawa et financé par Condition féminine Canada. Ce rapport sera rendu public au mois de mai prochain. Il traite de la cyberagression sexuelle. Au même moment, mon propre gouvernement me demande de faire partie d’un comité d’experts qui se penche sur la cyberintimidation. Ce comité composé de sous-ministres, de fonctionnaires de haut niveau et de professeurs d’université, se rencontrera 6 jours complets. Seuls mes déplacements seraient payés. On me demande de faire du « pro bono ». Par principe, j’ai refusé. Pourtant, le premier ministre Couillard a décidé d’en faire une de ses priorités, comme il est indiqué sur le site du Parti Libéral :

Un geste d’intimidation, de violence ou de maltraitance est un geste de trop. Chaque personne doit pouvoir s’épanouir dans un environnement sain et sécuritaire. Chaque personne, quels que soient son âge, son sexe, son orientation sexuelle, son origine ethnique a droit à la dignité. Un gouvernement libéral fera de la lutte contre l’intimidation une priorité.

Méchante priorité?

Malgré cette « radinité » de mon propre gouvernement, j’ai accepté l’automne dernier de faire « du gratis » pour Le Forum des Idées du premier ministre. Depuis des années, je fais aussi « du gratis » en militant pour un plan numérique pour le Québec. Cependant, j’attends toujours impatiemment « la stratégie numérique » promise par le premier ministre. Entretemps, je prends connaissance de l’article Une cartographie de l’accès à Internet haute vitesse dans LesAffaires, je m’attriste que nous faisions partie du tiers monde internet et j’observe que trois des acteurs de la Commission Charbonneau touchent un million en honoraire, que la commission Robillard devrait coûter 3.8 millions et que le gouvernement dépense plusieurs milliards en services informatiques au Québec. Cependant, lorsqu’il est temps de se questionner sérieusement sur l’impact du numérique sur divers aspects de notre société, faut faire ça gratis!

J’aurais vraiment dû devenir avocate ou intégratrice en Technologie de l’information. Ça ne prépare certainement pas le futur, mais ça paye vraiment très bien le présent…

Les ratés de la personnalisation en ligne et la faiblesse de l’approche algorithmique

C’est en lisant Why Websites Still Can’t Predict Exactly What You Want de Harvard Business Review que ça m’a frappé. Les entreprises numériques ont encore bien des croûtes à manger avant d’avoir une personnalisation en ligne, digne de ce nom. Je vous en avais déjà parlé dans mon billet Certains ratés de la personnalisation numérique.

Toujours est-il que dans l’article de HBR, l’auteur met le doigt sur une possible explication de ces lacunes de personnalisation.

All that data and still an underwhelming result. What’s happening here? It seems that it’s a matter of how the companies position personalization. They regard it as a tool for upselling–they want to push us out of our comfort zone, to buy new things, and to buy more things. To achieve that goal, the companies can’t just look at one’s historical browsing or purchase patterns. Instead, data scientists look for traits in similar customers. When you position personalization this way, you build algorithms that are based on finding variables.

En effet, depuis l’avènement de « la filtration collaborative » d’Amazon, (c’est-à-dire ceux qui ont aimé ce produit ont aussi aimé tel, tel et tel autre produit, ce qui représente tout de même plus de 50% des ventes d’Amazon) les entreprises se sont confinés à l’analyse prédictive. Il s’agit donc d’une tentative d’upselling (concrétiser la 2e vente). Par contre, très peu, voire aucun effort n’est encore mis sur l’historique de consommation, ce que l’on nomme les données invariables. Comme l’auteur le mentionne, sur Amazon, si ça fait déjà quelques achats que je fais pour acquérir des souliers de grandeur 13WW, il y a de fortes chances que si je magasine encore des chaussures sur Amazon, ce le sera pour la même grandeur de chaussure. Pourtant, cette simple donnée invariable, qui améliorerait très sensiblement mon expérience usager en ligne, n’est toujours pas utilisée.

Pourquoi faire simple lorsqu’on peut faire compliqué?

C’est un peu la conclusion de l’auteur de l’article. Ce n’est pas sexy de travailler sans algorithme et il n’y a pas de valorisation pour les geeks qui les développe. Ça faciliterait par contre grandement la vie des clients internautes et les fidéliserait aussi sans doute à la marque

In short, these kinds of easy wins aren’t sexy enough for data scientists. And maybe they fear their effort would go unnoticed if we can get better personalization without teams of PhD’s spending three years to create hundreds of algorithms.
Data scientists are vital to the future economy and advanced algorithms are an extremely important part of their work. But from a market-facing perspective, simplicity and quick wins should be part of the data science toolbox.

La Stratégie numérique du Canada et la bonne blague du gouvernement Harper

Nous sommes encore loin d’un Plan numérique pour le Canada, mais au moins, industrie Canada sort finalement de sa torpeur numérique et accouche de sa Stratégie numérique pour le Canada (PDF). C’est déjà un départ et un pas dans la bonne direction. Cette initiative nommée « Canada numérique 150 », vise à concorder avec le 150e anniversaire de la confédération. C’est un peu, beaucoup de relations publiques politiques, mais disons que les objectifs énoncés, sont plutôt chétifs. Mais au moins, ils seront une amélioration à ce que nous avons déjà.

Par exemple, comme le mentionne Direction informatique, cette initiative repose sur cinq piliers.

Sous le pilier « Un Canada branché », le gouvernement du Canada regroupe des initiatives telles que l’élargissement de la portée de l’accès à Internet haute vitesse à plus de 98 % de la population, le développement de politiques relatives aux télécommunications mobiles et l’optimisation de l’utilisation des ondes sans fil publiques.

Le pilier « Un Canada protégé » chapeaute des initiatives qui portent sur la sécurité des transactions en ligne, la protection de la vie privée et la protection contre la cyberintimidation et les menaces en ligne.

Sous le pilier « Les possibilités économiques », Ottawa réunit des initiatives qui visent à faciliter l’utilisation des outils numériques par les entreprises, ainsi que le recours aux données volumineuses par les organisations et les gouvernements.

Le pilier « Le gouvernement numérique », de son côté, regroupe des initiatives dont le but est de faciliter l’accès en ligne aux services et à l’information de l’administration fédérale. Aussi, on y trouve des initiatives qui favorisent l’utilisation de données ouvertes gouvernementales pour améliorer le développement économique et la collaboration entre divers intervenants.

Enfin, le pilier « Le contenu canadien » réunit des initiatives qui faciliteront la production et l’accès au contenu numérique à caractère historique ou culturel.

La bonne blague du gouvernement Harper

Un Canada branché

Ce que définit Industrie Canada comme un Canada Branché est « accès à Internet haute vitesse à plus de 98 % de la population ». Or, comment définissent-ils cette haute vitesse? Pas 1000 MBPS comme le Kansas ou le Vermont, pas 100 MBPS comme les villes participant à l’initiative iCanada, non un gros 5MBPS et pour 98% de la population. Wow, une chance que je suis assise, car je crois bien que je tomberai renversée de cette vision du futur. D’ailleurs, à lire le site d’Industrie Canada, j’apprends que ma ville, Chertsey a DÉJÀ le 5MBPS???

Heureusement qu’ils rajoutent le nota bene plus bas

La couverture au sein d’une collectivité dépend de sa superficie, de la conception du réseau à large bande, de la topographie locale et d’autres facteurs. Dans certains cas, les fournisseurs de services Internet (FSI) ne parviendront pas à offrir le service à tous les foyers d’une collectivité désignée comme étant desservie.

Et nous jouirons de cette connectivité supersonique d’ici 2017, mais selon industrie Canada, vous en jouissez probablement déjà. Au moins le Ministre James Moore trouve les mots pour nous inspirer et présenter cette vision du futur

Le Canada a l’occasion de devenir un chef de file en cette nouvelle ère, mais le gouvernement a un rôle essentiel à jouer dans l’établissement, par des politiques publiques efficaces, des bonnes conditions pour encourager et aider les Canadiens à tirer pleinement profit des possibilités transformationnelles de l’avenir numérique. Voilà pourquoi le gouvernement a tracé une voie qui dote la population du pays des outils, des compétences et des protections nécessaires pour mettre à profit ces possibilités numériques.

Wow, je vais mieux dormir ce soir…

Dans un autre registre (mais en fait pour illustrer le même manque de vision, mais au provincial) dans l’article du journaliste Pierre Asselin dans Le Soleil Le cabinet analphabète on peut lire :

Ah oui, c’est vrai, le numérique.
Appelez ça comme vous voulez, technologies de l’information ou informatique, c’est le domaine qui transforme nos sociétés, mais ne cherchez pas de ministre responsable à Québec. Tout d’abord, ça n’intéresse pas nos députés. La plupart d’entre eux sont, à peu de choses près, analphabètes en ce domaine.
Il fut une époque où cette ignorance était pardonnable, mais elle est aujourd’hui inexcusable, au sein d’une administration qui se prétend moderne.
Le numérique est au coeur même du rôle de l’État. On a bien un ministère pour planifier, construire et entretenir nos routes. Pourquoi n’y en a-t-il pas un pour superviser notre infrastructure informatique? Pour définir les orientations et les politiques de l’État en cette matière?
L’État québécois manque cruellement de personnel spécialisé, cette expertise stratégique a été abandonnée aux firmes de consultants. Il y a des politiques à élaborer, pour appuyer le secteur privé comme le secteur public; des positions à prendre sur la neutralité d’Internet, la protection des renseignements et de la vie privée. Ce ne sont pas les défis qui manquent.

MAJ
Question de vous faire sourire (ou rager, c’est selon), voici un article du Wall Street Journal qui explique comment la Norvège ammène la très ahute vitesse dans le cercle polaire et qui a l’une des plus rapides connection internet de la planète In Bjørndalen, Norway, a Small Cabin Enjoys Some of the World’s Fastest Internet

Disons que les conseillers du ministre Moore ont encore des croûtes à manger…

#QC2014 Le poids des partis et des mots-clés sur les médias sociaux, le PQ en avance

Dans mon billet Les partis politiques et les chefs de partis sur le Web durant la campagne provinciale 2014, j’observais une très nette avance du PQ dans les recherches de Google avec GoogleTrends. Je concluais :

Réflexion prédictive
Les sondages donnent présentement le PLQ gagnant, mais si l’histoire se répète, le Web donne plutôt le PQ gagnant (ne disions-nous pas que Google est le catalogue des intentions). C’est d’ailleurs ce qui s’était passé avec le NPD lors de récentes élections fédérales…

Question de vérifier si c’est aussi le cas sur les médias sociaux, j’ai utilisé l’outil (encore en bêta) eListen d’engagmentLabs pour mesurer le poids des partis et de certains mots-clés de cette campagne électorale 2014 entre le 19 et le 26 mars 2014. Plusieurs observations m’étonnent.

Tout d’abord il apparait évident dans les tableaux deux et trois de la présentation suivante, que le feu de l’action conversationnelle électorale des médias sociaux se passe principalement sur Twitter.

Par ailleurs, si l’histoire récente de monitorage des médias sociaux est un bon indicateur de la tendance du vote le jour de l’élection (comme ça a été le cas pour la dernière élection fédérale avec GoogleTrends), on peut déjà donner le PQ gagnant, contrairement à ce que nous dit les sondages.

Dans les tableaux quatre, cinq et six suivant vous remarquerez que le PQ est deux fois plus discuté que le PLQ sur les médias sociaux. Vous remarquerez aussi que le mot-clic le plus utilisé de cette campagne est PKP et Péladeau qui à eux seul, récoltent 22% de toutes les mentions. C’est dire à quel point sa participation à cette élection a fait jaser et à quel point les enjeux comme la santé ou l’éducation sont absents.

Ça me fait dire sur mes propres médias sociaux

#Jeudiconfession suis TELLEMENT triste de cette campagne électorale vide d’idée et pleine de bouette focussée strictement sur les chefs

Sites internationaux, de commerce en ligne ou touristique et contenus dupliqués

Comme vous le savez sans doute déjà les engins de recherches et Google en particulier, n’aiment pas les contenus dupliqués qui sont associés aux polluposteurs et content scraper (copieurs de contenus web). Leurs algorithmes punissent donc sévèrement les sites qui sont perçus à tort, ou à raison, comme étant de vils copieurs de contenus.

J’ai un client particulier qui fait du commerce en ligne à la grandeur de l’Amérique et pour qui je devais rédiger un appel d’offres. J’ai aussi un autre client dont l’architecture particulière permet de présenter son offre selon différentes requêtes possibles. Ses pages se présenteront donc selon différentes URL des requêtes des engins de recherches du site.

Mon client qui fait du commerce en ligne aura un site francophone avec un TLD .ca, un site anglophone dédié au Canada avec un TLD .com et un site américain dédié aux États-Unis avec un TLD .US. Le contenu de chacun de ces sites sera le même, avec une version francophone pour le Québec et quelques particularités de paiements et de géolocalisation différentes pour les États-Unis. Mais pour le reste, les contenus seront identiques. J’ai aussi un client touristique qui aura un site avec différentes manières de présenter son même contenu. On pourra voir par exemple les hôtels par étoiles, par zone géographique ou par prix. Chacun des hôtels aura sa page propre avec son propre contenu. Mais en fonction des requêtes, une URL spécifique sera créée pour, disons les hôtels 3 étoiles, mais ces nouvelles pages présenteront le même contenu que chacune des pages spécifiques de chaque hôtel.

Comment donc résoudre les problématiques de contenus dupliqués sans être pénalisés par les engins de recherche?

Pour les sites internationaux, Google comprends qu’il est pratiquement inévitable que le contenu soir dupliqué. Mais les machines (les robots) n’ont pas toujours le réflexe de comprendre les aléas d’une présence internationale. De le spécifier dans l’outil Webmaster tool, va assurer qu’il n’y a pas de quiproquo technologique disons.

Aspects techniques
Vous devrez utiliser l’élément « rel=“canonical” link » dans l’outil pour webmestre de Google et sur les différents sites. Dans l’exemple de mon client international cité plus haut, l’URL canonique sera celle du Canada avec le .com les autres URL seront donc les URL alternatives.

Il faudra aussi coder le rel= »alternate » hreflang= »x » tel qu’expliqué dans la notice aux webmestres de Google https://support.google.com/webmasters/answer/189077 afin d’indiquer quelle est la langue spécifique de chacune des URL. Dans mon exemple, nous dirions que pour l’URL .com, les versions dans les langues alternativesseraient: fr-ca et en-us

De plus, il faut cibler la bonne géolocalisation pour chaque URL dans le webmaster tools: https://support.google.com/webmasters/answer/62399

Finalement, d’héberger chacun des sites localement, augmentera sensiblement sa visibilité dans les résultats des engins de recherches, pour les recherches locales.

Pour mon autre client touristique qui a des pages dynamiques résultantes d’une requête de l’engin de recherche ou de la duplication possible des contenus à cause de catégorisations différentes de ces mêmes contenus, il faudra suivre les indications et suggestions présentées par econsultancy dans l’article How to avoid duplicate content issues in ecommerce. Comme cet article est assez technique et tout à fait complet, je vous suggère fortement de le lire et de le mettre en application :-)

MAJ

Ce billet a été rendu possible grâce à l’aide et l’expertise des spécialistes de l’analytique et du référencement de WAO Marketing et d’Orénoque. Un merci particulier à jacques Warren et Louis Durocher.

#Charte Analyse des sentiments exprimés sur les médias sociaux à propos de la Charte des valeurs

Mise en contexte :

Comme vous le savez déjà, je me suis exprimée pour La charte des valeurs québécoises et je faisais partie des 20 Janette qui ont signé la lettre de Madame Janette Bertrand, qui elle-même a généré un mouvement massif d’appui populaire.

Mais cela étant dit, ça ne m’empêche pas d’être « neutre » et « objective » lorsque vient le temps d’analyser ce qui s’est dit sur les médias sociaux. Par ailleurs, l’analyse que je vous partage plus bas a été réalisée par deux collaborateurs d’importance, qui n’ont aucun enjeu personnel ou corporatif avec les discussions autour de la Charte. Il s’agit de SAS Canada (client de longue date et SAS est le pionnier de l’analyse de données et de l’analyse prédictive) et de Inbox, entreprise française spécialiste de la connaissance clients et usagers et du big data également implantée au Canada et ayant développé un complexe algorithme sémantique francophone permettant de faire de l’analyse de sentiment en français (ce qui est très rare parce que la majorité des outils disponibles sont anglophones et n’ont pas la capacité d’analyse de sentiments et du prédictif).

SAS Canada et Inbox ont l’habitude de travailler entre-autres avec des grosses boîtes financières, d’assurances ou de commerce de détail, de médias internationaux et du secteur public. Ce sont eux entre autres qui font de la détection de fraude par l’analyse de très grands volumes de contenus (Big Data) pour les cartes de crédit ou les assurances. Grâce à sa technologie, Inbox a été la première source à identifier la fin de la récession en France, deux semaines avant tout le monde. Tout ça pour vous dire que lors d’une discussion avec SAS et Inbox sur la difficulté d’expliquer l’importance du « big data » à des clients potentiels (parce que ce n’est pas sexy) je leur propose d’utiliser leur technologie pour un sujet chaud de l’heure (comme la charte des valeurs québécoises). Ainsi, les gestionnaires pourront facilement comprendre en extrapolant, comment eux-mêmes pourraient bénéficier de la compréhension de ce qui se dit sur les médias sociaux, pour leur propre organisation. Voici donc le rapport d’analyse de SAS Canada/Inbox sur les discussions sur les médias sociaux à propos de la charte des valeurs.

Pour comprendre les graphiques

Voici une analyse de sentiment « Big Data » de différents thèmes discuté sur les médias sociaux (Facebook, Twitter, blogue) à propos de la Charte des valeurs québécoises. Remarquez en abscisse « LE VOLUME DES MESSAGES » et en ordonnée « L’INDICE DE POSITIVITÉ DU MESSAGE » qui est aussi appelé « analyse de sentiment. Ceci est une version préliminaire de l’analyse, qui est toujours en cour. Étant donné que le projet de loi du PQ risque d’être déposé dans les prochains jours, un grand volume de commentaires continuera d’alimenter les discussions médias sociales. Pour comprendre comment se fait l’analyse de sentiment, je vous dirai qu’avec l’algorithme d’Inbox un terme comme « crise » contiendra 1000 paramètres différents afin de déterminer le contexte de ce mot spécifique et de savoir si on parle par exemple « d’une crise économique » ou si plutôt « il a pété une crise ». Leur analyse de sentiment est donc fiable à 85% et la marge d’erreur est la même pour tous. Aussi, si par exemple un twitt parle de Dalila Awada et qu’il contient un hyperlien vidéo, comme l’hyperlien et le vidéo ne seront pas analysés, ce ne sera que le contenu de la mise en contexte précédant l’hyperlien qui sera pris en compte.

Le corpus

Les sources suivantes ont été analysées:
• Twitter
• Facebook
• Forum Yahoo
• JM : Journal du Montréal avec 3 sous-forums:
http://blogues.journaldemontreal.com/politique/,
http://blogues.journaldemontreal.com/droitdecite/,
http://www.journaldemontreal.com/auteur/richard-martineau )
• LP : LaPresse avec 3 sous-forums :
http://blogues.lapresse.ca/boisvert,
http://blogues.lapresse.ca/edito,
http://blogues.lapresse.ca/avenirmtl )

Mon analyse

J’attire votre attention sur les diapositives 3, 4 et 5. Vous remarquez qu’elles sont des portraits des discussions médias sociaux des 14, 21 et 31 novembre octobre. Vous remarquerez sans doute aussi qu’au 14 octobre, la majorité des mots clés, personnalités et organisations associés au débat de la charte sont perçus très négativement. Par contre, après le 21 octobre, ces mêmes termes (en plus de celui de # Janette qui commence à apparaitre), font passer plusieurs mots du côté positif. Vous remarquerez aussi qu’étrangement, Charles Taylor est vu plus négativement qu’Adil Charkaoui, mais que son collègue Gérard Bouchard jouit d’une négativité beaucoup moins grande. Vous observerez sans doute aussi que le Conseil du Statut de la femme est l’entité la plus méprisée et que la CQCI est l’organisation qui récolte la plus positive des mentions sur les médias sociaux, mais vous observerez que le volume des messages qui y est associé est somme toute insignifiant comparativement aux Janette par exemple. Observez aussi que Les Anti-Charte et les pro-charte sont tous deux du côté négatif des discussions, que le volume des discussions est somme toute équivalent, mais que les pro-charte sont beaucoup moins détestées que les anti-charte. Finalement, les inclusives ont 10 fois moins de mentions que les Janette, et elles sont à peine perçues plus positivement que les Janette et elles sont toutes deux du côté positif des discussions. Je pourrais continuer de vous faire mes observations, mais vous comprenez sans doute maintenant le principe et je ferai cette discussion de vive voix la semaine prochaine lors d’une conférence au Salon BI. Donc bonne lecture et bonne analyse ☺

 

MAJ

Ce billet a été repris intégralement par le HuffingtonPost

L’éternel débat : un CMS à code source ouvert ou codé en dur?

Hier j’ai partagé le statut suivant sur les médias sociaux :

Passer la journée à interviewer des fournisseurs web suite à un appel d’offres avec un client = On a de la belle expertise au Québec

Or, dans ma messagerie Facebook, une connaissance qui s’adonne à être développeur, me fit parvenir ce message et une discussion s’en suivit :

Interlocuteur

Il me semble que tu as discuté de l’avantage des CMS par rapport à des sites codés entièrement à la main…
Je ne sais pas si j’ai contribué à ce sujet, ni tes conclusions. Mais j’ai quelques remarques à ce sujet, rafraichies par une expérience que j’ai vécu ajourd’hui, est-ce que ça t’intéresse ?

Moi

Oui pourquoi pas

Interlocuteur

Désolé pour la longueur, c’est pour ça que j’ai demandé avant
Aujourd’hui, j’ai un autre exemple sous la main: les sites avec CMS se font hacker comme c’est pas permis.
Je dois bien avoir programmé et/ou supervise pas loin d’une centaine de sites web, dont une vingtaine qui sont sur des CMS, particulièrement Joomla, mais aussi Drupal, WordPress et SPIP.
Jusqu’à présent, à ma connaissance, aucun des sites programmés entièrement à la main n’a été hacké. Versus _tous_ les sites sur CMS, dont certains plusieurs fois.
Je crois que c’est dû à différents facteurs :
– c’est plus facile de trouver des failles dans le code des CMS, que dans le code d’un site fait « à la main », car le code des CMS est accesible publiquement et gratuitement, pas celui développé juste pour un site.
– comme pour les virus pour Mac vs Windows, plus une plateforme est répandue, plus c’est plus « payant » soit en « bragging rights », soit en dollars, selon les intentions du hacker de trouver des failles exploitables. Si un hacker trouve une faille dans un de mes sites « fait main », ce sera dommage pour moi, mais aussi pour lui, car il n’aura trouvé la « clé sous le paillasson » pour un seul site. Alors que s’il trouve une faille dans un CMS, c’est « bonjour la visite! ».
– les CMS utilisent des plugins et des « Templates » qui sont parfois de provenance douteuse. Il est très difficile de tout vérifier ce code pour des « backdoors » et autres failles exploitables même si en théorie la « communauté » veille au grain, il en passe toujours entre les mailles du filet. Pas simple non plus de le garder à jour ces plugins, surtout qu’il y a une forte rotation, chez les auteurs de ces plugins, extensions, modules, templates, alouette! Récemment, je travaillais avec un programmeur de plugin Vietnamien, qui m’a demandé les paramètres d’accès FTP, pour le compte sur lesquel est un de mes sites!
– finalement, il n’est pas toujours simple de faire migrer un site vers une version à date du CMS. Ce qui fait que plusieurs webmestres et clients retardent les mises à jour. Et comme ces mises à jour concernent souvent des améliorations au niveau de la sécurité, avec chaque jour qui passe qu’un système n’est pas mis à jour, ses chances qu’un hacker lui trouve une faille augmentent…

Moi

c’est un intéressant point de vue. Mais un site codé en dur peut difficilement rivaliser en fonctionnalité/coût et en intelligence avec celui développé par une foule de passionnés. Par ailleurs, même la CIA et le NSA sont en open sources.
et on s’entend que pour un site à vocation informationnelle ce n’est pas si critique

Interlocuteur

C’est comme pour le reste dans la vie, c’est toujours utile d’avoir des bons backups
Pis pour la CIA et la NSA, ils ont tout avantage à attirer les méchants qui viennent se jeter gratis dans leur bouche et ils ne manquent pas de ressources pour « patcher » et avoir du code « custom » non plus.

Moi

et attaché un client à qu’un seul fournisseur est aussi le peinturer dans l’coin

Interlocuteur

Oh, absolument. Ça dépends vraiment du but du site, les très cheaps ne valent pas le trouble et les assez gros peuvent se payer du code in-house. Les CMS sont idéaux tout le reste qui est entre ces deux extrèmes.

Y’a quand même l’exception des sites web qui sont vraiment bien codés, avec plein de commentaires dans le code etc… quand c’est bien fait, ce n’est pas si difficile à reprendre pour un autre codeur qui a les qualifications. Les clients ne sont alors pas si mal pris que ça. Et pour ce qui est des CMS, ça arrive aussi que c’est tellement mal foutu qu’il faille tout rebâtir de zéro. En fait, les CMS ne sont pas nécessairement une garantie que ce soit facile ou même juste possible de reprendre un projet par une autre équipe.

Ces fournisseurs web qui crossent les clients

Il m’arrive fréquemment de rencontrer des organisations qui se font solidement flouer par des fournisseurs web. À chaque fois, lorsque je parle d’une fourchette de prix et d’un échéancier, le client me regarde médusés. Malheureusement pour eux, ils ne connaissent pas grand-chose au web et ont fait confiance indument à des fournisseurs web ou à leur service TI interne, qui, sentant la bonne affaire, se sont rempli les poches à leur dépend. Ces jours-ci, je rencontre (encore) deux organisations qui se sont fait solidement avoir.

La première est une entrepreneure indépendante, mais qui a un très beau chiffre d’affaires hors web. Il y a 18 mois, elle a donné son aval pour avoir un site transactionnel. Le coût de ce site a été vendu $30K. Ce qui est déjà correct pour le genre de site que ma cliente veut. Je suis certaine qu’elle pourrait avoir ça pour $20K, mais disons que le $30K a de l’allure. Le problème est que 12 mois après avoir fait son chèque de dépôt de $10K, elle n’a toujours pas de site. Elle avait engagé une personne à l’interne pour gérer ses stocks qu’elle a augmentés pour les mètres en ligne, et pour se préparer à l’entrée de l’entreprise en ligne. Mais six mois plus tard, se rendant à l’évidence, elle dut renvoyer son employé. Elle décide de mettre un terme à l’entente avec le fournisseur qui lui réclame un autre $10K pour le travail (soi-disant fait) qui 18 mois plus tard, n’est toujours pas livré.

Un autre client est une association internationale. Il y a 5 ans, comme ils ont été fondés et sont financés par une plus grosse organisation encore, celle-ci décida de faire « une preuve de concept » avec le site web de l’association et contracta un fournisseur web pour leur faire un site web. La facture d’élève à $170K pour un site de 50 pages et 1000 membres associatifs à gérer. Ce site comporte une section de gestion des membres et un outil d’envoi d’infolettre sont tous deux des fonctionnalités « propriétaire » au fournisseur web. Le CMS utilisé est Sitecore et les employés de l’association ne peuve que très difficilement utilise celui-ci et cinq ans plus tard, après avoir payé un$13K par année pour les diverses licences de Sitecore et des outils propriétaire du fournisseur, ils n’en peuvent plus de s’être peinturé dans un coin avec des outils qui ne correspondent vraiment pas à leur besoin et qui leur a coûté la peau des fesses. Même que cette association paye un autre fournisseur externe pour gérer ses envois d’infolettre à un autre $2500 annuels. C’est donc un méchant micmac. Lors de ma réunion avec eux, je leur dis que le nouveau site qui devrait coûter $30K, devrait être en ligne dans plus ou moins 3 mois. Ils n’en reviennent pas. Le dernier site a pris un an avant d’être en ligne. Pour 50 pages…

La réaction commune de ces clients en est une de honte. Ils croient être les seuls au monde à s’être fait avoir de la sorte. Je les rassure et leur dit que malheureusement, ils ne sont pas les seuls à avoir vécu ce type d’expérience. J’en parlais encore récemment dans mes billets La tristesse de devoir mettre les points sur les « i » à un entrepreneur, Ces fournisseurs Web qui font de l’arnaque, Les paradoxes néfastes d’une enquête sur la collusion/corruption en TI au Québec, Des projets d’intégration au gouvernement du Québec, de CGI et de l’absence d’usage des Web services et bien d’autres encore.

Malheureusement, il n’y a pas d’ordre professionnel des spécialistes du web (ou des TI et au gouvernemental on parle de crosse de plusieurs centaines de millions), il n’y a pas de registre d’entreprises qui savent de quoi ils parlent et le décisionnel est souvent laissé à lui-même à prendre des décisions importantes sur des sujets qu’il ne connait pas. Pire encore, bien des fournisseurs se font un malin plaisir à enrober leur « bullshit » de termes techniques réels ou inventés afin de subjuguer davantage le client.

Lorsque je suis témoin de telles histoires d’horreurs, ça me révolte, mais étant donné la confidentialité de mes dossiers, je vous en parle ici sans vous nommer mes clients ou leur crosseur de fournisseurs…

 
MAJ
Aux âmes sensibles qui n’aiment pas le mot « crosseur », je vous invite à lire ou à relire ATTENTION et MISE EN GARDE: Ce blogue peut être dangereux et nocif pour vous!

Pour les potes d’outre-mare, voici la définition du québécisme crosseur :
Québec) (En particulier) (Péjoratif) Personne malhonnête, escroc, menteur. (rare au féminin)

WordPress, est-ce réellement solide pour de gros sites web?

J’ai un client qui est en train de mettre sur pied un site web international dans le domaine de la beauté. Les prévisions sont qu’à terme, plusieurs dizaines, voire centaines de milliers de visiteurs, navigueront sur celui-ci chaque jour. Or dans le processus d’analyse des besoins avec ce client, je lui parle de WordPress comme d’une plate-forme possible pour son site web. Or, un fournisseur technologique lui fait valoir que WordPress ce n’est que pour de petits blogues et qu’il ne pourra pas accueillir un flot de visiteurs très élevé. Mon client me raconte donc les dires de ce fournisseur. De toute évidence je sursaute et suis surprise d’une telle perception.

 

Il est évident que WordPress a d’abord été connu et reconnu comme la plate-forme de blogue la plus utilisé dans le monde. Mais encore peu de gens savent que c’est aussi un très, mais là vraiment très robuste CMS (content management system). C’est d’ailleurs une plate-forme utilisée par des entreprises telles que (Via la Fabrique de blogues)

 

Médias
– CNN
– New York Times
– Le Monde
– La Presse
– CBS
– Time
– Owni
– L’actualité
– ONF
– TED
– The bangor Daily News
– The New York Observer
– Radio Okapi
– Radio Canada
– Wall Street Journal
– Wired
– TechCrunch
– GigaOm
– BoingBoing
– Forbes

Entreprises
– Ebay
– Flickr
– Yahoo!
– Ford
– Sony
– GE
– Samsung
– UPS
– VW
– GM
– Moment Factory

Éducation
– HEC Montréal
– CSDM
– Mc Gill
– MIT
– Harvard
– Cornell
– Berkeley

 

Disons que si cette plate-forme n’est pas capable de prendre un gros flot de visiteurs, certaines des plus grosses propriétés web de la planète sont dans le gros trouble. Dans son billet, la Fabrique de blogs parle aussi de Some of the world’s biggest brands and industries rely on WordPress.com. Disons que ça devrait mettre un bouchon définitif sur la trappe des incrédules. Par ailleurs, on se souviendra que le site web de l’Assemblée nationale avait couté 3,5 millions. Louis Durocher d’Orenoque, spécialiste en référencement avait analysé le site (PDF) lui donnant une note de 68%. Hormis le fait que « 3.5 millions c’est de la grosse argent en mautadit », il me semble que si le gouvernement avait choisi WordPress comme plate-forme, plutôt que la technologie propriétaire de la firme NStein, en plus de faire potentiellement des économies substantielles, le score de référencement aurait sans doute été encore plus performant, WordPress étant reconnue comme l’une des plates-formes les plus perméables aux engins de recherches. Vous pouvez d’ailleurs visiter la page dédiée aux sites gouvernementaux qui sont sous WordPress.

 

Finalement, vous serez sans doute surpris d’apprendre que selon W3techs.com, WordPress a maintenant 54.7% des parts de marchés mondiales.

 

MAJ

Comme on me le mentionne en commentaire, WordPress a aussi un service VIP pour ses clients qui demandent un service encore plus robuste. Voici encore une autre liste de ses prestigieux usagers dont CNN http://vip.wordpress.com/clients/