La Stratégie numérique du Canada et la bonne blague du gouvernement Harper

Nous sommes encore loin d’un Plan numérique pour le Canada, mais au moins, industrie Canada sort finalement de sa torpeur numérique et accouche de sa Stratégie numérique pour le Canada (PDF). C’est déjà un départ et un pas dans la bonne direction. Cette initiative nommée « Canada numérique 150 », vise à concorder avec le 150e anniversaire de la confédération. C’est un peu, beaucoup de relations publiques politiques, mais disons que les objectifs énoncés, sont plutôt chétifs. Mais au moins, ils seront une amélioration à ce que nous avons déjà.

Par exemple, comme le mentionne Direction informatique, cette initiative repose sur cinq piliers.

Sous le pilier « Un Canada branché », le gouvernement du Canada regroupe des initiatives telles que l’élargissement de la portée de l’accès à Internet haute vitesse à plus de 98 % de la population, le développement de politiques relatives aux télécommunications mobiles et l’optimisation de l’utilisation des ondes sans fil publiques.

Le pilier « Un Canada protégé » chapeaute des initiatives qui portent sur la sécurité des transactions en ligne, la protection de la vie privée et la protection contre la cyberintimidation et les menaces en ligne.

Sous le pilier « Les possibilités économiques », Ottawa réunit des initiatives qui visent à faciliter l’utilisation des outils numériques par les entreprises, ainsi que le recours aux données volumineuses par les organisations et les gouvernements.

Le pilier « Le gouvernement numérique », de son côté, regroupe des initiatives dont le but est de faciliter l’accès en ligne aux services et à l’information de l’administration fédérale. Aussi, on y trouve des initiatives qui favorisent l’utilisation de données ouvertes gouvernementales pour améliorer le développement économique et la collaboration entre divers intervenants.

Enfin, le pilier « Le contenu canadien » réunit des initiatives qui faciliteront la production et l’accès au contenu numérique à caractère historique ou culturel.

La bonne blague du gouvernement Harper

Un Canada branché

Ce que définit Industrie Canada comme un Canada Branché est « accès à Internet haute vitesse à plus de 98 % de la population ». Or, comment définissent-ils cette haute vitesse? Pas 1000 MBPS comme le Kansas ou le Vermont, pas 100 MBPS comme les villes participant à l’initiative iCanada, non un gros 5MBPS et pour 98% de la population. Wow, une chance que je suis assise, car je crois bien que je tomberai renversée de cette vision du futur. D’ailleurs, à lire le site d’Industrie Canada, j’apprends que ma ville, Chertsey a DÉJÀ le 5MBPS???

Heureusement qu’ils rajoutent le nota bene plus bas

La couverture au sein d’une collectivité dépend de sa superficie, de la conception du réseau à large bande, de la topographie locale et d’autres facteurs. Dans certains cas, les fournisseurs de services Internet (FSI) ne parviendront pas à offrir le service à tous les foyers d’une collectivité désignée comme étant desservie.

Et nous jouirons de cette connectivité supersonique d’ici 2017, mais selon industrie Canada, vous en jouissez probablement déjà. Au moins le Ministre James Moore trouve les mots pour nous inspirer et présenter cette vision du futur

Le Canada a l’occasion de devenir un chef de file en cette nouvelle ère, mais le gouvernement a un rôle essentiel à jouer dans l’établissement, par des politiques publiques efficaces, des bonnes conditions pour encourager et aider les Canadiens à tirer pleinement profit des possibilités transformationnelles de l’avenir numérique. Voilà pourquoi le gouvernement a tracé une voie qui dote la population du pays des outils, des compétences et des protections nécessaires pour mettre à profit ces possibilités numériques.

Wow, je vais mieux dormir ce soir…

Dans un autre registre (mais en fait pour illustrer le même manque de vision, mais au provincial) dans l’article du journaliste Pierre Asselin dans Le Soleil Le cabinet analphabète on peut lire :

Ah oui, c’est vrai, le numérique.
Appelez ça comme vous voulez, technologies de l’information ou informatique, c’est le domaine qui transforme nos sociétés, mais ne cherchez pas de ministre responsable à Québec. Tout d’abord, ça n’intéresse pas nos députés. La plupart d’entre eux sont, à peu de choses près, analphabètes en ce domaine.
Il fut une époque où cette ignorance était pardonnable, mais elle est aujourd’hui inexcusable, au sein d’une administration qui se prétend moderne.
Le numérique est au coeur même du rôle de l’État. On a bien un ministère pour planifier, construire et entretenir nos routes. Pourquoi n’y en a-t-il pas un pour superviser notre infrastructure informatique? Pour définir les orientations et les politiques de l’État en cette matière?
L’État québécois manque cruellement de personnel spécialisé, cette expertise stratégique a été abandonnée aux firmes de consultants. Il y a des politiques à élaborer, pour appuyer le secteur privé comme le secteur public; des positions à prendre sur la neutralité d’Internet, la protection des renseignements et de la vie privée. Ce ne sont pas les défis qui manquent.

MAJ
Question de vous faire sourire (ou rager, c’est selon), voici un article du Wall Street Journal qui explique comment la Norvège ammène la très ahute vitesse dans le cercle polaire et qui a l’une des plus rapides connection internet de la planète In Bjørndalen, Norway, a Small Cabin Enjoys Some of the World’s Fastest Internet

Disons que les conseillers du ministre Moore ont encore des croûtes à manger…

#QC2014 Le poids des partis et des mots-clés sur les médias sociaux, le PQ en avance

Dans mon billet Les partis politiques et les chefs de partis sur le Web durant la campagne provinciale 2014, j’observais une très nette avance du PQ dans les recherches de Google avec GoogleTrends. Je concluais :

Réflexion prédictive
Les sondages donnent présentement le PLQ gagnant, mais si l’histoire se répète, le Web donne plutôt le PQ gagnant (ne disions-nous pas que Google est le catalogue des intentions). C’est d’ailleurs ce qui s’était passé avec le NPD lors de récentes élections fédérales…

Question de vérifier si c’est aussi le cas sur les médias sociaux, j’ai utilisé l’outil (encore en bêta) eListen d’engagmentLabs pour mesurer le poids des partis et de certains mots-clés de cette campagne électorale 2014 entre le 19 et le 26 mars 2014. Plusieurs observations m’étonnent.

Tout d’abord il apparait évident dans les tableaux deux et trois de la présentation suivante, que le feu de l’action conversationnelle électorale des médias sociaux se passe principalement sur Twitter.

Par ailleurs, si l’histoire récente de monitorage des médias sociaux est un bon indicateur de la tendance du vote le jour de l’élection (comme ça a été le cas pour la dernière élection fédérale avec GoogleTrends), on peut déjà donner le PQ gagnant, contrairement à ce que nous dit les sondages.

Dans les tableaux quatre, cinq et six suivant vous remarquerez que le PQ est deux fois plus discuté que le PLQ sur les médias sociaux. Vous remarquerez aussi que le mot-clic le plus utilisé de cette campagne est PKP et Péladeau qui à eux seul, récoltent 22% de toutes les mentions. C’est dire à quel point sa participation à cette élection a fait jaser et à quel point les enjeux comme la santé ou l’éducation sont absents.

Ça me fait dire sur mes propres médias sociaux

#Jeudiconfession suis TELLEMENT triste de cette campagne électorale vide d’idée et pleine de bouette focussée strictement sur les chefs

Sites internationaux, de commerce en ligne ou touristique et contenus dupliqués

Comme vous le savez sans doute déjà les engins de recherches et Google en particulier, n’aiment pas les contenus dupliqués qui sont associés aux polluposteurs et content scraper (copieurs de contenus web). Leurs algorithmes punissent donc sévèrement les sites qui sont perçus à tort, ou à raison, comme étant de vils copieurs de contenus.

J’ai un client particulier qui fait du commerce en ligne à la grandeur de l’Amérique et pour qui je devais rédiger un appel d’offres. J’ai aussi un autre client dont l’architecture particulière permet de présenter son offre selon différentes requêtes possibles. Ses pages se présenteront donc selon différentes URL des requêtes des engins de recherches du site.

Mon client qui fait du commerce en ligne aura un site francophone avec un TLD .ca, un site anglophone dédié au Canada avec un TLD .com et un site américain dédié aux États-Unis avec un TLD .US. Le contenu de chacun de ces sites sera le même, avec une version francophone pour le Québec et quelques particularités de paiements et de géolocalisation différentes pour les États-Unis. Mais pour le reste, les contenus seront identiques. J’ai aussi un client touristique qui aura un site avec différentes manières de présenter son même contenu. On pourra voir par exemple les hôtels par étoiles, par zone géographique ou par prix. Chacun des hôtels aura sa page propre avec son propre contenu. Mais en fonction des requêtes, une URL spécifique sera créée pour, disons les hôtels 3 étoiles, mais ces nouvelles pages présenteront le même contenu que chacune des pages spécifiques de chaque hôtel.

Comment donc résoudre les problématiques de contenus dupliqués sans être pénalisés par les engins de recherche?

Pour les sites internationaux, Google comprends qu’il est pratiquement inévitable que le contenu soir dupliqué. Mais les machines (les robots) n’ont pas toujours le réflexe de comprendre les aléas d’une présence internationale. De le spécifier dans l’outil Webmaster tool, va assurer qu’il n’y a pas de quiproquo technologique disons.

Aspects techniques
Vous devrez utiliser l’élément « rel=“canonical” link » dans l’outil pour webmestre de Google et sur les différents sites. Dans l’exemple de mon client international cité plus haut, l’URL canonique sera celle du Canada avec le .com les autres URL seront donc les URL alternatives.

Il faudra aussi coder le rel= »alternate » hreflang= »x » tel qu’expliqué dans la notice aux webmestres de Google https://support.google.com/webmasters/answer/189077 afin d’indiquer quelle est la langue spécifique de chacune des URL. Dans mon exemple, nous dirions que pour l’URL .com, les versions dans les langues alternativesseraient: fr-ca et en-us

De plus, il faut cibler la bonne géolocalisation pour chaque URL dans le webmaster tools: https://support.google.com/webmasters/answer/62399

Finalement, d’héberger chacun des sites localement, augmentera sensiblement sa visibilité dans les résultats des engins de recherches, pour les recherches locales.

Pour mon autre client touristique qui a des pages dynamiques résultantes d’une requête de l’engin de recherche ou de la duplication possible des contenus à cause de catégorisations différentes de ces mêmes contenus, il faudra suivre les indications et suggestions présentées par econsultancy dans l’article How to avoid duplicate content issues in ecommerce. Comme cet article est assez technique et tout à fait complet, je vous suggère fortement de le lire et de le mettre en application :-)

MAJ

Ce billet a été rendu possible grâce à l’aide et l’expertise des spécialistes de l’analytique et du référencement de WAO Marketing et d’Orénoque. Un merci particulier à jacques Warren et Louis Durocher.

#Charte Analyse des sentiments exprimés sur les médias sociaux à propos de la Charte des valeurs

Mise en contexte :

Comme vous le savez déjà, je me suis exprimée pour La charte des valeurs québécoises et je faisais partie des 20 Janette qui ont signé la lettre de Madame Janette Bertrand, qui elle-même a généré un mouvement massif d’appui populaire.

Mais cela étant dit, ça ne m’empêche pas d’être « neutre » et « objective » lorsque vient le temps d’analyser ce qui s’est dit sur les médias sociaux. Par ailleurs, l’analyse que je vous partage plus bas a été réalisée par deux collaborateurs d’importance, qui n’ont aucun enjeu personnel ou corporatif avec les discussions autour de la Charte. Il s’agit de SAS Canada (client de longue date et SAS est le pionnier de l’analyse de données et de l’analyse prédictive) et de Inbox, entreprise française spécialiste de la connaissance clients et usagers et du big data également implantée au Canada et ayant développé un complexe algorithme sémantique francophone permettant de faire de l’analyse de sentiment en français (ce qui est très rare parce que la majorité des outils disponibles sont anglophones et n’ont pas la capacité d’analyse de sentiments et du prédictif).

SAS Canada et Inbox ont l’habitude de travailler entre-autres avec des grosses boîtes financières, d’assurances ou de commerce de détail, de médias internationaux et du secteur public. Ce sont eux entre autres qui font de la détection de fraude par l’analyse de très grands volumes de contenus (Big Data) pour les cartes de crédit ou les assurances. Grâce à sa technologie, Inbox a été la première source à identifier la fin de la récession en France, deux semaines avant tout le monde. Tout ça pour vous dire que lors d’une discussion avec SAS et Inbox sur la difficulté d’expliquer l’importance du « big data » à des clients potentiels (parce que ce n’est pas sexy) je leur propose d’utiliser leur technologie pour un sujet chaud de l’heure (comme la charte des valeurs québécoises). Ainsi, les gestionnaires pourront facilement comprendre en extrapolant, comment eux-mêmes pourraient bénéficier de la compréhension de ce qui se dit sur les médias sociaux, pour leur propre organisation. Voici donc le rapport d’analyse de SAS Canada/Inbox sur les discussions sur les médias sociaux à propos de la charte des valeurs.

Pour comprendre les graphiques

Voici une analyse de sentiment « Big Data » de différents thèmes discuté sur les médias sociaux (Facebook, Twitter, blogue) à propos de la Charte des valeurs québécoises. Remarquez en abscisse « LE VOLUME DES MESSAGES » et en ordonnée « L’INDICE DE POSITIVITÉ DU MESSAGE » qui est aussi appelé « analyse de sentiment. Ceci est une version préliminaire de l’analyse, qui est toujours en cour. Étant donné que le projet de loi du PQ risque d’être déposé dans les prochains jours, un grand volume de commentaires continuera d’alimenter les discussions médias sociales. Pour comprendre comment se fait l’analyse de sentiment, je vous dirai qu’avec l’algorithme d’Inbox un terme comme « crise » contiendra 1000 paramètres différents afin de déterminer le contexte de ce mot spécifique et de savoir si on parle par exemple « d’une crise économique » ou si plutôt « il a pété une crise ». Leur analyse de sentiment est donc fiable à 85% et la marge d’erreur est la même pour tous. Aussi, si par exemple un twitt parle de Dalila Awada et qu’il contient un hyperlien vidéo, comme l’hyperlien et le vidéo ne seront pas analysés, ce ne sera que le contenu de la mise en contexte précédant l’hyperlien qui sera pris en compte.

Le corpus

Les sources suivantes ont été analysées:
• Twitter
• Facebook
• Forum Yahoo
• JM : Journal du Montréal avec 3 sous-forums:
http://blogues.journaldemontreal.com/politique/,
http://blogues.journaldemontreal.com/droitdecite/,
http://www.journaldemontreal.com/auteur/richard-martineau )
• LP : LaPresse avec 3 sous-forums :
http://blogues.lapresse.ca/boisvert,
http://blogues.lapresse.ca/edito,
http://blogues.lapresse.ca/avenirmtl )

Mon analyse

J’attire votre attention sur les diapositives 3, 4 et 5. Vous remarquez qu’elles sont des portraits des discussions médias sociaux des 14, 21 et 31 novembre octobre. Vous remarquerez sans doute aussi qu’au 14 octobre, la majorité des mots clés, personnalités et organisations associés au débat de la charte sont perçus très négativement. Par contre, après le 21 octobre, ces mêmes termes (en plus de celui de # Janette qui commence à apparaitre), font passer plusieurs mots du côté positif. Vous remarquerez aussi qu’étrangement, Charles Taylor est vu plus négativement qu’Adil Charkaoui, mais que son collègue Gérard Bouchard jouit d’une négativité beaucoup moins grande. Vous observerez sans doute aussi que le Conseil du Statut de la femme est l’entité la plus méprisée et que la CQCI est l’organisation qui récolte la plus positive des mentions sur les médias sociaux, mais vous observerez que le volume des messages qui y est associé est somme toute insignifiant comparativement aux Janette par exemple. Observez aussi que Les Anti-Charte et les pro-charte sont tous deux du côté négatif des discussions, que le volume des discussions est somme toute équivalent, mais que les pro-charte sont beaucoup moins détestées que les anti-charte. Finalement, les inclusives ont 10 fois moins de mentions que les Janette, et elles sont à peine perçues plus positivement que les Janette et elles sont toutes deux du côté positif des discussions. Je pourrais continuer de vous faire mes observations, mais vous comprenez sans doute maintenant le principe et je ferai cette discussion de vive voix la semaine prochaine lors d’une conférence au Salon BI. Donc bonne lecture et bonne analyse ☺

 

MAJ

Ce billet a été repris intégralement par le HuffingtonPost

L’éternel débat : un CMS à code source ouvert ou codé en dur?

Hier j’ai partagé le statut suivant sur les médias sociaux :

Passer la journée à interviewer des fournisseurs web suite à un appel d’offres avec un client = On a de la belle expertise au Québec

Or, dans ma messagerie Facebook, une connaissance qui s’adonne à être développeur, me fit parvenir ce message et une discussion s’en suivit :

Interlocuteur

Il me semble que tu as discuté de l’avantage des CMS par rapport à des sites codés entièrement à la main…
Je ne sais pas si j’ai contribué à ce sujet, ni tes conclusions. Mais j’ai quelques remarques à ce sujet, rafraichies par une expérience que j’ai vécu ajourd’hui, est-ce que ça t’intéresse ?

Moi

Oui pourquoi pas

Interlocuteur

Désolé pour la longueur, c’est pour ça que j’ai demandé avant
Aujourd’hui, j’ai un autre exemple sous la main: les sites avec CMS se font hacker comme c’est pas permis.
Je dois bien avoir programmé et/ou supervise pas loin d’une centaine de sites web, dont une vingtaine qui sont sur des CMS, particulièrement Joomla, mais aussi Drupal, WordPress et SPIP.
Jusqu’à présent, à ma connaissance, aucun des sites programmés entièrement à la main n’a été hacké. Versus _tous_ les sites sur CMS, dont certains plusieurs fois.
Je crois que c’est dû à différents facteurs :
- c’est plus facile de trouver des failles dans le code des CMS, que dans le code d’un site fait « à la main », car le code des CMS est accesible publiquement et gratuitement, pas celui développé juste pour un site.
- comme pour les virus pour Mac vs Windows, plus une plateforme est répandue, plus c’est plus « payant » soit en « bragging rights », soit en dollars, selon les intentions du hacker de trouver des failles exploitables. Si un hacker trouve une faille dans un de mes sites « fait main », ce sera dommage pour moi, mais aussi pour lui, car il n’aura trouvé la « clé sous le paillasson » pour un seul site. Alors que s’il trouve une faille dans un CMS, c’est « bonjour la visite! ».
- les CMS utilisent des plugins et des « Templates » qui sont parfois de provenance douteuse. Il est très difficile de tout vérifier ce code pour des « backdoors » et autres failles exploitables même si en théorie la « communauté » veille au grain, il en passe toujours entre les mailles du filet. Pas simple non plus de le garder à jour ces plugins, surtout qu’il y a une forte rotation, chez les auteurs de ces plugins, extensions, modules, templates, alouette! Récemment, je travaillais avec un programmeur de plugin Vietnamien, qui m’a demandé les paramètres d’accès FTP, pour le compte sur lesquel est un de mes sites!
- finalement, il n’est pas toujours simple de faire migrer un site vers une version à date du CMS. Ce qui fait que plusieurs webmestres et clients retardent les mises à jour. Et comme ces mises à jour concernent souvent des améliorations au niveau de la sécurité, avec chaque jour qui passe qu’un système n’est pas mis à jour, ses chances qu’un hacker lui trouve une faille augmentent…

Moi

c’est un intéressant point de vue. Mais un site codé en dur peut difficilement rivaliser en fonctionnalité/coût et en intelligence avec celui développé par une foule de passionnés. Par ailleurs, même la CIA et le NSA sont en open sources.
et on s’entend que pour un site à vocation informationnelle ce n’est pas si critique

Interlocuteur

C’est comme pour le reste dans la vie, c’est toujours utile d’avoir des bons backups
Pis pour la CIA et la NSA, ils ont tout avantage à attirer les méchants qui viennent se jeter gratis dans leur bouche et ils ne manquent pas de ressources pour « patcher » et avoir du code « custom » non plus.

Moi

et attaché un client à qu’un seul fournisseur est aussi le peinturer dans l’coin

Interlocuteur

Oh, absolument. Ça dépends vraiment du but du site, les très cheaps ne valent pas le trouble et les assez gros peuvent se payer du code in-house. Les CMS sont idéaux tout le reste qui est entre ces deux extrèmes.

Y’a quand même l’exception des sites web qui sont vraiment bien codés, avec plein de commentaires dans le code etc… quand c’est bien fait, ce n’est pas si difficile à reprendre pour un autre codeur qui a les qualifications. Les clients ne sont alors pas si mal pris que ça. Et pour ce qui est des CMS, ça arrive aussi que c’est tellement mal foutu qu’il faille tout rebâtir de zéro. En fait, les CMS ne sont pas nécessairement une garantie que ce soit facile ou même juste possible de reprendre un projet par une autre équipe.

Ces fournisseurs web qui crossent les clients

Il m’arrive fréquemment de rencontrer des organisations qui se font solidement flouer par des fournisseurs web. À chaque fois, lorsque je parle d’une fourchette de prix et d’un échéancier, le client me regarde médusés. Malheureusement pour eux, ils ne connaissent pas grand-chose au web et ont fait confiance indument à des fournisseurs web ou à leur service TI interne, qui, sentant la bonne affaire, se sont rempli les poches à leur dépend. Ces jours-ci, je rencontre (encore) deux organisations qui se sont fait solidement avoir.

La première est une entrepreneure indépendante, mais qui a un très beau chiffre d’affaires hors web. Il y a 18 mois, elle a donné son aval pour avoir un site transactionnel. Le coût de ce site a été vendu $30K. Ce qui est déjà correct pour le genre de site que ma cliente veut. Je suis certaine qu’elle pourrait avoir ça pour $20K, mais disons que le $30K a de l’allure. Le problème est que 12 mois après avoir fait son chèque de dépôt de $10K, elle n’a toujours pas de site. Elle avait engagé une personne à l’interne pour gérer ses stocks qu’elle a augmentés pour les mètres en ligne, et pour se préparer à l’entrée de l’entreprise en ligne. Mais six mois plus tard, se rendant à l’évidence, elle dut renvoyer son employé. Elle décide de mettre un terme à l’entente avec le fournisseur qui lui réclame un autre $10K pour le travail (soi-disant fait) qui 18 mois plus tard, n’est toujours pas livré.

Un autre client est une association internationale. Il y a 5 ans, comme ils ont été fondés et sont financés par une plus grosse organisation encore, celle-ci décida de faire « une preuve de concept » avec le site web de l’association et contracta un fournisseur web pour leur faire un site web. La facture d’élève à $170K pour un site de 50 pages et 1000 membres associatifs à gérer. Ce site comporte une section de gestion des membres et un outil d’envoi d’infolettre sont tous deux des fonctionnalités « propriétaire » au fournisseur web. Le CMS utilisé est Sitecore et les employés de l’association ne peuve que très difficilement utilise celui-ci et cinq ans plus tard, après avoir payé un$13K par année pour les diverses licences de Sitecore et des outils propriétaire du fournisseur, ils n’en peuvent plus de s’être peinturé dans un coin avec des outils qui ne correspondent vraiment pas à leur besoin et qui leur a coûté la peau des fesses. Même que cette association paye un autre fournisseur externe pour gérer ses envois d’infolettre à un autre $2500 annuels. C’est donc un méchant micmac. Lors de ma réunion avec eux, je leur dis que le nouveau site qui devrait coûter $30K, devrait être en ligne dans plus ou moins 3 mois. Ils n’en reviennent pas. Le dernier site a pris un an avant d’être en ligne. Pour 50 pages…

La réaction commune de ces clients en est une de honte. Ils croient être les seuls au monde à s’être fait avoir de la sorte. Je les rassure et leur dit que malheureusement, ils ne sont pas les seuls à avoir vécu ce type d’expérience. J’en parlais encore récemment dans mes billets La tristesse de devoir mettre les points sur les « i » à un entrepreneur, Ces fournisseurs Web qui font de l’arnaque, Les paradoxes néfastes d’une enquête sur la collusion/corruption en TI au Québec, Des projets d’intégration au gouvernement du Québec, de CGI et de l’absence d’usage des Web services et bien d’autres encore.

Malheureusement, il n’y a pas d’ordre professionnel des spécialistes du web (ou des TI et au gouvernemental on parle de crosse de plusieurs centaines de millions), il n’y a pas de registre d’entreprises qui savent de quoi ils parlent et le décisionnel est souvent laissé à lui-même à prendre des décisions importantes sur des sujets qu’il ne connait pas. Pire encore, bien des fournisseurs se font un malin plaisir à enrober leur « bullshit » de termes techniques réels ou inventés afin de subjuguer davantage le client.

Lorsque je suis témoin de telles histoires d’horreurs, ça me révolte, mais étant donné la confidentialité de mes dossiers, je vous en parle ici sans vous nommer mes clients ou leur crosseur de fournisseurs…

 
MAJ
Aux âmes sensibles qui n’aiment pas le mot « crosseur », je vous invite à lire ou à relire ATTENTION et MISE EN GARDE: Ce blogue peut être dangereux et nocif pour vous!

Pour les potes d’outre-mare, voici la définition du québécisme crosseur :
Québec) (En particulier) (Péjoratif) Personne malhonnête, escroc, menteur. (rare au féminin)

WordPress, est-ce réellement solide pour de gros sites web?

J’ai un client qui est en train de mettre sur pied un site web international dans le domaine de la beauté. Les prévisions sont qu’à terme, plusieurs dizaines, voire centaines de milliers de visiteurs, navigueront sur celui-ci chaque jour. Or dans le processus d’analyse des besoins avec ce client, je lui parle de WordPress comme d’une plate-forme possible pour son site web. Or, un fournisseur technologique lui fait valoir que WordPress ce n’est que pour de petits blogues et qu’il ne pourra pas accueillir un flot de visiteurs très élevé. Mon client me raconte donc les dires de ce fournisseur. De toute évidence je sursaute et suis surprise d’une telle perception.

 

Il est évident que WordPress a d’abord été connu et reconnu comme la plate-forme de blogue la plus utilisé dans le monde. Mais encore peu de gens savent que c’est aussi un très, mais là vraiment très robuste CMS (content management system). C’est d’ailleurs une plate-forme utilisée par des entreprises telles que (Via la Fabrique de blogues)

 

Médias
- CNN
- New York Times
- Le Monde
- La Presse
- CBS
- Time
- Owni
- L’actualité
- ONF
- TED
- The bangor Daily News
- The New York Observer
- Radio Okapi
- Radio Canada
- Wall Street Journal
- Wired
- TechCrunch
- GigaOm
- BoingBoing
- Forbes

Entreprises
- Ebay
- Flickr
- Yahoo!
- Ford
- Sony
- GE
- Samsung
- UPS
- VW
- GM
- Moment Factory

Éducation
– HEC Montréal
- CSDM
- Mc Gill
- MIT
- Harvard
- Cornell
- Berkeley

 

Disons que si cette plate-forme n’est pas capable de prendre un gros flot de visiteurs, certaines des plus grosses propriétés web de la planète sont dans le gros trouble. Dans son billet, la Fabrique de blogs parle aussi de Some of the world’s biggest brands and industries rely on WordPress.com. Disons que ça devrait mettre un bouchon définitif sur la trappe des incrédules. Par ailleurs, on se souviendra que le site web de l’Assemblée nationale avait couté 3,5 millions. Louis Durocher d’Orenoque, spécialiste en référencement avait analysé le site (PDF) lui donnant une note de 68%. Hormis le fait que « 3.5 millions c’est de la grosse argent en mautadit », il me semble que si le gouvernement avait choisi WordPress comme plate-forme, plutôt que la technologie propriétaire de la firme NStein, en plus de faire potentiellement des économies substantielles, le score de référencement aurait sans doute été encore plus performant, WordPress étant reconnue comme l’une des plates-formes les plus perméables aux engins de recherches. Vous pouvez d’ailleurs visiter la page dédiée aux sites gouvernementaux qui sont sous WordPress.

 

Finalement, vous serez sans doute surpris d’apprendre que selon W3techs.com, WordPress a maintenant 54.7% des parts de marchés mondiales.

 

MAJ

Comme on me le mentionne en commentaire, WordPress a aussi un service VIP pour ses clients qui demandent un service encore plus robuste. Voici encore une autre liste de ses prestigieux usagers dont CNN http://vip.wordpress.com/clients/

Comment se faire fourrer en TI (ou pas) avec l’aval des députés et des hauts fonctionnaires

La semaine dernière le SFPQ poussait les hauts cris, avant Noël c’était le dirigeant de l’UPAC et un peu avant, le vérificateur général (et depuis quelques années déjà votre humble blogueuse de même que de très nombreux journalistes(Docx)) qui unanimement s’inquiétaient des dépenses disproportionnées et douteuses de nos technologies de l’information. Mais qu’à cela ne tienne, il ne sert à rien de s’énerver avec les coûts hors proportions de nos TI au gouvernement du Québec. Il semble que tout baigne dans l’huile et qu’il n’y a aucune collusion et aucun problème avec nos TI. Ceux qui disent le contraire ne sont que des gens qui ne savent pas de quoi ils parlent.

Pour vous en assurez, rien de plus simple. Écouter la web diffusion des trois heures soporifiques de la récente commission parlementaire de la commission de l’administration publique. Vous pourrez être judicieusement éclairé par le secrétaire du Conseil du trésor, le président-directeur général du Centre de services partagés du Québec, le président-directeur général de l’Agence du revenu du Québec et le président-directeur général de la Régie des rentes du Québec concernant les contrats de services professionnels liés au traitement de l’information.

Profitez-en bien puisque cette comédie burlesque est dûment payée par vos impôts et ses acteurs sont les grands mandarins de l’état et nos vaillants députés à l’œil de lynx.

Mais si vous voulez franchement rigoler (ou pleurer de désarroi) relisez cette collection de statuts Twitter des journalistes Michel Hébert, Daniel Leblanc et de quelques autres internautes. Des fois, les plus comiques ne sont pas nécessairement ceux qu’on paie pour entendre

michel hébert ‏@hebert_mic
#AssNat Mauvaise nouvelle pour les tondus: Revenu Québec veut «optimiser ses processus»…
https://twitter.com/hebert_mic/status/296702018683273217

michel hébert ‏@hebert_mic
#Informatique Si toutes les questions sont comparables à celles que pose Cardin, faudra servir l’expresso aux fonctionnaires…
https://twitter.com/hebert_mic/status/296705880106340353

Daniel Leblanc ‏@danlebla
@hebert_mic Pourtant, à Ottawa, c’était un bout-en-train et la bougie d’allumage du BQ :-)
https://twitter.com/danlebla/status/296706186315698176

michel hébert ‏@hebert_mic
@danlebla Il a visiblement pas passé la nuit à se préparer. «Vous avez 20 000 ordinateurs? – On en a 90 000 – Ben, ça doit coûter cher…
https://twitter.com/hebert_mic/status/296705880106340353

michel hébert‏@hebert_mic
#Informatique Question rêvée: Pourquoi vos projets ne correspondent jamais aux budgets prévus?
https://twitter.com/hebert_mic/status/296707184492941313

michel hébert ‏@hebert_mic
#Informatique On apprend que Revenu Québec a pompé 91 millards en 2012 dans l’économie (et nos poches). Pas de trouble avec les honoraires..
https://twitter.com/hebert_mic/status/296707884186742784

michel hébert ‏@hebert_mic
#Informatique J’espérais un bien-cuit, on aura droit à un bouillon de poulet…
https://twitter.com/hebert_mic/status/296708685630160896

michel hébert ‏@hebert_mic
#Informatique Gautrin, l’expérience qui parle… Et qui provoque qq soucis… Chez les mandarins…
https://twitter.com/hebert_mic/status/296716303438344195

michel hébert ‏@hebert_mic
#Informatique «On doit s’interroger à chaque fois qu’on initie un besoin…» – le CSPQ
https://twitter.com/hebert_mic/status/296731675054981120

michel hébert ‏@hebert_mic
#Informatique «J’ai pas nécessairement compris les explications » – le député Chapadeau
https://twitter.com/hebert_mic/status/296731933264711681

michel hébert ‏@hebert_mic
#Informatique «C’est une préoccupation qui est constante pour nous… » – Yves Ouellet, du Vatican du Trésor, sur la collusion.
https://twitter.com/hebert_mic/status/296732597520830465

michel hébert ‏@hebert_mic
#Informatique «Quand qui a un prix, c’est un bon indice de ça» – Jean-Marie Lévesque, pédégé du CSPQ, sur la collusion.
https://twitter.com/hebert_mic/status/296732952707092480

michel hébert ‏@hebert_mic
#Informatique «Il y a une saine émulation» – Jean-Marie Lévesque, pédégé du CSPQ sur la collusion
https://twitter.com/hebert_mic/status/296733139076804608

michel hébert ‏@hebert_mic
#Informatique – Combien ça coûte, la dépense informatique?- Christian Dubé. – Je préfère éviter le terme dépense, – J-M Lévesque pédégé CSPQ
https://twitter.com/hebert_mic/status/296733628015185921

Antoine Robitaille ‏@Ant_Robitaille
@hebert_mic Avalanche propos lénifiants.Sauf 1 éclair de lucidité:«Je ne peux pas vous garantir qu’il n’y a pas collusion» —JM Lévesque,CSPQ
https://twitter.com/Ant_Robitaille/status/296735108050845696

Stephane Lessard ‏@slessard2000
@hebert_mic @ant_robitaille Ce sont vraiment ces types-là qui sont grassement payés pour veiller à l’IT au Gouv. du Qc?
https://twitter.com/slessard2000/status/296735469151064064

michel hébert ‏@hebert_mic
@Ant_Robitaille Chapadeau les bat tous: «J’ai pas nécessairement compris les explications» (Il nous le dira demain…)
https://twitter.com/hebert_mic/status/296735619466526720

michel hébert ‏@hebert_mic
@slessard2000 @Ant_Robitaille Surtout ceux qui écrivent avec un Mont-Blanc…
https://twitter.com/hebert_mic/status/296736039291191297

michel hébert ‏@hebert_mic
#LogicielLibre «Là-dessus, j’ai eu plusieurs après-midi depuis que je suis en fonction» Jean-Mare Lévesque, humoriste du CSPQ…
https://twitter.com/hebert_mic/status/296737720854773760

michel hébert ‏@hebert_mic
#Informatique Me semble qu’une question simple ferait des dégâts: à quoi imputez-vous les dépassements de coûts chroniques?
https://twitter.com/hebert_mic/status/296738029178089472

Mathieu Chamberland ‏@MatChamber
@hebert_mic pour le CSPQ, parlent-ils des contrats principalement au sein de la VPSI(techno) ou aussi de la VPSA (solutions d’affaires) ?
https://twitter.com/MatChamber/status/296739360634724352

michel hébert ‏@hebert_mic
@MatChamber Vous blaguez là non? Croyez-vous un instant qu’une question de ce genre puisse être posée? Déjà parler de Wi-Fi…
https://twitter.com/hebert_mic/status/296740146039099392

michel hébert ‏@hebert_mic
#Informatique Finalement, on ne sait pas combien ça coûte par année. «Je préfère éviter le terme dépense» – Lévesque CSPQ
https://twitter.com/hebert_mic/status/296738465771577344

michel hébert ‏@hebert_mic
#Informatique Le VG dit pas vu fraude et collusion. Ma conclusion: la gestion est tellement poche, c’est pas nécessaire…
https://twitter.com/hebert_mic/status/296738689931964416

michel hébert ‏@hebert_mic
#Informatique «Je vois que vous avez beaucoup d’intérêt pour les TI, c’est un gage de succès» – Lévesque du CSPQ
https://twitter.com/hebert_mic/status/296739012809469952

michel hébert ‏@hebert_mic
#Informatique Personnellement, merci à tous, je vois que le créole se porte bien.
https://twitter.com/hebert_mic/status/296739137137033216

Phil ‏@Kifimbo
@hebert_mic Une claque en arrière de la tête ne ferait pas de tord à certains selon vos commentaires…
https://twitter.com/Kifimbo/status/296739014613012482

michel hébert‏@hebert_mic
@Kifimbo C’est la faute du «precessus»…

https://twitter.com/hebert_mic/status/296740319289032704

michel hébert ‏@hebert_mic
#Informatique Pour les surfers du Centre des services partagés qui nous fait part de leur vaste connaissance… ♫ http://blip.fm/~1dube3
https://twitter.com/hebert_mic/status/296778429288824833

MAJ

En commentaire sur mon mur FB

Eric St-Cyr: fourrer et l’aval dans la même phrase. Rock on!

Hehehe, je n’avais pas perçu cette douce poésie…

Les données personnelles des Québécois sont-elles déjà scrutées par les Américains

Les données personnelles des Québécois sont-elles déjà scrutées par les Américains? Voilà une question que je posais directement à un ancien ministre il y a quelques années. Il demanda la réponse à son attaché politique qui ne l’avait pas et me rétorqua qu’il me reviendrait le plus rapidement possible avec LA réponse. Je n’ai jamais eu de ses nouvelles par la suite.

Le Patriot Act

Comme vous le savez sans doute, le Patriot Act, cette réponse sécuritaire et largement démesurée du gouvernement américain à l’affreuse attaque du 11 septembre 2001, permet aux services gouvernementaux américains de « pomper toutes les données » se trouvant sur un serveur, quel qu’il soit, en territoire américain. À cet effet, la très sérieuse revue informatique CIO dans l’article The Patriot Act and Your Data: Should You Ask Cloud Providers About Protection? révélait la hantise des Européens face à ce constat.

Worries have been steadily growing among European IT leaders that the USA Patriot Act would give the U.S. government unfettered access to their data if stored on the cloud servers of American providers—so much so that Obama administration officials this week held a press conference to quell international concern over the protection of data stored on U.S. soil.

Évidemment, l’article par la suite met ces inquiétudes légitimes en perspectives (et aide les fournisseurs américains à continuer de développer leur marché international). Néanmoins, la menace est bien réelle et la Electronic Frontier Foundation et the American Civil Liberties Union poursuivent le département de la justice américaine afin qu’il révèle l’étendue de la collecte de données.

Nos données personnelles sont-elles en sécurité?

Tout ça pour vous dire que l’un des fournisseurs préféré du gouvernement du Québec, CGI, héberge de nombreux centre de données de nos ministères, qu’ils ont en plus des centres de données au Québec, de nombreux centres de données en sol américain(PDF) (et ailleurs de par le monde et je souligne ici être fière de cette belle réussite québécoise) et qu’il semble que personne au gouvernement ne soit au courant exactement de l’endroit ou des endroits physiques spécifiques ou logent nos données (incluant la redondance des serveurs qui pourraient éventuellement se faire aussi en territoire américain).

Disons que ce pourrait certainement être l’un des mandats et des objectifs d’un Plan numérique pour le Québec, de se poser ce genre de question et surtout, d’y trouver des réponses…

iWeb hébergement, une belle réussite techno du Québec

Cette semaine j’étais invitée par un ancien client et ami Simon Rivard, qui est maintenant VP chez iWeb hébergement, à visiter les installations d’iWeb et à jaser d’informatique dans le nuage (cloud computing) et de centre de données. Je suis déjà cliente d’iWeb depuis plusieurs années et je réfère mes clients à leur service d’hébergement.

Lors de mon arrivée au siège social de la compagnie, j’ai eu le plaisir d’être reçue par l’un des cofondateurs, Éric Chouinard qui accompagnait Simon.

Aujourd’hui, iWeb se place parmi les plus importants hébergeurs au Canada. Les centres d’opération d’iWeb abritent un total de plus de 90 000 pieds carrés de centre de données dernière génération et d’espace de bureau à Montréal, ce qui permet à l’entreprise d’offrir une gamme de services variés, de première qualité. iWeb est reconnue pour la qualité de son service à la clientèle et ses prix très compétitifs. En janvier 2010, iWeb annonçait l’ouverture du nouveau centre de donnés de 31 000 pieds carrés pouvant accueillir près de 20 000 serveurs. Ce dernier est situé dans l’arrondissement LaSalle, dans l’ouest de l’île de Montréal amène la capacité d’iWeb à près de 35 000 serveurs.

Je fus de toute évidence très impressionnée de pouvoir visiter les installations du siège social et de l’un des centres de données (celui de LaSalle) de l’entreprise. Je trouvais d’ailleurs étrange que chaque serveur soir affublé d’une clé USB sur le panneau arrière. C’est là qu’on m’expliqua que cette clé contenait en fait l’une des grandes innovations d’iWeb et lui permettait de gérer automatiquement chacun des serveurs individuellement. Ils appellent cette technologie Smart Layer et très rapidement, les compétiteurs américains vont tenter de copier le procédé.

Nous vous présentons l’une de nos plus grandes réalisations à ce jour: Smart Layer. Cette technologie, qui redéfinit l’hébergement web, apporte la flexibilité du cloud computing à votre serveur dédié.

Imaginez un implant inséré au cœur de votre serveur, qui siège entre le matériel et les logiciels, et qui lui donne des pouvoirs spéciaux. Smart Layer vous donne le contrôle de notre architecture d’hébergement grâce à un tableau de bord convivial et facile à utiliser.

L’humilité de l’un des fondateurs

Mais ce qui m’a impressionné le plus de ma visite chez IWeb, ne fut pas leur installation haut de gamme ou l’ingéniosité de l’entreprise (système de refroidissement, redondance, ventilation ou génératrice électrique qui pourrait alimenter tout un quartier en électricité). Non ce qui m’a vraiment impressionnée fut l’humilité et le côté franchement sympathique de cet homme qui il y a à peine 10 ans, en débutant avec une mise de fonds de 5000 $, fit grandir son entreprise à prêt de $50M de vente. Éric est un gars on ne peut plus simple à l’allure sportive et débrouillarde. C’est le beau-frère avec qui on aime prendre un verre et refaire le monde (nous sommes d’ailleurs allés manger une excellente pizza dans l’un de ses restos de prédilection). Nous avons jasé d’un plan numérique pour le Québec, de l’absence de vision techno de nos gouvernements, de sécurité des données, du Patriot Act qui donne accès aux données canadiennes et Québécoise qui ont le malheur de se retrouver sur un serveur en territoire américain, de l’appétit sans borne de nos TELCO et d’une foule d’autres sujets tout aussi passionnant et lumineux pour une geek comme moi.

Tout ça pour vous dire que je suis fière qu’iWeb soit de chez nous, de son succès international, des emplois qui sont créés ici et de l’ingéniosité que cette PME met à bousculer ce marché exponentiel que sont les centres de données…