Skip to content

Mois : février 2010

Le SaaS & la « Customer Driven Roadmap »

Posted in tendances

L’objet de ce billet est de revenir sur les avantages du modèle SaaS pour les éditeurs de logiciels et faisant un zoom sur l’implication des utilisateurs dans le processus de développement. J’avais déjà abordé le sujet sur le site de l’Atelier il y deux ans.

De nouveaux modèles de revenu

Le SaaS permet tout d’abord de bénéficier de modèles de revenu différents

  • des revenus lissés, comme ceux des opérateurs télécom (mais sans financement d’achat de terminal). Ces revenus peuvent être complétés par un écosystème d’options annexes permettant d’augmenter le « panier réel » (à l’image de Free Télécom dont la marge est issue des chaînes payantes, de la vidéo à la demande, etc.)
  • des revenus issus de la « longue traîne », c’est à dire de PME, de particuliers, ou d’indépendants si l’acte d’achat est complètement automatisé (paiement par carte bancaire depuis le Web)

Sortir de la perversion des versions

Avec le modèle SaaS, un éditeur n’a plus besoin de maintenir plusieurs versions en parallèle, ce qui représente une charge de travail très conséquente. Il fait en sorte qu’une seule version de son logiciel existe à un instant t.
Il peut donc focaliser tous ses développeurs sur les nouvelles fonctionnalités qui intéressent les utilisateurs.

La « customer driven roadmap »

Le modèle SaaS fournit les nouvelles fonctionnalités au fil de l’eau. Il permet de les faire tester par la communauté des utilisateurs. Il est alors possible de collecter leurs retours de diverses manières :
  • par des sondages, éventuellement ciblés selon les catégories d’utilisateurs
  • en suivant le comportement des utilisateurs, d’après leurs clics dans les pages. Il est ainsi possible de mieux les connaître, et de bâtir une base de gestion de la relation client (à l’image d’Amazon qui conseille des livres en se basant sur la navigation de ses clients).
  • en lançant des tests grandeur nature sur des populations partielles avec le principe du A/B Testing. Il s’agit de proposer  2 interfaces applicatives différentes à 2 populations, puis de laisser les utilisateurs décider laquelle est la plus pertinente.

La question de la plateforme

Le Cloud Computing offre une dernière opportunité aux éditeurs : bénéficier du « pay as yo go » et de plateforme industrielles.

En effet, les plateformes d’Amazon, Google, Microsoft, … proposent une facturation à la consommation de CPU/disque/réseau. L’éditeur ne paie ainsi que les ressources que ses clients utilisent réellement, ce qui permet :

  • Une meilleure gestion des pics d’activité
  • La gestion en douceur la montée en puissance de son offre

Je qualifie ces plateformes d’industrielles car elles comptent des centaines de milliers, voire les millions de serveurs, et bénéficient d’un niveau de rationalisation hors norme. En particulier la gestion des pannes et des réplications multisites y est très automatisée.

L’éditeur peut préférer construire son propre datacenter pour maîtriser totalement la confidentialité des données de ses clients. Il supportera alors des coûts importants d’achat de matériel/licences, et d’exploitation.

Post-WIMP : vers un nouveau paradigme d’interface

Posted in tendances

Je reprends ici mon propos sur la remise en cause du multifenêtrage, développé dans ce billet : Et si Microsoft abandonnait la marque Windows ? (j’avais produit une version allongée de ce billet pour le blog OCTO).

L’acronyme WIMP signifie Window, Icon, Menu, Pointing device, ce qui donne en français fenêtres, icônes, menus et périphérique de pointage (souris). L’interface WIMP a été introduite par le XEROX PARC (Palo Alto Research Center) dans les années 70. Elle a été concrétisée brillamment par Apple avec le Macintosh en 1984, et repris par la suite par Windows. Le WIMP est ensuite devenu le standard de fait pour les interfaces homme machine, à tel point que WIMP et IHM sont des termes équivalents dans l’esprit de nombreuses personnes.

La montée en puissance des interfaces tactiles marque le début de l’ère Post WIMP, c’est à dire la remise en cause de cet invariant d’interface.

Apple, catalyseur du Post WIMP

Apple a créé la première interface WIMP, et MacOS utilise encore aujourd’hui ce paradigme d’interface.

Cependant, Apple a exploré très tôt la possibilité d’une nouvelle IHM, tout d’abord avec le Newton en 1989. J’attribue l’échec du Newton à son mode de saisie par stylet et reconnaissance d’écriture. Je pense qu’il existe un certain nombre de mauvaises innovations en informatique comme la reconnaissance d’écriture, la reconnaissance vocale, la visiophonie, etc. Elles sont inadaptées car elles tentent d’imiter un usage passé, plutôt que de proposer une nouvelle expérience. Le Palm Pilot a connu le succès car il n’est pas tombé dans ce piège : il a proposé un mode de saisie adapté, le Graffiti.

Le premier succès Post WIMP d’Apple a été l’iPhone en 2007 : une interface entièrement pensée pour le tactile.

Avec l’iPad, Apple essaie selon moi de pousser le Post WIMP vers les ordinateurs. C’est un test, un galop d’essai avec de transformer l’interface de MacOS.

Je m’arrête un instant sur l’iPad pour donner mon avis sur ce produit : peu importe que ce soit un grand iPhone ou non, qu’il ait une caméra, un port USB ou non. L’iPad est un début d’interface tactile pour ordinateur. Son succès dépendra du parc applicatif et de la nouvelle expérience utilisateur qu’il pourra proposer. A ce titre, je pense que tous les observateurs qui ont donné leur avis avant de tester l’appareil ont fait une erreur.

Le post WIMP vu par Microsoft

Microsoft a intégré le Post WIMP assez tôt avec Windows Mobile. Cependant, le géant de Redmond n’a pas voulu décontenancer ses utilisateurs. Il a donc proposé un Post WIMP avec un « menu Démarrer ». La recherche d’un compromis a rendu l’interface de Windows Mobile inutilisable au doigt. Même si HTC a fait des efforts pour améliorer les choses avec sa gamme HTC Touch, il subsiste de nombreuses fonctions qui nécessitent le recours à un système de pointage : le stylet. Par ailleurs, de nombreuses applications pour Windows Mobile sont inutilisables sans stylet.

Avec Windows 7, Microsoft a reproduit la même erreur. S’il est facile de lancer un programme au doigt depuis la « dock bar », il est impossible d’utiliser Office ou d’accéder aux paramètres systèmes au doigt.

Et demain ?

Je pense que si l’iPad est un succès, nous verrons rapidement arriver une version remaniée de MacOS dans la tendance Post WIMP.

Du côté de chez Microsoft, la recherche d’un compromis entre le passé et le futur, la fameuse compatibilité ascendante, est un frein important à l’innovation. J’ai cependant entendu des rumeurs sur un important remaniement de l’interface de Windows 8.

A suivre, donc…

Institutions culturelles et mémoire collective

Posted in tendances

J’ai toujours pensé que la créativité était stimulée par des passerelles interdisciplinaires.  Et pour compléter ma veille IT, je m’intéresse à l’art, au design et à l’architecture contemporains. Je suis un fidèle du Centre Pompidou. L’objet de ce billet est d’évoquer 2 expositions du centre.

La mémoire du futur (1987)

Cette exposition a été organisée par Bernard Stiegler, que j’ai eu la chance de rencontrer récemment. Elle proposait une vision sur l’avenir des bibliothèques, vision que Stiegler a défendue lors de la création de la Bibliothèque Nationale de France (BNF) du site Tolbiac. Cette vision aurait pu aboutir à un Wikipedia Français, mais les institutions françaises ont préféré faire de la BNF un temple de la connaissance centré sur la conservation de volumes papier. Cette approche n’est pas sans rappeler celle du clergé au moyen âge… (cf. « Le nom de la Rose » d’Umberto Eco). L’initiative Gallica est louable mais bien limitée.

Cette exposition est particulièrement d’actualité lorsqu’on pense à la bataille d’arrière garde que livre l’Etat français avec Google (voir ce billet), ainsi que celle que livrent les éditeurs français avec Amazon.

D-Day le design aujourd’hui (2005)

Cette exposition m’a particulièrement marqué. Elle présentait en particulier des projets créés par des designers pour aider le développement des pays africains, et des dispositifs d’entraide pour les citadins européens. Ces dispositifs utilisaient l’informatique pour gérer la logistique d’entraide et le partage de ressource. L’exposition m’a ainsi montré, bien avant la mode du « Green IT », que l’informatique pouvait proposer des solutions à des problèmes sociaux et environnementaux, selon la formule aujourd’hui consacrée : « IT is part of the solution ».

Une mise en abîme

Au-delà de l’intérêt que j’ai trouvé dans ces deux expositions, je souhaite mettre l’accent sur un point qui me préoccupe : le propos présenté dans ces expositions n’est pas consultable depuis notre nouvelle mémoire collective, le Web.

Il me semble que les grandes institutions culturelles devraient être des modèles dans l’accès à la connaissance.

En l’occurrence, le site du Centre Pompidou ne propose aucune fiche  sur « la mémoire du futur ». Compte tenu de la jeunesse du Centre (à peine plus de 30 ans), toutes les expositions devraient être documentés. On peut acheter le catalogue papier de « D-Day » sur le site pour environ 40€, mais pas celui de la « mémoire du futur ».

Je pense que tous les catalogues d’exposition devraient tous être disponibles en version numérique. Cette version devrait même être gratuite car le Centre est financé par l’argent des contribuables. C’est finalement la proposition de Google : distribuer gratuitement les livres épuisés et libres de droits. Dans le domaine de la mémoire de notre culture, il me semble que nos institutions devraient faire mieux que Google.

Je suggère donc que toutes nos grandes institutions culturelles publient leurs contenus dans le domaine public. Et comme il faut bien démarrer quelque part, il me semble que la BNF et le Centre Pompidou sont les meilleurs candidats pour montrer la voie. Ce sont en effet des institutions jeunes et disposant de moyens technologiques de pointe.

Qu’en pensez vous?