Skip to content

Mois : novembre 2006

OpenID : l’identité numérique opérationnelle sur le Web

Posted in tendances

J’ai parlé, dans de précédents billets (ici et ), de la nécessaire montée en puissance de la fédération d’identité pour permettre la collaboration de services en ligne.

Je rappelle le principe en 2 mots : il s’agit pour des applications de déléguer leur authentification à un serveur d’identité tiers qui bénéficie de la confiance de l’utilisateur.

J’ai déjà évoqué les normes issues des grands acteurs de l’informatique : Liberty et WS-Federation. Je n’ai pas encore évoqué une norme plus simple, issue du monde du Web 2.0 : OpenID.

L’avantage d’OpenID réside dans son caractère opérationnel et pragmatique, qualité qu’on retrouve souvent dans les applications Web 2.0.

De fait, il existe d’ors et déjà des implémentations opérationnelles d’OpenID sur le Web qui permettent aux utilisateurs de se familiariser avec les concepts de fédération d’identité :

J’ai, pour ma part, adopté le service de Verisign, car j’ai suffisamment confiance en cette société pour lui confier mon identité. J’ai stocké dans le serveur d’identité (cf. photo d’écran) :

  • mes patronymes, date de naissance
  • mes emails, numéros de téléphone personnels et professionnels
  • mes adresses personnelles et professionnelles

Cette identité OpenID est en ligne à l’URL : gplouin.pip.verisignlabs.com

J’ai alors la possibilité de créer des profils de confiance (cf. photo d’écran) :

  • « profil anonyme » : les applications qui utiliseront ce profil ne connaîtront pas mon identité
  • « profil blog » : les applications qui utiliseront ce profil connaîtront uniquement mon patronyme et l’adresse de mon blog
  • « profil e-commerce» : les applications qui utiliseront ce profil connaîtront mon patronyme et mon adresse

J’ai pu ensuite m’inscrire sur zooomr.com en lui passant l’URL de mon identité. Zoomr m’a redirigé vers Verisign pour :

  • M’authentifier
  • Choisir le profil à présenter à Zoomr
  • Choisir si je souhaite pérenniser le lien entre Zoomr et mon identité Verisign

A partir de là, Zoomr et d’autres services délégueront mon authentification au service de Verisign et y puiseront les données accessibles dans mon profil (cf. photo d’écran).


La norme OpenID est extrêmement prometteuse pour assurer plus de sécurité aux services en ligne et ainsi renforcer la confiance des utilisateurs.
Toute la problématique réside maintenant dans la compréhension de ces principes non triviaux par les utilisateurs. Microsoft CardSpace aidera probablement à faciliter cette compréhension (voir ce billet).

Pour conclure, je tiens à souligner qu’OpenID ne remplacera pas les normes Liberty et WS-Federation au sein les entreprises. En effet, ces normes sont plus complètes, et déjà implémentées par les grands acteurs de l’informatique (IBM, Sun, Novell, Oracle, Microsoft, etc.). Par contre, la norme OpenID est très intéressante pour fournir des services hébergés.

J’espère que cette petite présentation vous poussera à tester les services OpenID.

Technologies télécom : chronique d’un chaos annoncé

Posted in tendances

Ce billet fait suite à un échange avec un spécialiste des technologies 3G.

Nous avons affaire depuis quelques années à une multiplication des technologies télécoms, en particulier dans le domaine du sans-fil. Ainsi les entreprises doivent souvent gérer diverses technologies:

  • Filaire : lignes spécialisées, ADSL, fibre optique, VPN MPLS, etc.
  • Sans fil : Wifi, WiMAX, 2G (GSM, GPRS, EDGE), 3G (UMTS, HSDPA), etc.

Cette diversité brouille la compréhension des utilisateurs et nécessite des appareils nomades extrêmement versatiles pour pouvoir passer d’une technologie à l’autre. Il n’existe d’ailleurs aucun appareil sur le marché capable de gérer l’ensemble des réseaux sans fils cités ci-dessus.
En plus de la complexité de gestion de la coexistence de ces différentes technologies, les utilisateurs doivent gérer 2 problématiques :

  • Pas de prise en charge du « handover », c’est-à-dire pas de possibilité de basculer d’un réseau à un autre sans interruption de communication
  • pas de proposition de services unifiés : en général, chaque technologie dispose de sa propre offre de services (communication vocale pour la 2G et 3G, accès au Web pour le WiFi, etc.)

On constate ainsi que l’entropie des technologies télécom mène à une offre illisible, et ce d’autant plus que les opérateurs sont spécialisés (Free pour le WiMAX, METEOR Network pour le Wifi, Bouygues Télécom pour l’Edge, SFR et Orange pour la 3G, etc.).

Ainsi, si les technologies continuent à se diversifier, et si les opérateurs restent spécialisés et locaux, les utilisateurs vont être confronté à un véritable casse tête : savoir que dans telle région, telle technologie est disponible auprès de tel opérateur qui propose tel mode de facturation…

Pour éviter ce chaos annoncé, plusieurs opérateurs (Orange, British Télécom, etc.) tendent à se transformer en « opérateurs unifiés » et à déployer une technologie d’intégration des réseaux dénommée IMS.

IMS signifie IP Multimedia Subsystem. Cette norme propose aux opérateurs de déployer un cœur de réseau agnostique en matière de technologie de transport et ainsi d’offrir aux utilisateurs :

  • Le handover
  • Des services indépendants de la couche de transport
  • Une notion de présence unifiée basée sur SIP (Session Initialisation Protocol).

SIP permet de joindre un correspondant via un identifiant unique (voir ce billet) quel que soit le mode de collaboration (voix, vidéo, messagerie instantanée, etc.) et quel que soit le réseau sous-jacent.

Les normes IMS et SIP offrent une opportunité intéressante pour sortir d’un chaos télécom annoncé. Cependant, IMS est une norme complexe et encore jeune. Elle demande aux opérateurs des investissements importants et ces derniers ont déjà payé très cher leur licence 3G.
Le succès d’IMS reste ainsi incertain, d’autant plus que la norme est critiquée par certains acteurs, comme le cabinet Yankee Group.

L’avenir nous dira si le modèle de l’opérateur unifié fonctionnera avant l’arrivée de la 4G…

RFID & annuaires de produits

Posted in tendances

Les RFID ont atteint depuis peu un nouveau degré de maturité, ramenant ce sujet sur le devant de la scène.
Rappelons que les RFID sont des étiquettes radio-fréquence permettant de marquer toutes sortes d’objets (produits de consommation, bagages, etc.) afin d’assurer leur traçabilité.

Les standards RFID sont spécifiés par un organisme de normalisation dénommé EPC Global.
La nouveauté est une avancée dans la normalisation, l’EPC Génération 2, qui permet la banalisation des marqueurs RFID et la baisse de leurs coûts jusqu’ à 8 centimes d’euros. Grâce à cette nouvelle norme, on devrait voir débarquer massivement les puces dans notre vie quotidienne.

Avec la montée en puissance des RFID, nous allons voir arriver d’autres concepts issus de l’EPC : les ONS (Object Name Services) et les EPCIS (EPC Information Service).
Les EPCIS sont des annuaires de produits qui ressemblent un peu à l’annuaire Gracenote. Gracenote est un service en ligne que consultent les logiciels de gestion de média (iTunes, Windows Media, Real, etc.) lorsque l’on insère un CD audio dans un ordinateur : ces logiciels accèdent alors à un service qui leur permet de collecter, sur la base du numéro de série du CD, ses métadonnées (nom de l’artiste, des morceaux, etc.)
Avec les RFID et les EPCIS, ce principe sera généralisé. Ainsi, lorsque l’on présentera un produit intégrant un marqueur RFID à un ordinateur équipé d’un lecteur adapté, on pourra accéder à toutes ses informations, publiées en ligne dans l’EPCIS du constructeur du produit.
Les EPCIS permettront ainsi de connaître les caractéristiques d’un produit (matériaux, sous-traitants, etc.) et d’assurer la traçabilité de ses composants.

Les ONS permettront quant à eux de router les demandes vers les bons EPCIS, à la manière de l’espace de nommage des DNS (cf. schéma).

Cette architecture ouvre des perspectives extrêmement intéressantes pour la gestion des produits en architecture SOA.

Manifeste contre l’ "Email Push"

Posted in tendances

Je souhaite ici m’insurger contre une fausse bonne idée, une nouvelle tendance qui me semble aller dans une mauvaise direction, afin de montrer que certaines innovations sont vouées à disparaître.

Les opérateurs télécoms et les constructeurs de téléphones sophistiqués (Blackberry, Palm, Nokia, etc.) proposent depuis plusieurs mois une offre intitulée Email Push.
Cet Email Push consiste à être informé en temps réel de l’arrivée d’un email dans sa boite de messagerie.
Rappelons que le principe de l’email repose sur la « métaphore de la boite aux lettres », selon laquelle l’utilisateur va consulter sa boite de temps à autre, afin de savoir si on lui a écrit.
L’email est donc par définition un système asynchrone, basé sur une file d’attente (stockée dans le serveur de messagerie).
L’Email Push propose de rendre synchrone ce système asynchrone, et donc de pervertir les protocoles POP3 ou IMAP. Il repose pour cela sur un middleware qui garde un contact permanent avec le terminal mobile tout en interrogeant le serveur de messagerie en continu.
Ce middleware oblige à modifier l’architecture de la messagerie et il a un coût. Il a deux autres effets pervers :

  • La saturation du serveur de messagerie par des interrogations incessantes.
  • La nécessite que le terminal mobile soit toujours connecté au serveur, ce qui revient assez cher en terme de consommation téléphonique (au grand bonheur des opérateurs).

Au-delà de ces aspects techniques, l’Email Push est très caractéristique de la mauvaise compréhension d’un outil et de son usage à mauvais escient. Il existe un outil de communication synchrone : la messagerie instantanée. Elle est présente sur la plupart des terminaux mobiles.

Pour moi, cette fausse innovation est emblématique du fait que les communications en entreprise reposent trop souvent sur le couple téléphone/email et passent à coté d’autres outils collaboratifs parfois plus adaptés (voir ce billet).

Qu’en pensez-vous ?

.NET va-t-il rattraper JEE ?

Posted in tendances

La version finale du framework .NET 3.0 est sortie tout récemment. Elle apporte un lot de nouveautés tout à fait remarquables :

C’est l’occasion de faire un point sur la pénétration de .NET dans les entreprises françaises.
Pendant longtemps chez SQLI, la proportion de projet de développement était de l’ordre de 60% de projets en Java, 20% de projets .NET, et 20% de projets Open Source (principalement PHP).
La proportion de projets .NET suit une croissance constante depuis 1 à 2 ans aux dépends des projets JEE, chez SQLI comme chez les autres sociétés de services, à tel point que les compétences .NET commencent à manquer sur le marché. Microsoft a d’ailleurs constitué un centre de formation en France pour résorber cette carence.

Les raisons de la montée en puissance de .NET semblent être les suivantes :

  • La technologie Microsoft a su tirer parti des erreurs de JEE : elle est plus simple à prendre, plus pragmatique. Par exemple, JEE s’est longuement embourbé dans les problématiques de persistance avec les EJB 1 et 2. On peut aussi citer la complexité de prise en main de Java Cryptographic Extension avec les notions de providers JCE. .NET adopte une approche plus simple avec laquelle on évite des abstractions pas toujours indispensables. .NET semble ainsi bénéficier de toute la force de l’objet sans la complexité de la norme JEE.
  • L’ergonomie et la productivité de Visual Studio sont reconnues par tous : des études indépendantes ont montré un gain de productivité de 15%
  • Avec .NET, de nombreux besoins sont adressés par une solution simple et clairement identifiée : par exemple, un Client Riche .NET se développe avec des Winforms, là ou le développeur Java devra faire son choix parmi les offres AWT, SWING, RCP et JDNC. La complexité de l’écosystème des frameworks JEE est parfois excessive pour adresser des besoins simples.
  • Les interfaces Client Riche .NET restent plus stables que sous Java

Il existe actuellement un regain d’intérêt autour des méthodes de programmation agiles comme l’Extreme Programming. Cette tendance a fait naitre de nouveaux langages extrêmement productifs comme Ruby On Rails. Il semble que .NET soit aujourd’hui plus en phase avec cette tendance que JEE.

Le monde Java est tout à fait conscient de ses lourdeurs et des progrès sont en cours, en particulier sur la simplification des EJB ou sur la performance des interfaces riches.

Mais, il est difficile de concilier la complexité de la norme JEE, la richesse de son écosystème avec un objectif d’agilité.
Néanmoins, des initiatives récentes vont dans la bonne direction: chez SQLI, nous nous intéressons tout particulièrement à Groovy un langage agile capable de s’exécuter sur une plate-forme Java.

Malgré tout, le poids de JEE devrais lui faire perdre des parts de marché face aux innovations du monde Microsoft d’ici la fin de la décennie.

Qu’en pensez-vous ?