Skip to content

Mois : novembre 2009

Microsoft renoue avec les communautés

Posted in tendances

La semaine dernière a eu lieu la PDC2009, c’est à dire la grand messe annuelle de Microsoft sur ses nouveaux produits (voir ce billet sur la PDC 2008). Cette PDC a donné lieu à des annonces plutôt étonnantes qui confirment le changement de vision du géant de Redmond.
Microsoft semble en effet collaborer de plus en plus avec les communautés du Web, auprès desquelles son image de « grand Satan » de l’informatique commence à disparaître. Je pense que cette nouvelle attitude est largement due à Ray Ozzie.

Voici les faits :
Microsoft a annoncé que la plateforme de Cloud Computing Azure allait devenir agnostique sur le plan technologique. Elle pourra en effet exécuter du code PHP, Python, Ruby et même Java. Une ouverture étonnante chez un acteur réputé pour ses technologie propriétaires.
Microsoft a même réussi à faire venir les dirigeants de Worpress à sa PDC : ces derniers ont annoncé le portage sur Azure de la solution Open Source de référence dans la blogosphère…

Le moteur de recherche Bing a annoncé un partenariat avec la plateforme Twitter pour indexer le « Web temps réel » avant Google.
Microsoft est aussi en négociations avec Rupert Mordoch pour indexer les contenus du groupe News Corp, qui échapperaient à Google.

Enfin, une annonce m’a particulièrement surpris : Outlook va s’interfacer avec la plateforme LinkedIn. J’attendais cette intégration depuis longtemps dans Google Apps, et c’est Outlook qui en aura la primeur.

Jusqu’à présent, c’était Google qui avait les meilleures relations avec les communautés grâce à sa politique d’ouverture et de fourniture de code Open Source. Il semble que la réputation du géant de Mountain Views ait souffert des polémiques autour de l’indexation de la presse, et de la numération des livres. Google semble devenir le nouveau Satan pour certains.

Si je ne partage pas du tout cette vision négative de Google (cf. ce billet sur les eBooks), je trouve assez positif que la compétition pour la conquête de communautés et partenaires soit relancée entre ces 2 géants de l’informatique.

Et vous ?

Cloud & buzz sur TV4IT

Posted in conférences

L’équipe de TV4IT m’a demandé, fin octobre, de faire le point sur le buzz qui entoure les offres de Cloud Computing.

Nous avons évoqué les limites du terme « Cloud privé », la nécessité de déployer de vraies architectures « multi-tenant pour » offrir des services SaaS ou PaaS.

Nouveaux paradigmes du Green IT

Posted in tendances

J’ai été invité, la semaine dernière, au salon Med-IT, qui se tenait à Casablanca. J’y ai fait une présentation sur le Cloud Computing et j’ai pu suivre plusieurs sessions intéressantes sur la thématique du Green IT. Le propos de ce billet est de synthétiser les idées qui m’ont marqué sur l’informatique responsable.

L’IT, un concurrent pour l’humanité ?

Un intervenant a fait un parallèle intéressant entre la consommation de l’IT et celle des humains. Il semblerait que :

  • Un rack, c’est à dire une unité serveur au sein un datacenter, consomme autant d’électricité qu’un ménage
  • Une baie de serveur consomme autant d’électricité qu’un immeuble. Le parallèle est d’autant plus amusant qu’une baie de serveur a la même forme que des appartements superposés au sein d’une tour d’habitation.
  • Un datacenter d’envergure consomme autant d’électricité qu’une ville

Il en résulte une possible concurrence entre les villes humaines et les datacenters pour l’accès à l’énergie. J’ai même entendu que cette concurrence était avérée en région parisienne où EDF ne peut plus augmenter suffisamment sa production d’énergie pour permettre l’implantation de nouveaux datacenters.

Cette idée de concurrence entre l’homme et la machine m’a amusé car elle est au cœur de nombreux films de science fiction.

Une facture jusqu’ici ignorée par les DSI

J’ai appris aussi que la plupart des DSI ignorent complètement la facture électrique de leur datacenters, car cette facture est généralement payée par les services généraux, au même titre que le chauffage. Il semblerait que cette facture représenterait 50% des coûts de l’IT dans un futur proche. Il parait donc complètement incroyable que les DSI tentent de rationaliser leurs coûts en en ignorant une partie essentielle…

De la même manière que pour la téléphonie sur IP, la récupération par la DSI de la gestion de la consommation électrique devrait contribuer à mieux maîtriser les coûts.

Vers des datacenters autorégulés

J’ai souvent entendu parler des Smart Grids. Lorsque j’ai rencontré ce terme pour la première fois, c’était dans la bouche d’un collaborateur d’Areva. Il m’avait expliqué qu’il s’agissait d’un système de gestion intelligente destiné aux producteurs électriques : grâce à des capteurs placés dans le réseau et chez les particuliers, le producteur d’électricité est capable d’adapter sa production à la demande en temps réel.

Puis j’ai assisté à un Clean Tuesday parisien en septembre. Le terme « Smart Grid » semblait y désigner toute infrastructure capable de s’autoréguler.

Les intervenants de Med-IT ont évoqué des datacenters capables d’éteindre des machines en cas de baisse de charge. Le modèle de consolidation des datacenters deviendrait donc :

  1. Regroupement des applications sur un site unique
  2. Mutualisation des outils d’administration
  3. Rationalisation des ressources machines
  4. Virtualisation de l’exécution et du stockage
  5. Recours à un système de régulation dynamique capable d’éteindre les machines inutilisées

L’objectif de cette régulation intelligente est d’atteindre un PUE (Power usage effectiveness) proche de 1, alors qu’il est généralement proche de 3.

Pour mémoire, un PUE à 1 signifie que toute l’énergie est utilisée par les applications hébergées, tandis qu’un PUE à 3 signifie que seulement 1/3 de l’énergie est au service des applications. Les 2 autres tiers alimentent les systèmes de refroidissement et l’infrastructure (routeurs, lecteurs de disques, etc.)

Google doit être proche du niveau de maturité maximal, puisque le géant du Cloud Computing à communiqué sur un PUE de 1,21…

Les perspectives de la réalité augmentée (suite)

Posted in perspectives

J’ai déjà abordé la thématique de la réalité augmentée ou AR (Augmented Reality) dans un précédent billet.

Sur le sujet, je vous invite à lire cet intéressant article qui énumère les cas d’usage de l’AR.

Le propos de ce nouveau billet d’essayer de dessiner l’évolution à venir de ces technologies, au travers de 4 niveaux de maturité.

Niveau 1 : les points d’intérêt

Mon précédent billet présentait la réalité augmentée comme un ensemble de couches d’information projetées en surimpression sur le monde réel, généralement au travers de l’écran d’un téléphone mobile. Ces couches sont constituées d’un ensemble de points d’intérêt, à la manière de ce ceux des appareils GPS, ou à la manière des données KML affichées sur les fonds de carte Google Maps.

L’application Layar, disponible aujourd’hui sur Android et iPhone, est la parfaite illustration de ce mode de réalité augmentée : elle permet d’afficher diverses couches : des informations issues de Wikipedia sur les monuments, les restaurants, les stations de métro, les prix au mètre carré des immeubles, etc.

AR : points d'intérêt

Niveau 2 : l’intégration de formes 3D

L’application Layar est capable depuis peu d’afficher des objets en 3D. Cette possibilité permet d’envisager des usages beaucoup plus sophistiqués de la réalité augmentée, grâce à la présentation d’informations visuelles en surimpression de la réalité (voir exemple ci dessous). On atteint selon moi un second niveau de maturité.

AR - pacman

Niveau 3 : l’analyse en temps réel

J’ai évoqué jusqu’à présent des systèmes purement orientées affichage, incapable d’interagir avec la réalité elle même.

On franchirait un nouveau niveau de maturité avec des applications capables de reconnaître des formes ou des images dans notre environnement réel, d’interpréter notre contexte, et de déclencher des traitements ad-hoc.

Il existe dores et déjà des expérimentations consistant à reconnaître des visages ou bien la couverture des livres par traitement d’image, mais pas de reconnaissance de forme généraliste. De plus, à ma connaissance, ces technologies ne sont pas encore disponibles sur des appareils mobiles comme les iPhones ou les appareils Android. Et je doute que de tels appareils disposent aujourd’hui d’une puissance suffisante pour une analyse de contexte général en 3D.

Le niveau 3 est donc prospectif.

Niveau 4 : « wearable »

Enfin, la réalité augmentée sur téléphone mobile est très satisfaisante, mais elle a ses limites : elle monopolise une main.

Le 4ème niveau de maturité utiliserait donc un équipement attaché au corps : on parle pour cela de wearable computer.

Cet équipement peut être fixé sur le torse de l’utilisateur  : c’est le cas du dispositif expérimental de Pranav Mistry du Media Lab au MIT (voir vidéo ci dessous).

On peut aussi imaginer un dispositif fixé sur la tête pour suivre les mouvements du regard, comme, par exemple, des lunettes augmentées.

Les dispositifs de niveau 4 ne sortiront pas avant 3 ans sur le marché, j’en ai peur.