Skip to content

Mois : juin 2008

SaaS & Open Source

Posted in tendances

J’ai déjà évoqué dans cette tribune de l’atelier la complémentarité du modèle SaaS et du modèle Open Source : je vous propose de creuser ce sujet.

Les hébergeurs comme OVH ou Nexen utilisent depuis longtemps des logiciels Open Source comme socle de leur plateforme. Parmi les outils couramment utilisés, on peut citer Linux, Apache, MySQL, PHP. Les interfaces utilisateurs (exemple : webmail) sont souvent aussi basées sur des logiciels Open Source.
L’Open Source est ainsi un ingrédient incontournable pour une offre d’hébergement bon marché.

Les éditeurs de SaaS, comme Google ou Facebook, utilisent le même principe pour leurs plateformes (les PaaS, Platform as a Service). Les socles Open Source leur permettent de déployer des datacenters de grande taille disposant d’une grande fiabilité grâce à des technologies éprouvées par les communautés Open Source, à des coûts raisonnables.
L’Open Source les aide à proposer des offres à des prix compétitifs (exemple : Google Apps Premium à 40€/utilisateur/an). Songeons un instant à l’addition que Google devrait payer si Windows et IBM Websphere étaient déployés sur son million de serveurs …

Lors de la conférence Web 2.0 d’octobre 2005, Joe Kraus, fondateur d’Excite puis de JotSpot a déclaré que sa première plateforme lui avait couté 3 millions de dollars à la fin des années 90, tandis que la seconde lui aurait couté 100 000 dollars quelques années après (*). L’usage de l’Open Source est un des principaux facteurs de cette baisse des coûts. L’Open Source est ainsi un formidable accélérateur pour les Start Up qui se lancent dans le SaaS.

Il semblerait même qu’une licence Open Source spéciale ait émergé pour gérer le cadre des applications en ligne : la licence AFFERO,
A creuser ….

(*) J’ai lu ce témoignage dans « Comment le Web change le monde », excellent ouvrage de Francis Pisani et de Dominique Piotet.

Femtocells : la fin du Wifi ?

Posted in tendances

Je m’intéresse depuis quelques mois déjà au concept des Femtocells. Il s’agit, pour les opérateurs de téléphonie mobile, de déployer des antennes (2G/3G) directement chez leurs clients : entreprises ou particuliers.
Le déploiement de nouvelles antennes dans le paysage urbain est souvent impossible, faute de nouveaux immeubles prêts à les accepter.
L’intérêt des Femtocells est de renforcer les réseaux télécom, souvent saturés, par des relais de proximité au plus près des utilisateurs ; ces nouvelles antennes ne nécessitant l’accord que des utilisateurs concernés.
Il va sans dire que les Femtocells sont beaucoup moins puissantes que les antennes disposées sur les toits : pour information, ces dernières sont entourées par une zone « no man’s land », matérialisée par un cercle au sol, dans laquelle in est très dangereux de pénétrer. Et les techniciens de maintenance utilisent un protocole de désactivation avant de s’en approcher.

Les FemtoCells sont donc de petites antennes, comparables aux bornes Wifi, et intégrables dans une box ADSL (type Live Box ou Freebox).
SFR s’apprêterait à lancer des boxes Femtocells prochainement…

De mon point de vue, les Femtocells sont très intéressantes à deux titres :

  • Elles permettent d’améliorer la réception 2G/3G dans les zones mal couvertes (zone blanches) ou saturées (par exemple : la Défense)
  • la 3G est beaucoup plus simple à utiliser que le Wifi : en effet, elle intègre le roaming, c’est à dire la capacité à basculer simplement d’une antenne à une autre de manière transparente. De fait, le Wifi permet le nomadisme (travailler dans différent lieux), mais pas la mobilité (travailler en se déplaçant).

Ainsi, si la 3G avait le même débit que le Wifi, elle pourrait le remplacer grâce aux Femtocells, compte tenu de sa meilleure ergonomie.
Il fut une temps où l’on annonçait le triomphe du Wifi sur la 2G/3G : les Femtocells pourraient bien inverser la situation avec la 4G.

Qu’en pensez vous?

Risques des nouvelles technologies sur la vie privée

Posted in tendances

L’actualité est intense autour des nouvelles technologies et de la vie privée ces temps ci. J’ai eu divers échanges avec des clients ou des collègues de SQLI sur le sujet. Voici quelques unes de ces réflexions :

Identité électronique

Le passeport biométrique vient d’être lancé en France. Il intègrera photo et empreintes digitales numérisées. Il sera en test dans cinq départements cet automne (Somme, Oise, Aube, Gironde, Loire-Atlantique) et doit être généralisé en 2009, suite à l’équipement des mairies de scanners ad-hoc.
Il semblerait que la CNIL ait limité les risques sur la vie privée : les données sont portées par le passeport et non dans un serveur centralisé, et elles ne sont pas accessible sans contact.
A contrario, il existe un projet de passeport sans contact aux USA, qui soulève d’importantes craintes : il pourrait, selon certains, être utilisé pour détecter et agresser les citoyens américains.

Notre projet de carte d’identité électronique (Identité Nationale Électronique Sécurisée) semble quant à lui toujours dans l’impasse.

Identité administrative

Il semble que le projet de « guichet électronique » mon.service-public.fr sorte bientôt dans sa version finalisée, et qu’il intègrera un dispositif de fédération d’identité : certains de mes collègues ont travaillé sur ce système.
Il se pourrait que nos données d’identité administratives soient agrégées : numéro des impôts, numéro de sécurité sociale, numéro de carte d »identité, etc.

Dossier médical personnel

Google et Microsoft ont sorti depuis peu leur offre de dossier de santé hébergé. Le projet de dossier médical personnel (DMP) français semble être quant à lui dans l’impasse.

Je me demande si les offres opérationnelles d’acteurs privées ne risquent pas de convaincre les utilisateurs et finalement de prendre la place du DMP national. En effet, elles offrent des fonctions bien pratiques: historiser ses traitements, disposer d’alertes vaccins, etc.

Projection sur les assurances santé

L’ouvrage de Jacques Attali, une brève Histoire de l’avenir, prédit que les sociétés d’assurance vont un jour nous équiper de capteurs, afin d’adapter notre police d’assurance à notre condition physique. Les américains seraient prêts à accepter ces capteurs…

Dans le même registre, un de mes collègues a du faire quatre prises de sang pour obtenir un prêt immobilier auprès d’une grande banque française….

Et vous, êtes vous paranoïaque sur la protection de vos données privées?

Le Web2.0 inventé en 1969 !

Posted in perspectives

Je vous conseille vivement la consultation de cette vidéo de l’INA, qui montre une vision extrêmement juste de l’Internet d’aujourd’hui en 1969.

une grande leçon d’humilité pour tous les gurus du Web 2.0 !

Si je devais me lancer dans une projection du même genre pour 2050, je parierais sur :

  • la production d’information par tous, et plus seulement par les professionnels (c’est déjà le cas avec le Web 2.0)
  • l’omniprésence d’Internet, bien entendu, avec la montée en puissance du télétravail et des petits entrepreneurs indépendants
  • la disparition de la notion de PC au profit de l’ubimedia et d’un « Minitel Internet »
  • la dématérialisation de tous les contenus informatifs, et même d’objets physiques simples, grâce aux imprimantes 3D
  • le passage dans le domaine public de nombreux types de contenus : logiciels libres, œuvres libres de droits, mais aussi plans d’appareils, de bâtiments, de voitures, etc.
  • la fin de la possession des supports d’information (CD, DVD, livres, etc.) : tout sera accédé à la demande depuis le réseau. Les bibliothèques disparaitront peu à peu de nos salons. Et nous partagerons avec nos amis uniquement nos playlists.
  • la fin des média en broadcast (télévision, radio) au profit d’un accès à l’information par démarche volontaire

Qu’en pensez vous? Faut il compléter cette liste?