Skip to content

Étiquette : infrastructure

Publication de "Performance des architectures IT"

Posted in publications

En cette rentrée 2007, SQLI a le plaisir d’annoncer la publication en partenariat avec Dunod d’un livre intitulé « Performance des architectures IT ».

performance.jpg

Cet ouvrage est le premier à aborder la performance des systèmes d’information sous l’angle technologique : infrastructures, architecture, outils, etc.

Il s’adresse aux directeurs informatiques, aux responsables des études, aux architectes, aux responsables de la production, aux chefs de projets et aux consultants.

Son sommaire est est divisé en 4 parties :

  • La première partie introduit les concepts fondamentaux de la performance (temps de réponse, montée en charge, robustesse…) et les problématiques auxquelles sont confrontées aujourd’hui les équipes de la DSI.
  • La deuxième partie souligne l’importance de l’architecture dans la performance et la robustesse des applications du SI.
  • La troisième partie traite des infrastructures matérielles (réseaux, stockage…) et logicielles (applications, bases de données…), qui jouent un rôle clé dans le niveau de performance.
  • La quatrième partie fournit des bonnes pratiques immédiatement utilisables, regroupées par thèmes avec les techniques de programmation, les tests de performance, la gestion de la production et les pratiques de gestion de projet.

Le livre est disponible en ligne sur les sites de Dunod, Amazon.fr, la Fnac, et dans toutes les bonnes librairies.

Bonne lecture …

Open Source et plateforme d’entreprise

Posted in tendances

La semaine dernière un certain nombre d’acteurs majeurs de l’Open Source se sont regroupés pour former l’OSA, Open Source Alliance. L’objectif de ce nouvel organisme est de fédérer les efforts des communautés afin de créer une offre globale et cohérente d’infrastructure logicielle pour l’entreprise.

C’est l’occasion de revenir sur la notion d’APS, Application Platform Suite. Cet acronyme désigne une offre logicielle capable de répondre à la plupart des besoins d’un système d’information en terme d’infrastructure logicielle.
Une APS couvre ainsi :

  • Des outils pour héberger les applications qu’elles soient développées en spécifique ou issues d’intégration de progiciels : système d’exploitation, serveur d’application, base de données relationnelle.
  • Des outils pour gérer les échanges inter-applicatifs ou « middlewares » : MOM (Middlewares orientés Messages), EAI (Enterprise Application Integration), ESB (Enterprise Service Bus), etc.
  • Des outils pour gérer la sécurité d’accès aux applications de manière centralisée, ou outils de « gestion d’identité » : annuaire LDAP, PKI (infrastructure à clef publique), SSO (Single Sign On), token d’authentification forte, système de provisioning de comptes.
  • Des outils pour gérer les interfaces utilisateurs : portails et Clients Riches.

Aujourd’hui, quelques grands éditeurs couvrent l’ensemble de ces besoins : ce sont IBM, Microsoft, Oracle, et Sun (dans une moindre mesure). D’autres les couvrent partiellement, comme BEA, Novell ou Sybase.
Les grandes communautés Open Source, que sont Apache et OW2, tentent d’offrir un ensemble de briques logicielles aussi complet. Mais elles souffrent d’un retard et d’une dispersion des projets (par exemple, Linux ou OpenLDAP sont gérés par des communautés autonomes non rattachées à Apache ou OW2). Cette dispersion est un frein à la cohésion des offres et limite les capacités de ces communautés Open Source à fournir une APS intégrée.

Le tableau suivant montre ce manque de cohérence : Apache et ObjectWeb disposent en effet d’offres incomplètes, de maturité inégale, parfois redondantes, et souvent un peu illisibles.

Le cabinet d’analyse Gartner considère que les communautés Open Source n’ont pas la capacité d’offrir une APS cohérente.
Espérons que l’avenir lui donnera tort.
Qu’en pensez-vous ?

Microsoft propose la virtualisation en streaming !

Posted in tendances

Ce billet fait suite à un échange avec Arnaud Damme de SQLI Consulting.

J’ai évoqué dans ce billet les différentes techniques de virtualisation disponible sur le marché.

Microsoft, qui dispose déjà d’une technologie de "virtualisation x86" avec Virtual PC et Virtual Server, se différencie en proposant une technologie de virtualisation « en streaming » intitulée SoftGrid. Cette offre est destinée au déploiement d’application sur des postes utilisateurs.

Le principe cette technologie est le suivant :

  • Le poste hôte dispose d’une sorte de machine virtuelle d’un nouveau genre. Cette machine virtuelle est comparable à une machine virtuelle Java ou .NET dans le sens où elle peut être utilisée pour déployer des applications à distance (cf. Smart Client, chez Microsoft). Par contre, elle permet de déployer non pas du bytecode, mais des pseudo-exécutables après les avoir passés dans une application de transformation : le « SoftGrid Sequencer ».
  • Les pseudo-exécutables sont ensuite délivrés en streaming, c’est-à-dire qu’ils sont déployés à la demande, composant par composant, en fonction des besoins utilisateurs. De plus, ils ne sont pas sauvegardés sur le poste utilisateur, de la même manière que des flux audio/vidéo diffusés en Windows Media, Real ou Quicktime.

Il s’agit donc d’une variante de l’ « OS Level Virtualization » (cf. ce billet).

On peut s’interroger sur l’apport de ce nouveau mode de virtualisation qui vient s’ajouter aux concepts de RIA, RDA (voir ce billet) et de virtualisation x86.

A mon sens, l’objectif poursuivi par Microsoft est de se positionner sur les logiciels à la demande (SaaS, Software as a Service). L’éditeur vient d’ailleurs de sortir un site sur le sujet : http://msdn2.microsoft.com/en-us/architecture/aa699384.aspx

Mais Microsoft souhaite faire du SaaS tout en s’appuyant sur le poste Windows, afin d’inciter les entreprises à conserver leur parc Windows.
Je pense qu’il s’agit d’une réponse aux offres de clients légers ou clients Web, qui rendent le système de Microsoft moins indispensable. Une stratégie visant à protéger son produit phare, donc !

Qu’en pensez-vous ?

Informatique & environnement

Posted in tendances

L’année 2007 sera très probablement l’année de l’environnement : cette thématique est en effet au cœur de la campagne présidentielle, et les offres autour du développement durable se multiplient.

On retrouve cette tendance dans le domaine informatique :

  • Google a annoncé fin 2006 que son siège de Mountain View fonctionnait dorénavant à l’énergie solaire.
  • L’hébergeur Suisse Horus Networks propose des serveurs alimentés à l’énergie solaire.
  • Sun propose la BlackBox, un data-center clef en main dans un container, qui gère de manière rationalisée l’alimentation en énergie et le refroidissement
  • Les constructeurs s’engagent sur le recyclage de leurs composants
  • Les processeurs consomment moins d’énergie et dégagent moins de chaleur grâce aux double-cœurs
  • Etc.

Ces actions ne sont pas uniquement dictées par le sentiment écologique.
Par exemple, Google gère d’énormes data-centers qui comptent des centaines de milliers de serveurs, et sa dépendance aux fournisseurs d’électricité est très critique, tant sur le plan financier que sur celui de la disponibilité de l’énergie. L’énergie solaire est donc pour lui une façon salutaire de diversifier ses fournisseurs.

Avec la montée en puissance de l’e-business, c’est-à-dire l’informatisation globale des processus métiers, les problématiques d’alimentation, de stockage et de surchauffe des serveurs vont devenir une préoccupation pour la plupart des entreprises.

Il faudra donc se préoccuper de la consommation d’énergie des serveurs.
Une réponse à ce besoin est l’Appliance, une machine câblée en dur, stable, rationalisée et pérenne.

Qu’en pensez vous?

Hyperviseur : successeur du système d’exploitation ?

Posted in tendances

L’annonce de la sortie de « BEA bare metal » est l’occasion de faire le point sur les solutions de virtualisation et de lancer quelques projections sur leur évolution.

Rappelons que les solutions de virtualisation pour serveur se décomposent en quatre grandes familles :

  • Virtualisation x86 : ces solutions sont basées sur un système hôte et transparentes pour le système hébergé. Elles permettent d’empiler facilement des machines virtuelles sur un système existant. Les solutions de ce type les plus connues sont VMware Server et Microsoft Virtual Server.
  • Para-virtualisation : ces solutions sont basées sur un système hôte et nécessitent un portage du système hébergé. Elles sont plus complexes à utiliser, mais offrent de meilleures performances. La solution de ce type la plus connue est XEN.
  • Virtualisation sur couche matérielle (bare-metal Virtualization) : ces solutions sont basées sur un hyperviseur, sorte de pseudo système allégé, dédié à l’hébergement des machines virtuelles. Elles nécessitent de vraies compétences en virtualisation, mais offrent les meilleures performances. De plus, elles permettent de répartir les machines virtuelles sur une grappe de serveur et de les déplacer à chaud d’un serveur vers un autre. Les solutions de ce type les plus connues sont VMware ESX Server et IBM AS/400.
  • Virtualisation sur noyau système (OS Level Virtualization) : ces solutions mutualisent une partie du système d’exploitation hôte et virtualisent seulement des couches applicatives en les confinant dans des environnements étanches. Leur avantage sur les précédentes est d’éviter la duplication d’un noyau système sur le disque et en mémoire. La solution de ce type la plus connue est Solaris de Sun.

Ces différentes solutions intéressent de plus en plus les équipes de production des DSI car elles permettent de rationaliser les coûts d’infrastructures matérielles en répartissant au mieux leurs ressources en fonction des besoins applicatifs.
L’offre ESX de VMware, particulièrement innovante, connaît une forte adoption.

Une nouvelle tendance émerge : elle consiste à supprimer complètement le système d’exploitation serveur au profit d’un hyperviseur exécutant directement un serveur d’application. Ainsi, avec BEA Bare Metal, la machine virtuelle Java (Jrockit) et le serveur d’application (Weblogic) tournent directement sur sur l’hyperviseur (VMware).

On retrouve cette approche dans des appliances Java tout en un, comme :

  • Les solutions Azul Systems
  • Les data centers hébergeant les services Google (selon les rumeurs qui circulent sur Internet)

Ainsi, on pourrait voir disparaître un jour les systèmes serveurs au profit d’hyperviseurs bas niveaux. Cette architecture permettrait de transformer les infrastructures portant les serveurs d’applications en solutions câblées en dur, plus stables et plus performantes.

Qu’en pensez-vous ?