Les applications permettent aux entreprises d’interagir directement avec leurs clients sur n’importe quel support : web/ mobiles/ tablettes. Cette nouvelle normalité informatique force les entreprises à fournir une expérience utilisateur graphiquement irréprochable et techniquement aboutie. Le cloud est donc le passage naturel pour faciliter cette ouverture vers l’extérieur !
Les applications, avenir des sociétés ? Une enquête de CA technologie montre pourtant les principaux freins qui empêchent les entreprises de s’emparer de l’économie des applications :
¤ Manque de ressources (besoin d’investir dans les outils technologiques, recruter ou former des spécialistes)
¤ Culture d’entreprise inadaptée au changement
¤ Restriction budgétaire
¤ La sécurité
Les entreprises reconnaissent une forte pression de la part des métiers afin de lancer de nouvelles applications ou bien d’ouvrir de nouveaux services. L’adoption du cloud doit permettre de lever tous ces freins et de permettre aux entreprises la création de valeur.
Le Cloud passe par les architectures informatiques.
L’informatique a toujours eu comme mission d’augmenter la productivité des utilisateurs. Cependant l’informatique ne s’est pas forcément appliquée à elle-même cet objectif.
En l’espace de 40 ans nous sommes passés d’un monde informatique basé sur l’infra a un monde des applications. Pour comprendre cette évolution, essayons d’analyser de plus près les grands changements des architectures ainsi que les conséquences sur le management des applications :
Phase 1 – années 70, l’Informatique monolithique centralisée « mainframe-centric ».
Réservée aux grandes entreprises, l’informatique est concentrée autour d’un ordinateur central « mainframe » auquel sont connectés des terminaux passifs. Tous les utilisateurs sont alors connectés sur la même unité centrale. Le mainframe n’affiche que du texte à l’écran. Il est spécialisé dans la gestion d’informations de masse auquel il peut appliquer des instructions simples (addition, soustraction…) mais avec une grande vélocité. Plusieurs milliers de personnes peuvent travailler sur cette unité centrale sans ralentissement. Les applications utilisent des langages de programmation anciens.
L’informatique est essentiellement gérée par des ingénieurs systèmes et les applications sont des applications « maison ». Chaque application a son infrastructure dédiée. La vélocité et la flexibilité sont fortes, on peut installer n’importe quel patch, mise à jour des OS etc. On peut dire que c’était une ère de grande flexibilité mais avec une très faible optimisation des ressources hardware.
Phase 2 : Années 80/90 – L’Informatique répartie distribuée (client-serveur).
Accessible aux moyennes entreprises, on voit apparaitre la notion de progiciels. Ces applications fonctionnent sur une infrastructure distribuée. Les ingénieurs réseaux viennent alors renforcer les équipes « système ».
Les ressources sont cependant gaspillées. Les organisations informatiques se sont retrouvées figées avec des évolutions et des tests de non régression complexes à gérer sur les applications. La vélocité et la flexibilité sont devenues très faibles surtout lorsque l’entreprise est répartie sur plusieurs sites. La difficulté vient surtout du fait que chaque serveur peut être partagé pour plusieurs applications.
Nous sommes à l’ère des applications n-tiers :
2-tiers
Ce type d’architecture caractérise les environnements client-serveur où le poste client demande une ressource au serveur qui la fournit à partir de ses propres ressources.
3-tiers
Dans cette architecture, un niveau supplémentaire est ajouté. Un client (l’ordinateur demandeur de ressources) est équipé d’une interface utilisateur (client lourd ou navigateur web) chargée de la présentation. Un serveur d’application (appelé middleware) qui fournit la ressource, mais en faisant appel à un autre serveur. Un serveur de données qui fournit au serveur d’application les données requises pour répondre au client. L’architecture 3 tiers permet de spécialiser les serveurs dans une tâche précise : avantage de flexibilité, de sécurité et de performance.
On commence à voir apparaître les applications Web avec l’ASP (partagées) .
Multi-tiers
L’architecture peut être étendue sur un nombre de niveaux plus important. On parle dans ce cas d’architecture multi-tiers.
Phase 3 : Années 2000 – Virtualisation
Ces architectures résolvent le conflit entre la vélocité et la flexibilité. Les ressources hardware sont alors mutualisées ce qui permet une réelle optimisation des ressources inutilisées. Chaque application peut alors retrouver son propre OS sur une VM dédiée ce qui permet de faciliter les évolutions sans impacter les autres applications sur les autres VM tout en fonctionnant sur le même serveur physique.
Ces architectures génèrent une nouvelle difficulté pour les éditeurs d’applications celle d’avoir deux niveaux d’administration : les OS au niveau des VM et l’OS au niveau des serveurs physiques. Une entreprise avec une centaine d’applications peut rapidement se retrouver avec plus de 1000 serveurs à gérer. Comment peut-elle manager une telle complexité ?
Phase 4 : Années 2010 – Cloud Computing
Nouveau concept d’externalisation de l’IT poussé par la course à la puissance. L’entreprise n’héberge plus ses infrastructures. Nous voyons l’apparition du IaaS (Amazon en 2006) permettant de reproduire en externe les infrastructures internes déjà virtualisées ou non. Les ressources informatiques commencent leur mutation en notion de service (Anything as a service). Nous commençons à voir apparaitre la notion d’élasticité (les ressources s’adaptent au besoin des applications) et le Pay as You Go (Payez ce que vous utilisez).
C’est le début de l’explosion des applications SaaS.
L’entreprise peut se décharger de la complexité du management des infrastructures. Cependant la difficulté de gestion des déploiements reste entière.
Vers la disparition de l’infrastructure …
La prochaine phase sera une infrastructure Application – centric : Les rôles sont inversés, là où l’infrastructure était au centre de l’IT, c’est l’application qui va gérer ses propres ressources virtuelles. L’infrastructure deviendra fournisseur des ressources élémentaires dont elle a besoin (CPU, mémoire, réseau, stockage).
Le management des ressources se retrouve simplifié puisque chaque application gère elle-même ses ressources. Cette approche permet aussi de redonner la responsabilité des SLA au fournisseur de IaaS. Les services IT doivent se focaliser sur le déploiement et l’administration des applications métiers.
Nous sommes au début d’un nouveau cycle industriel de l’informatique. C’est à ce stade où l’infrastructure disparaît complètement et l’objectif du cloud computing, devenant une véritable ressource numérique, prend tout son sens.
L’IT ne devra plus considérer que le système/l’infrastructure fait partie de son application
Le métier va pouvoir mesurer le succès de l’IT non plus sur la vitesse des serveurs et des routeurs mais bien sur le fait que l’IT peut délivrer des applications à temps avec le bon niveau de service. Les utilisateurs vont pouvoir juger l’IT par rapport à la performance applicative.
Mais pourquoi bousculer l’informatique d’aujourd’hui ? Même si notre conclusion apporte déjà quelques éléments de réponse, nous rentrerons plus dans le détail dans le prochain article.
The post La nouvelle économie des applis appeared first on Cloud Experience.