Now Reading
A priori N° 5 : Pour être fort dans le Cloud, il faut avoir un datacenter
0

A priori N° 5 : Pour être fort dans le Cloud, il faut avoir un datacenter

by Cloud Guru24 novembre 2011

L’univers du Cloud implique une centralisation forte des données et des applications dans des datacenters qui tiennent désormais une position stratégique. Et la tentation est grande de postuler pour détenir cette position, d’autant plus qu’elle sert les intérêts souvent très «court-termistes» des constructeurs.

Mais la barrière à l’entrée n’est-elle déjà pas très élevé et hors de portée de la plupart des intégrateurs ?

Quelques pistes pour déjouer les pièges et trouver des solutions pour gagner la «bataille de l’infra».

Un besoin de proximité et de confiance

Jean, directeur informatique d’une grosse PME régionale, est client de CIS Valley, intégrateur bien connu dont le siège est situé à Bordeaux. Il vient d’accepter une proposition d’infogérance que lui a faite son commercial à l’aune des nombreux avantages, économiques notamment, qu’elle comporte. Mais, la décision ne fut pas facile à prendre. Par cinq fois, il a du affronter son patron qui lui a demandé «es-tu sûr de ta décision ?», «sais-tu que si nos informations disparaissent, c’est toute l’entreprise qui est dissoute ?».

Pour le rassurer, avec la complicité de l’intégrateur, Jean organise une visite du data-center de CIS Valley, situé à quelques dizaines de kilomètres de son entreprise. Ainsi, son patron peut-il toucher les serveurs qui porteront le savoir de son entreprise, voir l’environnement, discuter avec l’équipe présente sur place et s’en retourner, enfin rassuré.

Cette situation, la plupart des intégrateurs l’ont vécue, au moins une fois. Elle démontre le rapport physique que de nombreux clients souhaitent avoir avec leurs infrastructure informatique. «Où sont mes informations ?» est une question aussi fréquente que «où sont-elles sauvegardées ?»

Dans ce contexte, parler de virtualisation complète du système d’information, applications et données dans un lieu non identifié et potentiellement changeant, fait perdre l’équilibre à bien des responsables d’entreprise ! D’autant plus, que la moindre défaillance d’un datacenter public, chez Google, Amazon ou autre est immédiatement relayée et amplifiée dans les médias. C’est là le terrain privilégié du «FUD» ( Fear, Uncertainty, Doubt ) relayé plus ou moins intentionnellement dans les forums : et la CIA qui dispose d’une copie miroir de tous les data-centers et la possibilité pour les satellites chinois d’espionner tout le contenu de vos données lorsqu’elles se trouvent chez Google, j’en passe et des meilleures…

Ces craintes révèlent souvent l’existence d’une grande révolution. L’apparition du chemin de fer n’avait-elle pas fait dire à certains médecins «experts» de l’époque qu’il fallait arrêter son déploiement toute affaire cessante car «au-delà de 60km/h le cerveau risque de se liquéfier» !

Cette paranoïa fait bien les affaires des constructeurs de serveurs et de stockage. Si les hiérarchies mondiales de ces entreprises ne jurent que par le Cloud, il n’en reste pas moins que les commissions des commerciaux dont les organisations ont été prises de court, sont toujours évaluées sur la vente de serveurs ou de systèmes de stockage bien réels. Et si c’est cela aussi le désir des clients, peut-on leur en vouloir de surfer sur la vague du Cloud pour pousser les intégrateurs à s’équiper d’un datacenter voire de placer celui-ci dans l’enceinte même de l’entreprise cliente ?..

Mais n’y a-t-il pas un risque que ces positions somme toute conservatrices ne nuisent aux intérêts à long terme de nos clients et, dans une certaine mesure, à notre société dans son ensemble ?

 

Dix fois moins cher

Wikibon, une organisation indépendante de technologistes, essentiellement américains, a mené récemment une étude intéressante. Elle a comparé le coût d’un datacenter de 1 000 serveurs et celui de 1 000 serveurs placés dans un datacenter de 100 000 serveurs. Tous les coûts ont été intégrés : les serveurs, le staff, le stockage, le réseau, l’électricité ( y compris l’air conditionné ), l’espace immobilier et les services. Dans le premier cas nous arrivons à 3,3 millions de $ et dans le second à 0,8 million. Soit un rapport de 1 à 4 !

Compte-tenu des machines employées dans le second cas, plus puissantes que dans le premier, le rapport de coût ramené au Mips augmente pour atteindre 7.

Cette analyse réalisée par Wikibon montre les économies d’échelle considérables réalisées par les DataCenter «publics» et les avantages que les clients peuvent en espérer.

Enfin, il y a le principe «d’overbooking». Si vous achetez un serveur de 100Go de données, il est probable que vous ne l’utilisiez qu’à 30%. Ainsi, pour 30Go qui vous sont effectivement nécessaires, vous allez supporter le coût et consommer l’énergie d’un serveur de 100Go. Un datacenter «public» va lui revendre cet espace non-utilisé à un autre client. Et sachant qu’en moyenne, un client n’utilise que 30% de l’espace qui lui est alloué, il va pouvoir revendre ce même espace 3 fois et conserver encore de la marge en cas de pic d’activité. De plus, l’overbooking est bénéfique pour notre environnement puisque la consommation de l’énergie sera optimisée.

C’est ce même principe qui est utilisé par les banquiers avec notre argent. Ce qui nous fait dire que la gestion d’un datacenter «public» ( gérant plus de 50 000 serveurs ) devient un métier de banquier avec ses principes de probabilités, de statistiques, de coûts marginaux et de réassurance.

Au final, l’overbooking diminue encore les coûts d’un facteur 3 ce qui nous donne 3×7=21. Les coûts de la même informatique au sein d’un datacenter public revient ainsi 21 fois moins cher qu’un datacenter «privé» !

En admettant que nous nous trompions dans nos calculs et pour prendre en compte la marge commerciale de l’opérateur du datacenter public, divisons cet avantage par 2 ( ce qui est beaucoup ) et ramenons ainsi le bénéfice client à 10.

Autrement dit, pour un client qui désirerait mettre en place une informatique aujourd’hui, cela lui coûterait au moins 10 fois moins d’administrer celle-ci dans un Cloud Public que dans un datacenter «privé» interne ou même en externe chez un intégrateur ( à moins naturellement que celui-ci ne dispose de moyens suffisants pour mettre en place un datacenter comprenant plusieurs dizaines de milliers de serveurs ). Comme on dit familièrement : «ça calme !».

C’est ce qui explique l’extraordinaire phénomène de concentration de serveurs sur un nombre relativement restreint avec des sociétés comme Google qui dispose d’environ 5% de la totalité des serveurs installés dans le monde ( estimation car l’entreprise ne communique pas ce chiffre ), que OVH en France dispose de 90 000 serveurs et que la course aux datacenters soit actuellement si virulente.

A ce jour, peu de clients ont connaissance de ces éléments car les offres sont encore relativement nouvelles, peu matures, souvent mal adaptées dans leur mode de prix ou de service, mais elles évolueront rapidement et dans le bon sens. Deux phénomènes se conjugueront alors :

  • D’un côté, des offres de services de la part des datacenters publics qui répondent plus précisément aux attentes des clients notamment sur les questions de localisation des données, de fiabilité du système et de confidentialité ( après tout, les informations bancaires d’une entreprise ne sont-elles pas déjà hébergées «à l’extérieur» ? )
  • De l’autre côté, l’avènement d’une nouvelle génération de décideurs dans les entreprises, plus familiers avec le concept de virtualisation et toujours aussi soucieux d’améliorer la rentabilité de leur entreprise et pour qui de telles offres seront irrésistibles.

 

Quelques pistes pour accompagner les clients.

L’analyse que vous venons de présenter porte sur un client vierge de toute informatique. Cette situation se présente rarement en réalité. La plupart des clients disposent d’une infrastructure qu’elle soit interne ou infogérée et ne sont pas toujours disposés à remettre en cause «quelque chose qui marche» même au bénéfice d’un hypothétique bénéfice économique. Il est probable donc que les évolutions se feront graduellement. Cependant, gardons à l’esprit que dans le cadre de la mise en place d’une nouvelle application, d’un nouvel ERP, d’un outil de CRM…, il se posera la question.

Nous recommandons alors aux VARs et intégrateurs, de regarder en direction de plusieurs offres disponibles sur le marché.

En voici quelques unes.

Tout d’abord, il y a les datacenters publics qui sont d’autant plus nombreux qu’ils ont des origines et des ambitions diverses :

  • Les grands constructeurs/éditeurs comme IBM, HP, Microsoft,.
  • Les grands acteurs de l’internet comme Google, et AWS ( Amazon Web Services ).
  • Les nouveaux acteurs nés du Cloud comme Rackspace ( encore peu présent en Europe ) et de plus en plus de «brokers» d’espace qui s’adossent à plusieurs offres simultanément comme Rightscale
  • Les hébergeurs de site internet qui se reconvertissent dans le Cloud comme OVH ou 1+1 Internet
  • Les opérateurs télécom comme Orange, SFR ou Bouygues ( à considérer surtout dans un contexte de convergence entre l’informatique et les offres de mobilité )
  • Et enfin des nouveaux acteurs comme des grandes entreprises ou institutions financières dont certaines bénéficient d’infrastructures informatiques gigantesques dont une partie pourrait être mise à disposition de clients.

Ensuite, il y a la virtualisation des data centers (VPDC ou Virtual Public Data Center) telle que le proposent des entreprises comme 3Tera ou VMware. Le datacenter n’est plus une entité physique mais une entité logique. Comme le déclare Paul Maritz, CEO de VMware : «Aujourd’hui nous administrons des serveurs, demain nous administrerons des services». Découpler l’infrastructure logique et physique, c’est favoriser une approche agnostique qui s’accommode indifféremment d’une infrastructure interne ou externe, privée ou publique. C’est aussi faciliter considérablement la migration éventuelle de l’un à l’autre, quel que soit le sens choisi.

Enfin, pourquoi ne pas recommercialiser au prix marginal des espaces serveurs non-utilisés et qui ont peu de chance de l’être à court terme, où qu’ils soient, y compris chez les clients. Ne rendrions nous pas alors service aux propriétaires de ces espaces, à notre environnement et à d’autres clients en les remettant sur le marché à un prix défiant toute concurrence ?

Quelle que soit l’offre proposée, le seul principe qui doit guider le partenaire est de conserver son client non pas par la propriété du datacenter qui héberge son informatique mais par la capacité à lui proposer la meilleure offre d’hébergement pour aujourd’hui et pour demain.

{lang: 'fr'}
About The Author
Cloud Guru

Vous souhaitez réagir sur cet article ?