Currently Being Moderated

Lorsque la "crise" arrive, ou qu'on la sent arriver, à tort ou à raison, les budgets informatiques se réduisent ou se tarissent.

Nous l'avions déjà vécu en 2008. La situation, pour des causes différentes, se reproduit en 2011...

 

Alors... Comment réagir avec un budget IT en diminution ??

 

La démarche classique consiste à couper brutalement les projets; nous avons eu connaissance chez certains de nos clients de baisses de budgets IT de 30%, parfois étalées sur plusieurs années, parfois très brutales, sur un an (l’année suivante ou en cours)… Dans de telles circonstances, certains DSI pensent n'avoir d’autres choix que de supprimer des projets de renouvellement ou de modernisation de leurs infrastructures, et de prolonger à la place la maintenance de leurs solutions (voire parfois de supprimer toute maintenance, ce qui est encore plus dangereux). Par conséquent, au bout de quelques années, le système d’informations repose sur des solutions vétustes, qui atteignent parfois leur fin de support alors qu’elles sont encore en production, et qu’il faut par la suite mettre à jour en urgence, ce qui au final coûte plus cher que de moderniser progressivement ou de repenser son infrastructure.

 

Il existe pourtant une alternative qui consiste à investir aujourd’hui pour mieux économiser demain, et qui est compatible avec un budget qui se réduit : en repensant la façon de faire évoluer le système d’informations, en investissant dans la technologie la plus adaptée au besoin. Les nouvelles solutions complètes d’infrastructures partagées qui sont apparues sur le marché, comme FlexPod, socles de base du « cloud privé interne », ont comme avantage décisif une mutualisation optimale des ressources. Grâce à une gestion « à la demande » de la performance et de la capacité (de stockage ou de calcul), le ratio coût/performance par unité d’œuvre est optimisé.

Attardons-nous sur le stockage par exemple : non, toutes les données ne naissent pas égales et n’ont pas besoin d’être toutes gérées sur des baies de stockage High-End dernier cri (généralement très coûteuses…). Il existe des solutions, qui répondent efficacement, et au plus juste, aux besoins d’aujourd’hui, tout en ayant la possibilité de les faire évoluer progressivement ultérieurement, par incrément de puissance ou de capacité (sans avoir à remettre en cause l’investissement initial de départ, migrer les données, …). L’évolutivité et l’efficacité de la solution sont des critères de choix essentiels pour permettre aux DSI de continuer à faire évoluer leurs infrastructures sans prendre de risques avec des moyens réduits.

 

NetApp avait justement lancé une réflexion sur son site communautaire auprès de ses clients et de ses fournisseurs il y a un an, pour établir en commun de nouveaux critères d'achats pour les infrastructures partagées efficaces et flexibles. La situation actuelle me semble tout indiquée pour réfléchir à la façon d'utiliser son budget IT et de prendre en compte ces huit critères.

 

Je les rappelle :

CritèresdAchat.jpg

 

 

  • La solution se doit d'être évolutive tant sur le plan vertical (ce qui est  facilité par une véritable gamme d'architecture unifiée) qu'horizontal (ce qu’apporte une gestion en mode "Cluster")
  • Le critère d'efficacité du stockage est à évaluer : le fait de consolider des besoins variés sur une architecture partagée va générer des économies d'échelles, mais si chaque espace de données est lui-même extrêmement optimisé grâce à des fonctionnalités embarquées de déduplication, de compression, de clones fins... L'efficacité de la solution, son taux d'utilisation (et donc son ROI) s'en trouvent maximisés
  • Une mise en cache intelligente interface finement l’usage de disques économiques et capacitifs (ce qu'ils font très bien pour stocker et sécuriser les données, surtout avec du RAID-DP), et un système de cache qui décuple les performances dans la baie (comme FlashCache) ou à distance (comme FlexCache). Résultat : de bonnes performances et un coût maîtrisé.
  • Une architecture unifiée, c'est bien plus que le fait de gérer de multiples protocoles sur une seule baie. (Je ne sais pas si vous avez remarqué, mais tous les acteurs de stockage s'y mettent maintenant...). C'est aussi et surtout le fait d'avoir une gamme évolutive sans rupture, des fonctionnalités identiques quel que soit le mode d'accès aux données (NAS ou SAN) : un seul moteur de réplication, un seul snapshot, une unique fonction de déduplication et/ou de compression, ...
  • La protection intégrée des données : pourquoi redépenser de l'argent dans une solution matérielle et logicielle tierce pour protéger (sauvegarder et répliquer ses données), au risque de complexifier l'infrastructure, de perturber la production lors des sauvegarde, voire (et c'est du vécu - j'en parlerai dans un prochain billet) que ça ne marche pas, tout simplement... Si la solution de stockage embarque nativement des mécanismes de protection de données, il est possible de faire "d'une pierre deux coups" : de répondre à l'explosion des capacités ET de protéger l'information avec la même solution.
  • Il est évidemment obligatoire qu'une solution d'infrastructure partagée, sur laquelle on va faire converger les besoins de multiples environnements, (départements multiples au sein d'une même société, sociétés clientes distinctes pour un fournisseur de service ou un GIE) puisse fonctionner en continu : la solution doit donc disposer de fonctionnalités de mises à jour du logiciel et du matériel,  de déplacement de données, qui ne perturbent pas la disponibilité.
  • La colocation sécurisée (alias, le "secure multi-tenant") supprime le risque de perte de confidentialité sur une infrastructure partagée. Si, en plus, elle est prise en compte de bout en bout sur toute la chaîne IT (de l'application aux disques en passant par le réseau), c'est encore mieux (si c'est possible : VMware, Cisco et NetApp l'ont validé et le proposent ensemble)
  • Enfin, l'analyse de l'utilisation des ressources de l'infrastructure, afin de l'optimiser et l'automatisation, afin de répondre à la demande très rapidement (et sans risques d'erreurs, avec traçabilité des actions) sont également des éléments majeurs à évaluer dans la solution. Un logiciel d'analyse a comme avantage essentiel le fait d'aligner les besoins sur le bon niveau de service (et d'éviter soit le gâchis de ressource, soit le manque de ressource, qui peut s'avérer catastrophique). Ce serait formidable, non, s'il pouvait et aider à prendre des décisions bien avisées sur toute ma chaîne IT (serveur, réseau, stockage) et intégrer la virtualisation ?? (comme celui-ci).

 

 

En période de vaches maigres, il est possible (et conseillé !!) de prendre des décisions avisées sur un investissement informatique afin de gérer le quotidien mais surtout de préparer le futur !

 

Pour les FAS Bl@ggers,

CVA

Comments

Filter Blog

By author: By date:
By tag: