1 2 3 12 Previous Next

French Associated Storage Bl@ggers

173 Posts

OnCommand Workflow Automation (aka WFA) est un outil ultra puissant, permettant de piloter son stockage NetApp avec une grande finesse. OWA intègre la suite OnCommand depuis plusieurs années et connaît un développement grandissant (Nous en avions déjà parlé ici)

 

L’automatisation, brique essentielle au développement d’un Cloud public, privé ou hybride, peut paraître un peu complexe à mettre en œuvre et est souvent synonyme de développement et de scripting difficile à maintenir. OnCommand simplifiant bien les choses, nous avions déjà réalisé il y a quelques années sur ce même blog, la mise en place d’un catalogue de service. Je vous propose, au travers de quelques billets, de poursuivre ce chantier et d’aller plus loin avec OWA ! Le but n’est pas de remplacer les formations ou bien la communauté très active, mais simplement de vous aider à mettre le pied à l’étrier. OWA, ce n’est pas compliqué, et d'ailleurs, je l’ai testé pour vous

 

Voici d’abord quelques liens qui vont nous aider :

 

Aller c’est parti ! Commençons simplement. je vous propose de faire un workflow qui:

  • automatise la création d’un SVM (baie de stockage virtuelle, aka vServer)
  • configure le réseau
  • crée un volume
  • ajoute l'accès NFS aux utilisateurs

 

Partons du principe que OWA est installé et configuré pour piloter un clustered Data ONTAP et que les accès RBAC sont positionnés( tout portail de service Cloud nécessite une sécurité forte des accès, ce qui est paramétrable dans OWA)

 

On se connecte à l’interface web : https://monServeurOWA/wfa/

Screen Shot 2014-03-11 at 15.25.18.png

Bien qu’un certain nombre de workflows existent déjà et peuvent bien dépanner, je trouve que la « vraie » puissance de OWA est de faire un workflow « custom » qui réponde exactement à ce que l’on souhaite faire.

 

Pour cela on choisit le menu « Designer », rubrique « Workflows » puis « New »

Screen Shot 2014-03-11 at 15.31.06.png

On remplit les différents champs puis on va dans l'onglet « Commands »


Avant de se lancer dans un workflow complet avec de multiples actions, il faut bien définir ce que l’on souhaite faire et cibler le but à atteindre. Une fois le design réalisé nous allons utiliser les commandes présentes dans WFA et validées par NetApp. Bien que la liste des commandes doive répondre à toutes vos manipulations de Data ONTAP, rien ne vous empêche de créer vos propres commandes en Perl ou en PowerShell. Là encore, ZEDI peut vous aider.

Si on décompose notre workflow en commandes unitaires présentes dans OWA, voici ce que ça donne :

  • Création et configuration réseau d’un SVM
  • Setup du service NFS du SVM créé à l'étape précédente
  • Création d’une politique d’export
  • Création d’un volume utilisant la politique d'export créée

Screen Shot 2014-03-11 at 15.37.35.png

Naviguez dans la liste pour parcourir les différentes commandes. La description détaillée de chacune d'elles est disponible dans « Designer », rubrique « Commands ».

Ici on utilise des commandes « cm_storage » destinées à cDOT. On les met dans l'ordre d’exécution de notre workflow

 

On retrouve la trame de notre workflow

Screen Shot 2014-03-11 at 15.44.41.png

Maintenant nous allons configurer notre workflow en paramétrant chaque commande. S’il y a une subtilité dans OWA, à mon avis elle est là En effet, pour chaque champs on peut soit :

  • Mettre une valeur en « dur » : Elle sera mise entre guillemets simples
  • Faire une sélection parmi un choix multiple : le choix des valeurs est imposé par l'auteur de la commande
  • Faire une sélection automatique suivant des filtres et des règles. C'est l'auteur de la commande qui vous l'impose
  • Laisser le choix à l’utilisateur du workflow (user input). On précédera le nom de la variable d'un $

 

Commençons par configurer notre SVM. On clique sur le rectangle en dessous de « Create and configure Storage Virtual Machine »

Screen Shot 2014-03-11 at 16.09.27.png

On choisit par exemple ici, de faire  uniquement du NFS , de configurer les IP des DNS ainsi que le nom de domaine de façon statique. Le Nom du SVM sera indiqué par l'utilisateur : on donne donc un nom de variable : $NomDuSVM.

 

Le champs précédés d"une puce verte « R » indique un champ « référence ». Ici par exemple, le nom du cluster doit faire référence à un élément connu de la base OWA (en d'autres termes, il doit s'agir d'un cluster configuré pour être piloter par OWA). On ne peut donc pas entrer n'importe quoi !

Screen Shot 2014-03-11 at 15.52.52.png

On clique sur le carré «...» pour chercher le cluster. On peut le sélectionner selon différents filtres (ex : « Filter clusters by license » pour « Trouve moi un cluster disposant de la licence NFS » ou n'importe quelle règle de sélection qui nous intéresse). Comme je débute et que je ne souhaite pas trop complexifier mon premier workflow, on va faire simple : on va chercher le cluster par son nom ! Pas de risque de se tromper

 

Screen Shot 2014-03-11 at 15.54.40.pngNous rentrons directement le nom du cluster. Ne pas oublier de le mettre entre guillemets simples !

 

Ensuite nous passons à l'onglet « Logical_Interface ». Nous créons une variable $IPduSVM pour permettre à l'utilisateur de choisir l'adresse IP. Le Netmask est fixé à 255.255.255.0. Là aussi, ne pas oublier les guillemets.

Screen Shot 2014-03-11 at 16.06.42.pngOn voit ici qu'OWA nous propose les noms de variables déjà utilisés

 

Nous construisons le nom de l'interface réseau avec l'adresse « IP »_LIF. C'est un exemple. On aurait pu utiliser $NomDuSVM (dejà rentré par 'utilisateur) ou mettre un nom en dur pour que tous les SVM aient le même nom interface par défaut. C'est au choix selon vos conventions de nommage.

Screen Shot 2014-03-11 at 16.07.18.png

Le « home_port » est aussi une référence, nous sélectionnons une interface réseau physique par défaut, et toujours dans un souci de simplicité à ce stade, nous donnons le nom d'une interface en dur.

Screen Shot 2014-03-11 at 16.00.56.png

Nous finissons la configuration du SVM en indiquant la Gateway, le type de sécurité appliqué au volume « Root » ainsi que son nom. Ce dernier sera fait par construction d'une valeur entrée par l'utilisateur (le nom du SVM) à laquelle on ajoute « _rootVol ». Tous les SVM créés par ce worklow auront ainsi la même convention de nommage du volume « Root ».

Screen Shot 2014-03-11 at 16.02.37.png

 

Il est maintenant temps de tester la 1ère partie de notre workflow !

 

Le test d'un workflow s'effectue en 2 phases :

- Le test logique : on teste l'enchainement des commandes sans rien exécuter grâce à la commande « Preview »

- Le test réel : les commandes sont exécutées et nous pourrons constater le résultat.

 

Test logique


Screen Shot 2014-03-11 at 16.15.59.png

A l’exécution du workflow, une fenêtre nous demande de rentrer le nom du SVM et son IP. En fait nous renseignons ici les variables $NomDuSVM et $IPduSVM. On clique sur « Preview »...

Screen Shot 2014-03-11 at 16.20.09.png

... et tout semble correct ! Dans l'onglet détail, on voit par exemple la construction du volume Root « $NomDuSVM+'_rootVol' » qui donne bien « FasBloggers_SVM1_rootVol » dans notre exemple.

 

Test réel

 

L’exécution du workflow est lancé avec les mêmes entrées que lors de la phase de « Preview ». Nous testons un ping sur cette IP...

Screen Shot 2014-03-11 at 16.21.33.png

 

Au bout de quelques instants, l'IP pingue ...

 

Screen Shot 2014-03-11 at 16.21.44.png

 

...et le worflow est exécuté avec succès !

 

Screen Shot 2014-03-11 at 16.36.30.pngUne petite vérification dans System Manager permet de contrôler la création de notre SVM

 

Et voilà, nous sommes arrivés au terme de cette première partie en créant un workflow  automatisant la création SVM en fonction de son environnement réseau. Nous verrons dans une prochaine partie compléter la configuration en faisant référence aux objets déjà créés.

 

Pour les F@SBloggers, MRO

 

 

 




L'édition Parisienne du Roadshow NetApp Directions 2014 s'est déroulée Mardi dernier dans une ambiance conviviale et studieuse. 250 participants nous ont rejoint pour cet événement au cœur du 8ème arrondissement . L'agenda de cette journée a été dense avec les interventions des speakers NetApp mais aussi celles, très attendues, de Cisco et IDC France.

 

csm_DSC01448_d4b9ada361.jpgScreen Shot 2014-03-21 at 17.02.11.png

Le stand Cisco présentait un FlexPod... virtuel sur écran tactile. Tous les éléments du FlexPod sont détaillés de façon dynamique

 

 

csm_DSC01534_3aab2e1e14.jpgL'intervention très attendue de Sébastien Lamour d'IDC France.

Les enjeux à venir : le Cloud, le BigData mais aussi la mobilité et les réseaux sociaux.

 

Les participants ont pu également assister à des ateliers « World Café » abordant des thématiques diverses comme le Flash, le Software-Defined-Storage, le Cloud hybride, mais aussi la continuité d'activité et de NDO (Non Disruptive Operations) qui restent des préoccupations majeures du maintien en condition opérationnelle. Vous retrouverez ces thématiques dans une série de billets à venir .

csm_DSC01492_46928a2287.jpg

Les World Cafés ont également rencontré un franc succès

 

 

A la conclusion de l’événement, le bilan est clair : le Flash est plus que jamais une réalité, le Cloud tient enfin ses promesses et l'attente des utilisateurs du Software-Defined est impressionnante. Force est de constater que les NetApp Directions sont parfaitement alignées avec les tendances du marché, avec la vision IDC ainsi qu'avec le cap stratégique de nos alliances majeures.

 

Ne perdez pas la boussole et suivez les NetApp Directions !

 

Pour les FASbl@ggers, MRO

Screen Shot 2014-03-11 at 18.38.22.pngMardi 18 Mars aura lieu l’événement NetApp Directions à Paris. Le NetApp Directions Roadshow est le passeport vers le Cloud. Il permettra  de découvrir comment Data ONTAP applique sa puissance et ses capacités vers le Cloud. NetApp affichera en effet,  la poursuite du développement d'un socle de référence pour les infrastructures partagées grâce à un écosystème déjà établi et performant, fédérant les acteurs clés.

 

Pour cette journée consacrée à ses clients, NetApp a mis les petits plats dans les grands en réservant un lieu d'exception ( Le Centre de Conférences et de Réceptions Etoile Saint-Honoré ) et en invitant des intervenants de choix. Pour l'occasion CISCO est partenaire « Diamond » de l’événement et VMware est partenaire « Platinum ». Bien sûr, on va également retrouver toutes les alliances stratégiques de NetApp, les Clouds providers ayant fait le choix NetApp pour vous accompagner lors cette transition mais aussi des partenaires NetApp « historiques » aussi à l'aise dans la construction de Clouds privés que dans la gestion des Clouds Hybrides.

Screen Shot 2014-03-11 at 18.40.48.pngScreen Shot 2014-03-11 at 18.40.55.png

Au programme, des présentations stratégiques, des interventions des Alliances NetApp mais aussi du concret avec des retours d’expériences clientes, des thématiques pratiques et des Ateliers. Nos Experts francophones seront également à  disposition pour échanger sur des sujets aussi précis que pointus dans un format « Speed Expert Chat ».

 

Screen Shot 2014-03-11 at 17.51.01.png

 

Clients NetApp, rendez-vous le Mardi 18 mars pour prendre ensemble, la bonne direction !

 

Pour les FASBl@ggers, MRO

Le Cloud hybride... Beaucoup en parlent. Certains agissent

 

Imaginez que vous puissiez enfin déployer vos applications au choix :

  • dans votre infrastructure de cloud privée,
  • et/ou dans le nuage sécurisé d'un fournisseur de Cloud Public...

Et tout ça, avec la garantie de qualité d'un intégrateur et d'un fournisseur Cloud franco-français (Cocorico !), reposant sur des solutions à la pointe de la technologie et de l'innovation...

 

Compliqué ?

Non. Cela devient extrêmement simple et rapide avec l'initiative Plug2Watt, le premier Cloud Hybride intégré du marché.

Simple ? Une console unique permet de piloter les déploiements des applications.

Rapide ? En effet. le socle privé de Plug2Watt s'installe en moins de 5 jours !

 

Plug2Watt-archi.jpg

 

Avec Plug2Watt, plusieurs acteurs majeurs et innovants se sont unis pour transformer la vision du cloud hybride en réalité :  APX, Cisco, Citrix, Cloudwatt, NetApp et UShareSoft (par ordre alphabétique pour ne froisser personne ).

 

Plus besoin d'hésiter entre cloud privé ou cloud public, vous pouvez désormais, par exemple,

  • déployer vos applications dans l'un ou l'autre, dans l'un et l'autre,
  • "déborder" dans le cloud public en cas de pic d'activités,
  • provisionner rapidement vos environnements de tests identiques à ceux de votre production, etc...
  • sécuriser vos données et applications du privé vers le public, ou vice-versa
  • ...

 

NetApp et Cisco sont parties prenantes dans Plug2Watt car l'infrastucture convergée proposée pour la partie privée de la solution est un FlexPod.

FlexPod.jpg

D'autre part, les solutions de réplications de NetApp sont toutes indiquées pour faciliter à moindre coût et effort, le déplacement de données entre privé et public.

CloudFabric.jpg

 

La solution a été anoncée fin janvier et un Tour de France Plug2Watt est prévu en au printemps dans plusieurs villes :

18 Mars : Bordeaux

20 Mars : Lille

1 avril : Strasbourg

3 avril : Paris

8 avril : Nantes

10 avril : Marseille

15 avril : Lyon

 

Si vous désirez en savoir plus, je vous invite à lire le billet de blog de Cisco sur le sujet et à vous inscrire à l'une de ces dates sur ce site.

 

iPad.jpg

 

Hybridement vôtre,

Pour les FAS Bl@ggers : CVA

De nouvelles initiatives, de nouvelles applications, de nouvelles contraintes viennent complexifier notre espace de jeu.

Ainsi, nous devons intégrer rapidement dans nos réflexions et solutions l’impact du cloud pour tout, la complexité des opérations technologiques que nous devons rendre plus simple, et bien sûr les contraintes budgétaires.

 

Nous avons posé les bases du ‘Software Defined’ depuis de nombreuses années, nous ne faisons ici que les renforcer pour les rendre uniques.

 

Nous nous devons d’accompagner nos clients dans leur mutation de rôles d’architectes et d’opérateurs d’IT vers des rôles de fournisseurs de services. Ceci implique d’avoir des solutions orientées services, d’être capable de provisionner en quelques minutes, de gérer le fait qu’il n’y ait plus de fenêtre de maintenance, et que finalement des infrastructures partagées et consolidées avec tout ce que cela comporte en termes de contraintes de sécurité sont certainement une bonne réponse à la majeure partie des problèmes actuels.

 

NetApp continue donc d’adresser tous ces points d’une complexité sans nom, et propose une actualité d’une richesse incroyable pour accélérer encore le passage de cette informatique novatrice et moderne.

L'annonce des FAS8000 en est un jalon essentiel.

 

Bien sûr, le FAS8000, qui apporte son lot de nouveautés matérielles, est accompagné d’avancées logicielles majeures :

  • Data ONTAP 8.2.1, comme déjà évoqué dans ce billet , et ses trois piliers :

 

 

Nondisruptive Operation Proven EfficiencySeamless Scalability

seamlessscalability.jpg

coffre fort.jpg

infiniteloop2.jpg

 

 

  • FlexArray Virtualization Software : FAS et V-Series sont maintenant une seule et même offre matérielle. La personnalité de virtualisation pure devient une simple fonction logicielle.
    Ainsi, un même système pourra intégrer des disques NetApp, mais aussi des solutions tierces. La migration des données est encore plus simple.

 

N’oublions pas notre fer de lance qui est l’intégration applicative et qui ne fait que s’accélérer avec des partenariats de plus en plus convaincants et riches fonctionnellement :

 

                                   FAS8000 apps.png

 

Ce qui permet de faire la transition vers la conclusion de ce petit mot, le Cloud.

Nous en avons parlé comme un axe stratégique pour nombre de clients, et nous avons aussi positionné clustered Data ONTAP, dans le billet ici, comme la pierre angulaire de la proposition de valeur de NetApp.

Il est donc normal d’ajouter que dans un modèle HYBRID, qui semble être celui qui apporte le plus dans les évolutions des infrastructures de nos clients, le FAS8000 devienne le bras armé de nos offres Software Defined Data Center.

 

                                             FAS8000 cloud.png

 

Nous y reviendrons largement dans des billets à venir, mais NetApp propose bien une des solutions les plus équilibrées pour mettre en relation les clients, les fournisseurs de services privés, public et hyperscalaires.

Il ne tient qu’à vous de faire le pas, et le bon, pour bien aller vers « l’hybridation » et ne pas tomber dans « l’aliénation »!

 

Pour les FAS Bl@ggers, JFM

Il est souvent dit de NetApp que c’est une société orientée logiciel: c’est vrai.
Mais pour vous faire mentir l’annonce dont nous allons faire le relais ici est d’une vue plutôt matérielle, quoique !

Maintenant, devant les enjeux stratégiques liés à l’explosion des données provenant des enregistrements numériques en tout genre, des réseaux sociaux, de l’audio et de la vidéo, et du tout internet, il est vrai que la densité du stockage au mètre cube joue un rôle primordial. Oui vous avez bien lu, au mètre cube (empilage vertical de disques qui stockent en surface horizontale des données) : peut-être d’ailleurs devrions-nous en faire une nouvelle unité de mesure !


FAS8000.jpg

 

 

Alors, cette fois-ci l’accent est mis sur la performance brute et le matériel. 2,6 millions d’IOPS, mais nous allons y revenir.

 

 

 

L'annonce des FAS8000 en est donc un jalon essentiel qui positionne nos technologies dans un ratio ‘poids / puissance’ sans équivalent.

La famille FAS8000 se positionne en remplacement des gammes FAS32xx et FAS62xx. Cette nouvelle gamme qui dans la course à la puissance, est non seulement optimisée pour le Flash, pour le Cloud, pour une évolution linéaire et sans interruption, pour le stockage unifié… et c’est tout ! Non, mais il fallait faire court.

 

Voici les premiers de nés de cette nouvelle famille :

 

FAS8000 gamme.png

 

Ce qui en fait un complément essentiel de notre gamme Entreprise, qui dorénavant s’illustre de la façon suivante :

 

FAS gamme 2014.png

 

Avec les FAS8000, NetApp propose la toute dernière version de ses solutions de stockage unifiées évolutives selon tous les axes possibles et ceci SANS arrêt de services :

  • Scale-in : ajout de disques, de Flash et de modules d’accélération intelligent
  • Scale-up : changement de contrôleur en ligne
  • Scale-out : ajout de contrôleurs dans le cluster
  • "Scale-off": décommissionnement de ressources à chaud

 

Sans revenir en détails sur ce que veut dire unifié, il faut bien continuer à comprendre 1 port pour tout type d’accès à la donnée, 1 méthode d’administration, 1 méthode de sécurisation des données. Tout cela dans un seul but : SIMPLIFICATION, et redonner le contrôle aux utilisateurs :

 

  • Le client a le choix de son mode de transport :

 

FAS8000 protocole.png

 

  • Toutes les applications peuvent bénéficier d’une accélération automatisée et contrôlée grâce aux technologies Flash :

 

FAS8000 SSD.png

 

  • Le tiering intégré permet d’aligner la qualité de la donnée et le coût de son support :

 

FAS8000 HDD.png

 

Doit-on le dire… le FAS8000 est la première famille de systèmes de stockage qui est optimisée pour clustered Data ONTAP, tout en étant bien sûr parfaitement compatible avec 7-mode. La transition n’en est que facilitée !

 

Il faut noter que NetApp propose aussi des composants de puissances de toute dernière génération, en suivant de près les évolutions des processeurs Intel, des bus PCI Gen 3 de dernière génération et des mémoires DDRAM ultra rapides. Mais ce n’est qu’un début, car déjà pointent 40 GbE, 12 Gb SAS, 32 GbFC, etc.

 

Nous sommes prêts pour un core à core, et vous ?

 

Pour les FAS Bl@ggers, JFM

mrobicho

Parlons OpenStack !

Posted by mrobicho Feb 2, 2014

Il est clair qu'OpenStack est désormais une thématique récurrente dès qu’un projet Cloud est abordé. Il faut dire que le développement d’OpenStack  est très soutenu avec une cadence régulière d’une nouvelle version tous les 6 mois.

Screen Shot 2014-01-31 at 16.20.15.png

« Pourquoi parler d’OpenStack sur un blog NetApp ? » Tout simplement parce que NetApp s’est engagé dans l’aventure depuis presque 3 ans (Avril 2011) et que l’ensemble du portefeuille NetApp s’y intègre particulièrement bien.

 

Tout d’abord, il est peut-être utile de rappeler que NetApp est un acteur très actif dans la communauté open source et ce depuis de nombreuses années ; on peut citer par exemple les contributions aux projets iSCSI, FreeBSD, NFS, Wireshark… Désormais, NetApp est un contributeur important du projet OpenStack, en tant que menbre « Gold ». Regardons ça en détail.

 

Le développement d’OpenSatck est découpé en différents modules dont voici les principaux :

  • Nova – Gestion du Compute
  • Cinder – Block Storage
  • Neutron - Networking
  • Glance – Image Repository (ISO, templates de VMs...)
  • Swift – Stockage Objet
  • Manila – Shared File Services (A partir de la version Icehouse)
  • Horizon/Dashboard – GUI
  • Keystone – Identity
  • Heat – Orchestration
  • Ceilometer – Monitoring

 

NetApp s’attèle à développer et faire évoluer les modules représentants son cœur de métier (Cinder, Swift, Glance et Manila) dans lesquels l’apport des technologies NetApp trouve toute sa pertinence. Il faut préciser que le module « Manila » est un nouveau module OpenStack qui devrait être intégré à la prochaine version « IceHouse » en Avril 2014.  Ce nouveau module, est une proposition de NetApp, permettant d’intégrer la gestion des services NAS (CIFS et NFS à ce jour) à OpenStack.

 

Le module Cinder, quant à lui, présente des volumes aux instances OpenStack, ces instances étant soit des VM gérées par le module Nova (Compute) soit des machines physiques (en bare metal). Le protocole employé initialement par Cinder est iSCSI et NetApp a choisi de proposer un driver unifié iSCSI / NFS, fonctionnant en 7-mode et en clustered Data ONTAP.

 

Cinder.jpg Exemple d’utilisation de Cinder avec le provider iSCSI NetApp

 

Pour approfondir les intégrations possibles des technologies NetApp avec OpenStack, voici une liste de liens très utiles :

 

OpenStack Deployement and Operations Guide (Janvier 2014)

Communauté OpenStack (site de la communauté NetApp)

How to deploy cinder with NetApp (wiki openstack)

Shared Filesystem Service (Module openstack « Manila », devant être intégré à IceHouse)

 

Alors n'hésitez plus, avec une intégration aussi aboutie, le temps n'est plus aux discussions mais aux implémentations

 

Pour les FASBl@ggers, RBO et MRO

Il est des fois où des versions mineures, au sens release logicielle, cachent des avancées majeures et celle de la disponibilité de Data ONTAP 8.2.1 fait certainement partie de ces dernières.

Cela nous semble tellement évident que l’on en oublie un aspect essentiel, qui semble  noyé dans le buzz du bruit émis par les ondes parasites, c’est qu’encore une fois NetApp est à la pointe de l’innovation.

 

Data ONTAP 8.2.1 est bien évidemment disponible pour ces deux personnalités que sont 7-mode et cluster Data ONTAP.

Mais remettons tout d’abord en perspective les piliers essentiels de la proposition de valeur de ce socle de notre stratégie Software Defined DataCenter :

  • Nondisruptive Operations
  • Proven Efficiency
  • Seamless Scalability

 

Il faut alors bien sûr comprendre que toutes les innovations sont des améliorations des fonctions classées dans chacune de ces catégories.

Alors regardons de plus près ce que nous propose Data ONTAP 8.2.1.

 

Nondisruptive Operations

  • Enlèvement des tiroirs à chaud et sans arrêt de service : c’est unique sur un stockage de type tier-1 !
  • infiniteloop2.jpg

    Automatisation, via l’outil WorkFlow Automation) WFA, du processus de refresh technique, lors
    du changement des contrôleurs ou des tiroirs de disques. Fini les erreurs humaines et les
    projets à risque !
  • Support de MS SQL Server sur SMB 3.0 avec les ‘continuously-available shares’. Microsoft se range
    du côté du protocole fichier comme garant de simplicité et d’efficacité.
  • Support des antivirus en mode ‘off box’ : cela était attendu et nécessaire.

 

Proven Efficiency 

  • Automated Workflow Analyzer (AWA) est un dispositif de simplication du processus
    de dimensionnement des FlashPool. Le gain est estimé sur un système actif afin
    de prévoir la solution la plus adéquate à la problématique à résoudre.
  • coffre fort.jpgData ONTAP Edge pour clustered Data ONTAP complète la famille Data ONTAP Edge. Avec
    une solution adressant les deux personnalités de Data ONTAP, il est désormais possible
    de mettre en place Data ONTAP pour des sites distants ne nécessitant que peu de capacités,
    et où il n’y a pas d’équipe IT. Vu comme un système FAS standard, il est complètement intégré
    dans nos outils de gestion centralisé.
  • System Setup est l’assistant ultime qui simplifie l’installation et le démarrage des systèmes
    de stockage de la gamme.

 

Seamless Scalability 

  • LDAP sur SSL permet la sécurisation de l’autentification des utilisateurs.
  • seamlessscalability.jpgExport des Qtree en NFSv3 : pour tous nos clients qui avaient basé leur stratégie de sauvegarde
    avec Snapvault en 7-mode, ce point est très important. Désormais, il n’est plus nécessaire la migration
    vers cDOT est beaucoup plus simple.
  • Augmentation du nombre de relation n :1 pour SnapMirror et SnapVault avec le support de 63 sources différentes pour une même destination.
  • Upgrade en ligne des agrégats 32-bit en 64-bit : plus besoin d’attendre que le seuil de remplissage soit atteint, une simple commande fait la conversion, données en place !

 

Pour compléter l’offre, les outils de la suite OnCommand sont mis à jour :  

  • System Manager 3.1
  • Unified Manager 6.1
  • Workflow Automation 2.2
  • Performance Manager 1.0

 

Data ONTAP 8.2.1 RC1 est donc désormais téléchargeable pour les deux modes 7-Mode and clustered Data ONTAP  depuis le site du support NetApp.

 

Nous vous donc attendons nombreux en ligne pour saturer nos sites web.

 

Pour les FAS Bl@ggers, JFM

 

Toute l’équipe des FAS bl@ggers de NetApp France vous souhaite une excellente année nouvelle !

 

Allez, c’est la saison   Il est temps de nous risquer à quelques prévisions pour 2014…

Pour ceci, nous allons nous appuyer sur celles de notre vénéré CTO, Jay Kidd, que nous vous avons traduites et adaptées (l’original en anglais est ici).

Ces prévisions décryptent les tendances qui rythmeront l'industrie du stockage et de l’informatique d’entreprise, en 2014, comme la technologie Flash, le Cloud et le Software-Defined.

 

Principaux thèmes de l'année à venir :

  1. L’avènement du cloud hybride
  2. L’accélération de l'adoption des technologies apparues ces 2 dernières années

 

Prévisions pour 2014


1. Les directions informatiques des entreprises se tournent majoritairement vers le cloud hybride

Les tensions liées à l'adoption du cloud devraient s'apaiser au fur et à mesure que les entreprises réaliseront que le modèle du cloud hybride est le mieux adapté à leurs besoins variés.  En effet, les DSIs devront classer leurs applications entre celles qu'il faut continuer de contrôler intégralement (dans des clouds privés, sur site), contrôler partiellement (dans des clouds publics d'entreprise), ou encore celles qui sont plus transitoires (chez les hyperscalers), et enfin celles qu'il est préférable de se procurer en mode SaaS. Les Directions Informatiques rempliront alors le rôle de courtier entre ces différents modèles de Cloud pour les départements métiers. Ce modèle souligne également le besoin de déplacer facilement les données des applications entre les clouds et de provisionner des services de stockage cohérents entre les différents modèles de clouds.

 

2. La compétition fait rage parmi les offres  Flash

Le marché du Flash devrait connaitre une croissance importante à mesure que les principales entreprises de stockage reconnaissent cette tendance technologique. La compétition entre les acteurs traditionnels et les nouveaux venus sur le marché sera remportée par ceux qui permettront à leurs clients de déployer le niveau de performances, de fiabilité et d'évolutivité le plus adapté à leurs besoins et charges de travail spécifiques. Grâce à leur capacité à fournir et à supporter leurs produits sur la scène mondiale, les principaux acteurs traditionnels seront les mieux placés pour bénéficier de la croissance sur les marchés internationaux.

 

3. Être dans le secteur de l'IT, c’est être un fournisseur de services

À mesure que les DSIs se mettent à gérer des portefeuilles de services cloud, ils en viennent à considérer leur propre informatique interne comme une option de service supplémentaire. Toute l'architecture IT d'une entreprise sera alors perçue comme un "cloud privé", et sa capacité à répondre aux besoins métiers, à être compétitive en termes de coûts et à satisfaire les niveaux de service sera comparée aux solutions de cloud externe.

 

4. Software Defined Storage : quand la réalité prend le pas sur l’effet d’annonce

À mesure que le Software Defined Datacenter gagne du terrain, on commence à y voir plus clair dans l’évolution des composants d'infrastructure. Le pilotage logiciel à base de règles devrait peu à peu détrôner les composants d'infrastructure traditionnels. Les versions virtuelles de ces composants (réseaux et systèmes de stockage) deviendront plus courantes. Les composants virtuels les plus précieux sont ceux qui s'intègrent clairement avec les réseaux et systèmes de stockage existants, et qui offrent des fonctionnalités et services en ligne avec ceux des systèmes physiques traditionnels.

 

5. Les Storage Virtual Machines (SVM) favorisent la mobilité des données et l'agilité des applications

De la même façon que les machines virtuelles (VMs), permettent aux applications en cours d'exécution d’être déplacées entre les serveurs physiques, les SVMs permettent désormais de découpler les données du stockage physique et de s’en affranchir. Ces containers logiques de données simplifient la migration des charges de travail au sein ou entre clusters de stockage et leur garantissent donc une très forte disponibilité.

 

6. Au-delà du phénomène de mode, OpenStack séduit de plus en plus d’entreprises

OpenStack devrait continuer à se développer en 2014, pour devenir l'alternative ‘ouverte’ aux solutions commerciales existantes pour l'orchestration des datacenters. Comme les distributions OpenStack évoluent d’un mode ‘projet’ à de véritables ‘produits’, les entreprises et les fournisseurs de services seront de plus en plus nombreux à l'adopter. OpenStack devrait ainsi devenir la technologie open source la plus utilisée depuis Linux.

 

7. Les questions de souveraineté des données affectent le stockage privé et public

La généralisation du cloud computing et des dispositifs de stockage défie les frontières géopolitiques traditionnelles. Par conséquent, dans de nombreux pays, les grandes entreprises s'inquiètent des diverses lois en matière de divulgation qui peuvent affecter leurs données. Les entreprises hors des États-Unis devraient se tourner de plus en plus vers des solutions de cloud hybrides locales afin de conserver le contrôle total de leurs données tout en profitant du modèle économique du cloud computing.

 

8. L’Ethernet 40 GbE est largement utilisé dans le Datacenter

La prochaine étape dans l'évolution de l'Ethernet, le 40 Gigabit Ethernet, commence à être largement présente dans le cœur du data center. Grâce à des bandes passantes plus importantes, de grands volumes de données peuvent être déplacés rapidement et facilement, ce qui permet de répondre aux problématiques de gestion de données en forte croissance.

 

9. L'évolution du Big Data : de l'analyse des données existantes à la collecte de nouvelles données

De même que les entreprises tirent une valeur ajoutée de l’analyse de données existantes, elles devraient commencer à collecter des données additionnelles pour approfondir leur analyse. De nouveaux dispositifs feront leur apparition pour recueillir plus de données sur les comportements des consommateurs, les processus industriels et les phénomènes naturels, et les corréler. Ces sources de données seront utilisées pour améliorer les analyses à partir de données existantes mais aussi pour créer de toutes nouvelles applications analytiques.

10. Le stockage en cluster, l'infrastructure convergée, le stockage objet, les bases de données en mémoire continuent leur progression en 2014

Plusieurs tendances technologiques que l'on a pu voir émerger en 2013 devraient continuer à progresser. Le stockage en cluster sera de plus en plus utilisé. L'infrastructure convergée deviendra la clef de voute incontournable de l'infrastructure des datacenters. À mesure que les applications qui monétarisent de larges capacités d'objets de données progressent, le stockage objet sera de plus en plus adopté. Enfin les bases de données en mémoire, emportées par la popularité de SAP Hana, deviendront standard.

 

Pour les FAS Bl@ggers : adaptation de CVA (avec l’aide de Corinne D. pour la traduction)

JFM:

J'ai le plaisir de recevoir Eric Antibi, le directeur technique de NetApp France.

Bonjour Eric.

Nous savons que tu as passé quelques jours à Dublin entourés de nos partenaires. Pourrais-tu nous en dire un peu plus ?

 

EA:

Effectivement, le 6ème NetApp Insight s'est déroulé à Dublin cette année. Il a réuni plus de 2300 personnes dont plus de 1400 partenaires de toute l'Europe.

Nous en avons déjà parlé dans ce blog :

https://communities.netapp.com/community/netapp-blogs/fr_associatedstorage/blog/2013/11/20/netapp-insight-2013-emea-c-est-reparti-pour-dublin

Mais nous pouvons compléter aujourd’hui avec quelques éléments chiffrés autour des formations et certifications :

  • Près de 700 ingénieurs certifiés
  • 197 sessions techniques, soit 2142 minutes de transfert d’informations !
  • Et enfin, 600 lab organisés sur place

 

JFM:

Quelle est ton impression générale  sur Insight 2013 à Dublin Qu'est-ce qui t'a le plus passionné  ?

 

EA:

Cet évènement est gigantesque et impressionnant de qualité.

J’ajouterais que ce n’est pas pour rien que la motto de l’Insight est : « Innovation Taught Here ». Nos partenaires ont pu retrouver les messages clés de notre stratégie délivrés par Georges Kurian, notre Exec VP en charge des « Product Operations » ou encore Jay Kidd, notre CTO.
De ces rencontres naît notre passion pour ce que nous faisons, et le partager avec l’ensemble de notre éco-système est vraiment formidable.

Je vous engage à revoir les meilleurs moments ici : Watch the Recap Video from Insight EMEA 2013

 

JFM:

Oui je suis d’accord avec toi. Et c’est vrai que cela permet aussi à nos partenaires de les rencontrer lors du TAC (Technical Advisory Council), qui sont des sessions privilégiées.

Pourrais-tu revenir, sur les annonces faites par NetApp lors de cet événement ?

 

EA:

Oui bien sûr, cette année, nous avons relayé les annonces autour de notre stratégie Cloud, de clustered Data ONTAP, et bien sûr du lancement des nouvelles gammes E-Series, E2700, E5000 et Flash EF550, que vous pouvez retrouver dans ce billet : https://communities.netapp.com/community/netapp-blogs/fr_associatedstorage/blog/2013/11/28/netapp-sort-aussi-sa-console-de-jeu-la-e-box.

Nous démontrons encore que NetApp est un des acteurs majeurs dans le monde du stockage de données, avec des relations avec des partenaires stratégiques comme Microsoft, Cisco, vmware, Citrix, Oracle et d’autres, qui n’ont jamais été aussi fortes. Mais aussi, nous montrons notre capacité unique à innover sans compromis !

 

JFM:

C’est bien sûr une bonne nouvelle pour le futur et savoir que nous continuons dans notre stratégie d’alliances me semble fondamental, même en ces temps difficiles, durant lesquels certains se recentrent sur leur nombril.

Et nos partenaires français ?

 

EA:

Encore une fois, les partenaires français sont venus en force avec plus de 110 participants. Cela montre les excellentes relations que nous avons avec eux et leur passion pour nos solutions. Nous avons aussi eu 67 personnes qui ont obtenu une certification.

 

JFM:

Comme chaque année, NetApp récompense les meilleurs contributeurs de l'année, lors de la soirée des Awards. Alors comment se sont comportés nos partenaires français ?

 

EA:

Alors oui, comme chaque année nos partenaires Français se font remarquer.

Deux sociétés ont été distinguées: BULL et NextiraOne ont récolté le fruit de leur contribution exceptionnelle.

 

JFM:

Et maintenant, que devons-nous faire ? Quels sont tes objectifs pour le groupe technique France avec ses partenaires d'ici au prochain Insight ?

 

EA:

Comme chaque année, l’Insight lance un mouvement de fond technologique que nous devons suivre.

L’évolution de notre portefeuille produit qui s’enrichit d’année en année, nous permet d’aborder des projets de plus en plus variés. Nous avons donc la possibilité d’adresser des marchés jusqu’ici réservé à nos concurrents. Nous mettons bien sûr en place un plan d’accompagnement de nos partenaires, afin qu’ils soient à même de continuer à nous épauler aussi efficacement qu’avant. Le momentum est là, nos clients adhèrent vraiment à ce que nous faisons, et à notre stratégie de changement. Alors continuons ensemble à créer avec notre innovation toujours plus de valeur pour nos clients.

 

JFM:

Cela me plaît…

Et l'année prochaine ?

 

EA:

Et bien direction l'Allemagne. Berlin nous accueillera !

Cette capitale chargée d'histoire, au centre de l'Europe est vraiment l'endroit approprié pour regrouper tous nos partenaires. NetApp Allemagne, leader sur le marché du stockage nous montre la voie. A nous de la suivre, et nul doute que NetApp Insight sera un bon guide.

 

JFM:

Merci Eric pour avoir partagé avec nous ces informations importantes. J'ai bien compris l'importance pour NetApp de ses partenaires et de ses alliances. La mise à disposition de moyens pour passer les certifications est aussi très apprécié et très utilisé.

Alors, nous avons hâte de venir à Berlin, où il est sûr que la bière ne manquera pas !

 

Le contenu de cette édition est déjà en ligne : content available on-line. Alors abreuvez-vous de ce sain breuvage.

Pour l'année prochaine, nous vous solliciterons bien sûr pour présenter ce que vous avez construit avec vos clients. Vos témoignages sont source de valeur, alors nous comptons sur vous pour nous accompagner dans cet exercice.

 

Let’s not stop Innovation going FURTHER, FASTER !

 

Pour les FAS Bl@ggers, EA et JFM

A chacun son angle, n’est-ce pas !

Nous aurions pu parler de vélo et de TeamNetApp, ou de F1, mais pour une fois  faisons un saut dans le monde des médias et des jeux vidéo.

Le succès des consoles va croissant avec la définition des images et les prouesses technologiques  des concepteurs. L’heure est encore plus aujourd’hui à la course au toujours plus loin, toujours plus haut, toujours plus fort… Même loin de Fort Boyard

Idem pour les films modernes qui font tous appel à la manipulation numérique des effets spéciaux. Vers l’infini et au-delà ?

Et pour en finir avec cette tirade d’exemples, que pouvons dire des hyper calculateurs de prédiction du temps, ou autre séquenceur d’ADN ?

 

Dans tout cela il y a un dénominateur commun : il faut aller plus vite, être capable de délivrer des Giga-octets par seconde, voir des dizaines, des centaines de Giga-octets par seconde.

 

Alors normal que NetApp aussi s’immisce dans le jeu !

Comme disent les sportifs, on est à la maison… Ce qui veut dire, que nous connaissons parfaitement ce terrain de jeu.

 

Eseries.png

Quand on parle de Giga-octets par seconde chez NetApp on sait de quoi on parle, et c’est pour cela que nous passons à la vitesse supérieure dès aujourd’hui
avec la dizaine de Giga-octets par seconde, oui vous avez bien lu : 10 Go/s, sur un SEUL système ! Le E5560 permet d’atteindre plus de 12 Go/s

 

Vous l’aurez compris notre E-box c’est la famille des E-Series. L’article

http://www.netapp.com/fr/company/news/press-releases/news-rel-20131119-656006.aspx, annonce que notre base de 650,000 systèmes installés va s’enrichir de :

 

  • La nouvelle baie Flash NetApp® EF550  offre des performances et une fiabilité exceptionnelles pour les données sensibles, accélérant ainsi les bases de données, les services web, les infrastructures de postes virtuels (VDI) et d'autres applications stratégiques.
  • La nouvelle baie NetApp E2700 SAN présente un rapport prix/performances optimal pour les entreprises de taille moyenne, les succursales et les sites distants.
  • La mise à jour de la baie NetApp E5500 SAN offre performance, densité et flexibilité modulaire aux charges de travail qui exploitent les données de manière intensive.

 

Et comme toutes les consoles il y en a pour tous les besoins.

Outre l’aspect ultra modulaire illustré ci-dessous :

 

Eseries gamme.jpg

 

Il ne faut pas en oublier les caractéristiques novatrices principales de nous pouvons résumer ici :

  • Dynamic Disk Pool
  • SSD cache et stockage Hybride
  • Snapshots
  • Provisionnement fin
  • Réplication
  • Support des disques encryptés

 

Bref, tous les outils sont là pour accélérer encore plus fort.

Accelerate.jpg

 

Alors, à vos manettes !

Passons ensemble dans la dimension 10G.

 

Pour les FAS Bl@ggers, JFM

·  La nouvelle baie Flash NetApp® EF550 offre des performances et une fiabilité exceptionnelles pour les données sensibles, accélérant ainsi les bases de données, les services web, les infrastructures de postes virtuels (VDI) et d'autres applications stratégiques.

·  La nouvelle baie NetApp E2700 SAN présente un rapport prix/performances optimal pour les entreprises de taille moyenne, les succursales et les sites distants.

·  La mise à jour de la baie NetApp E5500 SAN offre performance, densité et flexibilité modulaire aux charges de travail qui exploitent les données de manière intensive.

 

Le coup d’envoi a été lancé Lundi pour la 6ème année consécutive : l’événement technique de référence NetApp, dédié à ses partenaires et toutes ses alliances, prend ses quartiers pour la seconde fois en Irlande. C'est Dublin qui a été choisi et qui a repeint son  « Convention Center » pour l'occasion aux couleurs de NetApp.

 

L'Insight permet à toute la communauté technique NetApp, de se mettre à la page sur les nouveautés, les annonces mais aussi de participer à plus de 200 sessions techniques couvrant tous les domaines de l'infrastructure, de l'architecture jusqu'aux déploiements. Mais l'Insight c'est aussi la possibilité de tester et de se former aux dernières innovations en les pratiquant lors de session  « Hands-On » et finalement de se certifier en passant tous les examens sur place.

 

Screen Shot 2013-11-19 at 18.30.09.png

Roger Anderson (VP Systems Engineering) ouvrant l'Insight à Dublin

+ de 2300 personnes, provenant d'une bonne partie du globle participe à l’événement !

 

A propos d’alliance, cette année Cisco est à l'honneur en tant que sponsor « Diamond », renforçant le partenariat et démontrant l'emphase que les 2 sociétés mettent sur l'offre FlexPod.

 

IMG-20131119-00086.jpg

FlexPod a fait du chemin ces dernières années : c'est désormais + de 3200 clients et

+ 40 « Cisco Validated Design » dont les architectures « clustered Data ONTAP  »

 

Bien sûr, l'Insight est également l'occasion de démontrer à quel point les alliances sont stratégiques pour NetApp. Le but étant de toujours proposer des solutions s'intégrant parfaitement dans l'écosystème et de maximiser le bénéfice des utilisateurs (retrouver tous les sponsors NetApp Insight 2013 ici).

 

Pour en suivre en direct cet événement, retrouvez le sur le page Facebook NetApp Insight EMEA

 

Pour les FASbl@ggers, MRO

 

 


 

 


Nouvelles de Barcelone; 4 interviews et 2 keynotes plus tard…

 

... Et beaucoup plus encore.
(juste pour être clair, j’ai donné des interviews à des journalistes et certainement pas des keynotes !) .

ATTENTION: ceci est un long post - Procurez-vous une tasse de thé , des biscuits au beurre et fermez votre messagerie!

Les deux keynotes que j’ai suivi étaient celles des poids lourds de VMware, Pat Gelsinger , CEO et Carl Eschenbach, président et COO . J'admire vraiment l'humilité de VMware à résister à la tentation d'épater la galerie étant donné leur domination en parts de marché en matière de virtualisation. Ils se concentrent vraiment sur tout ce qu'ils font pour les clients.

Leur approche est discrète - notamment en raison d'un auditoire captif , mais apparemment « captivé » de 8500 personnes - et les keynotes étaient vraiment adaptées. Les deux orateurs sont extrêmement compétents et maîtrisent aussi bien le contenu que la façon de le délivrer. Bien sûr, ils ont été soutenus sur scène par des clients , des partenaires et des exécutifs techniques de haut niveau de VMware. Pas de spectacle surfait empreint d’un excès d’égocentrisme. La scène était sobre et l’accès a été mis sur le contenu plutôt que sur les effets de manche.


Les thèmes majeurs restent en ligne avec ceux de l'an dernier, mais ils ont été beaucoup plus approfondis. IT as a Service ( ITaaS ) reste le thème le plus fondamental de tous, et avec ses sous-thèmes du Cloud, du End User Computing et du Software Defined Data Centers , il pourrait être considéré comme encore un exemple de leur stratégie de
domination du marché ( IMHO ) ; - ) sur lequel j'ai écrit précédemment.

Le titre du discours - « The Next Generation ot IT» - peut sembler grandiose et hyperbolique , mais la vision est crédible. Pat a déclaré que Gartner estimait que pour un DSI, seulement 30% de son budget était consacré à l'innovation. Selon leurs propres enquêtes auprès des clients VMware, pour les DSI qui ont investi dans leur technologie, ce chiffre s'élève à 40%. Et, comme Pat le souligne, l'objectif à court terme de VMware est de permettre aux clients d'implémenter des solutions orientées services pour élever le pourcentage d'innovation jusqu'à 50% . Déployer des applications à la « vitesse des transactions » comme une routine, n'importe où et dans n'importe quel paradigme architectural, devrait permettre l’augmentation de l'investissement en innovation.

Du côté du Cloud, IDC a récemment classé VMware n ° 1 pour la gestion du Cloud. vCenter Operations Suite a été améliorée (gestion des logs), et VHCS (VMware Hybrid Cloud Service) arrive rapidement à maturité. Gelsinger a annoncé la disponibilité générale du service en Europe.

End User Computing, est apparu comme un sujet très important pour VMWare. Notamment car Sanjay Poonen (récemment venu de SAP pour être le EVP et GM de l’End User Computing), est venu sur scène pour annoncer l'acquisition de Desktone. Desktone est le pionnier de Desktop- as-a -Service ( DaaS ). En ajoutant cette fonctionnalité à la suite EUC, qui a déjà une offre VDI intégré avec VMware View, il veut vraiment remettre l'accent sur ​​l'utilisateur final. Cette acquisition est un sujet que nous soutenons vivement chez NetApp. Desktone est un partenaire de NetApp très important et l'un des principaux CVD FlexPod. Gary Hocking, notre CTO pour notre activité de fournisseur d'accès, a écrit une excellente analyse et justification
ici. Je vous recommande sa lecture.

Et enfin, le troisième et peut-être le plus important thème (si jugé par le temps passé sur le sujet lors des deux keynotes ) reste celui du Software Defined Data Center ( SDDC ). L'objectif initial, était de définir « l'ultime système d'exploitation du centre de données », mais qui s’est transformé en une redéfinition du « data center ». Cela va au-delà des limites suggérées par le mot «centre» pour englober un éventail de méthodes de déploiement pour les infrastructures internes , le cloud privé , le cloud public et une combinaison des trois - le « cloud hybride». La mise en place d'un SDDC nécessite (dans le monde selon VMware …) la virtualisation de toutes les infrastructures. Rien ne doit rester en solutions physiques car rien ne doit être lié au matériel. Encapsulation et l'abstraction sont les maîtres mots . En plus de cela , tous les processus informatiques doivent être automatisés. Pour VMware, un SDDC établit la virtualisation de la puissance de calcul, du réseau et du stockage, ainsi que le remplacement des outils de gestion grâce à l'automatisation .

La virtualisation totale des serveurs n'est pas encore atteinte à 100 %. Il y a quelques applications tenaces qui résistent au traitement - ou peut-être que la résistance se trouve au niveau du DSI et de ses équipes. Probablement un peu les deux. Par exemple, les ERP et modules financiers prennent plus de temps à migrer vers le « tout virtualisé ». La virtualisation des applications critiques de l'entreprise (comme SAP ) reste une mission pour VMware, en collaboration avec ses partenaires tels que NetApp.

Les dernières versions de pointe de vSphere et vCloud Suite ont été annoncées à la fois en se focalisant sur des améliorations significatives dans des domaines tels que le nombre de cœurs CPU pris en charge, le nombre de machines virtuelles et le nombre de processeurs virtuels . Fondamentalement, plus vite et mieux (je ne peux pas dire que ce soit moins cher quand même) .

Ainsi, supposons que la virtualisation des serveurs soit " plus ou moins " terminée. Le sujet suivant dans la liste est le réseau, et il me semble que cette conférence a été l'annonce du lancement en EMEA de l’offre NSX de VMware. NSX est la technologie de virtualisation de réseau basée sur Nicira, dont VMware a fait l'acquisition en Juillet pour la somme élevée de 1,2 milliard de dollars . Software Defined Networking (SDN) sera une composante essentielle de SDDC . Les organisations sont aujourd'hui fortement dépendantes de leurs routeurs et les commutateurs. Bien que je ne travaille pas dans les réseaux je sais que ces éléments matériels sont lents à être mis à disposition, complexes et coûteux .

VMware vise à faire de cette couche ce qu'il a fait pour serveurs - essentiellement la simplifier et la réduire .

Comme Carl Eschenbach l’a déclaré dans son discours, 70% du trafic de paquets est de VM à VM et le pilotage du trafic réseau du switch à la VM et retour représente une très grosse surcharge. Intégrer cette fonctionnalité dans la machine virtuele permettra de réduire le trafic réseau de façon spectaculaire et bien sûr le coût . Le nombre de routeurs et commutateurs dans les entreprises va donc diminuer, et vous n’aurez pas besoin de sortir d’Oxford pour les gérer. C'est le but de NSX. Essentiellement, il est un «hyperviseur réseau» qui s'apparente à l'ESX pour les serveurs.

Est-ce que cette approche ne va pas changer la dynamique de l'industrie du réseau , comme cela a été le cas pour l'industrie du serveur? Eh bien, oui , tout porte à croire que c'est exactement ce qu’il va se passer. Gelsinger a partagé un slide rempli de logos avec plus de 30 partenaires qui soutiennent tous ce nouvel écosystème. Un très évident et grand absent de la liste (et en fait, dans les deux entretiens que j'ai entendu ) était Cisco. Le géant du réseau a potentiellement beaucoup à perdre si NSX devient la plate-forme de facto de gestion du réseau virtualisé. Évidemment Cisco n'est pas resté les bras croisés ... En fait, leur réponse à la virtualisation du réseau débute
le 6 novembre (NDTR : le lien original indique 3 semaines entre VMworld et ce lancement) pour le lancement de Insieme. Ma compréhension indique qu'il sera architecturalement très différente de NSX. Je n'ai aucun doute qu'il sera positionné d'un point de vue marketing par Cisco de sorte qu'il ne soit pas considéré comme directement concurrent avec NSX (probablement en mettant faisant un focus sur les applications (adressage des couches supérieures )), mais son objectif publique est la réduction du nombre de routeurs et de commutateurs, et de proposer plus d'intelligence dans le logiciel par l'abstraction.

Pour moi, c’est le même message !

Cisco et VMware restent des partenaires engagés l’un envers l’autre - le premier est un OEM très réussi de ce dernier et bien sûr, ils sont partenaires dans le consortium VCE . Cependant, il est clair qu'ils vont commencer à se marcher sur les pieds les uns les autres.

Le dernier élément dans la mission de « virtualiser toute l’IT » est le stockage. Le stockage est complexe. A première vue, le stockage de données sur un média , que ce soit un disque, une bande ou le récent SSD, semble simple . Cependant, n'importe qui dans l'industrie informatique, ayant eu l’occasion de traiter des problématiques de stockage, sait que cela peut être compliqué. NetApp en connaît un rayon, et est devenue une entreprise de 6 milliards de dollars en travaillant sur sa simplification. La virtualisation du stockage - ou « la tentative pour virtualiser le stockage » est en marche depuis de nombreuses années . EMC a proposé un produit appelé Invista il y a plusieurs années et a essayé de construire la virtualisation comme une couche logicielle distincte. L’ impact sur le marché a été limité et a été discrètement mis de côté. D’autres produits pour la virtualisation du stockage ont également émergé de Hopkinton, mais ils ont encore suivi un modèle d’architecture logiciel . NetApp a un gros avantage sur ses concurrents – il a un unique OS hautement évolutif, Data ONTAP, qui a été progressivement amélioré au cours des 20 dernières années pour fournir toutes les fonctionnalités que vous pouvez attendre d' un OS de stockage - des snapshots à la déduplcation en passant par la compression, le thin provisioning et le clonage à « yadayada », comme mes cousins ​​transatlantiques disent. Data ONTAP est l'OS de stockage le plus largement déployé dans le monde - et pour de très bonnes raisons. C'est la Rolls Royce à un prix Mercedes . Grâce à cette architecture unique à laquelle ont été ajoutées les capacités de virtualisation, ce n’est plus une vision mais la réalité - qui est arrivé il y a six ou sept ans plus . L'idée de mettre en commun tout le stockage physique sous forme de volumes logiques en en intégrant leur abstraction est une caractéristique qui existait déjà à l'époque. Dès lors, NetApp a ajouté les systèmes à grand volume, des fonctions transverses dans le cluster et la solution de virtualisation leader sur le marché, les SVM (machines virtuelles de stockage) .

Donc la question est - qu'est-ce que VMware va faire pour " virtualiser " le stockage? Eh bien, ils positionnent VSAN (Virtual SAN ) comme leur couche de stockage. Cependant, je suis sûr qu'ils seraient les premiers à admettre que VSAN est pour des cas d'utilisation très spécifiques. Tout d'abord, il est orienté DAS, il est donc réservé  au stockage qui se trouve dans les serveurs . Compte tenu de la multiplication des serveurs lames, qui n'ont généralement pas de stockage externe, cela représente  un marché assez limité . Deuxièmement, VSAN ne s’adresse qu’aux environnements VMware. Troisièmement, il est limité en termes d'évolutivité par rapport aux fournisseurs de stockage indépendants et quatrièmement, il est encore en version bêta . VMware positionne clairement VSAN pour des cas d'utilisation très précis - des succursales, du stockage de tier 3 et potentiellement du VDI. En outre, VMWare réaffirme sa volonté de continuer à travailler avec l'écosystème du stockage maintenant que SDDC devient réalité. Contrairement à la virtualisation des serveurs (quasiment inventée par VMware) ou à la  virtualisation du réseau (ce qu'ils apportent sur ​​le marché après acquisitions) , la virtualisation du stockage existe déjà depuis un certain temps - et les fournisseurs de stockage sont tous « dessus » - si je puis dire. VMware est toujours une société axée sur l'écosystème , contrairement à ce que dit un Apple, et le restera .

Mais là où le bât blesse - et cela me ramène aux 4 entretiens que j'ai eus avec des journalistes de différents pays d'EMEA ici à Barcelone - tous les 4 m’ont demandé si NetApp estimait que VMware « marchait sur son territoire» avec VSAN . Pour ceux qui comprennent la stratégie de VMware , les différentes offres et son l'écosystème , la réponse est un «non» retentissant . Cependant, comme je l'ai déjà dit , « le diable est dans le détail» et il nous incombe maintenant à tous de proposer un positionnement clair à nos 40.000 + clients mutuels.

Donc, pour boucler la boucle - oui , VMware est toujours sur la route d’une domination mondiale, mais NetApp est juste à ses côtés !


 

Pour les FAS Bl@ggers, JFM
Traduction du blog de David Gingell, VP Marketing EMEA

http://tangentialthoughts.com/it-trends/update-from-barca-4-interviews-and-2-keynotes/

 

marie

NetApp œuvre pour le SDDC

Posted by marie Oct 31, 2013

Voici le troisième et dernier volet de nos petits mots sur les dernières annonces de NetApp pour le Cloud.

 

SDDC ou Software Defined DataCenter est bien le mot qui fait le buzz de cette année.

On retrouve aussi SDS pour Software Defined Storage.

Software Defined Data Center (SDDC) est le nouveau modèle d'architecture et de technologies du Datacenter moderne (serveurs, réseau, stockage et sécurité).

L’infrastructure du Datacenter est alors définie par une couche logicielle gestionnaire de ressources qui peuvent être provisionnées en fonction des règles et des niveaux de service souhaités, puis déployés sur toute plateforme matérielle.

 

Il est probablement plus juste de parler du SDDC comme le moyen par lequel la couche de contrôle est séparée de la couche de données. Ainsi le contrôle se trouve embarqué au sein même de l’application rendant l’infrastructure beaucoup plus agile et réactive aux besoins métiers. En revanche la couche de données  est, elle, en charge du matériel qui fournit la performance (l'exécution) et la capacité exigée pour livrer les services définis par le logiciel.

 

L’objectif est d’accroître l'agilité IT et l'efficacité opérationnelle tout en offrant aux propriétaires d'applications plus de rapidité dans la prestation de services.

 

Et NetApp dans tout cela ?

Comme nous l’avons évoqué dans les billets précédents sur le Cloud, clustered Data ONTAP se positionne comme la plateforme de référence liant les Clouds privés, publics et hyperscalaires.

Seule une plateforme de stockage définie logiquement permet de répondre aux problématiques :

  • Services de stockage virtualisé qui permettent le provisionnement en fonction des niveaux de services attendus

cDOT SVM.jpg

  • Matériel multi-constructeur permettant un déploiement sur la plateforme de son choix

 

cDOT machines.jpg

 

  • Libre-Service dans les Applications qui permet aux équipes de développement ou aux propriétaires d’application de consommer les services de stockage directement via une intégration dans les interfaces d’administration et via des APIs programmables.

 

cDOT services.jpg


Ces éléments sont largement décrits dans les deux articles suivants, que nous vous engageons à lire :

http://www.netapp.com/fr/communities/tech-ontap/tot-sds-1306-fr.aspx?REF_SOURCE=EMMtot-1308&e

http://www.netapp.com/fr/communities/tech-ontap/tot-sddc-1308-fr.aspx?REF_SOURCE=EMMtot-1308&e

 

clustered Data ONTAP est donc la meilleure base SDS, la plateforme de données des Cloud, par sa faculté à fonctionner sur différentes plateformes avec de multiples fournisseurs de Cloud, tout en proposant un mécanique de mouvement de données unique.

 

Alors embarquez avec nous dans l’espace Cloud !

 

Merci à RBO pour son inspiration.

Pour les FAS Bl@ggers, JFM

marie

NetApp invente la Cloud Fabric ?

Posted by marie Oct 24, 2013

Il est parfois des innovations qui deviennent des standards, et il est fort probable qu’encore une fois NetApp ait réussi à proposer un élément d’architecture
fondamental qui pourrait être le facteur qui fera encore accélérer l’adoption du Cloud par les entreprises.

 

La Cloud Fabric c’est tout simplement les moyens qui permettent de créer une liaison élégante entre les Clouds, comme dessiné ci-dessous :

 

               CloudFabric.png

La Cloud Fabric est :

  • la dernière pièce du puzzle qui assure l’équilibre de l’édifice,
  • le maillon infaillible d’une chaîne de service à haute valeur ajoutée,
  • l’interconnexion non bloquante qui permet l’évolutivité transparente.

 

Si nous devions faire un parallèle, nous pourrions assimiler cet élément à la Fabric du SAN Fibre Channel, ce réseau non bloquant, résilient et performant.

Pas mal non? pour un acteur qui ne fait du SAN que depuis 10 ans !!!!

 

Vous aurez bien compris que cela n’a rien à voir, mais il était difficile de ne pas faire cette petite boutade.

 

Donc la Cloud Fabric c’est ça :

 

                    CloudFabric-interco.png

 

Loin du simple concept marketing, il s’agit bien sûr d’utiliser clustered Data ONTAP (cDOT) et ses propriétés uniques dont nous avons parlé dans le billet précédent sur ce sujet.

Lorsque nous parlons de Cloud, nous pensons tout de suite services et qualité associée. Eh bien, nous trouvons-là, le fondement de cDOT, et ce qui en fait son originalité.

Nous ne pensons plus LUN, fichiers, etc. mais services de données, et ce quelque-soit leur nature.

 

Bien sûr, nous profitons de nos 20 ans d’innovation comme un socle technique solide avec des fonctions aussi puissantes que la déduplication, le provisionnement fin, la réclamation, la compression, j’en passe tant et plus ! Tout cela bien sûr est valable quelque-soit le type de données stockées et quelque-soit le protocole. Nous parlons bien d’architecture de stockage unifié, n’y revenons pas.

 

Donc nous pensons services, qualité de service, automatisation de provisionnement.

Nous avons bien la pierre angulaire technologique qui est l’essence même des Clouds et qui permet la construction de cette interconnexion.

 

Alors connectons-nous !

Tissons cette maille à grande échelle et faisons de ce réseau non social un immense succès.

 

Pour les FAS Bl@ggers, JFM

Filter Blog

By author: By date:
By tag: