Team Deutschland in NetApp BlogsWhere is place located?

Log in to ask questions, participate and connect in the NetApp community. Not a member? Join Now!

Recent Blog Posts

Refresh this widget

Ich glaube keiner zweifelt daran, dass derzeit die Flash Technologie wie ein Orkan durch die Storage Branche wirbelt. All Flash Array Startups schießen aus dem Boden wie Pilze und alle etablierten Hersteller haben sich entweder durch Zukäufe (zuletzt Whiptail von Cisco) oder durch selbst entwickelte Produkte in dem Markt positioniert. Die Frage die sich mir von Anfang gestellt hat war: Welche Workloads können von der brachialen Performance im Bereich IO/sec oder von den extrem niedrigen Latenzen (< 1ms) profitieren? Natürlich unter dem Aspekt des ROI. All Flash Systeme sind ja schließlich nicht gerade billig. Die Finanzdienstleister kamen mir dabei als erstes in den Sinn. Beim Online Börsenhandel können oft Millisekunden über Gewinn oder Verlust entscheiden. Genau in dieser Branche ist die Universal Investment angesiedelt. Mit rund 170 Milliarden Euro verwaltetem Fondsvermögen, etwa 1.000 Spezial- und Publikumsfonds-Mandaten und rund 500 Mitarbeitern gehört die Universal-Investment-Gruppe zu den erfolgreichsten deutschen Kapitalanlagegesellschaften.


Schon sehr bald nach der Einführung unseres ersten All-Flash Arrays, der EF450 wurde das System von der Universal Investment in einem POC auf Herz und Nieren geprüft. Einer der wichtigsten Aspekt dabei, war natürlich die Frage: Rechnet sich die Anschaffung und ist somit ein ROI in absehbarer Zeit realistisch? Die Ergebnisse des POC sprachen für sich. Z.B. konnte die Laufzeit unterschiedlicher, automatisierter Vorgänge der Fonddatenverwaltung von bisher 3,5– 5,6 Stunden auf 1,9 – 2,3 Stunden reduziert werden. In dieser Branche ist Zeit wirklich Geld und deswegen entschloss sich die Universal Investment die EF540 produktiv einzusetzen.


Die Lösung die derzeit im Einsatz ist schaut folgendermaßen aus:

Vier NetApp EF540 Flash Array Systemen mit Verteilung auf zwei Rechenzentren;

Migration der kompletten Datenbanklandschaft (Gesamtvolumen 4 TB).


Folgende Vorteile konnten erzielt werden:

• I/O Performance von 600.000 IOPS pro Rechenzentrum, Latenzzeit < 1 Millisekunde; um 100% verbesserte Performance, Jobs laufen doppelt so schnell.

• Zuverlässige Hochverfügbarkeit für Kernanwendungen und Daten.

• Nutzung etablierter NetApp Support Strukturen für alle Systeme; vorteilhaftes Preis-Leistungs-Verhältnis.


Weitere Details zur Installation finden Sie im angehängten PDF oder in diesem YouTube Video:

http://www.youtube.com/watch?v=AEVD7r2YqH0

Sie haben es sicherlich mitbekommen, daß wir im Februar die neue FAS8000 Serie als zukünftigen Ersatz für die 3XXXer und 6XXXer Storage Kontroller, vorgestellt haben. Neben einem umfassenden Hardware Refresh ist auch ONTAP 8.2.1 vorgestellt worden. Die spannendste neue Funktionalität in dieser Release ist meiner Meinung nach FlexArray.

 

Mit der neuen FlexArray Virtualisierungssoftware kann die NetApp V-Series durch eine lizenzierbare Softwareoption auf der FAS8000 ersetzt werden. FlexArray ermöglicht der FAS8000 die Virtualisierung und das Management von Storage-Plattformen verschiedener Anbieter und ebnet so den Weg für Software Defined Storage (SDS). Damit ist die FAS8000 das erste horizontal skalierbarer Unified Storage, das als Array und gleichzeitig als virtueller Storage Controller genutzt werden kann.

 

Aus meiner Sicht ist das der nächste konsequente Schritt in Richtung Software Defined Storage. Wir ersetzen ein proprietäres Stück Hardware einfach durch eine Software Option. Ich kenne keinen anderen etablierten Storage Vendor, der diesen Schritt gemacht hat, oder auch nur plant.


Mit der FlexArray Virtualisierungssoftware kann also auch bereits vorhandener „nicht NetApp“ Storage mit Data ONTAP gemanagt werden, was für einen höheren ROI sorgt. Außerdem werden ältere Storage-Systeme in Cloud-fähigen Storage umgewandelt. Mit der Software ist die FAS8000 in der Lage, Arrays von Drittanbietern zu virtualisieren und zu managen – und zwar mit einer neunmonatigen Payback-Garantie.


Ein paar weitere Details dazu:

Die FlexArray Virtualisierungssoftware ermöglicht eine einfache Virtualisierung und benutzerfreundliches Storage-Management. Mit der FlexArray Virtualisierungssoftware sind Kunden in der Lage, bereits vorhandenen Storage als FAS Kapazität weiter zu nutzen und damit ihren ROI zu steigern. Außerdem können mehr IT-Abläufe von den erstklassigen Funktionen von Data ONTAP profitieren. FlexArray unterstützt sowohl SAN als auch NAS ganz ohne komplexe Add-ons. Es sorgt für eine einheitliche IT-Architektur mit benutzerfreundlichen Datenmanagement-Funktionen und bietet herausragende Applikationsintegration sowie Datensicherung. Mit dieser Grundlage für softwaredefinierten Storage können Unternehmen Storage-Services anhand von Richtlinien bereitstellen sowie Ressourcen auf einem breiteren Spektrum an Hardware implementieren. Die FlexArray Software kann jederzeit erworben und auf der FAS8000 aktiviert werden.


Weitere Informationen dazu finden Sie unter: http://www.netapp.com/de/products/storage-systems/flexarray/index.aspx

Und ONTAP 8.2.1 ist seit heute (3.4.2014) GA

Die Performance von Speichersystemen ist seit jeher eine eigene Domain. Viele von uns haben irgendwann den Umgang mit Performance im Compute-Bereich der IT halbwegs verstanden (und auch das ist ein beliebig komplexes Thema), Storage-Performance bleibt aber für viele ein Buch mit sieben Siegeln. Jede Woche erlebe ich es beispielsweise wieder, das mit der Metrik MB/s argumentiert wird, obwohl diese Metrik ausser im HPC Bereich selten die Richtige ist.

 

Nun muss ich zugeben das dies auch ein komplexes Thema ist und auch ich meine ersten zwei Jahre in der Industrie voll daneben lag und auch heute immer wieder mal was lerne. Eine lustige Anekdote aus dem Jahre 2000 ist, wie ein Kollege und ich bei einem Kunden einen Performance-Test durchführten und versucht haben, mit allen möglichen Tricks die Performance der Oracle Logwriters über 5MB/s zu bekommen. Wir waren uns ganz sicher das in der Umgebung des Kunden irgendetwas nicht stimmte, unsere DD Tests hatten immer viel bessere Resultate erbracht. Was wir damals noch nicht so recht verstanden hatten war der Zusammenhang von Single-Threaded und Latency ...

 

Wo will ich hin? Storage Performance ist ein komplexes Thema. Und es Bedarf einer Menge Wissen und Erfahrung um dieses Thema zu meistern. Auf der anderen Seite werden Storagesysteme immer komplexer und spätestens bei einem Scale-Out-System wie Clustered Data ONTAP verliert man leicht den Überblick.

 

NetApp hat erkannt, das klassische Performance Monitoring Tools, die hauptsächlich Metriken auf die eine oder andere Weise visualisieren, unzureichend sind. Wir entwickeln daher für Clustered Data ONTAP die nächste Generation von Performance Management Tool. Darf ich vorstellen:

 

OnCommand Performance Manager 1.0

 

OPM 1.0 ist die erste Version des neuen Performance Managers. Bei OPM dreht sich alles um das Erkennen von Performance Problemen. Dazu wertet OPM diverse Metriken (primär Latenzen) einzelner Subsysteme und Storageobjekte des Clusters aus und setzt sie in Zusammenhang. Das ermöglicht das Beantworten von Fragen wie:

  • Liegt das aktuelle Performanceproblem im Storagesystem oder ausserhalb?
  • Welche Resourcen (z.B. LUNs, Volumes) sind betroffen? OPM nennt diese Opfer (Victims).
  • Wer verursacht das Problem? OPM nennt diese Täter (Bully).
  • Ist der Täter eine externe (z.B. ein defektes Skript erzeugt auf einmal 10mal mehr Workload und zieht die Produktionsdatenbank runter) oder interne Workload (vielleicht sollte der vol move doch zu einer Off-Hour gestartet werden)?
  • Okay, das Problem liegt wirklich im System: Wie schaffe ich Abhilfe?

 

Das Ganze verpackt in eine moderne und gefällige UI. Beispiel:

OPM001.png

Das Bild zeigt die Latenz einer LUN (blaue Linie). Der graue Korridor ist der Bereich in dem sich die Latenz in der Vergangenheit bewegt hat (OPM hat gelernt, was die normale Latenz der LUN ist). Sobald sich die Latenz aus dem Korridor bewegt, wird ein Event erzeugt (roter Punkt) und OPM verrät einem die Ursache. Hier sieht man, das OPM die Ursachen in Bereiche wie Network (ist der Link nach aussen saturiert), Policy Group Limit (Clustered ONTAP hat Quality of Service; bin ich in ein vom Administrator mit QoS gesetztes Limit gelaufen) oder Aggregate (wir ziehen mehr IO als die angeschlossenen Disks liefern können) einordnet. Wenn man tiefer ins Detail geht werden mehr Informationen und oft auch eine Tipp zur Abhilfe gegeben.

 

OPM 1.0 wird nicht die Antwort auf jedes Performanceproblem liefern. Wir haben eine umfangreiche Vision und Roadmap für seine Zukunft, heute geht es mit V1.0 los. Dennoch ist es ein extrem starker Auftakt für ein Tool, das kein cDOT Admin missen darf. OPM kann viel Zeit und Nerven sparen und wer wünscht sich nicht eine schnelle Antwort, wenn es mal wieder heisst "der Storage ist Schuld" (Hint: ist er meist nicht).

 

Und das Beste kommt zum Schluss: OPM ist Free. Free wie in "kostenlos". Sollten Sie also eine Clustered Data ONTAP System betreiben, geschwind http://support.netapp.com/NOW/download/software/oncommand_pm/1.0RC1/ ansurfen und loslegen!

 

Und sicher lohnt es sich auch in der OnCommand Community vorbeizusehen.

 

In allen Medien und von Analysten wird derzeit das sogenannte Hybrid Cloud Modell als IT Delivery Modell der Zukunft favorisiert. Es kling wirklich sehr verlockend bei Bedarf, ganz spontan, einzelne Applikationen oder Workloads, einfach so zu einem Service Provider zu verschieben und anschließend wieder in die eigene private Cloud zurückzuholen. Ein Traum für jeden IT Manager. In der Realität gibt es da allerdings zuerst einige technische, organisatorische und kaufmännische Hürden zu überwinden.

 

Z.B.: Wie konvertiere ich schnell und zuverlässig Hypervisor Formate? Wie kriege ich meine Daten  von A nach B und wieder zurück? Welche Service Levels sind definiert? Was kostet mich die Nutzung? Wie schaut es mit Security aus? Ich glaube man könnte die Liste sicherlich noch weiter fortsetzen.

 

Wenn man sich jetzt mal anschaut wie dieses Modell mit NetApp Technologie umgesetzt werden kann, erkennt man schnell, dass einige technischen Hürden durchaus zu überwinden sind.

Starten wir mit der Hypervisor Konvertierung.  Mit NetApp Shift (siehe youtube: http://www.youtube.com/watch?v=OE2JCkVgv38 ) kann man auf der Storage Ebene Hyper-V, VMware und XEN Formate blitzschnell hin und her konvertieren. Damit sind unterschiedliche Hypervisor Formate zwischen private Cloud und Service Provider kein Problem mehr.


Wenn ein Transfer von großen Datenmengen notwendig ist gibt es mehrere Möglichkeiten. Datenreplikation z.B. zu AWS (Amazon Web Services) ist eine mögliche Lösung.

Andere Service Provider haben unterschiedliche weitere Möglichkeiten:

  • Replikation von NetApp auf NetApp (das ist easy und eine sehr wahrscheinliche Kombination da viele deutsche Service Provider bereits auf NetApp setzen)
  • Replikation von NetApp auf nicht NetApp Storage über die V-Serie
  • Replikation von NetApp auf X86 Server mit VMware über Data ONTAP Edge

Es gibt sicher noch weitere technische Hürden z.B. die Bandbreite. Dies würde aber den Rahmen des Artikels sprengen.


Wie steht´s jetzt mit der Möglichkeit sich einfach und schnell einen SP (Service Provider) auszuwählen, der einen guten Preis anbietet und die passenden  SLA´s erfüllt?

Die Deutsche Börse Cloud Exchange ist  auf dem besten Weg dazu, den ersten Marktplatz für Cloud Services zu etablieren. Als Nutzer bekomme ich Preistransparenz und ein breites Angebot an SP´s, die für meinen Usecase den passenden Service Level und eine geeignete Lokation anbieten können. Das ist aus meiner Sicht ein enorm großer Schritt in Richtung standardisierte Cloud Services und wird somit das hybrid Cloud Modell extrem flexibilisieren. Ich bin übrigens auch überzeugt davon, dass die hybrid Cloud das Rennen machen wird.

Das klassische Thema mit dem ich mich am Anfang eines Jahres beschäftige sind die zahlreichen Vorhersagen für das neue Jahr.

Natürlich hat auch NetApp dazu etwas zu sagen und unser CTO Jay Kidd hat 10 Dinge aufgelistet:

2014 Predictions

 

Zur Vorhersage Nr. 2:

Hunger Games Begin for All-Flash Startups

"The flash market will see increased growth as the presence of mainstream enterprise storage companies validates this technology trend….."

möchte ich gerne einen wichtigen Aspekt der Flash Technologie, der leider oft von den Performancevorteilen und dem hohen Preis „überdeckt“ wird, näher beleuchten: Die TCO Ersparnis.

Wenn man von Flash spricht, dann meistens wenn es um Performance geht.

Das zweite Thema ist dann sofort der hohe Preis. Ein typisches Kundenzitat aus einem tollen Whitepaper zu dem Thema von Paul Feresten und Rip Wilson (im Anhang)

ist z.B.: “Sure it’s fast, and I’ve heard great things about it, but flash solutions are also really expensive.”

 

Ein weiteres Zitat aus dem Whitepaper ist: “Flash Is Fast and Expensive, But Less Expensive Than HDDs?”

Etwas provokativ aber unterm Strich absolut richtig!

 

Was sind nun ganz konkret die Bereiche in denen sich mit Flash jede Menge Geld, im Vergleich zur HDD, einsparen lässt?

 

Über 60% lassen sich allein im Bereich Strom, Klimatisierung und Wartungskosten einsparen. SSD´s brauchen wesentlich weniger Strom und erzeugen auch so gut wie keine Abwärme.

Allein durch die Tatsache dass SSD´s keine beweglichen Teile enthalten, verringert sich auch der Aufwand für die Wartung. Die Dinger fallen schlichtweg viel seltener aus.

 

Der 2. Faktor ist die Platzersparnis wegen der erheblich besseren Performance. Damit kann man die oft vorhandene Überprovisionierung, die nur für die notwendigen I/Os gebraucht wird, eliminieren.

Wenn man sich vorstellt dass man mit einer 2 Höheneinheiten EF550 die I/O Performance von über 1000 15K Festplatten erzielt ist die Platzersparnis schon enorm.

Bild1.png

Wie komme ich auf dieses enorme Einsparungspotential? Nun...laut wikipedia schafft eine 15K Enterprise Festplatte maximal ca. 340 IOPS.

Diese Zahl wird übrigens in der Realität so gut wie nie erreicht. Da spricht man eher von 200-250 IOPS pro Festplatte. Aber rechnen wir mal optimistisch

und multiplizieren 1000 mit 340 und kommen somit auf 340.000 IOPS. Das entspricht ziemlich genau den Spezifikationen der "alten" EF540.

Die EF550 schafft sogar über 400.000 IOPS.

 

Wenn man also über Flash nachdenkt sollte man nicht nur den puren Anschaffungspreis im Auge haben, sondern unbedingt eine Gesamtkostenrechnung aufstellen.

More