1 2 3 Previous Next

Team Deutschland

43 Posts

Ich glaube keiner zweifelt daran, dass derzeit die Flash Technologie wie ein Orkan durch die Storage Branche wirbelt. All Flash Array Startups schießen aus dem Boden wie Pilze und alle etablierten Hersteller haben sich entweder durch Zukäufe (zuletzt Whiptail von Cisco) oder durch selbst entwickelte Produkte in dem Markt positioniert. Die Frage die sich mir von Anfang gestellt hat war: Welche Workloads können von der brachialen Performance im Bereich IO/sec oder von den extrem niedrigen Latenzen (< 1ms) profitieren? Natürlich unter dem Aspekt des ROI. All Flash Systeme sind ja schließlich nicht gerade billig. Die Finanzdienstleister kamen mir dabei als erstes in den Sinn. Beim Online Börsenhandel können oft Millisekunden über Gewinn oder Verlust entscheiden. Genau in dieser Branche ist die Universal Investment angesiedelt. Mit rund 170 Milliarden Euro verwaltetem Fondsvermögen, etwa 1.000 Spezial- und Publikumsfonds-Mandaten und rund 500 Mitarbeitern gehört die Universal-Investment-Gruppe zu den erfolgreichsten deutschen Kapitalanlagegesellschaften.


Schon sehr bald nach der Einführung unseres ersten All-Flash Arrays, der EF450 wurde das System von der Universal Investment in einem POC auf Herz und Nieren geprüft. Einer der wichtigsten Aspekt dabei, war natürlich die Frage: Rechnet sich die Anschaffung und ist somit ein ROI in absehbarer Zeit realistisch? Die Ergebnisse des POC sprachen für sich. Z.B. konnte die Laufzeit unterschiedlicher, automatisierter Vorgänge der Fonddatenverwaltung von bisher 3,5– 5,6 Stunden auf 1,9 – 2,3 Stunden reduziert werden. In dieser Branche ist Zeit wirklich Geld und deswegen entschloss sich die Universal Investment die EF540 produktiv einzusetzen.


Die Lösung die derzeit im Einsatz ist schaut folgendermaßen aus:

Vier NetApp EF540 Flash Array Systemen mit Verteilung auf zwei Rechenzentren;

Migration der kompletten Datenbanklandschaft (Gesamtvolumen 4 TB).


Folgende Vorteile konnten erzielt werden:

• I/O Performance von 600.000 IOPS pro Rechenzentrum, Latenzzeit < 1 Millisekunde; um 100% verbesserte Performance, Jobs laufen doppelt so schnell.

• Zuverlässige Hochverfügbarkeit für Kernanwendungen und Daten.

• Nutzung etablierter NetApp Support Strukturen für alle Systeme; vorteilhaftes Preis-Leistungs-Verhältnis.


Weitere Details zur Installation finden Sie im angehängten PDF oder in diesem YouTube Video:

http://www.youtube.com/watch?v=AEVD7r2YqH0

Sie haben es sicherlich mitbekommen, daß wir im Februar die neue FAS8000 Serie als zukünftigen Ersatz für die 3XXXer und 6XXXer Storage Kontroller, vorgestellt haben. Neben einem umfassenden Hardware Refresh ist auch ONTAP 8.2.1 vorgestellt worden. Die spannendste neue Funktionalität in dieser Release ist meiner Meinung nach FlexArray.

 

Mit der neuen FlexArray Virtualisierungssoftware kann die NetApp V-Series durch eine lizenzierbare Softwareoption auf der FAS8000 ersetzt werden. FlexArray ermöglicht der FAS8000 die Virtualisierung und das Management von Storage-Plattformen verschiedener Anbieter und ebnet so den Weg für Software Defined Storage (SDS). Damit ist die FAS8000 das erste horizontal skalierbarer Unified Storage, das als Array und gleichzeitig als virtueller Storage Controller genutzt werden kann.

 

Aus meiner Sicht ist das der nächste konsequente Schritt in Richtung Software Defined Storage. Wir ersetzen ein proprietäres Stück Hardware einfach durch eine Software Option. Ich kenne keinen anderen etablierten Storage Vendor, der diesen Schritt gemacht hat, oder auch nur plant.


Mit der FlexArray Virtualisierungssoftware kann also auch bereits vorhandener „nicht NetApp“ Storage mit Data ONTAP gemanagt werden, was für einen höheren ROI sorgt. Außerdem werden ältere Storage-Systeme in Cloud-fähigen Storage umgewandelt. Mit der Software ist die FAS8000 in der Lage, Arrays von Drittanbietern zu virtualisieren und zu managen – und zwar mit einer neunmonatigen Payback-Garantie.


Ein paar weitere Details dazu:

Die FlexArray Virtualisierungssoftware ermöglicht eine einfache Virtualisierung und benutzerfreundliches Storage-Management. Mit der FlexArray Virtualisierungssoftware sind Kunden in der Lage, bereits vorhandenen Storage als FAS Kapazität weiter zu nutzen und damit ihren ROI zu steigern. Außerdem können mehr IT-Abläufe von den erstklassigen Funktionen von Data ONTAP profitieren. FlexArray unterstützt sowohl SAN als auch NAS ganz ohne komplexe Add-ons. Es sorgt für eine einheitliche IT-Architektur mit benutzerfreundlichen Datenmanagement-Funktionen und bietet herausragende Applikationsintegration sowie Datensicherung. Mit dieser Grundlage für softwaredefinierten Storage können Unternehmen Storage-Services anhand von Richtlinien bereitstellen sowie Ressourcen auf einem breiteren Spektrum an Hardware implementieren. Die FlexArray Software kann jederzeit erworben und auf der FAS8000 aktiviert werden.


Weitere Informationen dazu finden Sie unter: http://www.netapp.com/de/products/storage-systems/flexarray/index.aspx

Und ONTAP 8.2.1 ist seit heute (3.4.2014) GA

Die Performance von Speichersystemen ist seit jeher eine eigene Domain. Viele von uns haben irgendwann den Umgang mit Performance im Compute-Bereich der IT halbwegs verstanden (und auch das ist ein beliebig komplexes Thema), Storage-Performance bleibt aber für viele ein Buch mit sieben Siegeln. Jede Woche erlebe ich es beispielsweise wieder, das mit der Metrik MB/s argumentiert wird, obwohl diese Metrik ausser im HPC Bereich selten die Richtige ist.

 

Nun muss ich zugeben das dies auch ein komplexes Thema ist und auch ich meine ersten zwei Jahre in der Industrie voll daneben lag und auch heute immer wieder mal was lerne. Eine lustige Anekdote aus dem Jahre 2000 ist, wie ein Kollege und ich bei einem Kunden einen Performance-Test durchführten und versucht haben, mit allen möglichen Tricks die Performance der Oracle Logwriters über 5MB/s zu bekommen. Wir waren uns ganz sicher das in der Umgebung des Kunden irgendetwas nicht stimmte, unsere DD Tests hatten immer viel bessere Resultate erbracht. Was wir damals noch nicht so recht verstanden hatten war der Zusammenhang von Single-Threaded und Latency ...

 

Wo will ich hin? Storage Performance ist ein komplexes Thema. Und es Bedarf einer Menge Wissen und Erfahrung um dieses Thema zu meistern. Auf der anderen Seite werden Storagesysteme immer komplexer und spätestens bei einem Scale-Out-System wie Clustered Data ONTAP verliert man leicht den Überblick.

 

NetApp hat erkannt, das klassische Performance Monitoring Tools, die hauptsächlich Metriken auf die eine oder andere Weise visualisieren, unzureichend sind. Wir entwickeln daher für Clustered Data ONTAP die nächste Generation von Performance Management Tool. Darf ich vorstellen:

 

OnCommand Performance Manager 1.0

 

OPM 1.0 ist die erste Version des neuen Performance Managers. Bei OPM dreht sich alles um das Erkennen von Performance Problemen. Dazu wertet OPM diverse Metriken (primär Latenzen) einzelner Subsysteme und Storageobjekte des Clusters aus und setzt sie in Zusammenhang. Das ermöglicht das Beantworten von Fragen wie:

  • Liegt das aktuelle Performanceproblem im Storagesystem oder ausserhalb?
  • Welche Resourcen (z.B. LUNs, Volumes) sind betroffen? OPM nennt diese Opfer (Victims).
  • Wer verursacht das Problem? OPM nennt diese Täter (Bully).
  • Ist der Täter eine externe (z.B. ein defektes Skript erzeugt auf einmal 10mal mehr Workload und zieht die Produktionsdatenbank runter) oder interne Workload (vielleicht sollte der vol move doch zu einer Off-Hour gestartet werden)?
  • Okay, das Problem liegt wirklich im System: Wie schaffe ich Abhilfe?

 

Das Ganze verpackt in eine moderne und gefällige UI. Beispiel:

OPM001.png

Das Bild zeigt die Latenz einer LUN (blaue Linie). Der graue Korridor ist der Bereich in dem sich die Latenz in der Vergangenheit bewegt hat (OPM hat gelernt, was die normale Latenz der LUN ist). Sobald sich die Latenz aus dem Korridor bewegt, wird ein Event erzeugt (roter Punkt) und OPM verrät einem die Ursache. Hier sieht man, das OPM die Ursachen in Bereiche wie Network (ist der Link nach aussen saturiert), Policy Group Limit (Clustered ONTAP hat Quality of Service; bin ich in ein vom Administrator mit QoS gesetztes Limit gelaufen) oder Aggregate (wir ziehen mehr IO als die angeschlossenen Disks liefern können) einordnet. Wenn man tiefer ins Detail geht werden mehr Informationen und oft auch eine Tipp zur Abhilfe gegeben.

 

OPM 1.0 wird nicht die Antwort auf jedes Performanceproblem liefern. Wir haben eine umfangreiche Vision und Roadmap für seine Zukunft, heute geht es mit V1.0 los. Dennoch ist es ein extrem starker Auftakt für ein Tool, das kein cDOT Admin missen darf. OPM kann viel Zeit und Nerven sparen und wer wünscht sich nicht eine schnelle Antwort, wenn es mal wieder heisst "der Storage ist Schuld" (Hint: ist er meist nicht).

 

Und das Beste kommt zum Schluss: OPM ist Free. Free wie in "kostenlos". Sollten Sie also eine Clustered Data ONTAP System betreiben, geschwind http://support.netapp.com/NOW/download/software/oncommand_pm/1.0RC1/ ansurfen und loslegen!

 

Und sicher lohnt es sich auch in der OnCommand Community vorbeizusehen.

 

In allen Medien und von Analysten wird derzeit das sogenannte Hybrid Cloud Modell als IT Delivery Modell der Zukunft favorisiert. Es kling wirklich sehr verlockend bei Bedarf, ganz spontan, einzelne Applikationen oder Workloads, einfach so zu einem Service Provider zu verschieben und anschließend wieder in die eigene private Cloud zurückzuholen. Ein Traum für jeden IT Manager. In der Realität gibt es da allerdings zuerst einige technische, organisatorische und kaufmännische Hürden zu überwinden.

 

Z.B.: Wie konvertiere ich schnell und zuverlässig Hypervisor Formate? Wie kriege ich meine Daten  von A nach B und wieder zurück? Welche Service Levels sind definiert? Was kostet mich die Nutzung? Wie schaut es mit Security aus? Ich glaube man könnte die Liste sicherlich noch weiter fortsetzen.

 

Wenn man sich jetzt mal anschaut wie dieses Modell mit NetApp Technologie umgesetzt werden kann, erkennt man schnell, dass einige technischen Hürden durchaus zu überwinden sind.

Starten wir mit der Hypervisor Konvertierung.  Mit NetApp Shift (siehe youtube: http://www.youtube.com/watch?v=OE2JCkVgv38 ) kann man auf der Storage Ebene Hyper-V, VMware und XEN Formate blitzschnell hin und her konvertieren. Damit sind unterschiedliche Hypervisor Formate zwischen private Cloud und Service Provider kein Problem mehr.


Wenn ein Transfer von großen Datenmengen notwendig ist gibt es mehrere Möglichkeiten. Datenreplikation z.B. zu AWS (Amazon Web Services) ist eine mögliche Lösung.

Andere Service Provider haben unterschiedliche weitere Möglichkeiten:

  • Replikation von NetApp auf NetApp (das ist easy und eine sehr wahrscheinliche Kombination da viele deutsche Service Provider bereits auf NetApp setzen)
  • Replikation von NetApp auf nicht NetApp Storage über die V-Serie
  • Replikation von NetApp auf X86 Server mit VMware über Data ONTAP Edge

Es gibt sicher noch weitere technische Hürden z.B. die Bandbreite. Dies würde aber den Rahmen des Artikels sprengen.


Wie steht´s jetzt mit der Möglichkeit sich einfach und schnell einen SP (Service Provider) auszuwählen, der einen guten Preis anbietet und die passenden  SLA´s erfüllt?

Die Deutsche Börse Cloud Exchange ist  auf dem besten Weg dazu, den ersten Marktplatz für Cloud Services zu etablieren. Als Nutzer bekomme ich Preistransparenz und ein breites Angebot an SP´s, die für meinen Usecase den passenden Service Level und eine geeignete Lokation anbieten können. Das ist aus meiner Sicht ein enorm großer Schritt in Richtung standardisierte Cloud Services und wird somit das hybrid Cloud Modell extrem flexibilisieren. Ich bin übrigens auch überzeugt davon, dass die hybrid Cloud das Rennen machen wird.

Das klassische Thema mit dem ich mich am Anfang eines Jahres beschäftige sind die zahlreichen Vorhersagen für das neue Jahr.

Natürlich hat auch NetApp dazu etwas zu sagen und unser CTO Jay Kidd hat 10 Dinge aufgelistet:

2014 Predictions

 

Zur Vorhersage Nr. 2:

Hunger Games Begin for All-Flash Startups

"The flash market will see increased growth as the presence of mainstream enterprise storage companies validates this technology trend….."

möchte ich gerne einen wichtigen Aspekt der Flash Technologie, der leider oft von den Performancevorteilen und dem hohen Preis „überdeckt“ wird, näher beleuchten: Die TCO Ersparnis.

Wenn man von Flash spricht, dann meistens wenn es um Performance geht.

Das zweite Thema ist dann sofort der hohe Preis. Ein typisches Kundenzitat aus einem tollen Whitepaper zu dem Thema von Paul Feresten und Rip Wilson (im Anhang)

ist z.B.: “Sure it’s fast, and I’ve heard great things about it, but flash solutions are also really expensive.”

 

Ein weiteres Zitat aus dem Whitepaper ist: “Flash Is Fast and Expensive, But Less Expensive Than HDDs?”

Etwas provokativ aber unterm Strich absolut richtig!

 

Was sind nun ganz konkret die Bereiche in denen sich mit Flash jede Menge Geld, im Vergleich zur HDD, einsparen lässt?

 

Über 60% lassen sich allein im Bereich Strom, Klimatisierung und Wartungskosten einsparen. SSD´s brauchen wesentlich weniger Strom und erzeugen auch so gut wie keine Abwärme.

Allein durch die Tatsache dass SSD´s keine beweglichen Teile enthalten, verringert sich auch der Aufwand für die Wartung. Die Dinger fallen schlichtweg viel seltener aus.

 

Der 2. Faktor ist die Platzersparnis wegen der erheblich besseren Performance. Damit kann man die oft vorhandene Überprovisionierung, die nur für die notwendigen I/Os gebraucht wird, eliminieren.

Wenn man sich vorstellt dass man mit einer 2 Höheneinheiten EF550 die I/O Performance von über 1000 15K Festplatten erzielt ist die Platzersparnis schon enorm.

Bild1.png

Wie komme ich auf dieses enorme Einsparungspotential? Nun...laut wikipedia schafft eine 15K Enterprise Festplatte maximal ca. 340 IOPS.

Diese Zahl wird übrigens in der Realität so gut wie nie erreicht. Da spricht man eher von 200-250 IOPS pro Festplatte. Aber rechnen wir mal optimistisch

und multiplizieren 1000 mit 340 und kommen somit auf 340.000 IOPS. Das entspricht ziemlich genau den Spezifikationen der "alten" EF540.

Die EF550 schafft sogar über 400.000 IOPS.

 

Wenn man also über Flash nachdenkt sollte man nicht nur den puren Anschaffungspreis im Auge haben, sondern unbedingt eine Gesamtkostenrechnung aufstellen.

Das war großes Kino! Am 12. Dezember hatten wir über 800 Kunden zur Kino-Premiere  „Der Hobbit – Smaugs Einöde“, dem zweiten Teil der Hobbit-Trilogie, in Hamburg, Essen, Frankfurt, Stuttgart und  München eingeladen. Und ich muss sagen: Ich bin total hin und weg! Mal abgesehen vom spannenden Plot um die Befreiung des Zwergenreichs Erebor, begeisterten mich vor allem die spektakulären Bilder und eine absolut liebevolle, realistische Umsetzung der Mittelerde-Fantasy-Welt. Die visuellen Effekte der Hobbits und der Landschaften sind einfach atemberaubend. Möglich macht dies die High Frame Rate (HFR)-Technologie, mit der die weltberühmte Produktionsfirma Weta Digital den Zuschauern 48 Bilder pro Sekunde präsentiert. Durch die Verdoppelung der Bildrate ist das Bild in 3D selbst bei rasanten Kampf-Szenen absolut flüssig.

 

Weta Digital aus Wellington in Neuseeland hat bisher fünf Oscars in der Kategorie „Beste visuelle Effekte“ gewonnen. Wer „Lord of the Rings“, „Avatar“ oder die jüngste Verfilmung „Der Hobbit – Smaugs Einöde“ gesehen hat, versteht, warum. Die Lebendigkeit im Film, die Brillanz und Echtheit der gestochen scharfen und extrem plastischen Bilder in Mittelerde sind einfach faszinierend. Faszinierend ist auch die Speicherleistung dahinter! Die „Render Wall“ von Weta – ihre zentrale Lösung zur Erzeugung digitaler Bilder – benötigte bereits während der Produktion der Herr der Ringe Trilogie 3.000 Prozessorkerne. Sieben Jahre später war diese Zahl für Avatar schon auf 34.000 Prozessorkerne angewachsen und die Storage-Anforderungen für den zweiten Teil der Verfilmung des Bestsellers von J.R.R. Tolkiens „Hobbit“ sind erneut gestiegen. Beinahe unvorstellbar: Die 5K-fähigen Kameras, die beim Dreh zum Einsatz kamen, bieten eine Auflösung von 5.120 auf 2.700 Pixel und ermöglichen eine Farbtiefe von bis zu 16 Bit. Bei einer Frequenz von 48 Bildern bedeutet dies einen Datenstrom von 950 MB/Sek. Nun fasziniert der Blockbuster insgesamt über 170 Minuten und wurde mit rund 50 Kameras gedreht – da kommt einiges zusammen!

 

Stolz bin ich natürlich darauf, dass Weta Digital auf unsere NetApp-Technologien setzen. Bereits für den ersten Hobbit-Film „Eine unerwartete Reise“ kam clustered Data ONTAP zum Einsatz, um einen unterbrechungsfreien Betrieb zu gewährleisten und IT-Störungen minimieren zu können. Unser geniales Storage-Betriebssystem sorgt zudem für die maximale Flexibilität und Skalierbarkeit, welche diese und zukünftige anspruchsvollen Workloads abfordern. Funktionalitäten wie z.B. FlexCache sorgen dafür, dass den einzelnen Render-Servern alle Daten vollautomatisch zum richtigen Zeitpunkt an der richtigen Stelle zur Verfügung stehen – und dass mit maximaler Performance. Insgesamt liegen bei WETA mehr als 5PB Daten auf NetApp-Storage. Die Möglichkeit bei diesen Datenmengen unterbrechungsfrei skalieren zu können und und ebenso unterbrechungsfrei Daten auf neue Hardware ohne Migration und Downtime verschieben zu können, ist ein weiterer Betriebsvorteil, den das clustered Data ONTAP-Betriebssystem mit sich bringt.

Aber Bilbo Beutlin faszinierte nicht nur mich; viele der Gäste in Frankfurt schwärmten von dem zweiten Teil der Hobbit-Trilogie, als ich mich mit ihnen im Anschluss an den Film noch unterhalten konnte. Eine kleine Zusammenfassung zu unserem Event gibt es auf unserem YouTube-Kanal NetAppGermanyTV.

Auf dem Fujitsu Forum 2013 in München hatte ich die Gelegenheit Fujitsu´s CTO Dr. Joseph Reger in seiner Keynote „ All things considered – How the internet of things  changes our world“  zu erleben. Haben Sie schon Mal vom „Internet der Dinge“ gehört? Ich kannte den Begriff vorher schon, habe mir aber keine weiteren Gedanken darüber gemacht. Naja, vielleicht ein bisschen doch.  Ich habe nämlich irgendwann festgestellt, daß sich über 20 Geräte  über meinen DSL Router mit dem Internet verbinden.

 

Zählen Sie doch mal nach und posten hier Ihre Zahl. Wäre bestimmt interessant zu wissen wer die meisten „things“ im Internet hat.

 

Ich würde mich schon als technikaffin bezeichnen, trotzdem hat mich die Zahl überrascht. Handy´s, Tablets, SmartTV, PC´s, Laptops, Sat Receiver, BluRay Player, Spielekonsole  etc.  alles Geräte die in das Internet wollen. Herr Dr. Reger sprach über LED Lampen! Lampen die die Farbe ändern können und  z.B. per Smartphone steuerbar sind. Eine Glühbirne mit WLAN und IP Adresse klingt schon etwas seltsam.  Ist aber derzeit schon Realität.

 

Meiner Meinung nach ist das erst der Anfang.  Das nächste Alltagsgerät das mit einer IP Adresse versehen wird ist meiner Meinung nach das Auto. Viele Hersteller bieten die Internet Verbindung im Auto bereits an. Die Anwendungen dafür, die wirkliche Mehrwerte bieten sind derzeit aber erst im Anfangsstadium.  Wäre doch eine tolle Sache den nächstgelegenen freien Parkplatz in Abhängigkeit der aktuellen Position angezeigt zu bekommen? Das Navi leitet dann automatisch  zum freien Platz, Sie drücken auf den „Einparkknopf“ und stehen in wenigen Sekunden voll automatisiert auf dem Parkplatz.  Für mich: Ein Traum! Technisch, zumindest bei Parkhäusern, kein Problem. Die freien Parkplätze auf der Straße zu integrieren erfordert  aber wieder ein zusätzliches „Ding“ im Internet. Die Parkuhr? Die Straßenlaterne? Die Bordsteinkante? Gut das IP v6 bereits existiert!

Vielleicht haben Sie auch noch eine Idee was man noch alles in das Internet hängen könnte?

Kaffeemaschinen, Kühlschränke, Stromzähler und Heizungen zählen nicht Die sind nämlich schon drin.

 

Update vom 8.1.2014: Diese Meldungen passen super zum Thema:

 

Audi und BMW automatisieren das Auto

CES: Cisco: Internet of Everything = Internet mal 10

 

Echt der Hammer! Es gibt tatsächlich schon Straßenlaternen in Barcelona die freie Parkplätze erkennen und melden.

NetApp und SAP bilden ein starkes Team. Daher sind wir immer da wo unsere Kunden und Partner sind und haben auf dem diesjährigen DSAG-Kongress vom 17. bis 19. September im Nürnberger Convention Center auf zwei Ständen unsere cleveren Storage Infrastrukturlösungen für SAP vorgestellt.

image_2.jpeg

DSAG steht für die deutschsprachige SAP Anwendergruppe e.V. Diese  bietet mit dem jährlich stattfindenden DSAG Kongress ein hochkarätiges Forum für  SAP-Anwender und -Anbieter. Über 4.000 Teilnehmer, dies ist DSAG Rekord,  kamen an den beiden Kongresstagen in Nürnberg zusammen und tauschten sich auf  den zahlreichen Vorträgen und Workshops aus. Parallel dazu gab es eine Ausstellung, auf der 175 Firmen mit ihren Ständen und Präsentationen einen tiefen Einblick in die SAP-Welt gewährten.

NetApp demonstrierte sein SAP Leistungsspektrum zusammen mit den Partnern Cisco und Fujitsu. Die von NetApp und Cisco entwickelte und erweiterte FlexPod Referenzarchitektur als flexible Datacenter Platform für z.B. SAP HANA  und Cloud-Computing stand auf dem gemeinsamen Stand im Vordergrund. Auf einem zweiten Stand zeigten NetApp und Fujitsu die FlexFrame  Orchestrator Plattform für den SAP-Betrieb. Beide Plattformen bauen auf NetApp Storage mit eingebauter SAP-Intelligenz auf. Da alle Komponenten optimal abgestimmt und vorkonfiguriert sind, sind diese Lösungen schnell startklar: als Basis für virtualisierte SAP-Landschaften, für den Betrieb in einer Cloud im Unternehmen oder als Service-Plattform für SAP-Provider.

SAP HANA scheint bei den Anwendern erheblich an Fahrt zu gewinnen. Die Tatsache dass von SAP bereits ERP auf HANA verfügbar ist und weitere Module folgen werden, zeigt dass man als Anwender über kurz oder lang um eine Migration nicht mehr herumkommt.

Unsere gemeinsamen Lösungen mit Cisco und Fujitsu bieten dafür eine optimale Plattform, die es ermöglicht schnell und einfach mit HANA zu starten. 

 

NetApp zeigte wieder einmal  deutlich, dass die Speicherinfrastruktur und das Datenmanagement entscheidend sind, wie sicher und kosteneffizient der SAP-Betrieb läuft und ob seine Schnelligkeit und Flexibilität mit der Geschäfts- und Marktentwicklung Schritt hält.

SAP setzt übrigens NetApp Storage-Lösungen selbst umfassend ein. Rund 70% der weltweiten Storage-Infrastruktur basiert auf NetApp.

Der Sommer 2013 macht Laune, auch wenn er ab und zu eine kurze Pause einlegt. Nach einem verhaltenen Anstieg der Temperaturen von teilweise 15 Grad Ende Juni, belohnte uns die zweite Julihälfte mit 30 Grad und mehr. Und das ist er, der perfekte Sommer, passend zur Ferienzeit.


Als Spezialist für Datenspeicherung und -Management kommen wir bei großen Datenvolumina von Unternehmen und Organisationen selbstverständlich nicht ins Schwitzen. Dennoch ist die Statistik zum „Storage-Sommer“ durchaus auch für uns beeindruckend: Die heißen Sommertage führen zu einem rasanten Anstieg der Daten im privaten Bereich. Mehr als 9 Milliarden Fotos werden in einem Sommermonat auf Facebook hochgeladen, bei Instagram sind es rund 1,35 Milliarden. Das sind insgesamt 10,35 Milliarden Fotos, die allein auf zwei, zugegebener Maßen sehr wichtigen, sozialen Netzwerken monatlich gepostet werden. In – sehr anschaulichen – Bildern gedacht bedeutet das, einen Fotostapel von 72.450 Kilometern oder aber stattliche 517 Millionen  Eistüten in einer Reihe! Vergegenwärtigt man sich, dass 33 Prozent aller Reisenden ihre Urlaubsergebnisse online teilen, handelt es sich um noch wesentlich höhere Zahlen ;-). Die Basis für diesen Anstieg: Bei 88 Prozent der Urlauber zählen 3G oder WiFi-fähige Devices zu den Fixstartern im Reisegepäck.


In Summe sind es beeindruckende 19, 741 TB, die ein Mehr an Speicher monatlich fordern. Damit alle diese Urlaubserinnerungen, schönen Momente und Sommerhighlights gut aufgehoben sind, stellt NetApp Cloud Service Providern eine schnell erweiterbare Storage-Infrastruktur zu Verfügung.


Auf einen Blick finden sich diese und noch weitere Zahlen in unserer aktuellen Infografik. Genießen Sie den Sommer!


 

sommer.jpg


Am 31. Juli diesen Jahres hat die Experton Group den ersten Big Data Vendor Benchmark für Deutschland veröffentlicht. Ich bin natürlich Stolz darauf, dass es NetApp gleich auf Anhieb in den Leaders Quadranten für Storage geschafft hat:

Storage 2013 v1.bmp

Wenn man sich jetzt noch die Leader bei den Big Data Appliances anschaut:

Appliances 2013 v1.bmp

dann stellt man sehr schnell fest, dass NetApp und unser OEM Partner Teradata eine enorm wichtige Rolle in der aktuellen Landschaft der Big Data Anbieter spielen. Im wichtigen Analytics Umfeld ist übrigens ebenso TeraData und auch SAP mit HANA als Leader positioniert. Mit unseren Partnern Cisco und Fujitsu sind wir auch in 2 verschiedenen HANA Appliances vertreten. Big Data spielt für uns folglich eine enorm strategische Rolle.

 

Nun…schön und gut, aber wie steht’s jetzt mit dem „Hype“ um Big Data? Dazu empfehle ich Ihnen folgendes Video: http://www.youtube.com/watch?v=hS-0ZadT6so

E-Bay erzählt über die Vorzüge einer SAP HANA Implementation, die auf Basis der Cisco/NetApp Appliance realisiert wurde. Dieses Beispiel zeigt eindrucksvoll, dass Big Data vor allem im Analytics Umfeld echte Business Mehrwerte generieren kann.

Sie werden jetzt vielleicht denken: „Ok ich bin nicht so groß wie E-Bay, habe nicht so viele Daten und kann mir das außerdem nicht leisten“. Für ein mittelständiges Unternehmen ist der Aufbau einer Big Data Analytics Lösung wahrscheinlich wirklich zu aufwändig. Ganz zu schweigen von dem spezialisierten Know-How dass man dafür aufbauen muss. Die möglichen Mehrwerte sind jedoch auch für mittlere und kleine Unternehmen sehr interessant.

 

Was tun? Service Provider sind meiner Meinung nach die perfekte Lösung. Laut IDC (EMEA Enterprise Summit, Juli 2013) wird BigData langfristig  zum Großteil aaS (as a Service) aus der Cloud bezogen werden und es wird auch einer der wichtigsten Treiber für die zukünftige Cloud Adaption werden. Hmm wie cool ist das denn? Nutzen Sie vielleicht schon Service Provider für z.B. Backup aaS, DR Colokation oder vielleicht sogar als Hoster für Ihre komplette Infrastruktur? Wenn ja, dann ist bereits ein Großteil Ihrer Daten oder vielleicht sind sogar schon alle Daten vor Ort beim Provider. Somit ist die Grundvoraussetzung (schneller Zugriff auf alle relevanten Daten) für BD (Big Data)aaS schon einmal gegeben. Ich bin überzeugt davon dass die Cloud Anbieter diesen Ansatz sehr schnell in konkrete Services umsetzen werden. Unser neuer FlexPod Select ist dafür die perfekte Plattform um schnell mit Hadoop basierten Analytics Services zu starten. FlexPod Select ist mit 2 verschiedenen Hadoop Distributionen (Cloudera und Hortonworks) ab sofort verfügbar. Damit ist ein schnelles „Go-to-Market“ in dem derzeit heiß umkämpften Service Provider Markt gewährleistet. Weitere Details zu FlexPod Select finden Sie unter: http://www.netapp.com/de/company/news/press-releases/news-rel-20130731-972129.aspx

und unter: http://www.diezerreissprobe.de/

Ich war letzte Woche zum ersten mal auf DEM Microsoft Event in Europa. Abgesehen von der Tatsache, dass

das Wetter in Madrid sommerlich war (im Gegensatz zum herbstlichen München), konnte ich auch einige Microsoft relevante Dinge mitnehmen

Das erste was mir positiv aufgefallen ist: Es gab kein Einweggeschirr beim Mittagessen. Microsoft scheint da wesentlich umweltbewusster zu sein als Cisco.

Aber das ist nur eine kleine Anekdote am Rande. Insgesamt gesehen habe ich den Eindruck gewonnen, dass Windows 8 langsam aber sicher abhebt.

Ich hab mal Windows 8 auf einem Laptop mit Touchscreen ausprobiert und muss sagen, dass das wirklich Spaß gemacht hat. Zu Hause hab ich es mal

mit Maus und Tastatur probiert und befand es als völlig unbrauchbar.

Mit der Version 8.1 wird es damit sicherlich etwas besser gehen und somit ist meiner Meinung nach der erst Schritt

in Richtung "Businesstauglichkeit" getan. Bleibt nur noch zu hoffen dass unsere Arbeitsplätze von unseren Arbeitgebern alle mit Touchscreens ausgerüstet werden.

Immerhin hat Windows 8 vor kurzem Windows Vista bei der installierten Basis überholt. Das mag jetzt nicht berauschend klingen, aber wenn man sich die Historie anschaut (z.B. das Debakel beim Start von Vista),

dann hat es Microsoft jedes Mal geschafft neue Windows Versionen zum laufen zu bekommen. Und mal ehrlich, Windows 7 ist doch eigentlich nix anderes als

Windows Vista SP3 mit einem neuen Namen. Meiner Meinung nach ein genialer Marketing Trick der Microsoft Strategen. Und die werden das diesmal auch wieder irgendwie hinkriegen.

Auf dem NetApp Stand war Windows 8 jetzt nicht direkt das Hauptthema, sondern eher die Storage Integration in die neuesten Microsoft Features:

- Windows Server 2012 und System Center 2012 SP1 Integration

- SMB 3 und ODX Support

- Zertifizierung von FlexPod Express für Microsoft private Cloud

- Powershell Integration

usw.

Ich denke ein Bild spricht mehr als 1000 Worte:

last sessio.jpg

Auf unserem Stand ging es richtig ab!

Anbei noch 2 Videos mit Microsoft und Citrix:

Video mit Microsoft

Video mit Citrix

und ein Video von einem Kollegen mit Impressionen von der TechEd.... echt cool

Zurzeit beschäftigen mich einige aktuelle Marktzahlen. Vor ein paar Tagen
hat IDC eine von NetApp unterstützte Studie zum Thema Storage in Deutschland
vorgestellt. Auf den Punkt gebracht: Die meisten Ergebnisse haben mich nicht überrascht.
Storage-Systeme liegen im Trend, wenn es um die Anforderungen von Data Center
geht. Denn die Datenmengen in den Unternehmen wachsen kontinuierlich. Besonders
grafische Daten wie Bilder und Videos, Office-Dokumente oder E-Mails und Daten
aus Business-Anwendungen sind für den immensen Datenanstieg verantwortlich. Zwei
von drei deutschen Unternehmen erwarten deshalb einen Zuwachs von über 20
Prozent in den nächsten 24 Monaten. Für verantwortliche IT-Manager in den
Unternehmen bedeutet das, dass sie dringend nach Lösungen suchen müssen, um mit
der ständig steigenden  Storage Kapazität und den immer höher werdenden Ansprüchen an Performance und Verfügbarkeit,
Schritt halten zu können.

Zusätzlich steht den Verantwortlichen natürlich kein unbegrenztes Budget zur Verfügung.

Die Trouble Shooter sind Technologien wie Storage-Virtualisierung,
Cloud Storage oder SSD/Flash-Speicher.  So stellt ein wesentlicher Vorteil von
SSD/Flash die Performance bzw. Geschwindigkeit der Technologie dar, denn die
Zugriffszeiten insbesondere beim Lesen von Daten sind sehr viel kürzer als bei
einer herkömmlichen Festplatte.

 

Die IDC Ergebnisse zeigen, dass der Einsatz stark wachsen wird. So planen über 25 Prozent

der befragten IT-Verantwortlichen, die SSD/Flash im Einsatz haben oder dessen Einsatz planen,

in Zukunft auf All Solid State Storage Systeme zu setzen. 38 Prozent dieser Gruppe – acht Prozent mehr als heute – wollen in
bestehende Storage-Systeme Solid State Drives (SSDs) integrieren.

IDC_SSD.png

 

Eine weitere Zahl, die aufhorchen und einen klaren Trend erkennen lässt: Jedes
zweite Unternehmen (53 Prozent) denkt über die Einführung konvergenter Systeme
nach. Konvergente Systeme integrieren Server-, Storage- und
Netzwerk-Technologien in eine Infrastruktur-Komponente – sowohl im Hinblick auf
das System Management als auch auf die Hardware. NetApp ist in diesem Umfeld mit

FlexPod hervorragend positioniert.

 

Und, die dritte aktuelle Zahl, die das Leben vieler IT-Manager demnächst
leichter macht, ist 8.2. Wir haben jüngst die neue Version unseres
Betriebssystems ONTAP vorgestellt. Die Software sorgt für schnelles und
kostengünstiges Bereitstellen neuer Dienste und Storage-Kapazitäten bei
maximaler Uptime der Applikationen. Dass clustered ONTAP den Nerv der Zeit
trifft bestätigt ebenso die IDC Studie. Fast 50 Prozent der befragten
Unternehmen beschäftigen sich bereits mit Scale-Out und Software Defined
Storage.

 

Und damit bin ich bei noch einer Zahl und
diesmal in ureigenster Sache: NetApp Deutschland konnte im ersten Quartal
dieses Kalenderjahres deutlich an Marktanteilen im IDC Vergleich zulegen und
liegt mit 32,9 Prozent zum ersten Mal deutlich über der 30-Prozent-Marke. Ein
sich abzeichnender Trend, über den ich gerne noch öfter schreibe

kpapendi

V-M=L

Posted by kpapendi Jul 1, 2013

 

blog_formel_pic_3.jpg

Wat iss denn V-M=L? Später mehr dazu.

 

Im Mai fand unter großer Aufmerksamkeit die EMC World 2013 in Las Vegas statt. Die Erwartungshaltung war groß, gespannt war ich vor allem auf die lang erwartete EMC VNX2, die ja einiges an neuen Funktionalitäten (u. a. Block-Level Dedupe u. v. m.) mitbringen soll. Tag 1 - nichts. Tag 2 - nichts. Tag 3 - wieder nichts zur VNX2, mmmh?

 

Aber das Highlight der Veranstaltung war sicherlich die Ankündigung, dass EMC zukünftig auf SDS (Software Defined Storage) und das dazugehörige Produkt ViPR setzt. Hardware mache EMC nicht mehr, sagte parallel dazu Joe Tucci, EMC: „Hardware? We stopped doing that YEARS ago”.

 

http://www.theregister.co.uk/2013/05/07/emc_hardware_pah/

 

Aha, also keine Hardware mehr, sondern zukünftig nur noch Software. Das scheint die neue Strategie bei EMC zu sein. Aber was ist SDS überhaupt? Die Meinungen und Definitionen gehen hier noch weit auseinander. Ich selbst finde die folgende Beschreibung einfach und zutreffend: „SDS ist eine Technologie, die die Storage Controller-Funktionalität von der Storage-Hardware abstrahiert und in Software abbildet. Die Software kann auf einer Appliance oder in einer virtuellen Maschine in einem Hypervisor laufen. Das Konzept für die Zukunft beinhaltet einen Single Control Point auf einer Console für Daten-Services wie z. B. Volume Management und Snapshots auf beliebiger Disk Hardware“.

 

http://www.informationweek.com/storage/reviews/is-software-defined-storage-right-for-yo/240154877

 

Mindestens genauso intensiv wird diskutiert, was ViPR überhaupt ist, was ViPR kann und was ViPR nicht kann. Einen schönen Artikel, der es gut trifft, gibt es auf TheRegister. Martin Glassborow sagt: „And quite simply, I don’t see anything breathtaking or awe-inspiring. Perhaps I’m just hard to impress these days? (…) ViPR is a tool to improve storage management and turning storage management into something that can be completely automated (…)”. Also ein Werkzeug zur Verbesserung der Administration und Automatisierung von heterogenen Storage-Umgebungen. Provisionieren, automatisieren, standardisieren und die Storage-Effizienz verbessern können NetApp Kunden schon lange mit dem kostenlosen Provisioning Manager. Aus meiner Sicht ist der Weg von ViPR zu einer SDS-Lösung noch weit. Womit ich auf die Formel V-M=L zurückkommen möchte:

 

ViPR – (Marketing hype) = (Layer of hardware & software to enable consistent management)

 

Ich bin gespannt, was die Zukunft noch bringt. Zurzeit macht ViPR eher viel Rauch um wenig.

Und NetApp und SDS? Als ich 2005 zu NetApp kam und mein erstes Training in den USA besuchte, sagte der damalige CEO Dan Warmenhoven: „NetApp is a Software Company“. Er hat damals schon recht gehabt. Man denke nur an Storage Virtual Machines (SVM, früher vServer):

blog_062013_pic_1.jpg

Unsere V-Series bringt die Data ONTAP Funktionalität und Intelligenz auf „beliebige“ Storage-Hardware und dann gibt es auch noch Data ONTAP Edge für Virtual Machines:

blog_062013_pic_2.jpg

Ich denke mal, wir sind der SDS-Realität sehr nahe und können wirklich über SDS reden. Mein Kollege Herbert Bild hatte das Thema im Januar an dieser Stelle bereits beleuchtet. Reinschauen lohnt sich.

 

Weitere brandneue Infos zum Thema SDS bei NetApp gibt es auch in den NetApp News:

 

http://www.netapp.com/us/company/news/press-releases/news-rel-20130611-574523.aspx

 

Heute möchte ich zu einem kleinen Märchen Stellung nehmen, das im Markt vielen unserer kaufenden und potentiellen Kunden von unseren Mitbewerbern erzählt wird. Es dreht sich um den MetroCluster von NetApp.

 

Die Erfolgsgeschichte des NetApp MetroClusters begann im Jahre 2002 als diese Storage Business Continuity-Lösung  erfunden wurde. Der MetroCluster von NetApp besteht aus einem regulären HA-System, erweitert mit den Softwarekomponenten SyncMirror, Cluster Remote und gegebenenfalls Fibre Channel Switches zur Überbrückung größerer Distanzen. Diese Kombination von Produkten ermöglicht es, einen synchron gespiegelten Datenbestand zu betreiben. Dieser steht auch bei Ausfall von Teilkomponenten weiterhin zur Verfügung, ohne dass ein manuelles Eingreifen eines Administrators notwendig wäre.

Bei Ausfall eines gesamten Rechenzentrums kann ein Administrator mit einem Befehl das System selber umschalten oder es kann optional eine automatisierte Routine gestartet werden. Dieser automatisierte Vorgang überprüft, ob nur die Verbindung zwischen den Rechenzentren verloren gegangen ist oder ob wirklich eine komplette Seite ausgefallen ist. In letzterem Fall leitet er eine Umschaltung ein.

 

Der MetroCluster und NetApp Deutschland -  eine besondere Beziehung


Gerade der deutsche Markt fand und findet dieses Produkt so gut, das neben der Multiprotokollfähigkeit der NetApp FAS Storage Controller und des Unified-Konzepts eine einfache Administrierbarkeit der Systeme bietet. Diese Funktionalität wurde zu einem großen Erfolg und hat einen entscheidenden Beitrag dazu geleistet, dass NetApp in Deutschland Marktführer ist.

Auf dem amerikanischen Markt, der natürlich der Heimatmarkt von NetApp ist, wird diese Technologie aus mehreren Gründen (z. B. Entfernungen zwischen den Rechenzentren) nicht so oft genutzt wie in Europa. Diese Tatsache führte immer wieder dazu, dass Gerüchte aufkamen, ob der MetroCluster eine Zukunft hat oder nicht. Einige Funktionalitäten, wie z. B. Deduplizierung, die schon 2007 generell bei NetApp verfügbar waren, wurden erst etwas später (2009 mit ONTAP 7.3.1) für den MetroCluster freigegeben.  SATA-Platten wurden ebenfalls erst ab 2011 in Fabric MetroCluster Konfigurationen unterstützt. Trotzdem oder gerade deswegen ist der MetroCluster bis heute ein integraler Bestandteil des NetApp Lösungsportfolios.

 

Von Data ONTAP in 7-Mode zu Clustered Data ONTAP


Mit der Akquisition von Spinnaker Networks im Jahr 2003 wurde der Weg für das heute, neben Data ONTAP in 7-Mode, aktuelle ONTAP Release „Clustered Data ONTAP“ bereitet, das die Zukunft von NetApp ist. Durch die Einführung von Clustered Data ONTAP hat NetApp auch eine andere Sichtweise auf den MetroCluster bekommen, da viele unserer Kunden uns widerspiegelten, dass der MetroCluster für geplante Downtimes genutzt wird. Durch die Redundanz können Ausfälle vermieden werden. Für dieses Szenario gibt es jetzt mit dem Clustered Data ONTAP Release eine neue und für solche Anwendungsfälle optimierte Version des traditionellen Data ONTAPs.


Was heißt das jetzt für den MetroCluster?


Falls NetApp irgendwann auf die unglaubliche Idee kommen sollte, den MetroCluster abzukündigen, wird die Funktion ab diesem Zeitpunkt mindestens weitere 5 Jahre unterstützt werden. Für die Zukunft sieht die derzeitige Planung von NetApp natürlich eine Weiterentwicklung des MetroClusters vor.

Um es ganz deutlich zu sagen: Nach aktuellen Kenntnissen ist und bleibt der MetroCluster Bestandteil der NetApp Plattform-Strategie.

NetApp hat durch die Entwicklung von Clustered Data ONTAP und die Transformation fast aller Features, die bis dato in Data ONTAP in 7-Mode bekannt waren, einen wichtigen Schritt für das Rechenzentrum der Zukunft und den damit verbundenen ausfallsicheren Betrieb getan. Unterschiedliche Branchen benötigen die synchrone Spiegelung und NetApp hat mit dem transparenten Failover den Markt erobert.

 

Mir fällt kein Grund ein, warum man den MetroCluster abkündigen sollte.

Ich bin seit 2010 (also seit der 1. Generation) begeisterter
iPad Benutzer und bin mittlerweile sogar beim iPad 4 angelangt. Mit meinem
ersten iPad habe ich in der Anfangsphase alles Mögliche versucht, um es als
vollwertigen Laptop Ersatz verwenden zu können. Damals kam ich zu dem Ergebnis
dass ich leider immer noch meinen Laptop auf Reisen mitnehmen muss.

Es scheiterte an ganz simplen Dingen:

Der schnelle Zugriff auf Daten die im NetApp Intranet liegen

und einfach zu bedienende Tools, mit denen man schnell mal ein paar kleine Änderungen an Office Dokumenten durchführen kann.

 

Wenn jemand mal versucht in "Apple Numbers" ein paar Zeilen in einem Microsoft Excel Sheet zu verändern,

der 20 Jahre die Bedienung mit Maus und Tastatur gewöhnt war, der bricht sich wahrscheinlich, genauso wie ich, die Finger.

Abgesehen von dem Problem, dass ich die Änderungen nicht mehr so
abspeichern kann, dass das Excel Sheet später mit meinem Laptop einwandfrei
weiter bearbeitet werden kann. Außerdem gibt es auch Darstellungsprobleme bei
„Numbers" mit komplexeren Excel Sheets. Das gilt übrigens auch für "Keynote" oder
"Pages". Das iPad nur zum bequemen lesen und beantworten von E-Mails ZUSÄTZLICH
zu meinem Smartphone mitzunehmen, war mir dann auch zu blöd. Die Konsequenz war
klar: Das iPad kann nicht als vollständiger Ersatz für meinen Laptop dienen und
war somit für mich nicht businesstauglich.  Natürlich hatte ich im privaten Umfeld trotzdem
jede Menge Spaß mit meinem iPad.

 

Mit "NetApp Connect" ist jetzt  ein großer Teil dieser Lücke geschlossen
worden. Es macht den schnellen, sicheren und einfachen Zugriff auf  Unternehmensdaten (Office Dokumente, PDF´s, Bilder,
Videos, SharePoint und Intranet) möglich.
Als ich es zum ersten Mal ausprobiert habe, war ich sofort begeistert. Es funktioniert online und offline, alle Gesten
funktionieren wie gewohnt, die Auflösung der Dokumente ist pixelgenau und ich
kann ohne VPN sicher und schnell auf alle Dokumente im Unternehmen zugreifen.

Mehr brauche ich nicht um das iPad für unterwegs als FAST vollwertigen Laptop Ersatz einzusetzen.
Das einzige was jetzt noch fehlt sind Word, Excel und PowerPoint für iOS, damit
man Office Dokumente auch endlich problemlos  editieren kann.  Aber da müssen wir wahrscheinlich noch bis
Office 2014 warten

 

Testen Sie gleich kostenlos die NetApp Connect App:

https://itunes.apple.com/de/app/netapp-connect/id636010817?mt=8

Filter Blog

By author: By date:
By tag: