1 2 3 5 Previous Next

El Blog de Jamarmu

74 Posts

Hola a todos,

 

La semana que viene se celebra una reunión del grupo de usuarios de sistemas de almacenamiento NetApp: Netapperos

 

Es un evento para clientes que sean usuarios de nuestros equipos y que formen parte del grupo de usuarios, que por otro lado es gratuito.

 

Desde NetApp nos ocuparemos de contar los nuevos equipos de los que hablaba en el post anterior, y también nos pondremos prácticos con un laboratorio sobre los simuladores de Data ONTAP, que todos os podréis llevar a casa.

 

Si ya eres Netappero puedes solicitar más información y registrarte en info@netapperos.com

 

Saludos

jamarmu

Nuevos FAS8000

Posted by jamarmu Mar 4, 2014

Hola a todos,

 

Como siempre con un poco de retraso, pero también con más información, aprovecho para contaros la aparición de nuevos equipos de la familia FAS, los FAS8000, y un par de novedades al respecto.

 

El pasado día 19 anunciamos tres nuevos equipos: FAS8020, 8040 y 8060, sustituyendo a los FAS3220, 3250, 6220 y 6250.  A pesar de que el nombre parece indicar lo contrario, no se trata de los nuevos tope de gama, sino del reemplazo de los equipos de gama media y la parte baja de la gama alta, quedando el 6290 como el equipo más grande del portfolio … más o menos lo que se ve en esta transparencia:

 

fas8000.jpg

 

Tenéis todas las especificaciones en nuestra página web.

 

Con el uso de nuevas CPUs y más memoria RAM conseguimos duplicar (aproximadamente) el rendimiento de los equipos que se reemplazan, mientras que el precio es parecido al anterior.

Como referencia podéis ver los recién publicados datos de NAS de spec.org:

 

                FAS8020: 110K iops SFS2008 NFS

 

                FAS3250: 100K iops SFS2008 NFS

 

También tenéis el SPC-1 para acceso FC:

 

                FAS8060: 86K iops SPC1

 

Aunque en este caso tenemos que compararlo con dos generaciones hacia atrás:

 

                FAS3170: 60K iops SPC

 

Los iops de uno y otro benchmark no son comparables, puesto que tienen patrones de acceso diferentes, pero sí que no sirven para comparar los resultados con otros equipos del mismo benchmark, ya sean nuestros o de otros fabricantes.

 

Estos dos benchmarks los hemos publicado con Clustered ONTAP, en este caso con una configuración de 2 nodos, puesto que de lo que se trataba es de ver el rendimiento de estas nuevas controladoras, y ya sabemos de pruebas anteriores que con Clustered ONTAP el rendimiento crece de forma prácticamente lineal conforme añadimos controladoras.

 

Otra novedad que lanzamos es que “desaparecen” los modelos V-Series, que eran aquellas controladoras que tenían la capacidad de virtualizar almacenamiento externo. Ahora solo habrá un modelo, por ejemplo FAS8040, y mediante una licencia opcional que llamamos FlexArray, se habilita la posibilidad de virtualizar almacenamiento externo. No se trata de una funcionalidad nueva, hacemos lo mismo que antes se hacía con los V-Series, pero se comercializa de otra forma.

 

Por último Data ONTAP; estos equipos salen al mercado con la última versión, la 8.2.1, que añade algunas novedades interesantes y en la que me gustaría destacar Data ONTAP Edge en modo Cluster; esto me da para otro post, pero en breve, la versión virtualizada de nuestro sistema operativo, que corre dentro de servidores de propósito general con VMware, ahora puede funcionar en modo cluster, y por tanto, replicar datos e integrarse contra cualquier otro Cluster ONTAP.

 

Saludos

jamarmu

Preparando el museo

Posted by jamarmu Feb 7, 2014

Con esto de hacerse mayor te va entrando la nostalgia, y camino de los 9 años en esta empresa, hacía tiempo que estaba pensando en poder tener una perspectiva de los productos que hemos ido teniendo todo este tiempo, y con la inestimable ayuda del departamento de marketing nos hemos lanzado a preparar un pequeño museo que espero que colguemos en las paredes de la oficina.

 

Lo primero es documentarse, así que a buscar información se ha dicho, y como no la Wikipedia sale en nuestra ayuda con esta detallada lista de los diferentes equipos que hemos comercializado en NetApp:

 

historia.jpg

 

Pego solo la parte histórica de los equipos; la lista completa la podéis ver online.

 

Rebuscando entre las piezas viejas del almacén hemos encontrado un F760 (1998), un FAS250 y 270 (2004), un 3050 (2005)  y un 3070 (2006), que una vez destripados del chasis y placas accesorias nos quedan más o menos así:

 

placas.jpg

Ahora falta ponerle unos marcos bonitos para exponerlos, pero ese trabajo se lo dejo a marketing ;-)

 

Podéis decir que no son muy antiguos que digamos, pero si tenemos en cuenta que la compañía empezó en España en el 2001, algo del 98 es un verdadero clásico. De hecho el F760 es como el muñeco aquel de Toy Story, nunca fue utilizado ni sacado de la caja, pues se trata de una pieza de repuesto que llevaba por la oficina desde que yo entré.

 

El F760 era el tope de gama de su época, fue el primer equipo en superar el TeraByte de almacenamiento !!!!!, podía tener tarjetas de red FDDI, ATM y Gigabit Ethernet, y daba la friolera de 7800 operaciones NFS (specSFS) por segundo (el 3070 daba 42K y el 6040 50K).

 

También tenemos un FAS6040 del 2007, pero ese está en servicio en nuestro laboratorio con la última versión de ONTAP corriendo por sus venas, así que le sacaremos provecho un tiempo más antes de pasarlo al museo.

 

De discos podríamos hacer un museo, tenemos alguno de 36GB (FC a 10K rpm), los primeros SATA que vendimos con 250GB en el 2003, incluso alguno de 9 GB y conexión SCSI, pero creo que nos vamos a centrar en las controladoras.

 

Si alguno tenéis algún equipo viejo que os gustaría dejar inmortalizado, encantado de poder añadirlo al museo. En concreto me gustaría mucho poder contar con algún FAS900, que fueron los primeros equipos que toqué cuando empecé a trabajar aquí, y algún F800/F87, de los que me tocó apagar unos cuantos durante esos primeros años.

 

Y siguiendo con el post anterior, todos estos equipos hacían (o hacen) almacenamiento unificado salvo el F760: como podéis ver en esta página hacemos SAN (Fibre Channel) desde 2002, iSCSI desde 2003 y FCoE desde 2009 ... y ya han pasado unos años.

 

Saludos

Hace unos días he estado haciendo ejercicios de ingeniería inversa; resulta que un equipo de uno de nuestros competidores ha pasado por mis manos, y no he podido resistir el ponerlo a funcionar para ver en primera persona las diferencias entre lo que nosotros hacemos y lo que hacen otros; esas cosas que luego alguien pone en un powerpoint, y que a veces no terminas de creerte.

 

Por el camino me encontró un compañero de uno de nuestros partners, fibra óptica en mano, justo antes de virtualizar el equipo del “enemigo”, y el caso es que se quedó sorprendido, aunque no sé si porque dedicara tiempo a jugar con un equipo ajeno, o por el jaleo que estaba montando con las fibras.

 

Se trataba del famoso “conoce a tu enemigo” del Arte de la guerra; la verdad es que nunca me he leído ese libro, pero la frase completa viene como al pelo:

 

Por tanto os digo: Conoce a tu enemigo y conócete a ti mismo; en cien batallas, nunca saldrás derrotado. Si eres ignorante de tu enemigo pero te conoces a ti mismo, tus oportunidades de ganar o perder son las mismas. Si eres ignorante de tu enemigo y de ti mismo, puedes estar seguro de ser derrotado en cada batalla.

 

Y a eso me puse, armado con un puerto serie, San Google, San Victor (gracias!),  y unas cuantas fibras ópticas. No costó mucho, hubo algunas sorpresas, y en un par de días teníamos el resultado deseado, el equipo funcionando y exportando unas LUNs a uno de los V-Series de nuestro lab; algo que hacemos en muchos proyectos como un puro ejercicio de amortización: si hay un equipo existente que tiene espacio disponible y que todavía tiene unos meses o años de vida útil, le colocamos un virtualizador de almacenamiento delante para prestar servicios “NetApp Style” sobre los discos que ya tiene ese cliente.

 

La mayor sorpresa fue corroborar el tema de arquitectura que llevamos unos cuantos años defendiendo, que no deja de ser el utilizar almacenamiento unificado, con un solo controlador que permite prestar todo tipo de servicios de almacenamiento. Esto es lo que hacemos en NetApp, y de tanto contarlo ya se me había olvidado la otra realidad.

 

Este otro equipo también es de almacenamiento unificado, o más bien de almacenamiento amontonado, porque cuando miras por la parte de atrás del rack te das cuenta que para poder prestar servicios SAN y NAS hay que “amontonar” un sistema de almacenamiento de bloques (SAN y/o iSCSI), unos servidores de ficheros (NAS), un par de servidores de gestión, unos cuantos cables para montar un red privada y que los equipos hablen entre ellos, y hasta una UPS (!#!?!) … en fin, sus motivos tendrán.

 

La siguiente capa, y que ahora está de moda, es la de virtualizar almacenamiento, para lo que nuevamente la alternativa de algún otro fabricante es amontonar un dispositivo nuevo, el virtualizador, con su hardware específico, su software, herramientas de gestión y procesos diferentes, y, si no me equivoco, en todos los casos solo para almacenamiento de bloque, a pesar de mantener el almacenamiento unificado como bandera en otras líneas de producto.

 

En nuestro caso no tenemos un virtualizador de almacenamiento, puesto que nuestros equipos con Data ONTAP ya tienen esa posibilidad desde hace años, así que no hace falta hardware adicional para virtualizar. Pasé unas fibras a uno de los equipos del Clustered ONTAP de nuestro laboratorio, utilicé un puerto iniciador libre en uno de los nodos que ya tenemos instalados desde hace unos meses, y a correr, tenemos un sistema de almacenamiento unificado, que tiene 4 nodos para poder crecer en horizontal añadiendo capacidad y rendimiento de forma lineal, y que en cada dispositivo incluye la capacidad de prestar servicios SAN y/o NAS, ya sea sobre discos propios o sobre discos virtualizados de un tercero.

 

¿Cómo se gestiona todo esto? Pues muy sencillo, esas LUNs son discos adicionales que están visibles en nuestros nodos, y con ellas creamos un pool o agregado tal y como hacemos con los discos propios, gestionando los datos (volúmenes) como en cualquier otro agregado. Este pantallazo de System Manager muestra todos los agregados de nuestro cluster; el último es el virtualizado, cuya una peculiaridad es que tiene RAID-0, puesto que la cabina externa ya tiene protección RAID sobre esos discos:

 

vseries.jpg

 

Si os preguntáis por la movilidad de los datos ... si, cualquier volumen que tengamos en el cluster lo podemos mover a o desde ese agregado de discos externos, tan sencillo como seleccionar el volumen en cuestión y botón "move":

 

vseries-move.jpg

 

Y ni que decir que también se puede deduplicar, clonar, hacer snapshots, etc.

 

En resumen, se trata del único virtualizador de almacenamiento que hace servicios de almacenamiento unificado y que mantiene toda la funcionalidad e integración que las cabinas convencionales, y sin hardware adicional (ni UPS!!).

 

Saludos

Hola a todos, y Feliz Año Nuevo.

 

Que nadie se asuste, ni me he vuelto vidente, ni creo que los discos duros desaparezcan a finales de año. Lo que sí es posible es que este sea el año en el que veamos el cambio de tendencia definitivo; el crecimiento de Flash como tecnología de almacenamiento permanente, en un espectro cada vez amplio de aplicaciones.

 

En la informática de consumo esto es más acentuado si cabe, entre otras cosas porque los dispositivos han cambiado, y ahora es más habitual que compremos un Tablet que un PC, e incluso en el PC mucho optamos por utilizar un disco SDD para mejorar el rendimiento.

 

En el mundo empresarial, en los últimos 3 o 4 años hemos ido aplicando Flash como una capa de aceleración; en nuestro caso  mediante el uso de Flash Cache o Flash Pools. En algunos casos también hemos aplicado discos SSD directamente como almacenamiento de alguna aplicación que necesitaba un plus de rendimiento, pero normalmente dentro de un equipo que prestaba otros servicios sobre discos convencionales.

 

Durante el año pasado hemos visto aparecer en el mercado equipos dedicados a la tecnología Flash. En nuestro caso lanzamos el EF540, que hemos renovado recientemente por el EF550. La idea es contar con un equipo específico que utilice solo almacenamiento Flash, y que permite prestar servicios de muy alto rendimiento (ultra-rendimiento o Tier-0 es el nombre para este nivel). No se trata de un equipo de esos todo-en-uno, que pueden resolver todas las necesidades de almacenamiento de  una empresa, sino que más bien está pensado para albergar unas pocas aplicaciones que necesiten ese rendimiento extra, dejando el resto de entornos para una cabina convencional, que nos sigue aportando mayor flexibilidad y capacidad de gestión de la información (Snapshots, almacenamiento unificado, tiering, …).

 

La cosa no acaba aquí, durante un año lanzaremos nuestra siguiente plataforma, FlashRay, que vendrá a ser uno de esos equipos todo-en-uno, con muchas funcionalidades avanzadas para la gestión de datos, pero pensado desde cero para utilizar tecnología Flash.

 

No somos los únicos, el resto del mercado se está posicionando en el mismo sentido, y es que Flash, con la evolución de precio y de fiabilidad de los últimos años, está listo para dar el salto.

Respecto a este último, la fiabilidad, me gustaría comentar alguno de los cambios que hemos ido viendo:

 

Desde hace tiempo tenemos disponibles dos tipos de tecnología, la SLC (Single Level Cell) y la MLC (Multi Level Cell), que se diferencias por cuantos bits de información almacena cada celda (transistor) del chip de memoria. El primero solo tiene 2 niveles de tensión, y por tanto 1 bit, mientras que el otro tiene 4 niveles de tensión, y por tanto 4 bits, e incluso en algunos casos 3 bits. Tenéis más info aquí.

 

Con el uso, específicamente con las escrituras, que suponen reprogramar cada celda, estas se degradan, y tras un número concreto de escrituras las celdas dejan de ser útiles, ya que no se puede distinguir correctamente el nivel de tensión almacenada,  y por tanto el bit/s almacenado/s.

 

Las memorias SLC han tenido históricamente mucha mejor fiabilidad, y por eso fueron las primeras que empezamos a utilizar en el mundo empresarial, dejando las MLC para el mercado de consumo. Con la evolución de estas últimas, ahora las llaman eMLC (Enterprise MLC), igual que pasó con los discos ATA hace unos años, estamos incorporando este tipo de discos de estado sólido a los sistemas empresarias, con la ventaja de tener un precio mejor, y una mayor capacidad en cada disco; actualmente vamos por 800GB.

 

Por comparar, los discos mecánicos de alto rendimiento, los que llamamos SAS están en 1200GB … en no mucho tiempo los SSDs serán más grandes y corren mucho más.

 

Algo diferente paso con los discos de alta capacidad, los SATA, que van por 4TB, y que siguen la opción preferida para grandes volúmenes de datos … con un rendimiento limitado.

 

Con todo esto … pues sí, este 2014 es el año en el que los SSDs tiene que despegar, y ahí comienza el declive de los discos duros … sniff.

 

Saludos

jamarmu

Más calidad ... de servicio

Posted by jamarmu Dec 9, 2013

Me preguntabais un par de lectores por más detalles sobre la calidad de servicio, y la verdad es que estaba esperando hasta hoy para escribir algunos detalles más.

 

Como comenté, la QOS la tenemos disponible desde la versión 8.2, y hasta hoy el interfaz de gestión que tenía era exclusivamente de comandos, que no es que tenga nada de malo, al contrario, me parece muy útil para ciertos momentos/aplicaciones/integraciones, y que queréis, siempre he sido del mundo Unix y una línea de comandos buena me parece imbatible.

 

Pero es cierto que para muchas ocasiones una interfaz gráfica soluciona la mayoría de los usos diarios de un equipo. Pues bien, acabamos de lanzar la versión 3.1 de System Manager, la herramienta de gestión de nuestros equipos, y en esta se incluye la gestión de QOS.

 

En principio la QOS se puede aplicar a 4 elementos, limitando el rendimiento de:

            -Una SVM

-Un volumen

-Una LUN

-Un fichero

 

Desde System Manager se pueden controlar los dos de en medio, de una forma bastante sencilla, botón derecho sobre el elemento, tal y como se ve en esta imagen con los volúmenes de una de las SVM de nuestro lab:

 

QOS2.jpg

 

Un aspecto importante, y que nos ha llevado a alguna confusión es el tema de las políticas. La QOS se asigna creando una política (en la pantalla de abajo), que tiene asignada un cupo de rendimiento máximo.

 

qos2_2.jpg

 

Luego cada elemento, por ejemplo uno o varios volúmenes, se asignan a esta política, y todos comparte el límite de la misma.

 

La otra posibilidad sería que cada elemento asignado a esa política tenga un límite propio, y no es el caso. No es que suponga ninguna limitación, solo hay que saberlo y asignar los cupos adecuadamente.

 

La primera opción, la de limitar la SVM entera queda fuera, y la intención es que si tenemos delegada la gestión de una SVM, el que administra una SVM no pueda controlar el rendimiento de la misma … de todas formas, esa parte todavía está en camino.

 

La última opción, limitar el rendimiento de un fichero tiene especial utilidad para limitar el rendimiento de una máquina virtual individual, cuando tenemos los data store montados sobre un servicio de ficheros (NFS o CIFS), y otro argumento para montar las granjas de virtualización sobre servicios de ficheros … control individual del servicio de cada VM desde la cabina de almacenamiento, y en camino gestionarlo desde el plugin para vCenter, VSC (Virtual Storage Console).

 

Saludos

Ayer hacíamos un evento en el que presentábamos nuestra tecnología a varios Service Providers nacionales; nuestro producto estrella para ellos es Clustered Data ONTAP por varias razones: operaciones no disruptivas, movimientos de datos, gestión del ciclo de vida de proyectos/clientes moviéndolos de uno a otro recursos hardware según convenga, servicios de almacenamiento virtualizados y multitenant, …

 

Una de las cosas que enseñamos, y de las que luego pude hablar con varios asistentes, es la utilización de calidad de servicio (QoS) como una medida de acotar el nivel de servicio que prestan a sus clientes.

 

Es verdad que hasta ahora había pocas (o ninguna) solución en el mercado que permitiesen aplicar una calidad de servicio efectiva y de forma sencilla, y esto hace que a la hora de comercializar servicios de almacenamiento, todos estemos acostumbrados a hablar del espacio, por ejemplo 20 TB, 5 TB, etc., como mucho el tipo de disco, SAS, SATA, y poco más; no es habitual el “contratar” una métrica de rendimiento asociada al servicio  de almacenamiento.

 

Esto supone algunos problemas, muchos de ellos viejos conocidos, con los que tenemos que lidiar los que nos dedicamos al almacenamiento: los diferentes clientes o servicios que comparten una plataforma compiten por los recursos, y cuando alguien “abusa” del rendimiento termina afectando a los demás usuarios y saturando los recursos de la cabina.

 

Pues bien, todo esto lo podemos cambiar de forma muy sencilla utilizando Data ONTAP. Nuestra implementación de QoS nos permite aplicar con dos clicks un límite de iops o MB/s a cada servicio, de forma que podamos limitar el rendimiento a lo contratado, y evitemos dos cosas importantes: que un servicio sature la cabina (sus discos normalmente) y afecte a los otros servicios, y que los usuarios se “acostumbren” a disfrutar de un rendimiento mayor del que tiene contratado, que cuando empeora termina en la conocida frase “el almacenamiento me va más lento que antes, tenéis que arreglarlo”.

 

¿Por qué no crear todos los servicios con un límite de rendimiento? Si pensamos en el mundo de los servidores, con las VMs hacemos exactamente esto, les acotamos la cantidad de CPUs y memoria, lo que equivaldría en las SVMs a poner una cantidad de TB y una de iops.

 

Entrando en los detalles, actualmente podemos acotar el rendimiento de una SVM completa, o dentro de ella el de cada volumen, LUN o fichero individualmente, no pudiéndose limitar de forma anidada, es decir, limitar el volumen y la SVM que lo contiene de forma simultánea.

 

Trabajando mediante NFS o CIFS podemos limitar ficheros, lo que permite limitar el rendimiento de VMs de VMware o Hyper-V de forma individual … ¿alguno ha tenido algún problema de rendimiento por una o dos servidores virtualizados que se han puesto ha consumir recursos como locos?

 

Un ejemplo … una máquina virtual corriendo sobre un datastore NFS limitado a 50MB/s:

 

CDOT_QOS.jpg

El post de hoy se puede resumir en algo muy sencillo: Lo mismo que ha pasado con los servidores y las VMs lo estamos haciendo con las cabinas de almacenamiento y las SVMs.

 

Una SVM (Storage Virtual Machine) no es más que un servidor de almacenamiento virtualizado que corre en nuestro Clustered ONTAP, para prestar servicios de almacenamiento unificado sobre una serie de recursos hardware. Y para los que no quieran seguir leyendo, pego el dibujo de alto nivel de esta arquitectura:

 

SVM_logico.jpg

 

La primera alternativa es tener esa SVM sobre los recursos hardware que vendemos en NetApp, nuestros sistemas FAS, con el mismo hardware que veníamos utilizando.

 

Hay una posibilidad intermedia, mediante otra capa de virtualización (esto se complica), que permite utilizar disco externo (de otro fabricante) conectado a una controladora FAS … es lo que llamamos V-Series, y salvo por el disco en uso, se comporta como un FAS más:

 

SVM_vseries.jpg

 

La tercera posibilidad es tener esta SVM sobre un hardware de propósito general, es decir, un servidor, y su correspondiente hypervisor; más detalles en el siguiente post.

 

Y la última, pues el Cloud, que modelos económicos a parte, viene a ser una derivada de alguna de las anteriores.

 

La posibilidad de definir un servicio de almacenamiento, independiente del hardware que lo soporta, que tiene movilidad online de un equipo a otro, que está aislado del resto de servicios, que tiene sus recursos acotados, etc.,  parece una gran idea, pensad en lo que han supuesto los servidores virtualizados en el mundo de sistemas.

 

¿A quién no se le cayó la lagrimilla la primera vez que vio un vMotion en funcionamiento?

 

Pues eso mismo, bueno, lo llamamos Data Motion, lo podemos hacer con una SVM, moviendo los puertos de servicio de una controladora a otra, y los datos de unos discos a otros, sin tener que redefinir ni reconfigurar la SVM, y sin parar el servicio.

 

Para gestionar todo esto utilizamos nuestra herramienta estándar, System Manager, y si vemos la gestión de uno de nuestros clusters de laboratorio tenemos esta pantalla:

 

SVM1.jpg

 

Podéis ver a la izquierda que se separa la gestión del cluster, nodos y VServers (o SVMs) en 3 pestañas diferentes. Los dos primeros son la configuración de la infraestructura hardware, y con las SVMs gestionamos los servicios de almacenamiento. En la derecha podéis ver los detalles de las 5 SVMs que tenemos definidas y los protocolos habilitados en cada una.

 

Dentro de una de ellas, la que da servicio al VMware de nuestro laboratorio, podéis ver los diferentes elementos a configurar:

 

SVM_detalles.jpg

 

Los más importantes, pues el almacenamiento (los volúmenes) y los interfaces de red por los que se da servicio a los diferentes protocolos. A la derecha tenéis algunos de los volúmenes de esta SVM, como podéis ver sobre diferentes agregados o pools de discos (que están en 3 nodos diferentes y con discos de diferente tipo, como indican los nombres).

 

En la parte de interfaces de red tenemos las diferentes direcciones IP y WWN (World Wide Name) que permiten a los clientes conectarse con este servidor virtualizado:

 

SVM_network.jpg

 

Evidentemente hay muchos más detalles, pero con esto tenemos ya lo básico para prestar un servicio de almacenamiento: los puertos de servicio o front-end, y los datos (LUNs o sistemas de ficheros) que servir.

 

En otro post hablaremos de cómo se mueven ambos.

 

Saludos

jamarmu

Cloud arriba, cloud abajo

Posted by jamarmu Oct 28, 2013

En el post anterior introduje el tema, comentado por Pat Gelsinger, el CEO de VMware,  de la integración de servicios entre varios proveedores de Cloud, como uno de los puntos estratégicos en los que VMware ha decidido invertir.

 

Está claro que son conscientes que no todos los servicios virtualizados corren sobre su hypervisor, de forma que nos proponen desarrollar la capacidad de gestionar servicios que puedan estar en varios proveedores de cloud, nombrando en particular a Amazon Web Services, Microsoft Azure, OpenStack y sus propios servicios de Cloud híbrida, vCloud Hybrid Service.

 

En el vídeo de la sesión general de Barcelona (el del post anterior era el de San Francisco) podéis ver el desarrollo del tema, y esta sería la slide más importante (entorno al minuto 54):

 

cloud_1.jpg

 

Bien, pues en NetApp pensamos algo parecido, es decir, que entendemos que los clientes van a adoptar servicios cloud para una parte de sus datos y servicios, y que con la oferta actual de proveedores es fácil que alguien quiera plantearse la posibilidad de poder utilizar servicios de varios proveedores.

 

En NetApp no nos dedicamos a la gestión, o a correr aplicaciones web, nos dedicamos al servicio de almacenamiento, al servicio de datos, y es aquí donde queremos poner nuestro granito de arena para facilitar a nuestros clientes la adopción de servicios Cloud y la movilidad entre diferentes proveedores.

 

¿Cómo podemos facilitar esta transición y movilidad al/en Cloud?

 

Pues la idea es proporcionar una plataforma de almacenamiento que sea capaz de facilitar el movimiento de los datos, y de los servicios de almacenamiento asociados, entre despliegues propios y servicios de uno o varios proveedores cloud. Parte de esto lo podemos hacer ya con Clustered Data ONTAP, y nuestra estrategia es seguir evolucionado nuestros productos para facilitar aún más estos movimientos, tal y como resume esta transparencia:

 

cloud_2.jpg

 

Esta estrategia puede resultar curiosa para un fabricante de almacenamiento; muchos pensarán que los proveedores de estos servicios Cloud son nuestros “enemigos”, puesto que pueden quedarse con una parte del mercado de almacenamiento empresarial. Efectivamente es así, pero en NetApp entendemos que esto va a ser así, hagamos lo que hagamos los fabricantes, por lo que facilitar esta movilidad proporciona una ventaja competitiva a nuestros productos.

 

Es algo parecido a lo que nos pasó con la deduplicación: recuerdo alguna conversación hace unos años, cuando comenzábamos a implantar esta tecnología en la que hay quien dudaba de la utilidad para nosotros de una funcionalidad que hace que nuestros productos consuma la mitad de espacio en disco en un despliegue de máquinas virtuales … ¡vamos a vender menos discos! … pero esto ha hecho a nuestros equipos muy interesantes para muchos de nuestros clientes, puesto que les han permitido ahorrar costes en sus proyectos.

 

Pues algo parecido pensamos respecto a la integración y movilidad con los proveedores de almacenamiento en Cloud … mejor ser los primeros ofreciendo esta movilidad. Y de hecho ya lo somos, mediante un acuerdo con Amazon Web Services,  que demuestra perfectamente cómo es nuestra estrategia al respecto.

 

Y lo mejor de todo, para alguien que como yo se dedica a la tecnología, es que todo esto tiene un respaldo de productos que permiten implementarlo. Ya he dicho que lo hacemos con Clustered Data ONTAP, es decir, con nuestros sistemas de almacenamiento de propósito general. Hemos hablado varias veces de la arquitectura scale-out de nuestro cluster, y de la capacidad de realizar operaciones no disruptivas, pero en este caso, lo verdaderamente importante es la virtualización del servicio, y es que en Clustered ONTAP cada servicio de almacenamiento se presta desde una SVM (Storage Virtual Machine).

 

Pero esto lo dejo para el próximo post...

 

Saludos,

Hola a todos:

 

En la sesión general de VMworld, hace ya casi una semana, el CEO de VMware, Pat Gelsinger, comentó unas cuantas cosas interesantes.

 

vmworld2013_2.jpg

 

Tenéis el video aquí; la parte de almacenamiento comienza en el minuto 32:30, y en ella podemos destacar dos cosas:

 

-Lo que hay y está por venir en VMware relativo a la capa de almacenamiento

-La estrategia de VMware de integrarse con múltiples plataformas y proveedores de servicios cloud

 

Esto último lo voy a dejar para el siguiente post, puesto que es algo en lo que nosotros, en NetApp, también estamos trabajando y me da para extenderme un poco.

 

Bien, y qué pasa con el almacenamiento, ¿va VMware a hacer desaparecer los sistemas de almacenamiento tal y como los conocemos?

 

Pues no, no lo creemos factible, aunque si que hay una parte, el segmento más pequeño de sistemas de almacenamiento, donde podríamos prescindir de una cabina de almacenamiento compartido y pasar a utilizar almacenamiento distribuido en los propios servidores. El concepto no es nuevo, ya hay alguna compañía que tiene un producto que hace exactamente eso.

 

Pat habló del “software defined storage”, dentro del más amplio “software defined datacenter”; capacidades para manejar “pools” de recursos de almacenamiento, asignar el tipo de almacenamiento que requiera cada servicio virtualizado, etc. Esto no es algo nuevo; el término de software defined storage empezó a usarse hace relativamente poco, pero algunas compañías ya estamos implementando este tipo de tecnologías desde hace años; nuestro Clustered Data ONTAP hace exactamente eso, trabajar con un pool de recursos compartidos y prestar servicios virtualizados que tienen movilidad sobre el hardware que los sustenta.

 

Realmente la iniciativa más importante en este sentido han sido las VAAI (vStorage API for Array Integration), que han permitido que el hyper-visor tenga cierta comunicación con la cabina que utiliza para proporcionarle el almacenamiento, y que se puedan delegar ciertas operaciones, por ejemplo el copiado de datos, para que no sea el servidor el que tiene que leer y escribir sobre la misma cabina, consumiendo recursos en ambos extremos.

 

El siguiente paso son los vVols, que aparecerán con vSphere 6 … tenéis más información de cómo van a funcionar con NetApp aquí.

 

La otra iniciativa, la que podría acabar con las cabinas de almacenamiento tal y como las conocemos ya lleva algo de tiempo funcionando en forma de VSAs (Virtual Storage Array). Somos varios fabricantes, entre ellos NetApp, los que tenemos disponibles una máquina virtual que puede correr sobre VMware y prestar un servicio de almacenamiento sobre un hardware de propósito general.

 

En nuestro caso este software se llama Data ONTAP Edge, y se trata del mismo sistema operativo, y por tanto las mismas funcionalidades e interoperatibilidad con los sistemas de almacenamiento NetApp convencionales, por ejemplo, como en el dibujo, replicando los datos de una oficina pequeña contra un sistema de central de backup y protección ante desastres:

 

vmware_edge.jpg

 

Sin embargo, las limitaciones en cuanto a la capacidad y rendimiento que pueden llegar a proporcionar este tipo de sistemas virtualizados, hacen que estén lejos de lo que podemos llegar a hacer con sistemas de almacenamiento dedicados.

 

Algo parecido pasa con los sistemas distribuidos de almacenamiento … escalan hasta cierto límite, en muchos casos limitados por la siguiente capa ... la red ... que cómo no, también pasa a ser "software defined" ... a partir del minuto 38:30 del mismo video.

 

Pero eso ya es otro tema :-)

 

Saludos

Hola a todos:

 

Otro año más estamos en VMworld en su edición europea, que por suerte nos ha vuelto a tocar en la maravillosa Barcelona, así que nos espera una bonita semana con pan tumaca de desayuno ;-)

 

vmworld2103_entrada.JPG

 

Como corresponde, siendo una de las alianzas tecnológicas de VMware, tenemos varias charlas técnicas, presencia en los "hands-on-labs" y un gran stand que os animo a visitar a los que os paséis por VMworld:

 

vmworld2103_stand.JPG

Una de las cosas que más me gusta de lo que hacemos en estos eventos, es que enseñamos la tecnología, y prueba de ello es que tenemos un montón de demos que os podemos enseñar en vivo; todas ellas estan corriendo sobre el FlexPod que tenéis en primer plano de la foto ... es la mejor forma de demostrar que lo que contamos funciona.

 

Solo el entorno de las demos en sí ya merece la pena un vistazo, con clonado automático de las máquinas virtuales en cada demo, como si de un entorno de VDI se tratase ... en este caso hasta los sistemas de almacenamiento se virtualizan, algo que de lo que hablaré pronto en otro post.

 

Tengo que terminar de dar una vuelta por la zona de exposición, pero creo que el resto de equipos que han traído otros fabricantes están apagados o directamente huecos :-(

 

Si alguien tiene curiosidad por el hardware, la parte de atrás del FlexPod tiene esta pinta:

 

vmworld2103_trasera.JPG

 

No, el portátil no viene incluido, un FlexPod tiene sistemas de computación y redes de Cisco, junto con nuestros sistemas de almacenamiento. Una de las opciones, y la que se utiliza en este caso, es tener conectividad unificada de extremo a extremo mediante redes de 10GbE. Mediante los switches Cisco Nexus conseguimos tener una única red, flexible y con gran ancho de banda, sobre la que se utiliza el protocolo que necesite cada aplicación: FCoE, iSCSI, CIFS o NFS. Tanto los servidores de Cisco como nuestras cabinas nos permiten utilizar esta red convergente, reduciendo cableado y la necesidad de una SAN dedicada.

 

También tenemos la versión pequeña en el stand, un FlexPod Express, que utiliza redes de 1GbE para economizar en entornos más pequeños:

 

vmworld2103_flexpod.JPG

 

En breve hablaré de las tendencias que se han mencionado en la sesión general ...

 

Saludos.

Hola a todos,

 

En una semana estaremos haciendo la cuarta edición de la marcha ciclista benéfica Pedales de Ilusión.

 

pedales2013.jpg

 

Este año colaboramos con la Fundación Stop Sanfilippo; se trata de una ONG que lucha para encontrar una cura a esta horrible enfermedad infantil.

 

Como en años anteriores tendremos dos versiones, una marcha corta, asequible para todos, dando entre 1 y 3 vueltas al Pinar de Las Rozas, y una marcha larga con algo más de 20Kms, saliendo del mismo Pinar y dando una vuelta por el Parque de la Cuenca Alta del Manzanares; el recorrido es muy parecido al del año pasado y este es el mapa:

 

pedales2013_mapa.jpg

 

Si os gusta montar en bici y colaborar con una buena causa no hay excusa, nos vemos el Domingo 20 en Las Rozas !!!

 

Saludos

Hola a todos,

 

El otro día, en uno de los eventos que comentaba en el post anterior, tuve una interesante conversación sobre este tema, y me comentasteis que estaría bien hablar un poco más sobre esto, así que ahí va este post.

 

Hace unos años, cuando hablábamos de los sistemas de almacenamiento pensábamos en dos tipos de arquitecturas, los frame-array y los modulares.

 

Los primeros son sistemas altamente redundantes, creados a base de un hardware muy especializado, normalmente en armarios de diseño específico que incluyen parte de los conexionados ya precableados, o incluso en forma de ”mid-planes”, y que en general siguen el siguente diagrama lógico:

 

FrameArray.jpg

 

Normalmente el número de puertos o “motores” de conexión, tanto en el front-end como en el back-end, es variable, lo mismo pasa con la cantidad de caché, siendo la única constante el bus de interconexión que se utiliza para conectar todos los elementos, que tienen un gran ancho de banda, y que suele formar parte del chasis o armario en el que se conectan los elementos.

 

Por otro lado, los sistemas modulares están formados por una pareja de controladoras que tienen accesibles una serie de bandejas de disco, y que se ocupan de controlar los discos y de dar servicio de front-end al mismo tiempo, con un digrama lógico como este:

 

modular.jpg

 

Una de las grandes diferencias es que estos sistemas modulares utilizan componentes hardware más estándar, y así podemos encontrar CPUs de los principales fabricantes, por ejemplo en nuestro caso actualmente utilizamos Intel Xeon, puertos de conexión en forma de tarjetas iguales a parecidas a las Emulex o Qlogic que hay en los servidores, memoria convencional, etc.

 

Hay una parte común a ambas arquitecturas, y resulta ser una parte fundamental, que son los discos. En ambas arquitecturas todos los fabricantes utilizamos los mismos discos, que vienen a ser SATA para alto volumen, actualmente en tamaños hasta 4TB y 7200rpms, SAS para alto rendimiento, con tamaños de hasta 900GB y 15000rpms, y SSDs para el máximo rendimiento, con tamaños que actualmente están en 200GB para la tecnología SLC y 800GB para MLC.

 

Este detalle es muy importante, puesto que los discos condicionan el rendimiento del sistema de almacenamiento en la mayoría de los casos, y si bien con mayor o menor cantidad de memoria caché podemos cambiar esto un poco, en nuestro día a día, casi todos los dimensionamientos que hacemos terminan contando el número de discos físicos que conectamos, lo cual deja en las mismas condiciones las dos arquitecturas: frame-array y modulares.

 

Otro factor diferente es que los sistemas modulares implementan casi toda su funcionalidad en base a un sistema operativo que mediante desarrollo software hace una u otra cosa, mientras que los frame-arrays se apoyan más en hardware, contando con circuitería específica para varias de las operaciones más costosas, y contando con un firmware que “programa” parte de este hardware. En la práctica el resultado es muy parecido: mediante software se necesita algo de potencia extra para realizar las operaciones, pero dada la potencia de los procesadores actuales, esto no suele ser un problema. A cambio se cuenta con una mayor flexibilidad en el desarrollo de los equipos, más funcionalidades y mayor velocidad en la inclusión de nuevas funcionalidades en los sistema modulares.

 

Esta diferencias de “implementación” puede llevar a diferencias de rendimiento que podemos llegar a medir, hay algunos microsegundos de diferencia entre implementar las cosas por hardware y hacerlas por software, pero dado que los datos terminan “viajando” a los discos, que funcionan en el siguiente orden de magnitud, el de los milisegundos, las diferencias en la práctica son muy pocas, salvo que estemos construyendo un entorno “sub-milisegundo”, y para ellos lo mejor es pensar en Flash, y un equipo de este tipo.

 

Las ventajas para las arquitecturas frame-array son, a mi entender, principalmente dos:

 

                A-Mayores niveles de disponibilidad, fruto de una mayor redundancia en el hardware y de configuraciones menos flexibles que obligan a tener todos los componentes redundantes.

 

                B-Las posibilidades de escalabilidad, pudiendo construir sistemas que son más grandes, con mayor cantidad de disco, rendimiento y mayor cantidad de puertos de entrada/salida.

 

Respecto al apartado A, solo añadir que en muchos casos los equipos modulares se pueden configurar sin puntos únicos de fallo, pero no se suele hacer por un tema de coste. Normalmente el punto de fallo que nos solemos “olvidar” son las bandejas que albergan los discos, y que son componentes prácticamente pasivos. En el caso de los equipos de NetApp es bastante sencillo realizar configuraciones donde los discos de un grupo RAID de distribuyan entre varias bandejas, de forma que se pueda sobrevivir al fallo completo de una bandeja … solo hace falta poner unas cuantas bandejas de más.

 

¿y qué es eso del Flex-Array?

 

Pues el término me lo he inventado yo, espero que nadie lo tenga ya patentado, y viene a contar lo que estamos haciendo con los nuevos sistemas de almacenamiento en cluster de NetApp. Ya hemos hablado algo de Clustered ONTAP, y siendo muy breve, nuestra nueva arquitectura nos permite construir sistemas de almacenamiento modulares que crecen en horizontal, añadiendo más controladoras y discos a un sistema existente.

En NetApp siempre hemos hecho sistemas modulares, utilizando componentes estándar del mercado, que nos permiten optimizar el balance entre rendimiento, capacidad y coste. Nuestros equipos utilizando Clustered ONTAP utilizan el mismo hardware que veníamos utilizando hasta ahora en la familia FAS, pero cambiamos el software y añadimos una red de interconexión entre los nodos. El diagrama queda así:

 

cluster.jpg

 

Una vez funcionando, nuestros equipos realizan una separación en dos capas del servicio de almacenamiento, las llamamos disk-blade (D-Blade) y network-blade (N-blade), ambas residen en cada una de las controladoras, quedando la foto así:

 

cluster-logico.png

 

Si me dejáis cambiar el orden de las cajas, nuestra arquitectura en Clustered ONTAP la podríamos dibujar así:

 

flexarray.jpg

 

Y efectivamente, esto se parece mucho mucho a la arquitectura de un frame-array realizado con componentes modulares, y con una red de interconexión de 10GbE y switches estándar, en lugar  de un bus de propósito específico. Una diferencia es que la caché está distribuida, lo cual tiene cosas buenas y malas.

 

Esta arquitectura resuelve el punto B que le poníamos como pega a los sistemas modulares, ahora podemos crecer tanto o más que los frame-array, pero frente a ellos, podemos empezar con solo dos controladoras y una bandeja de discos, crecer en caliente y a medida, ya sea para conseguir mayor capacidad, rendimiento o disponibilidad … esto es un FLEX-ARRAY.

 

La ventajas de nuestros flex-arrays, es que tienen toda la funcionalidad propia de los equipos modulares, como por ejemplo clonados eficientes, thin-provisioning, deduplicación de datos primarios, …, dan servicio de almacenamiento unificado con todos los protocolos SAN y NAS, y tienen un coste menor que los frame-arrays al tener componentes estándares y construcción modular.

 

Pero hay una ventaja más, para mí la más importante: Un frame-array está compuesto por un chasis central, donde se alojan todos los buses de interconexión, el corazón del equipo, y componentes que se pueden añadir, en forma de bandejas de discos o tarjetas adicionales. Si nos quedamos sin espacio para crecer el frame-array, este estará “agotado”, sin capacidad de escalar más, y lo más importante, cuando tengamos que renovar el equipo, tendremos que instalar uno completamente nuevo, copiarle todos los datos realizando una migración, ya sea con una copia de datos entre cabinas o desde los servidores, pero en cualquier caso, con impacto en el servicio y con intervenciones por la noche para realizar los cambios.

 

Por el contrario, en nuestros flex-arrays, se pueden añadir y quitar componentes libremente, incluyendo los switches de interconexión, que dado que están redundados, se pueden renovar o ampliar de forma alternativa sin parar el servicio. Adicionalmente, los datos que se están almacenando se pueden mover en caliente, sin parar el servicio, de una controladora y grupo de discos a cualquier otra controladora del cluster y grupo de discos diferente. Esto permite añadir controladoras nuevas y mover los servicios de almacenamiento de las antiguas a las nuevas, realizando una renovación tecnológica en caliente, añadir controladoras y discos de menor coste y mover ciertos servicios a una solución más económica … es la flexibilidad llevada al mundo de los frame-array, y es lo que me hace pensar que estamos ante un nuevo paradigma en el mundo de los sistemas de almacenamiento, el de los FLEX-ARRAYS.

 

Saludos

Hola a todos,

 

La verdad es que se me acumula el trabajo y las cosas que contar, así que en este post voy a contar dos cosas a la vez, y en ambos casos un poco tarde …

 

La primera es anunciar el nuevo grupo de usuarios de NetApp que hemos creado en España, con la idea de que los usuarios de nuestra tecnología puedan compartir información sobre nuestra tecnología. La idea es que sea un foro independiente de nosotros, es decir, no es una actividad directamente de la compañía, pero evidentemente apoyamos la iniciativa, y nuestra idea es colaborar en todo lo que podemos con lo que suceda en este grupo de usuarios.

 

netapperos2.jpg

 

La web ya está en marcha: www.netapperos.com

netapperos.jpg

 

 

Como podéis ver heredamos el nombre de un grupo que ya estaba creado, y de hecho, uno de los antiguos fundadores de netapperos, José Pinell, sigue trabajando muy estrechamente en esta versión 2.0 de grupo de usuarios … Aquí tenéis a José en la presentación del grupo de usuarios en nuestra oficina:

 

netapperos3.jpg

 

Para los que estéis interesados, en la propia web hay un formulario de registro, un foro de discusión con varios temas que se irán llenando con vuestras preguntas, dudas, ideas, …, y también se realizarán reuniones presenciales de forma trimestral, tanto en Madrid como en Barcelona.

 

El otro tema a comentar, es que estamos realizando un evento por varias ciudades de nuestra geografía para contar las novedades de NetApp durante este año, y en especial las bondades de nuestra nueva arquitectura Clustered ONTAP.

 

roadshow.jpg

 

Para ello hemos preparado una demo “ambulante” que consiste en 4 nodos FAS3200 montados en dos cajas técnicas, junto con su cluster interconnect, un servidor y red de datos. Aquí tenéis a Víctor y Héctor en la fase de montaje, que siempre es la más dura:

 

ROADSHOW2.jpg

 

Con esto podemos enseñar todas las funcionalidades de Clustered ONTAP en vivo, moviendo servicios de dastos de un hardware a otro, añadiendo o quitando controladoras en caliente, etc. Este es el resultado final, con Jaime y Alfonso como protagonistas, bueno y el señor ese con la boca abierta, que no tengo el placer de conocer, pero que se quedó así de sorprendido al ver la demo :-)

 

roadshow3.jpg

 

Las ciudades en las que vamos a “actuar” son:

 

                13 de Marzo - Madrid (para este llego tarde)

                21 de Marzo - Barcelona

                11 de Abril – Valencia (pendiente de confirmar fecha)

                9 de Mayo - Lisboa

                23 de Mayo - Bilbao

                6 de Junio - Palma de Mallorca

 

Así que animaros a venir, seguro que os resulta interesante; si alguno no ha recibido la invitación solo tiene que decirlo.

 

Saludos

Hola a todos,

 

Hoy en NetApp hemos anunciado un nuevo sistema de almacenamiento, el EF540, siendo el primer componente de una nueva familia de equipos basados enteramente en tecnología Flash.

 

En NetApp ya llevamos unos cuantos años en esto de la tecnología Flash, hasta ahora en varias formas de uso dentro de nuestras familias de almacenamiento FAS y E-Series, y sean en formato de disco de estado sólido (SSD), o en tarjetas con memoria Flash (FlashCache) ... a todo el conjunto lo llamamos Virtual Storage Tier.

 

Este nuevo paso nos trae por primera vez, y también una de las primeras en el mercado, una cabina completamente Flash, basada en discos SSD. Arquitecturalmente el equipo se basa en la familia E-Series y su software SANtricity, aunque esta es una versión super-vitaminada, para llegar a la nada despreciable cifra de 300.000 iops.

 

Físicamente el equipo tiene este aspecto:

 

EF540.jpg

 

Utiliza discos de 2.5” y 800GB, y está disponible en configuraciones de 12 o 24 discos, y sí, esa cajita de 2Us es capaz de dar el rendimiento de unos 1000 discos de 15K rpms, y ahí está la gran diferencia … de forma gráfica más o menos sería esto:

 

EF540vsFlash.jpg

 

Interesante verdad … sobre todo si tenéis alguna aplicación a la que le preocupe el rendimiento y no la capacidad. Obviando el precio de compra, solo en consumo eléctrico, la diferencia es de unos 200 W frente a 26000 W, con 0,152559 euros/kWh, nos da algo más 34000 € al año de diferencia de consumo de los discos, aire acondicionado a parte.

 

Esto me lleva a una conversión que he tenido hoy: en el mundo del almacenamiento solemos medir el precio por TB de almacenamiento, y me temo que con esta métrica el almacenamiento Flash sale todavía perdiendo. Hay otra métrica interesante que es el precio por iop, es decir, cuánto cuenta un sistema de almacenamiento que me proporcione x-mil iops, y en esta métrica Flash sale ganando de largo.

 

Evidentemente este nuevo producto será interesante para aquellas aplicaciones que tengan una demanda alta de rendimiento, y donde con los sistemas tradicionales tendíamos que poner cantidades de discos muy grandes, ahora tenemos la posibilidad de construirlos con una tecnología más eficiente.

 

Hoy también hemos anunciado oficiamente un nuevo producto que estará disponible en unos meses, con nombre FlashRay, y que será el segundo equipo de esta nueva familia de productos basados en Flash ... todavía no os puedo contar mucho, pero va a ser un producto nuevo, creado desde cero para utilizar Flash como dispositivo de almacenamiento, y evitando algunas de las herencias del pasado ... más en unos meses.

 

Saludos

Filter Blog

By date:
By tag: