El Blog de Jamarmu in NetApp BlogsWhere is place located?

Log in to ask questions, participate and connect in the NetApp community. Not a member? Join Now!

Recent Blog Posts

Refresh this widget

Hola a todos,

 

La semana que viene se celebra una reunión del grupo de usuarios de sistemas de almacenamiento NetApp: Netapperos

 

Es un evento para clientes que sean usuarios de nuestros equipos y que formen parte del grupo de usuarios, que por otro lado es gratuito.

 

Desde NetApp nos ocuparemos de contar los nuevos equipos de los que hablaba en el post anterior, y también nos pondremos prácticos con un laboratorio sobre los simuladores de Data ONTAP, que todos os podréis llevar a casa.

 

Si ya eres Netappero puedes solicitar más información y registrarte en info@netapperos.com

 

Saludos

jamarmu

Nuevos FAS8000 in El Blog de Jamarmu

Posted by jamarmu Mar 4, 2014

Hola a todos,

 

Como siempre con un poco de retraso, pero también con más información, aprovecho para contaros la aparición de nuevos equipos de la familia FAS, los FAS8000, y un par de novedades al respecto.

 

El pasado día 19 anunciamos tres nuevos equipos: FAS8020, 8040 y 8060, sustituyendo a los FAS3220, 3250, 6220 y 6250.  A pesar de que el nombre parece indicar lo contrario, no se trata de los nuevos tope de gama, sino del reemplazo de los equipos de gama media y la parte baja de la gama alta, quedando el 6290 como el equipo más grande del portfolio … más o menos lo que se ve en esta transparencia:

 

fas8000.jpg

 

Tenéis todas las especificaciones en nuestra página web.

 

Con el uso de nuevas CPUs y más memoria RAM conseguimos duplicar (aproximadamente) el rendimiento de los equipos que se reemplazan, mientras que el precio es parecido al anterior.

Como referencia podéis ver los recién publicados datos de NAS de spec.org:

 

                FAS8020: 110K iops SFS2008 NFS

 

                FAS3250: 100K iops SFS2008 NFS

 

También tenéis el SPC-1 para acceso FC:

 

                FAS8060: 86K iops SPC1

 

Aunque en este caso tenemos que compararlo con dos generaciones hacia atrás:

 

                FAS3170: 60K iops SPC

 

Los iops de uno y otro benchmark no son comparables, puesto que tienen patrones de acceso diferentes, pero sí que no sirven para comparar los resultados con otros equipos del mismo benchmark, ya sean nuestros o de otros fabricantes.

 

Estos dos benchmarks los hemos publicado con Clustered ONTAP, en este caso con una configuración de 2 nodos, puesto que de lo que se trataba es de ver el rendimiento de estas nuevas controladoras, y ya sabemos de pruebas anteriores que con Clustered ONTAP el rendimiento crece de forma prácticamente lineal conforme añadimos controladoras.

 

Otra novedad que lanzamos es que “desaparecen” los modelos V-Series, que eran aquellas controladoras que tenían la capacidad de virtualizar almacenamiento externo. Ahora solo habrá un modelo, por ejemplo FAS8040, y mediante una licencia opcional que llamamos FlexArray, se habilita la posibilidad de virtualizar almacenamiento externo. No se trata de una funcionalidad nueva, hacemos lo mismo que antes se hacía con los V-Series, pero se comercializa de otra forma.

 

Por último Data ONTAP; estos equipos salen al mercado con la última versión, la 8.2.1, que añade algunas novedades interesantes y en la que me gustaría destacar Data ONTAP Edge en modo Cluster; esto me da para otro post, pero en breve, la versión virtualizada de nuestro sistema operativo, que corre dentro de servidores de propósito general con VMware, ahora puede funcionar en modo cluster, y por tanto, replicar datos e integrarse contra cualquier otro Cluster ONTAP.

 

Saludos

Con esto de hacerse mayor te va entrando la nostalgia, y camino de los 9 años en esta empresa, hacía tiempo que estaba pensando en poder tener una perspectiva de los productos que hemos ido teniendo todo este tiempo, y con la inestimable ayuda del departamento de marketing nos hemos lanzado a preparar un pequeño museo que espero que colguemos en las paredes de la oficina.

 

Lo primero es documentarse, así que a buscar información se ha dicho, y como no la Wikipedia sale en nuestra ayuda con esta detallada lista de los diferentes equipos que hemos comercializado en NetApp:

 

historia.jpg

 

Pego solo la parte histórica de los equipos; la lista completa la podéis ver online.

 

Rebuscando entre las piezas viejas del almacén hemos encontrado un F760 (1998), un FAS250 y 270 (2004), un 3050 (2005)  y un 3070 (2006), que una vez destripados del chasis y placas accesorias nos quedan más o menos así:

 

placas.jpg

Ahora falta ponerle unos marcos bonitos para exponerlos, pero ese trabajo se lo dejo a marketing ;-)

 

Podéis decir que no son muy antiguos que digamos, pero si tenemos en cuenta que la compañía empezó en España en el 2001, algo del 98 es un verdadero clásico. De hecho el F760 es como el muñeco aquel de Toy Story, nunca fue utilizado ni sacado de la caja, pues se trata de una pieza de repuesto que llevaba por la oficina desde que yo entré.

 

El F760 era el tope de gama de su época, fue el primer equipo en superar el TeraByte de almacenamiento !!!!!, podía tener tarjetas de red FDDI, ATM y Gigabit Ethernet, y daba la friolera de 7800 operaciones NFS (specSFS) por segundo (el 3070 daba 42K y el 6040 50K).

 

También tenemos un FAS6040 del 2007, pero ese está en servicio en nuestro laboratorio con la última versión de ONTAP corriendo por sus venas, así que le sacaremos provecho un tiempo más antes de pasarlo al museo.

 

De discos podríamos hacer un museo, tenemos alguno de 36GB (FC a 10K rpm), los primeros SATA que vendimos con 250GB en el 2003, incluso alguno de 9 GB y conexión SCSI, pero creo que nos vamos a centrar en las controladoras.

 

Si alguno tenéis algún equipo viejo que os gustaría dejar inmortalizado, encantado de poder añadirlo al museo. En concreto me gustaría mucho poder contar con algún FAS900, que fueron los primeros equipos que toqué cuando empecé a trabajar aquí, y algún F800/F87, de los que me tocó apagar unos cuantos durante esos primeros años.

 

Y siguiendo con el post anterior, todos estos equipos hacían (o hacen) almacenamiento unificado salvo el F760: como podéis ver en esta página hacemos SAN (Fibre Channel) desde 2002, iSCSI desde 2003 y FCoE desde 2009 ... y ya han pasado unos años.

 

Saludos

Hace unos días he estado haciendo ejercicios de ingeniería inversa; resulta que un equipo de uno de nuestros competidores ha pasado por mis manos, y no he podido resistir el ponerlo a funcionar para ver en primera persona las diferencias entre lo que nosotros hacemos y lo que hacen otros; esas cosas que luego alguien pone en un powerpoint, y que a veces no terminas de creerte.

 

Por el camino me encontró un compañero de uno de nuestros partners, fibra óptica en mano, justo antes de virtualizar el equipo del “enemigo”, y el caso es que se quedó sorprendido, aunque no sé si porque dedicara tiempo a jugar con un equipo ajeno, o por el jaleo que estaba montando con las fibras.

 

Se trataba del famoso “conoce a tu enemigo” del Arte de la guerra; la verdad es que nunca me he leído ese libro, pero la frase completa viene como al pelo:

 

Por tanto os digo: Conoce a tu enemigo y conócete a ti mismo; en cien batallas, nunca saldrás derrotado. Si eres ignorante de tu enemigo pero te conoces a ti mismo, tus oportunidades de ganar o perder son las mismas. Si eres ignorante de tu enemigo y de ti mismo, puedes estar seguro de ser derrotado en cada batalla.

 

Y a eso me puse, armado con un puerto serie, San Google, San Victor (gracias!),  y unas cuantas fibras ópticas. No costó mucho, hubo algunas sorpresas, y en un par de días teníamos el resultado deseado, el equipo funcionando y exportando unas LUNs a uno de los V-Series de nuestro lab; algo que hacemos en muchos proyectos como un puro ejercicio de amortización: si hay un equipo existente que tiene espacio disponible y que todavía tiene unos meses o años de vida útil, le colocamos un virtualizador de almacenamiento delante para prestar servicios “NetApp Style” sobre los discos que ya tiene ese cliente.

 

La mayor sorpresa fue corroborar el tema de arquitectura que llevamos unos cuantos años defendiendo, que no deja de ser el utilizar almacenamiento unificado, con un solo controlador que permite prestar todo tipo de servicios de almacenamiento. Esto es lo que hacemos en NetApp, y de tanto contarlo ya se me había olvidado la otra realidad.

 

Este otro equipo también es de almacenamiento unificado, o más bien de almacenamiento amontonado, porque cuando miras por la parte de atrás del rack te das cuenta que para poder prestar servicios SAN y NAS hay que “amontonar” un sistema de almacenamiento de bloques (SAN y/o iSCSI), unos servidores de ficheros (NAS), un par de servidores de gestión, unos cuantos cables para montar un red privada y que los equipos hablen entre ellos, y hasta una UPS (!#!?!) … en fin, sus motivos tendrán.

 

La siguiente capa, y que ahora está de moda, es la de virtualizar almacenamiento, para lo que nuevamente la alternativa de algún otro fabricante es amontonar un dispositivo nuevo, el virtualizador, con su hardware específico, su software, herramientas de gestión y procesos diferentes, y, si no me equivoco, en todos los casos solo para almacenamiento de bloque, a pesar de mantener el almacenamiento unificado como bandera en otras líneas de producto.

 

En nuestro caso no tenemos un virtualizador de almacenamiento, puesto que nuestros equipos con Data ONTAP ya tienen esa posibilidad desde hace años, así que no hace falta hardware adicional para virtualizar. Pasé unas fibras a uno de los equipos del Clustered ONTAP de nuestro laboratorio, utilicé un puerto iniciador libre en uno de los nodos que ya tenemos instalados desde hace unos meses, y a correr, tenemos un sistema de almacenamiento unificado, que tiene 4 nodos para poder crecer en horizontal añadiendo capacidad y rendimiento de forma lineal, y que en cada dispositivo incluye la capacidad de prestar servicios SAN y/o NAS, ya sea sobre discos propios o sobre discos virtualizados de un tercero.

 

¿Cómo se gestiona todo esto? Pues muy sencillo, esas LUNs son discos adicionales que están visibles en nuestros nodos, y con ellas creamos un pool o agregado tal y como hacemos con los discos propios, gestionando los datos (volúmenes) como en cualquier otro agregado. Este pantallazo de System Manager muestra todos los agregados de nuestro cluster; el último es el virtualizado, cuya una peculiaridad es que tiene RAID-0, puesto que la cabina externa ya tiene protección RAID sobre esos discos:

 

vseries.jpg

 

Si os preguntáis por la movilidad de los datos ... si, cualquier volumen que tengamos en el cluster lo podemos mover a o desde ese agregado de discos externos, tan sencillo como seleccionar el volumen en cuestión y botón "move":

 

vseries-move.jpg

 

Y ni que decir que también se puede deduplicar, clonar, hacer snapshots, etc.

 

En resumen, se trata del único virtualizador de almacenamiento que hace servicios de almacenamiento unificado y que mantiene toda la funcionalidad e integración que las cabinas convencionales, y sin hardware adicional (ni UPS!!).

 

Saludos

Hola a todos, y Feliz Año Nuevo.

 

Que nadie se asuste, ni me he vuelto vidente, ni creo que los discos duros desaparezcan a finales de año. Lo que sí es posible es que este sea el año en el que veamos el cambio de tendencia definitivo; el crecimiento de Flash como tecnología de almacenamiento permanente, en un espectro cada vez amplio de aplicaciones.

 

En la informática de consumo esto es más acentuado si cabe, entre otras cosas porque los dispositivos han cambiado, y ahora es más habitual que compremos un Tablet que un PC, e incluso en el PC mucho optamos por utilizar un disco SDD para mejorar el rendimiento.

 

En el mundo empresarial, en los últimos 3 o 4 años hemos ido aplicando Flash como una capa de aceleración; en nuestro caso  mediante el uso de Flash Cache o Flash Pools. En algunos casos también hemos aplicado discos SSD directamente como almacenamiento de alguna aplicación que necesitaba un plus de rendimiento, pero normalmente dentro de un equipo que prestaba otros servicios sobre discos convencionales.

 

Durante el año pasado hemos visto aparecer en el mercado equipos dedicados a la tecnología Flash. En nuestro caso lanzamos el EF540, que hemos renovado recientemente por el EF550. La idea es contar con un equipo específico que utilice solo almacenamiento Flash, y que permite prestar servicios de muy alto rendimiento (ultra-rendimiento o Tier-0 es el nombre para este nivel). No se trata de un equipo de esos todo-en-uno, que pueden resolver todas las necesidades de almacenamiento de  una empresa, sino que más bien está pensado para albergar unas pocas aplicaciones que necesiten ese rendimiento extra, dejando el resto de entornos para una cabina convencional, que nos sigue aportando mayor flexibilidad y capacidad de gestión de la información (Snapshots, almacenamiento unificado, tiering, …).

 

La cosa no acaba aquí, durante un año lanzaremos nuestra siguiente plataforma, FlashRay, que vendrá a ser uno de esos equipos todo-en-uno, con muchas funcionalidades avanzadas para la gestión de datos, pero pensado desde cero para utilizar tecnología Flash.

 

No somos los únicos, el resto del mercado se está posicionando en el mismo sentido, y es que Flash, con la evolución de precio y de fiabilidad de los últimos años, está listo para dar el salto.

Respecto a este último, la fiabilidad, me gustaría comentar alguno de los cambios que hemos ido viendo:

 

Desde hace tiempo tenemos disponibles dos tipos de tecnología, la SLC (Single Level Cell) y la MLC (Multi Level Cell), que se diferencias por cuantos bits de información almacena cada celda (transistor) del chip de memoria. El primero solo tiene 2 niveles de tensión, y por tanto 1 bit, mientras que el otro tiene 4 niveles de tensión, y por tanto 4 bits, e incluso en algunos casos 3 bits. Tenéis más info aquí.

 

Con el uso, específicamente con las escrituras, que suponen reprogramar cada celda, estas se degradan, y tras un número concreto de escrituras las celdas dejan de ser útiles, ya que no se puede distinguir correctamente el nivel de tensión almacenada,  y por tanto el bit/s almacenado/s.

 

Las memorias SLC han tenido históricamente mucha mejor fiabilidad, y por eso fueron las primeras que empezamos a utilizar en el mundo empresarial, dejando las MLC para el mercado de consumo. Con la evolución de estas últimas, ahora las llaman eMLC (Enterprise MLC), igual que pasó con los discos ATA hace unos años, estamos incorporando este tipo de discos de estado sólido a los sistemas empresarias, con la ventaja de tener un precio mejor, y una mayor capacidad en cada disco; actualmente vamos por 800GB.

 

Por comparar, los discos mecánicos de alto rendimiento, los que llamamos SAS están en 1200GB … en no mucho tiempo los SSDs serán más grandes y corren mucho más.

 

Algo diferente paso con los discos de alta capacidad, los SATA, que van por 4TB, y que siguen la opción preferida para grandes volúmenes de datos … con un rendimiento limitado.

 

Con todo esto … pues sí, este 2014 es el año en el que los SSDs tiene que despegar, y ahí comienza el declive de los discos duros … sniff.

 

Saludos

More