Currently Being Moderated

Ayer hacíamos un evento en el que presentábamos nuestra tecnología a varios Service Providers nacionales; nuestro producto estrella para ellos es Clustered Data ONTAP por varias razones: operaciones no disruptivas, movimientos de datos, gestión del ciclo de vida de proyectos/clientes moviéndolos de uno a otro recursos hardware según convenga, servicios de almacenamiento virtualizados y multitenant, …

 

Una de las cosas que enseñamos, y de las que luego pude hablar con varios asistentes, es la utilización de calidad de servicio (QoS) como una medida de acotar el nivel de servicio que prestan a sus clientes.

 

Es verdad que hasta ahora había pocas (o ninguna) solución en el mercado que permitiesen aplicar una calidad de servicio efectiva y de forma sencilla, y esto hace que a la hora de comercializar servicios de almacenamiento, todos estemos acostumbrados a hablar del espacio, por ejemplo 20 TB, 5 TB, etc., como mucho el tipo de disco, SAS, SATA, y poco más; no es habitual el “contratar” una métrica de rendimiento asociada al servicio  de almacenamiento.

 

Esto supone algunos problemas, muchos de ellos viejos conocidos, con los que tenemos que lidiar los que nos dedicamos al almacenamiento: los diferentes clientes o servicios que comparten una plataforma compiten por los recursos, y cuando alguien “abusa” del rendimiento termina afectando a los demás usuarios y saturando los recursos de la cabina.

 

Pues bien, todo esto lo podemos cambiar de forma muy sencilla utilizando Data ONTAP. Nuestra implementación de QoS nos permite aplicar con dos clicks un límite de iops o MB/s a cada servicio, de forma que podamos limitar el rendimiento a lo contratado, y evitemos dos cosas importantes: que un servicio sature la cabina (sus discos normalmente) y afecte a los otros servicios, y que los usuarios se “acostumbren” a disfrutar de un rendimiento mayor del que tiene contratado, que cuando empeora termina en la conocida frase “el almacenamiento me va más lento que antes, tenéis que arreglarlo”.

 

¿Por qué no crear todos los servicios con un límite de rendimiento? Si pensamos en el mundo de los servidores, con las VMs hacemos exactamente esto, les acotamos la cantidad de CPUs y memoria, lo que equivaldría en las SVMs a poner una cantidad de TB y una de iops.

 

Entrando en los detalles, actualmente podemos acotar el rendimiento de una SVM completa, o dentro de ella el de cada volumen, LUN o fichero individualmente, no pudiéndose limitar de forma anidada, es decir, limitar el volumen y la SVM que lo contiene de forma simultánea.

 

Trabajando mediante NFS o CIFS podemos limitar ficheros, lo que permite limitar el rendimiento de VMs de VMware o Hyper-V de forma individual … ¿alguno ha tenido algún problema de rendimiento por una o dos servidores virtualizados que se han puesto ha consumir recursos como locos?

 

Un ejemplo … una máquina virtual corriendo sobre un datastore NFS limitado a 50MB/s:

 

CDOT_QOS.jpg

Comments

Filter Blog

By date:
By tag: