Almacenamiento de macrodatos: 7 consejos

El almacenamiento de macrodatos crea sus propios retos cada vez mayores, que sólo siguen empeorando. “Mientras que los macrodatos y la Internet de los objetos (IO) comprenden una pequeña fracción de las cargas de trabajo de nube pública hoy, ambas están creciendo rápidamente”, dijo Bert Latamore, analista de Wikibon. “En 2020, estos dos dominios contarán
 
serman, laboratorio de recuperación de datos en españa

El almacenamiento de macrodatos crea sus propios retos cada vez mayores, que sólo siguen empeorando.

Mientras que los macrodatos y la Internet de los objetos (IO) comprenden una pequeña fracción de las cargas de trabajo de nube pública hoy, ambas están creciendo rápidamente”, dijo Bert Latamore, analista de Wikibon. “En 2020, estos dos dominios contarán con grandes crecimientos y dinámicas en el mercado de la nube pública.”

Estos son algunos consejos clave para hacer frente a las nuevas necesidades.

 

  1. Grandes datos, grandes problemas.

 

Uno de los mayores desafíos con el almacenamiento de macrodatos es la cantidad de diferentes volúmenes de datos que existen, parte incluyendo videos, registros, telemetrías, y archivos tradicionales. Es importante entender qué tipo de datos está tratando con el fin de garantizar que se aborda adecuadamente.

 

Los desafíos incluyen cómo hacer frente a la gestión y a la escala sin aumentar el costo y la complejidad, mientras que al mismo tiempo se intenta explotar el mejor rendimiento, la disponibilidad, la capacidad y las cuestiones económicas“, dijo Greg Schulz, analista de StorageIO. “Esto significa que hay que repensar el cómo y el dónde se almacenan los datos, que también se vincula al lugar donde las aplicaciones se encuentran (en el inmueble o la nube), junto con la forma en que se accede (bloque, archivo, objeto).”

 

  1. Localización

 

En los viejos tiempos se podía salirse de la centralización de todos los datos y dejar que sean las aplicaciones quienes accedan a ellos. Sin embargo, este enfoque tiende a introducir demasiados cuellos de botella.

 

Hay que poner los datos cerca de donde se encuentran las aplicaciones que los utilizan; si estas aplicaciones están en la nube, ponga los datos en la nube, y viceversa si es local“, dijo Schulz. “La clave es entender las aplicaciones en las que se ubican, cómo se usan los datos y luego alinear las diversas tecnologías a sus necesidades. También, entender si sus aplicaciones necesitan objeto y qué API para el acceso, o, si funcionan con NAS de escalamiento horizontal“.

 

Por ejemplo, algunas aplicaciones podrían ser mejor usando HDFS u otras plataformas de intercambio de archivos, mientras que alguno se movería mejor con Amazon S3, Swift u otra forma de almacenamiento. “También hay que tener en cuenta cómo va a almacenar y gestionar los metadatos para soportar aplicaciones de macrodatos”, agregó.

 

  1. Vea a largo plazo

 

Cuando se trata de grandes proyecciones de datos, está claro que los administradores de almacenamiento buscan el mejor plan para el crecimiento. La mayoría de la gente, sin embargo, no abarca suficiente atención al futuro, apenas llegan a uno, dos o tres años, y eso no es suficiente.

 

  1. Piense en grande para datos grandes

 

Cuando se trata de gestionar con eficacia los crecientes volúmenes de macrodatos, es importante tomarse el tiempo para desarrollar una estrategia que no sólo se adapte a sus necesidades a corto plazo, sino que pueda escalar para soportar con eficacia el tiempo. De lo contrario, se termina teniendo componentes de software y hardware que han llegado a un punto en que ya no escalan con eficacia. Por lo tanto, comprobar cuidadosamente en qué tan bien el resto de tecnología se adapta es importante antes de lanzarse a comprar. En un mundo de macrodatos, es mejor escalar lo suficiente para hacer frente a la enorme afluencia de almacenamiento.

 

  1. clasificar los metadatos

 

Categorizar los datos es sabio porque le permite saber que es y donde buscar los metadatos para encontrarlo. Los nombres de archivo largos pueden haber funcionado en el pasado, pero no lo hacen más debido a las tasas de crecimiento de hasta el 100% año tras año.

 

La categorización de los datos es uno de los mejores enfoques para hacer frente a un crecimiento exponencial de los datos,” dijo Matt Starr, CTO, Spectra Logic. “Reunir los metadatos en el momento de la creación, y almacenar al menos dos copias en diferentes medios, como uno en la cinta y uno en el disco.”

 

  1. Capacidad de disociar y computar

 

Otro consejo es construir el almacenamiento de escalabilidad horizontal que desacople la capacidad de cómputo. Como los datos se hacen más y más grandes, es crucial para construir una infraestructura de TI que sea escalable y se adapte bien a las necesidades reales, pudiendo asegurar el aprovisionamiento de recursos.

 

Una forma de lograr esto es invertir en infraestructuras de almacenamiento que puedan escalar rápidamente y calcular de forma independiente“, dijo Shachar Fienblit, director de tecnología, Kaminario.

 

Una solución de almacenamiento para grandes volúmenes de datos deben apoyar múltiples protocolos y simplificar los datos de forma se procesa. El análisis en tiempo real hace de las cargas de  almacenamiento cada vez menos predecibles. Esta es la razón por la que el almacenamiento flash uno de los favoritos de las empresas. Dado que el coste de medios flash disminuye a un ritmo muy rápido, la industria va a ver más y más grandes cargas de trabajo de datos que se ejecutan en todas las matrices de memoria flash.

 

  1. Productos básicos de hardware

 

El crecimiento modular del almacenamiento de datos es una de las maneras más eficaces para hacer frente a estos problemas, porque los datos están protegidos de forma continua sin necesidad de copias de seguridad. Pero, ¿cómo se mantiene el hardware en esta carrera?

 

“Correr en servidores x86 de almacenamiento de datos le permite actualizar el hardware sin problemas, ya que estos dispositivos funcionan como unidades modulares que se pueden agregar sin disminuir la eficiencia”, dijo Tony Barbagallo, vicepresidente de Producto, Caringo.

serman, laboratorio de recuperación de datos en españa
 

Los comentarios están cerrados.