2013, el año del almacenamiento definido por software

Si durante 2012 hemos comenzado a hablar de los centros definidos por software, el año que acaba de comenzar podría ser el de la nueva generación de arquitecturas para hacer lo propio con el almacenamiento. Ciertamente, se trata de buscar alternativas que sean capaces de dar respuesta a los crecientes volúmenes de datos de forma más eficiente y rentable.

George Teixeira, presidente y CEO de DataCore Software

George Teixeira, presidente y CEO de DataCore Software, explica en un comunicado que “el cambio de hardware hacia un modelo basado en software de virtualización apoya las misiones cruciales de las aplicaciones de negocio, que han pasado de ser estáticas a dinámicas. El objetivo final es incrementar la productividad del usuarios y mejorar la experiencia de la aplicación”.

Teixeira pronostica que dentro de poco todas las aplicaciones de nivel 1, como las bases de datos los ERP, el correo electrónico, etc. se entregarán y gestionarán de forma virtualizada, lo que permitirá reducir costes y mejorar su rendimiento. Sin embargo, las empresas deben hacer evolucionar sus sistemas de almacenamiento para conseguirlo ya que el mero hecho de añadir más hardware tradicional a los sistemas no es la solución más práctica y tampoco la más asequible.

La adopción en las empresas de la tecnología SSD será algo prácticamente obligatorio, toda vez que su precio ha caído frenéticamente durante los dos últimos años. Además, será recomendable aplicar técnicas adicionales para su automatización, ya que la demanda es constante y está creciendo a un ritmo de más del 50% cada año, tal y como advierte el máximo representante de DataCore Software.

De la misma forma, el uso del software de almacenamiento será más importante que el propio hardware, “un elemento esencial en los centros de datos”, explica.  Esta evolución favorecerá la creación de un hipervisor del almacenamiento independiente. De la misma forma que ya ocurre con los hipervisores dedicados a la gestión de procesadores, memoria, servidores y máquinas virtuales, los recursos de almacenamiento también estarán gobernados por esa capa virtual, lo que aglutinará toda la infraestructura (sea del tipo que sea y se encuentre en el lugar que se encuentre) para que sea gestionada de forma unificada, como un todo.

Pablo Fernández

Recent Posts

La anatomía del ransomware: las 6 fases de un ataque

Por Anthony Cusimano, Director de Marketing Técnico en Object First.

9 horas ago

Informe global de fraude registra 19% de incremento en ataques

Solo seis de cada diez organizaciones cuentan con soluciones tecnológicas de prevención del fraude en…

9 horas ago

Cisco presenta nuevas innovaciones de IA para ampliar la experiencia de los empleados

Los equipos de TI se benefician de la simplicidad de despliegue, gestión y la capacidad…

10 horas ago

El equipo de Fórmula Uno Aston Martin Aramco anuncia una asociación con Xerox

La marca Xerox será visible en el AMR24 en el Gran Premio de Las Vegas.

1 día ago

La Inteligencia Artificial está revolucionando a las tiendas de barrio

Yalo observa que la IA es una herramienta transformadora que está cambiando el juego para…

1 día ago

Infoblox Threat Intel identifica nuevos actores DNS maliciosos vinculados al secuestro de dominios

Más de 1 millón de dominios registrados podrían ser vulnerables diariamente

1 día ago