La velocidad de procesamiento se encuentra resuelta con más módulos para hacer millones de instrucciones, pero en lo que respecta a lectura y escritura de datos, las tecnologías mecánicas comienzan a representar un obstáculo para la innovación de las empresas.

El supercómputo gracias a las nuevas arquitecturas de infraestructura en la nube requiere un componente clave como el almacenamiento que permita responder a las necesidades de velocidad de respuesta que demandan las condiciones actuales de los mercados.

La solución a este inconveniente llega de la mano de la tecnología de almacenamiento flash, que no sólo permite almacenar datos e información a destajo sino que ofrece la inteligencia para proporcionar la velocidad y fiabilidad necesarias para cargas de trabajo que van desde la planificación de recursos empresariales (ERP) y las transacciones financieras, hasta aplicaciones cognitivas como machine learning y el procesamiento del lenguaje natural.

De esta forma, los sistemas de almacenamiento flash permiten proteger, cifrar, replicar, deduplicar y optimizar los datos de las organizaciones con una disponibilidad de seis nueves, 99.9999%, es decir que en un año de trabajo continuo, es probable que no responda tres segundos.

Ante las nuevas necesidades de almacenamiento de soluciones cognitivas, IBM anunció herramientas diseñadas para soportar cargas de trabajo cognitivas donde vía software proporciona protección de datos, replicación remota y optimización para medianas y grandes empresas, está incorporado en estas nuevas soluciones.  El  microcódigo es ideal para cargas de trabajo cognitivas que requieren la mayor disponibilidad y confiabilidad del sistema.

Ed Walsh, gerente general de IBM Storage and Software Defined Infrastructure, explicó que en 2017 se espera un despertar por parte de las empresas hacia la oportunidad que las aplicaciones cognitivas y la nube híbrida traen para ayudarles a sobrevivir y prosperar en un mercado impulsado por los datos

“Las capacidades del almacenamiento flash están dirigidas a usuarios que han experimentado un rendimiento pobre debido a latencia, baja utilización del servidor, alto consumo de energía, baja disponibilidad del sistema y altos costos de operación. Creemos que estos mismos usuarios han estado escuchando, aprendiendo y ahora comprendiendo la propuesta de valor de los datos al ser un negocio cognitivo”, aseguró Ed Walsh.

Redacción Silicon Week

Recent Posts

Pure Storage y Kioxia colaboran para impulsar la escalabilidad, la eficiencia y el rendimiento en los centros de datos de hiperescala

Este acuerdo permite una escala rápida al tiempo que reduce el consumo de energía y…

2 días ago

MEXDC y el Senado de la República dialogan sobre la relevancia de los Data Centers

Las líneas de diálogo entre gobierno, industria y academia se centraron en Inversión Tecnológica en…

2 días ago

Xerox propone sistemas de automatización que optimicen las operaciones de las empresas

Por Rafael Hirata, Jefe de Innovación y Desarrollo de Negocios Digitales, responsable de Servicios de…

2 días ago

Appian, elegida líder en Everest Group’s Process Orchestration Products PEAK Matrix 2024

Según Everest Group: “Appian tiene como objetivo ofrecer automatización y orquestación integral de procesos a…

3 días ago

Las nuevas tecnologías y su impacto en el crecimiento empresarial para 2025

Por Uriel Fraire, Regional Sales Manager Mexico de Universal Robots.

3 días ago