La velocidad de procesamiento se encuentra resuelta con más módulos para hacer millones de instrucciones, pero en lo que respecta a lectura y escritura de datos, las tecnologías mecánicas comienzan a representar un obstáculo para la innovación de las empresas.

El supercómputo gracias a las nuevas arquitecturas de infraestructura en la nube requiere un componente clave como el almacenamiento que permita responder a las necesidades de velocidad de respuesta que demandan las condiciones actuales de los mercados.

La solución a este inconveniente llega de la mano de la tecnología de almacenamiento flash, que no sólo permite almacenar datos e información a destajo sino que ofrece la inteligencia para proporcionar la velocidad y fiabilidad necesarias para cargas de trabajo que van desde la planificación de recursos empresariales (ERP) y las transacciones financieras, hasta aplicaciones cognitivas como machine learning y el procesamiento del lenguaje natural.

De esta forma, los sistemas de almacenamiento flash permiten proteger, cifrar, replicar, deduplicar y optimizar los datos de las organizaciones con una disponibilidad de seis nueves, 99.9999%, es decir que en un año de trabajo continuo, es probable que no responda tres segundos.

Ante las nuevas necesidades de almacenamiento de soluciones cognitivas, IBM anunció herramientas diseñadas para soportar cargas de trabajo cognitivas donde vía software proporciona protección de datos, replicación remota y optimización para medianas y grandes empresas, está incorporado en estas nuevas soluciones.  El  microcódigo es ideal para cargas de trabajo cognitivas que requieren la mayor disponibilidad y confiabilidad del sistema.

Ed Walsh, gerente general de IBM Storage and Software Defined Infrastructure, explicó que en 2017 se espera un despertar por parte de las empresas hacia la oportunidad que las aplicaciones cognitivas y la nube híbrida traen para ayudarles a sobrevivir y prosperar en un mercado impulsado por los datos

“Las capacidades del almacenamiento flash están dirigidas a usuarios que han experimentado un rendimiento pobre debido a latencia, baja utilización del servidor, alto consumo de energía, baja disponibilidad del sistema y altos costos de operación. Creemos que estos mismos usuarios han estado escuchando, aprendiendo y ahora comprendiendo la propuesta de valor de los datos al ser un negocio cognitivo”, aseguró Ed Walsh.

Redacción Silicon Week

Recent Posts

Xerox fue elegida líder en el IDC MarketScape 2024

La compañía anunció que ha sido nombrada líder en la evaluación de proveedores de servicios…

1 mes ago

El problema de las loot boxes y microtransacciones

Con mecánicas similares a las de los casinos, las loot boxes son un riesgo para…

1 mes ago

LexisNexis Risk Solutions completa la adquisición de IDVerse

La adquisición amplía las capacidades de LexisNexis Risk Solutions en soluciones de riesgo y fraude…

1 mes ago

Constantes, dirigidos e inteligentes: la IA sigue potenciando los ciberataques en Chile

Como en todo el mundo, el cibercrimen sigue a la caza de vulnerabilidades. Los riesgos…

1 mes ago

¿Cuál debe ser la directiva nacional de ciberseguridad y qué deben saber los equipos de seguridad?

Por Douglas Wallace, Gerente de Ventas Distrital, América Latina y el Caribe (Excepto Brasil) en…

1 mes ago