Categories: CloudSaaS

Dominar la avalancha de datos es la prioridad del CIO para este 2024

Denodo analiza cómo dominar la avalancha de datos, una de las prioridades de los CIO para este 2024.

Sunny Panjabi, Senior Product Marketing Manager de la región APAC en Denodo, cuenta que recientemente, tuvo la oportunidad de trabajar algún tiempo con el CIO de una empresa de servicios financieros. Panjabi comenta: “Cuando le pregunté cuál era su prioridad más apremiante para 2024, respondió: “domar la avalancha de datos”.”

Los CIO ya no son vistos simplemente como los propietarios de un sistema de TI, que trabajan en segundo plano y sólo se les informa cuando hay una actualización importante planificada o cuando hay un tiempo de inactividad. Sin embargo, a menudo tienen la tarea de impulsar el retorno de la inversión realizando los movimientos correctos con los sistemas básicos de la nube, los datos y las operaciones de TI, así como la forma en que la organización utiliza la nueva tecnología para trabajar de manera eficiente y atender a los clientes de manera más efectiva.

Los CIO también deben priorizar las iniciativas basadas en datos que puedan tener un impacto medible en la experiencia del cliente, ya que esas iniciativas tienen un mayor impacto comercial potencial, según este estudio PwC sobre las prioridades de los CIO para 2024.

Cómo manejar la avalancha de datos

Panjabi explica: En términos de datos, el CIO estaba al mismo tiempo entusiasmado y un poco consternado. Después de todo, en la encuesta Pulse de agosto de 2023 de PwC, los CIO clasificaron los desafíos de los datos como uno de los principales obstáculos para poder transformar con éxito un modelo de negocio. Hay más datos sin procesar que nunca, en múltiples ubicaciones (por ejemplo, en la nube y en almacenes de datos locales). Mientras tanto, las empresas exigen un acceso rápido a los datos para casos de uso como:

  1. Creación de herramientas de seguimiento de campañas en tiempo real para medir el rendimiento de las campañas de marketing.
  2. Crear conocimientos empresariales para una mejor adquisición y predicción de clientes.
  3. Comprender mejor qué productos deben retirarse del servicio y cuándo.
  4. Mejora de la previsión y optimización de precios.
  5. Mejorar la personalización y recomendación de productos, servicios y contenidos, y mucho más.

Para producir datos para los casos de uso anteriores, es posible que sea necesario integrarlos desde una variedad de sistemas, estandarizarlos y ponerlos a disposición de los usuarios comerciales y técnicos. Por ejemplo, para desarrollar un modelo de “sentimiento del cliente”, es posible que sea necesario combinar los correos electrónicos y los datos de las redes sociales con las opiniones de los clientes en el sitio Web. Depender de procesos de ingeniería de datos largos y complejos puede generar una sobrecarga adicional y entregar los datos demasiado lento, haciéndolos menos relevantes.

Entonces, ¿cómo afrontarías “la avalancha de datos”? Le pregunté –dice Panjabi. Su respuesta fue que esto requería una arquitectura de datos ágil y gobernada como parte de una iniciativa general de modernización de la infraestructura de TI. Y pasó a describir lo que esto incluiría:

  1. Acceso abstracto a múltiples sistemas de datos para consumidores empresariales, lo que ocultó la complejidad de acceder a las fuentes de datos subyacentes y expuso los datos en formatos amigables para las empresas, independientemente de dónde se almacenaran los datos subyacentes. Por ejemplo, a un científico de datos que crea un modelo de sentimiento del cliente no debería importarle si los datos se almacenan en AWS, Salesforce o se transmiten a través de una API de redes sociales.
  2. Acceso regulado a los datos, especialmente a los datos de identificación personal. Sólo las personas (y las aplicaciones) adecuadas con las necesidades adecuadas deberían tener acceso. Por ejemplo, no es necesario que un científico de datos tenga acceso a los números de seguridad social.
  3. Soporte para arquitecturas híbridas y de múltiples nubes y garantía de la continuidad del negocio mientras se realizan migraciones de datos desde aplicaciones locales o heredadas hacia la nube. Esto se debe a que es probable que la organización de un CIO esté adoptando rápidamente soluciones en la nube, y corresponde al CIO asegurarse de que las iniciativas de datos continúen sin problemas durante estas migraciones.
  4. Debería proporcionar la agilidad para construir nuevas líneas de negocio digitales. Por ejemplo, la organización Fintech del CIO podría querer aventurarse en el sector de seguros con nuevas ofertas digitales, y la infraestructura de TI debe respaldar esto rápidamente.
  5. Por último, por supuesto, debería ser rentable.

Asegúrate de ”lógico” para el CIO

Panjabi destaca que este CIO había encargado una prueba de valor en Denodo Platform y quedó muy impresionado con sus capacidades, pues Denodo aplica un enfoque lógico a la gestión de datos, que abstrae el acceso a múltiples sistemas de datos para usuarios empresariales y técnicos y, al mismo tiempo, entrega datos de acuerdo con una semántica y reglas de gobierno de datos predefinidas. Esta es la arquitectura de datos ágil y gobernada a la que se refería.

No son sólo palabras. Denodo Platform ha disminuido los tiempos de entrega de datos en un 65% respecto a los procesos de extracción-transformación-carga (ETL)Se sabe que los científicos de datos dedican 67% menos de tiempo a tareas de preparación de datos con esta plataforma. La plataforma puede recuperar la inversión en menos de 6 meses, lo que ayuda a los CIO a justificar sus presupuestos de TI ante los directores financieros y líderes empresariales. Esto significa datos más rápidos y amigables para los negocios para los casos de uso discutidos anteriormente, al tiempo que alivia las presiones presupuestarias.

Por ejemplo, LeasePlan, una empresa global de renting de vehículos, con aproximadamente 1,8 millones de vehículos gestionados en 29 países, utilizó la Denodo Platform para integrar rápidamente datos de fuentes heterogéneas, incluidas SAP, Salesforce, IBM DB2, Snowflake entre otras, para obtener información que le permitiera mejorar sus servicios. La empresa también trasladó sus datos locales a la nube sin experimentar tiempos de inactividad en lo que se refiere a los informes de BI.

Julián Torrado

Recent Posts

La anatomía del ransomware: las 6 fases de un ataque

Por Anthony Cusimano, Director de Marketing Técnico en Object First.

2 días ago

Informe global de fraude registra 19% de incremento en ataques

Solo seis de cada diez organizaciones cuentan con soluciones tecnológicas de prevención del fraude en…

2 días ago

Cisco presenta nuevas innovaciones de IA para ampliar la experiencia de los empleados

Los equipos de TI se benefician de la simplicidad de despliegue, gestión y la capacidad…

2 días ago

El equipo de Fórmula Uno Aston Martin Aramco anuncia una asociación con Xerox

La marca Xerox será visible en el AMR24 en el Gran Premio de Las Vegas.

3 días ago

La Inteligencia Artificial está revolucionando a las tiendas de barrio

Yalo observa que la IA es una herramienta transformadora que está cambiando el juego para…

3 días ago

Infoblox Threat Intel identifica nuevos actores DNS maliciosos vinculados al secuestro de dominios

Más de 1 millón de dominios registrados podrían ser vulnerables diariamente

3 días ago