Intel desarrolla su propia distribución de Apache Hadoop

Intel no sólo está interesada en avanzar en el mercado de los smartphones y los tablets PC. Siguiendo los pasos de EMC y HP, que hace unos días anunciaban sus propias distribuciones Hadoop, la compañía de Santa Clara ha decidido reforzar su presencia en el mundo del Big Data, los servidores y los centros de datos.

Para ello ha presentado Intel Distribution for Apache Hadoop, un software compatible con su plataforma Intel Xeon que puede analizar un terabyte de datos en tan sólo siete minutos y que cuenta con el apoyo de un nutrido grupo de socios como son Cisco, Cray, Dell, Red Hat, SAP, SAS y Teradata, entre muchos otros.

Teniendo en cuenta que Intel calcula que el mundo genera un petabyte o 1.000 terabytes de datos cada 11 segundos, lo que equivale a 13 años de vídeo HD, esta tecnología “abre el mundo a posibilidades aún mayores”.

“Estamos anunciando la entrega y oferta comercial de un producto de software por parte de una empresa que muchos de vosotros conocéis como fabricante de chips”, ha reconocido Boyd Davis, vicepresidente de Datacenter Software Division que, sin embargo, ha recordado que la implicación de su compañía con el framework del elefante amarillo se remonta varios años atrás, concretamente a 2009.

“La gente y las máquinas están produciendo información valiosa que podría enriquecer nuestras vidas de muchas maneras, desde una gran precisión en la predicción de condiciones meteorológicas adversas hasta el desarrollo de tratamientos personalizados para enfermedades terminales”, continúa Davis. “Intel se ha comprometido a aportar sus mejoras y emplear toda la potencia de computación disponible en la comunidad de código abierto para proporcionar a la industria una base más sólida que pueda expandir los límites de la innovación y comprender la oportunidad de transformación de Big Data”.

Además, Intel también ha anunciado su proyecto “open source” Rhino, que pretende contribuir a la creación de código junto con la Fundación Apache y, sobre todo, mejorar las capacidades de protección de datos del ecosistema Hadoop.

En este sentido, intentará potenciar la codificación, proporcionando formas más adecuadas para autenticar a los usuarios y hacer de la seguridad una característica presente a nivel celular.

Mónica Tilves

Recent Posts

Yalo recibe el premio como innovador en los “Disruptive Jaguar Awards 2024” de Mastercard y Endeavor

Igual que en otras industrias, los servicios financieros están inmersos en una época de transformación…

9 horas ago

El Salvador, Guatemala y Honduras avanzan en velocidad y experiencia de internet

Según los informes de Ookla del primer semestre de 2024, los servicios de internet y…

10 horas ago

Niños y niñas en Snapchat: Cómo mantenerlos seguros

ESET analiza a qué riesgos se exponen niños en Snapchat, comparte consejos para garantizar su…

11 horas ago

Zoho Corporation utilizará NVIDIA NeMo para desarrollar LLMs

A través de este convenio, Zoho desarrollará Modelos de Lenguaje Extenso (LLMs) con las herramientas…

3 días ago

Más del 30% de las empresas de manufactura piensan implementar IA en sus procesos

La inteligencia artificial sigue tomando el mando de los procesos en general. Aunque no es…

3 días ago

Los jóvenes necesitan urgente oportunidades reales

Por Gastón Gorosterrazu, creador de Aptugo, herramienta de desarrollo visual inteligente

3 días ago