Intel desarrolla su propia distribución de Apache Hadoop

Intel no sólo está interesada en avanzar en el mercado de los smartphones y los tablets PC. Siguiendo los pasos de EMC y HP, que hace unos días anunciaban sus propias distribuciones Hadoop, la compañía de Santa Clara ha decidido reforzar su presencia en el mundo del Big Data, los servidores y los centros de datos.

Para ello ha presentado Intel Distribution for Apache Hadoop, un software compatible con su plataforma Intel Xeon que puede analizar un terabyte de datos en tan sólo siete minutos y que cuenta con el apoyo de un nutrido grupo de socios como son Cisco, Cray, Dell, Red Hat, SAP, SAS y Teradata, entre muchos otros.

Teniendo en cuenta que Intel calcula que el mundo genera un petabyte o 1.000 terabytes de datos cada 11 segundos, lo que equivale a 13 años de vídeo HD, esta tecnología “abre el mundo a posibilidades aún mayores”.

“Estamos anunciando la entrega y oferta comercial de un producto de software por parte de una empresa que muchos de vosotros conocéis como fabricante de chips”, ha reconocido Boyd Davis, vicepresidente de Datacenter Software Division que, sin embargo, ha recordado que la implicación de su compañía con el framework del elefante amarillo se remonta varios años atrás, concretamente a 2009.

“La gente y las máquinas están produciendo información valiosa que podría enriquecer nuestras vidas de muchas maneras, desde una gran precisión en la predicción de condiciones meteorológicas adversas hasta el desarrollo de tratamientos personalizados para enfermedades terminales”, continúa Davis. “Intel se ha comprometido a aportar sus mejoras y emplear toda la potencia de computación disponible en la comunidad de código abierto para proporcionar a la industria una base más sólida que pueda expandir los límites de la innovación y comprender la oportunidad de transformación de Big Data”.

Además, Intel también ha anunciado su proyecto “open source” Rhino, que pretende contribuir a la creación de código junto con la Fundación Apache y, sobre todo, mejorar las capacidades de protección de datos del ecosistema Hadoop.

En este sentido, intentará potenciar la codificación, proporcionando formas más adecuadas para autenticar a los usuarios y hacer de la seguridad una característica presente a nivel celular.

Mónica Tilves

Recent Posts

Pure Storage y Kioxia colaboran para impulsar la escalabilidad, la eficiencia y el rendimiento en los centros de datos de hiperescala

Este acuerdo permite una escala rápida al tiempo que reduce el consumo de energía y…

3 días ago

MEXDC y el Senado de la República dialogan sobre la relevancia de los Data Centers

Las líneas de diálogo entre gobierno, industria y academia se centraron en Inversión Tecnológica en…

3 días ago

Xerox propone sistemas de automatización que optimicen las operaciones de las empresas

Por Rafael Hirata, Jefe de Innovación y Desarrollo de Negocios Digitales, responsable de Servicios de…

3 días ago

Appian, elegida líder en Everest Group’s Process Orchestration Products PEAK Matrix 2024

Según Everest Group: “Appian tiene como objetivo ofrecer automatización y orquestación integral de procesos a…

4 días ago

Las nuevas tecnologías y su impacto en el crecimiento empresarial para 2025

Por Uriel Fraire, Regional Sales Manager Mexico de Universal Robots.

4 días ago