Intel desarrolla su propia distribución de Apache Hadoop

Intel no sólo está interesada en avanzar en el mercado de los smartphones y los tablets PC. Siguiendo los pasos de EMC y HP, que hace unos días anunciaban sus propias distribuciones Hadoop, la compañía de Santa Clara ha decidido reforzar su presencia en el mundo del Big Data, los servidores y los centros de datos.

Para ello ha presentado Intel Distribution for Apache Hadoop, un software compatible con su plataforma Intel Xeon que puede analizar un terabyte de datos en tan sólo siete minutos y que cuenta con el apoyo de un nutrido grupo de socios como son Cisco, Cray, Dell, Red Hat, SAP, SAS y Teradata, entre muchos otros.

Teniendo en cuenta que Intel calcula que el mundo genera un petabyte o 1.000 terabytes de datos cada 11 segundos, lo que equivale a 13 años de vídeo HD, esta tecnología “abre el mundo a posibilidades aún mayores”.

“Estamos anunciando la entrega y oferta comercial de un producto de software por parte de una empresa que muchos de vosotros conocéis como fabricante de chips”, ha reconocido Boyd Davis, vicepresidente de Datacenter Software Division que, sin embargo, ha recordado que la implicación de su compañía con el framework del elefante amarillo se remonta varios años atrás, concretamente a 2009.

“La gente y las máquinas están produciendo información valiosa que podría enriquecer nuestras vidas de muchas maneras, desde una gran precisión en la predicción de condiciones meteorológicas adversas hasta el desarrollo de tratamientos personalizados para enfermedades terminales”, continúa Davis. “Intel se ha comprometido a aportar sus mejoras y emplear toda la potencia de computación disponible en la comunidad de código abierto para proporcionar a la industria una base más sólida que pueda expandir los límites de la innovación y comprender la oportunidad de transformación de Big Data”.

Además, Intel también ha anunciado su proyecto “open source” Rhino, que pretende contribuir a la creación de código junto con la Fundación Apache y, sobre todo, mejorar las capacidades de protección de datos del ecosistema Hadoop.

En este sentido, intentará potenciar la codificación, proporcionando formas más adecuadas para autenticar a los usuarios y hacer de la seguridad una característica presente a nivel celular.

Mónica Tilves

Recent Posts

MEXDC, el piso parejo para competir y crecer en la Industria de Centros de Datos

Por Amet Novillo, presidente de la Asociación Mexicana de Data Centers.

30 mins ago

El apogeo de las llamadas sospechosas: ¿cómo hacer frente a las amenazas cibernéticas en Chile?

Si hasta hace un par de años el foco eran solo las empresas, hoy los…

23 horas ago

La Revolución de la Inteligencia Conversacional que transforma la comunicación empresarial y personal en México

Yalo explica que esta revolución es impulsada por la integración de aplicaciones de mensajería, la…

23 horas ago

Desde el Manchester United hasta el Paris Saint Germain: ¿cómo el cibercrimen afecta a los clubes de fútbol?

ESET analiza de qué manera el cibercrimen puede sacar provecho de una industria que mueve…

2 días ago

Una guía completa sobre la Industria 4.0

Por Denis Pineda, gerente general de Universal Robots.

2 días ago