5 mitos (todavía vigentes) sobre la recuperación de datos

Ya sea por un error en el sistema, a nivel de hardware o por un desafortunado accidente de borrado, cada año son miles los datos que se ahogan en el abismo de las redes empresariales, y particulares. No en vano, se calcula que la mitad de los usuarios informáticos no se molesta nunca en realizar copias de seguridad de los trabajos que realizan en formato digital y que otros preocupantes tres cuartos desconocen en qué consisten las actualizaciones de software. Todo ello a pesar de que revisión anual tras revisión anual se ratifica que la negligencia continúa siendo la principal causa de pérdida información, por delante de ataques maliciosos o problemas internos del equipo. Las filtraciones involuntarias a través de correo electrónicos o el extravío de dispositivos de almacenamiento como las llaves USB, los medios ópticos o los propios ordenadores portátiles, cuentan asimismo con una prevalencia de dudosa honra.

Y todo ello a pesar también de que los datos electrónicos son uno de los activos más valorados en la actualidad. Desde mensajes, hasta agendas de contacto, pasando por informes, archivos de vídeo  y fotografías. Y de que tanto empleados como clientes esperan cada vez con mayor intensidad que los servicios críticos estén disponibles y accesibles en cualquier momento. ¿Cuál es la sensación general? Existe una brecha significativa entre lo que las personas consideran como prioridad en materia de protección de datos –léase, restauración de aplicaciones críticas subyacentes y recuperación de datos perdidos- y los programas de backup que realmente ponen en práctica. Desde Quest Software aseguran que sólo el 5% de los negocios plantea sus objetivos de recuperación estrictamente en torno a las aplicaciones frente al 78% de las ocasiones en las que éstas no juegan ningún papel a la hora de organizar la estrategia de una organización.

¿Y el resultado final? Que, incluso con los avances tecnológicos, se sigue perdiendo datos. Y dinero. La cuestión es especialmente sangrante para las empresas, y para aquellas dedicadas al sector de las telecomunicaciones. Un bochorno a pequeña escala puede suponer un menoscabo de la reputación durante un tiempo más o menos limitado, pero una pérdida masiva de información confidencial siempre deriva en disminución de ingresos, demandas judiciales y sanciones financieras. Los costes de una recuperación pueden ascender fácilmente a millones de dólares y, de hecho, en situaciones por fallos meramente informáticos una única hora de inactividad está valorada en nada menos que 7,5 millones. Parece evidente que se necesita educar a los usuarios y replantear el modelo de recuperación de datos actualmente vigente.

“Cuando una pérdida de datos ocurre, los particulares no conocen el proceso para rescatar sus datos ni la manera de evaluar un proveedor de recuperación de datos, por lo que el pánico dirige sus decisiones”, explica al respecto Nicholas Green, director para Iberia de otra empresa especializada en estos temas, Kroll Ontrack. Ésta ha elaborado una lista con los cinco errores más comunes de los usuarios al implantar medidas de seguridad y enfrentarse a la búsqueda de soluciones, como la preocupación por el montante de la contratación de expertos y el desconocimiento del funcionamiento de sus propios dispositivos personales.

1. Inocencia: “Con una copia de seguridad, mis datos están a salvo” o “Nunca he sufrido un fallo, por lo que no necesito un plan de pérdidas proactivo”. Disponer de un sistema de almacenamiento que, en el día a día, funciona correctamente no es garantía de que los datos vayan a permanecer sanos y salvos en situación de crisis. Como tampoco lo es haber esquivado situaciones de riesgo en el pasado. El borrado accidental de carpetas o registros de bases de datos, la sobreescritura, la reinstalación y la actualización de programas son situaciones comunes que el consumidor debe tener en cuenta, por no hablar de los tan presentes virus o los menos probables desastres naturales. Además, muchos de los procesos de réplica no se realizan en tiempo real, lo que significa que los datos más recientes y quizás los más importantes quedarían excluidos. Junto al testeo periódico de las copias se recomienda, como ayuda adicional, elegir un proveedor de productos y servicios que sea capaz de recuperar bits de información en todo tipo de entornos, físico o virtual, y ofrezca consultas gratuitas y listas de salvables antes de tomarse la decisión de compra.

[Página 2]

Page: 1 2

Mónica Tilves

View Comments

  • Este articulo lo voy a distribuir a todos mis clientes; unos para que sepan a lo que se atienen por obviar todo lo que comentas, otros para que aprecien algo más el trabajo que les hago y lo insuficiente que aún así puede resultar, algo en lo que reiteradamente les he insitido.

    Saludos, Tilves.

Recent Posts

Pure Storage y Kioxia colaboran para impulsar la escalabilidad, la eficiencia y el rendimiento en los centros de datos de hiperescala

Este acuerdo permite una escala rápida al tiempo que reduce el consumo de energía y…

2 días ago

MEXDC y el Senado de la República dialogan sobre la relevancia de los Data Centers

Las líneas de diálogo entre gobierno, industria y academia se centraron en Inversión Tecnológica en…

2 días ago

Xerox propone sistemas de automatización que optimicen las operaciones de las empresas

Por Rafael Hirata, Jefe de Innovación y Desarrollo de Negocios Digitales, responsable de Servicios de…

3 días ago

Appian, elegida líder en Everest Group’s Process Orchestration Products PEAK Matrix 2024

Según Everest Group: “Appian tiene como objetivo ofrecer automatización y orquestación integral de procesos a…

3 días ago

Las nuevas tecnologías y su impacto en el crecimiento empresarial para 2025

Por Uriel Fraire, Regional Sales Manager Mexico de Universal Robots.

3 días ago