Una nueva investigación de iProov, el principal proveedor mundial de soluciones científicas para la verificación biométrica de identidad, revela que la mayoría de las personas no pueden identificar los deepfakes, esos vídeos e imágenes increíblemente realistas generados por IA que suelen estar diseñados para hacerse pasar por personas. El estudio examinó a 2000 consumidores del Reino Unido y los EE. UU., exponiéndolos a una serie de contenidos reales y deepfakes. Los resultados son alarmantes: solo el 0,1 % de los participantes pudo distinguir con precisión el contenido real del falso en todos los estímulos, que incluían imágenes y vídeos.
Principales hallazgos del estudio:
El profesor Edgar Whitley, experto en identidad digital de la London School of Economics and Political Science, añade: “Los expertos en seguridad llevan tiempo advirtiendo de las amenazas que suponen los deepfakes tanto para las personas como para las organizaciones. Este estudio demuestra que las organizaciones ya no pueden confiar en el criterio humano para detectar deepfakes y deben buscar medios alternativos para autenticar a los usuarios de sus sistemas y servicios”.
“Solo el 0,1% de las personas pudieron identificar con precisión los deepfakes en el texto, lo que subraya lo vulnerables que son ambas organizaciones a la amenaza del fraude de identidad en la era de los deepfakes”, afirma Andrew Bud, fundador y director ejecutivo de iProov. “Incluso cuando la gente sospecha que se trata de un deepfake, nuestra investigación nos indica que la gran mayoría de la gente no hace nada. Los delincuentes se aprovechan de la incapacidad de los consumidores para distinguir las imágenes reales de las falsas, poniendo en riesgo nuestra información personal y nuestra seguridad financiera. Las empresas tecnológicas tienen que proteger a sus clientes implementando medidas de seguridad sólidas. El uso de la biometría facial con la vitalidad proporciona un factor de autenticación fiable y prioriza tanto la seguridad como el control individual, lo que garantiza que las organizaciones y los usuarios puedan seguir el ritmo y permanecer protegidos de estas amenazas en constante evolución”.
La creciente amenaza de los deepfakes
Los deepfakes suponen una amenaza abrumadora en el panorama digital actual y han evolucionado a un ritmo alarmante en los últimos 12 meses. El Informe de inteligencia sobre amenazas de 2024 de iProov destacó un aumento del 704 % en los intercambios de rostros (un tipo de deepfake).
Su capacidad para hacerse pasar por personas de manera convincente los convierte en una poderosa herramienta para que los ciberdelincuentes obtengan acceso no autorizado a cuentas y datos confidenciales. Los deepfakes también se pueden utilizar para crear identidades sintéticas con fines fraudulentos, como abrir cuentas falsas o solicitar préstamos. Esto plantea un desafío significativo a la capacidad de los humanos para discernir la verdad de la falsedad y tiene amplias implicaciones para la seguridad, la confianza y la difusión de información errónea.
¿Qué se puede hacer?
Dado que los deepfakes se están volviendo cada vez más sofisticados, los humanos por sí solos ya no pueden distinguir de manera confiable lo real de lo falso y, en cambio, necesitan confiar en la tecnología para detectarlos. Para combatir la creciente amenaza de las deepfakes, las organizaciones deberían buscar adoptar soluciones que utilicen tecnología biométrica avanzada con detección de vida, que verifique que una persona es la persona correcta, una persona real, y que se está autenticando en este momento. Estas soluciones deberían incluir la detección de amenazas constante y la mejora continua de las medidas de seguridad para mantenerse a la vanguardia de las técnicas de deepfakes en evolución. También debe haber una mayor colaboración entre los proveedores de tecnología, las plataformas y los responsables de las políticas para desarrollar soluciones que mitiguen los riesgos que plantean las deepfakes.
La compañía anunció que ha sido nombrada líder en la evaluación de proveedores de servicios…
Con mecánicas similares a las de los casinos, las loot boxes son un riesgo para…
La adquisición amplía las capacidades de LexisNexis Risk Solutions en soluciones de riesgo y fraude…
Como en todo el mundo, el cibercrimen sigue a la caza de vulnerabilidades. Los riesgos…
Por Scott Zoldi, director de Analítica (CAO) de FICO.
Por Douglas Wallace, Gerente de Ventas Distrital, América Latina y el Caribe (Excepto Brasil) en…