Durante el 2016, tan solo el 48,2% de la información que circula por Internet fue generada por seres humanos, y es que, un estudio destaca que la mayor parte del tráfico de datos fue ejecutado por programas informáticos conocidos como ‘bots’ o robots automatizados y de hecho, mucha de esa información es maliciosa.
Para el estudio, recuerda la firma especializada, se investigaron más de 16.000 millones de visitas a más de 100.000 sitios web elegidos aleatoriamente. Una de las conclusiones más destacadas es que los bots maliciosos superan ligeramente al número de bots buenos, como se puede ve en el gráfico realizado por la empresa británica.
Estos programas de automatización se usan para robar información o lanzar ataques DDoS (de negación de servicio, para tumbar una página web por ejemplo) y utilizan los recursos y datos de la máquina infectada, como explican los expertos. Otros de los usos que encontramos que hacen los bots maliciosos es crear sitios web similares a otros famosos y robar el dinero de la publicidad digital o para socavar información y datos de los navegantes de la web.
Este acuerdo permite una escala rápida al tiempo que reduce el consumo de energía y…
Las líneas de diálogo entre gobierno, industria y academia se centraron en Inversión Tecnológica en…
Por Rafael Hirata, Jefe de Innovación y Desarrollo de Negocios Digitales, responsable de Servicios de…
Según Everest Group: “Appian tiene como objetivo ofrecer automatización y orquestación integral de procesos a…
Por Uriel Fraire, Regional Sales Manager Mexico de Universal Robots.
Por: Ivan Sánchez, VP Sales LATAM, Infoblox.