Software y aplicaciones especializadas en repetir tareas, bajo el rótulo de Bots, ocupan más del 50% del tráfico global de internet.
Los bots están al día de hoy ingresando en muchos rubros. Los chatbots tienen cada vez más lugar en la tecnología médica y financiera, por ejemplo. También existen robots algorítmicos para los servicios mobile y la atención al cliente (Facebook apostó a estos últimos recientemente). En pocas palabras, los bots son software diseñado para realizar automáticamente alguna tarea específica y sencilla (como hacer click aquí o allá, aceptar o declinar, etcétera).
Actualmente, de acuerdo a un reciente reporte de la consultora Imperva Incapsula, estos bots ya componen oficialmente la población más grande de Internet, relegando a los humanos a la minoría del tráfico de la red de redes.
Investigando más de 16 mil millones de visitas a más de 100.000 sitios web elegidos aleatoriamente, los investigadores encontraron que actualmente el tráfico de Internet está ocupado en un 51,8 por ciento por bots de diferentes clases y el restante 48,2 por ciento son personas de carne y hueso.
Los buenos y los malos
No todos los bots son creados iguales. Algunos son software transparente de empresas y es sencillo monitorearlos. Este es el caso de los bots de motores de búsqueda como Google y Google Alerts, Yahoo o Bing. Lo mismo vale para los bots de monitoreo y análisis de “feed” de noticias como es el caso de WordPress o Facebook, Android y Twitter respectivamente.
Pero existen otro tipo de bots que se usan para fines maliciosos. En el informe se citan algunos como Nitol, Cyclone o Mirai. Estos softwares de automatización se usan para robar información o lanzar ataques DDoS (de negación de servicio, para tumbar una página web por ejemplo) y utilizan los recursos y datos de la máquina infectada. También se usan para crear sitios web similares a otros famosos y robar el dinero de la publicidad digital o para socavar información y datos de los navegantes de la web.
En el año 2012, la distribución de bots tóxicos era de 20 a 31 por ciento versus la cantidad de bots legítimos. Pero, con nuevos datos actualizados, el reporte informa que esa relación ahora se invirtió: la nueva mayoría son los bots malos, que superan a razón de 28,9 contra 22,9 a los chatbots inofensivos.
¿Quiénes son los robots malvados que ahora son la mayoría en la web? casi uno de cada cuatro de estos software son bots de imitación. Los “impersonators” son el 24 por ciento de los bots malos existentes y su función es asumir una identidad falsa para molestar a las soluciones de seguridad. Se usan con frecuencia para ataques DDoS. El 2 por ciento de la población de software malicioso son bots de hacking. Comúnmente buscan debilidades y “exploits” en muchos sitios web para colocar malware, spyware, robo de información u otra forma de intromisión digital.
La población minoritaria la componen en un 1 por ciento los bots más peligrosos, los “scrapers” que se usan con el fin de robar datos sensibles y extraer información de bases de datos y sitios web. El 0,3 por ciento restante lo forman los bots más conocidos: los “spammers”. Estos robots se ocupan de publicar enlaces a sitios web en el lugar de los comentarios de sitios de noticias, las redes sociales, etcétera.
Un dolor de cabeza para la publicidad
Más allá de los problemas inherentes, como la seguridad y la privacidad, este crecimiento tan pronunciado del tráfico de internet a cargo de bots y, en particular, de bots maliciosos es un gran problema para el negocio de la publicidad digital. El modelo de negocios del marketing online se funda en la premisa básica que quienes consumen los avisos publicitarios y generan tráfico son personas detrás de un monitor y no algoritmos automáticos.
De acuerdo a lo informado por la Asociación Nacional de Publicitarios de los Estados Unidos y la compañía especializada en fraude digital White Ops, se estima que los bots le cuestan a las empresas de publicidad unos 7 mil millones de dólares anuales en concepto de revenue. El lugar más endeble es el de la publicidad programática, que funciona en base a diferentes algoritmos muy sofisticados que invierten dinero en los sitios que tienen más tráfico. Pero al ser un método automático, es imposible saber si ese tráfico se debe a que hay posibles compradores del otro lado navegando o es tráfico inútil para quien paga la publicidad ya que los bots no consumen luego de estar expuestos a la publicidad.
Las estimaciones del estudio de Incapsula son que para los sitios web medianos (de mil a diez mil visitas por día) al menos un 24 por ciento de tráfico son bots maliciosos. Y en los sitios grandes (de diez mil a cien mil visitas diarias) no menos de un 21 por ciento es tráfico malicioso.