En promedio el 5% del total del tráfico de la web proviene de herramientas de hackeo diversas que tienen como objetivo robar información privada, introducir malware o afectar la estabilidad del sitio. Otro 5% lo consumen scrapers que toman automáticamente el contenido de otros sitios para volver a publicarlo, para capturar infromación que sirva para la construcción de base de datos, etc. Un 2% proviene de spammers que publican contenido irrelevante, arruinan la información presentada y entorpecen la conectividad en general. El restante 19% sale de la suma de todos los demás tipos de acciones automatizadas como análisis de palabras claves, alarmas de actualizaciones, etc.
Según lo que declaran los sistemas más populares para estadística web no contabilizan este tipo de tráfico aunque se esté llevando a
cabo. Servicios como el de Google Analytics sólo muestran las visitas realizadas por usuarios reales. De esta forma aunque las visitas maliciosas no puedan ser vistas o medidas en la administración diaria de dichos sites, la mitad del trabajo de los servidores y conexiones se está gastando en operaciones automáticas que tienen la intención de atentar contra tales servicios.
Cabe aclarar que es “normal” que gran parte del tráfico funcione con robots o sistemas automatizados. Los buscadores mejoran el indexado al recorrer intensamente la web y con ello
mejoran la experiencia para el usuario. El desafío a futuro en la web será achicar el 31% del tráfico que busca hacer daño.
Fuente: infonqn.com
No hay comentarios:
Publicar un comentario