El tráfico Humano y no Humano en la red: Comparamos.

¿Como se mide el trafico en la red para valorar la efectividad de una campaña? ¿Son suficientes los datos de visitantes únicos? ¿Impresiones? 

Fuente: http://m.theatlantic.com/technology/archive/2013/12/welcome-to-the-internet-of-thingies-615-of-web-traffic-is-not-human/282309/
Fuente: http://m.theatlantic.com/technology/archive/2013/12/welcome-to-the-internet-of-thingies-615-of-web-traffic-is-not-human/282309/

Antes de entrar en materia debemos conocer las formas más habituales para obtener estadísticas de un sitio web. La forma más habitual se obtiene analizando los registros del servidor web instalando herramientas como el Awstats y Webalizer que nos permiten obtener información muy real del trafico de nuestra web (ips, navegadores, países, ciudades, duración de las visitas, referidos (de dónde viene el trafico), etc).

Si bien se cree que está información es la más real, en la práctica la existencia de sistemas CDN o proxys que cachean los contenidos (evitan que se lea la información real en nuestro servidor) hace que a menudo no sean la mejor forma de medición.

Por ello la solución más empleada la ofrece el propio Google, se trata de Google Analytics que al utilizar un código que siempre se ejecuta mide de forma más efectiva el tráfico.

Fuente: http://www.agencialanave.com/
Fuente: http://www.agencialanave.com/

 

Pero ahora llega un problema: ¿Es ese tráfico real? En Internet los buscadores rastrean las páginas webs y también los spammers intentan hacer bases de datos con la información de contacto que tenemos en nuestras webs.

Las visitas por parte de computadoras no humanas cada año es más preocupante y es que ha pasado en un año a representar del 51% al 61%. Además hay que destacar un 5% se deben a intentos de acceso no autorizados lo que significa que debemos dar prioridad a la seguridad.

Usar un CDN puede ayudar a evitar un ataque de un hacker pero no sera del todo infalibre si el que visita la web pretende robarnos contenido salvo que establezcamos limites de acceso en tiempo o unas programaciones que detecten el uso “exhaustivo” de nuestra web.  (ModSecurity | ModEvassive)

Fuente: http://www.google.es/intl/es/analytics/
Fuente: http://www.google.es/intl/es/analytics/

A la hora de analizar los datos de las visitas los programas intentarán identificar ese “trafico” no humano para intentar separar las visitas de los buscadores e incluso localizarán las palabras que han ocasionado el trafico.

Sin embargo el crecimiento de los conocidos “impersonators” (impostores o plagiadores) van a complicar cada día más la interpretación de los resultados y nos hacen pensar que lo realmente importante es apostar por un buen plan de marketing que se apoye del uso de las redes sociales.

Cada día será más importante luchar contra ese tráfico no humano y protegernos del espionaje en muchos aspectos.  En AGENCIA LA NAVE somos consciente de estos problemas y daremos con la mejor solución para su negocio, consulte nos sin compromiso.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos necesarios están marcados *