Saltear al contenido principal
1-800-987-654 admin@totalwptheme.com
Luchando Contra El Cloaking En Redes Sociales

Luchando contra el cloaking en redes sociales

En el argot técnico se suele hablar de Cloaking cuando, mediante diferentes técnicas, mostramos a una tipología de usuarios un contenido y a otra tipología otro contenido distinto. 

Esto no tiene por qué tener fines eminentemente maquiavélicos. Los test A/B, tan sumamente habituales en marketing y analítica digital, son hasta cierto punto un subconjunto de cloaking que tiene como objetivo optimizar las campañas digitales.

Sin embargo, el término suele referirse más bien a aquellos escenarios en los que esto se utiliza con el fin de bypasear controles de seguridad implementados por terceros, ya sean buscadores o redes sociales.

Y el típico ejemplo lo encontramos en la publicidad digital, basada como bien sabes en el mercadeo de espacios publicitarios mediante pujas pseudo-automatizadas que ocurren en tiempo real (real time bidding (ES)).

¿Cómo una página que vende un producto farmacéutico prohibido puede anunciarse en una plataforma generalista?

Mediante un cloaking en el que mostrará la página de venta real al usuario humano que llega desde la publicidad, y una página de venta ficticia (otro producto legal) que será, al menos en teoría, la que verán los crawlers de control que implemente la plataforma.

Y pasa exactamente lo mismo en redes sociales como Facebook. La política de uso de la plataforma es muy estricta en según qué temas. De ahí que aquellos que viven de negocios grises o directamente penales, encuentren en el cloaking la manera de tener presencia en la red al menos hasta que por denuncias (y por tanto, a posteriori) le cierran la página.

En vista de todo esto, lo interesante es que, como explicaban recientemente en su blog (EN), Facebook ha tomado la decisión de implementar controles de seguridad mucho menos visibles. Amparados por sistemas de inteligencia artificial, la estrategia ahora ya no es solamente bloquear aquellos contenidos que claramente vulneran la política de uso de la plataforma, sino también atacar a aquellos que potencialmente tienen todas las papeletas de estar utilizando cloaking para ofuscar contenido malicioso minimizando artificialmente su impacto en el timeline de los usuarios.

Vamos, que lo mismo sigue estando (con el gasto de recursos necesario para generar y mover ese contenido) pero no llegará a los objetivos marcados por el cibercriminal. Menos impacto ergo menos negocio con el mismo trabajo (gasto de recursos) asociado, lo que produce menos negocio aún.

El proceso manual todavía seguirá siendo crítico (falta les hace, la verdad), pero vendrá acompañado de esa capa automática que les permite ser más eficientes y arañar unas horas. Algo muy importante en un entorno cada vez más dependiente de mecánicas de viralización agresivas (para cuando la plataforma se da cuenta de un abuso, lo mismo han pasado ya uno o dos días y en este tiempo han caído cientos o miles de víctimas).

Eso sí, el funcionamiento técnico no ha sido revelado, así que por el momento solo puedo aplaudir la decisión (la IA debería seguir siendo una mera herramienta de trabajo para el analista) y esperar que esto sirva en efecto para minimizar el negocio de la industria del cibercrimen.

Pablo F. Iglesias

Consultor de Presencia Digital y Reputación Online, aportando masa gris como Ejecutivo de Tecnología y Seguridad en SocialBrains, que no es poco :).

Esta entrada tiene un comentario

Los comentarios están cerrados.

Uso de cookies

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies

ACEPTAR
Volver arriba