Saltear al contenido principal
1-800-987-654 admin@totalwptheme.com
A Las Puertas Del 2018 Seguimos Con El Problema Del Clickbaiting

A las puertas del 2018 seguimos con el problema del clickbaiting

La gente nos ha dicho que les disgustan las publicaciones de spam en Facebook que les incitan a interactuar con ‘Me gusta’, comentarios y otras acciones.

Con estas palabras los chicos de Facebook explicaban en un artículo reciente en su blog (EN) la decisión de implementar sistemas que intentan controlar el abuso de titulares pretenciosos y llamamientos a “Likes” que muchos utilizan como estrategia habitual para posicionar artificialmente por encima sus artículos dentro de la plataforma.

Un problema que viene de muy, muy lejos. Tanto que me ha costado marcar esta pieza como noticia a la hora de escribirla.

Me parece un ejemplo más de cómo pese a los grandes avances en inteligencia artificial realizados en estos últimos años, y pese a la apuesta casi absolutista por las técnicas de machine learning (ES) que compañías como Facebook han establecido dentro de su operativa diaria, la máquina sigue demostrando estar unos pasos por detrás del analista a la hora de comprender unos flujos informacionales que, recordemos, han sido creados por humanos.

Y es que no hablamos de algo tan sencillo como que el sistema levante una alerta cuando vea expresiones tales como “comparte si te ha gustado”, “recomiéndaselo a un amigo”, “etiqueta a alguien que le haya pasado”,..etc, sino en definitiva a un abanico de estrategias que pueden ir de las más predecibles (titulares del tipo “No creerías lo que le ha pasado después…“) hasta acciones tan sutiles como el uso de imágenes sugerentes o frases que acompañan al enlace que incitan a tomar acción por parte del usuario (aunque sea una acción de rechazo).

En el momento en el que pasamos de un ecosistema donde el valor venía dado por una suerte de interacción orgánica, a otro donde dicha interacción se retroalimenta en base al histórico de interacciones que ha recibido dicho contenido, se abre la veda a que surjan estrategias que tergiversen el propio sistema.

Y para colmo, al tratarse ya, per se, de un entorno fuertemente limitado tanto por factores exógenos (estamos expuestos a centenares de impactos diarios, ergo apenas tenemos unos escasos segundos para decidir si un contenido nos parece interesante o no) como endógenos (y para valorarlo, únicamente dependemos, en la mayoría de los casos, de lo que nos transmita el titular, la frase que lo acompaña y la imagen), la capacidad de tergiversación accesible por cualquier interesado aumenta.

Al final, pasa lo que vemos a diario por Facebook… y por Instagram, y por Google+ y en definitiva por todas las plataformas sujetas a los designios de un algoritmo de recomendación. Que llegamos a un contenido que quizás no sea el más valioso para nuestros intereses, sino aquel que ha sabido posicionarse por delante del resto. Aquel que se ha vuelto viral, sea o no el más adecuado o el más explicativo de todas las alternativas.

En las próximas semanas comenzaremos a implementar degradaciones más estrictas para las páginas que sistemáticamente, y en repetidas ocasiones, usan este tipo de cebos para ganar interacciones artificialmente en las noticias. Vamos a implementar esta degradación a nivel de página en el transcurso de varias semanas para dar a los editores tiempo de adaptarse.

Tocará analizar a varias semanas vista qué tal funciona la medida, pero me pregunto desde ahora si seremos algún día capaces de controlar este tipo de acciones.

No solo porque crea que la IA no estará nunca a la altura de comprender las más oscuras perversiones e irracionalidades del ser humano (que lo mismo hasta lo consigue), sino porque el ecosistema que hemos creado favorece, por su propia idiosincrasia, la obcecación por la tergiversación de nuestra sociedad.

Y el primer ejemplo lo tenemos en el posicionamiento en buscadores, tan fuertemente establecido dentro del argot marketiniano, defendido inclusive por los servicios digitales líderes del mercado, y que no deja de ser otro tipo de tergiversación artificial considerada socialmente como aceptable (engañar dentro de unos límites a esos algoritmos para que nos posicionen por delante a nuestro contenido del resto).

Pablo F. Iglesias

Analista de información en Nuevas Tecnologías y Seguridad Informática, Consultor de Estrategia y Marca, aportando masa gris como Ejecutivo de Tecnología y Seguridad en SocialBrains, que no es poco :).

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Uso de cookies

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies

ACEPTAR
Volver arriba