Saltear al contenido principal
1-800-987-654 admin@totalwptheme.com
Comprendiendo La Burbuja De Filtros De Youtube

Comprendiendo la burbuja de filtros de Youtube

Leía esta semana la pieza publicada en TechnologyReview (EN) a colación del trabajo de Guillaume Chaslot, un ex-Google preocupado por el efecto nocivo de los algoritmos de recomendación de contenido de la plataforma multimedia.

El tema no es ni mucho menos baladí. Hablamos de un servicio utilizado por alrededor de 1.000 millones de usuarios, con una media de 1.000 millones de horas reproducidas… ¡al día!

Comprender cómo funciona el algoritmo que nos recomienda el siguiente vídeo a visionar es crítico en un momento tan complejo a nivel informacional como el que estamos viviendo, con la paulatina hegemonía de campañas de tergiversación informativa bien planificadas, y su potencial impacto en elementos tan críticos para la vida en colectivo como es la intención de voto o la cultura de los habitantes de un país.

Así pues, Guillaume ha creado una plataforma llamada AlgoTransparency (EN) en la que los visitantes puedan ver hacia dónde les lleva el algoritmo de YouTube si siguen sus recomendaciones en cuestiones como elecciones recientes, tiroteos masivos, ciencia o algunos temas generales. Y hablamos de un software que simula el acto de empezar a ver un vídeo en YouTube y pinchar en “Siguiente” para ver el próximo vídeo recomendado.

Puesto que el funcionamiento interno del algoritmo es secreto de la compañía, la única manera que tenemos de comprenderlo es en base a sus inputs y outpots:

En una búsqueda del tipo “tiroteo en Parkland”, que tiene 2,5 millones de reproducciones en YouTube, valdría la pena preguntarse si el algoritmo lo recomendó 50 millones de veces hasta llegar a esas 2,5 millones de personas, o si solo lo recomendó 500.000 veces y el resto surgió de forma orgánica.

La diferencia es sustancial, ya que en caso estamos ante un contenido que se ha viralizado gracias a la propia plataforma, y en el segundo uno que se ha viralizado por el propio interés de un grupo descentralizado de usuarios.

Desde que comenzó a seguir las recomendaciones en 2016, descubrió que para algunas frases, como “hechos de vacunas” o “calentamiento global”el algoritmo de recomendación de YouTube muestra a los usuarios vídeos conspiranóicos, anticientíficos o de medios de dudosa reputación. El algoritmo tiende a favorecer los vídeos de políticos que fomentan la división, que hablan de una manera agresiva y acosadora.

También rastrea los términos que se mencionan con más frecuencia en los vídeos más recomendados. El 1 de abril, por ejemplo, los resultados para “la tierra es plana o redonda” se asociaban a términos como “plana”, “NASA”, “prueba” y “secreta”.

Su servicio muestra de forma directa y sencilla algunos de estos ejemplos, y quizás sirva para que todos aquellos que lleguen a ella sean entonces un poco más conscientes de las limitaciones que tiene la web de nuestros días.

Que el contenido que estamos consumiendo viene dado por sistemas que no son tan objetivos como se plantean, y que en última instancia, sería recomendable hacer esa parte de curación de contenido nosotros mismos, ayudados por las herramientas que tenemos a nuestra disposición (ES), y de paso fortaleciendo nuestro sentido crítico. Quizás una de las soft-skills que más deberíamos cultivar en la actualidad.

Pablo F. Iglesias

Consultor de Presencia Digital y Reputación Online, aportando masa gris como Ejecutivo de Tecnología y Seguridad en SocialBrains, que no es poco :).

Uso de cookies

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies

ACEPTAR
Volver arriba