Saltear al contenido principal
1-800-987-654 admin@totalwptheme.com
La Moderación Colaborativa De Facebook

La moderación colaborativa de Facebook

En septiembre del 2015 ya hablaba por mi página de un hipotético botón de “No Me Gusta” en Facebook (ES).

En ese momento aludí a la problemática de depender únicamente de una interacción para medir el éxito o fracaso de un contenido:

Porque precisamente de eso se trata. De generar un entorno que anime a utilizar la plataforma, que nos retenga más tiempo dentro de ella (o al menos dentro de su radio de acción), y que sea flexible y adecuada para cada situación.

Por aquel entonces solo existía el “Me Gusta”, y era muy habitual que surgieran situaciones que desincentivaban la interacción, e incluso otros que, como veríamos años más tarde, jugaban en contra de todos a la hora de incentivar la interacción no por la calidad del contenido, sino precisamente por justo lo contrario (fake news).

Debería ser de conocimiento de todos que el contenido considerado conflictivo tiende, por lo habitual, a incentivar las interacciones (interaccionan tanto los que están de acuerdo como aquellos que no). Y por ende, suele ganar mayor visibilidad.

Así llegamos a la actualidad, donde varios usuarios de Android de EEUU, Australia y Nueva Zelanda han alertado haberse encontrado la opción de marcar como “No Me Gusta” el contenido de los comentarios de una publicación.

 

¿Qué se consigue con esto?

Más que un botón para mostrar nuestro desacuerdo, realmente estamos ante un sistema de valoración de karma más directamente trasladado a Facebook de otras plataformas donde ya estaba habilitado, como es el caso de Reddit. Gracias a él conseguimos alertar a la compañía que X contenido no es adecuado (por la razón que sea), y esto, conforme varios hagan lo propio, posicionará mejor o peor dicho contenido dentro del timeline de comentarios que tenga la publicación.

Una manera inteligente de combatir los comentarios trolls mediante economía colaborativa. Pero sobre todo, un acercamiento a la muy necesaria implantación de este tipo de interacciones a nivel global dentro de la plataforma, que permita en el futuro marcar como potencialmente dañinas publicaciones que podamos considerar como tal, minimizando así su visibilidad a futuras audiencias.

Si llega ese momento, será interesante ver qué impacto tendrá ya no solo a nivel de viralidad de contenido que podemos considerar nocivo para el grueso de la sociedad, sino también las posibles tergiversaciones que de ello se pueda desprender.

Y sí, hablo de grupos, coordinados o no, de usuarios que valoren negativamente un contenido no porque en efecto estemos ante algo negativo, sino porque sencilla y llanamente no concuerda con su ideología política, cultural o religiosa.

De que la herramienta sirva, a fin de cuentas, más que para moderar, para censurar (una censura soft basada en la visibilidad coletiva) contenido de terceros.

En fin, que como toda implementación en una plataforma tan masiva, cualquier cambio es susceptible de ser utilizado para mejorar la experiencia, o para pervertirla.

Pablo F. Iglesias

Consultor de Presencia Digital y Reputación Online, aportando masa gris como Ejecutivo de Tecnología y Seguridad en SocialBrains, que no es poco :).

Uso de cookies

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies

ACEPTAR
Volver arriba