Frente a los desafíos de la moderación en línea, algunos piden combatir la viralidad de los contenidos de odio y desinformación, en lugar de buscar hacerlos desaparecer a toda costa.
(Este es un resumen del artículo de Lucie Ronfaut publicado el 30 de Noviembre de 2020 en el diario francés Libération, título original: Réseaux sociaux : la friction est-elle l’avenir de la modération ? (Redes sociales: ¿es la fricción el futuro de la moderación?)
Traducción y resumen por Hasardevi
Fue poco antes de las elecciones presidenciales en EE. UU. que Twitter cambió la forma de “retuitear”. En lugar de presionar un botón para compartir el mensaje de otra persona, ahora hay que hacer clic dos veces; este no fue un cambio casual o irrelevante. “El objetivo de una red social es proporcionar una experiencia fluida y sin obstáculo para que podamos pasar el mayor tiempo posible en su plataforma". Al complicar un tanto el retweet,Twitter agregó fricción (resistencia) a esta experiencia; esta estrategia se usa a menudo para luchar contra la adicción a las nuevas tecnologías con el objetivo de crear pequeños obstáculos digitales para hacernos reflexionar al menos un poco: ¿Realmente quiero registrarme en este servicio, darle mis datos?
Esta pequeña estrategia también se puede aplicar al campo de la moderación en línea. Cuando Twitter cambió sus retweets, fue para ralentizar la desinformación en su red, la cual se alimenta de mensajes compartidos en masa. Ahora, cuando un usuario quiere retransmitir un artículo sin haberlo leído, Twitter le anima a hacer click en el enlace para que lo lea (o al menos sepa de qué se trata). Se pretende también, con ello, moderar y combatir la desinformación.
Al parecer, no se dan abasto porque no hay suficientes moderadores ni se toman las mejores decisiones al respecto. Además, hay que definir qué tipo de contenido se permite permanezca en línea, con los riesgos de censura que esto supone. En todo el mundo, los textos sobre moderación se están multiplicando, se está aumentando la presión y, a veces por esta razón u otras, los mandatos contradictorios en las plataformas.
Algunos expertos abogan por un nuevo camino: y ¿si es en vano eliminar contenidos “problemáticos”? ¿Y si la responsabilidad de las plataformas no sólo radica en la naturaleza del contenido que alojan, sino también en su propagación? Los algoritmos que recompensan reacciones fuertes, para asegurar la atención de usuarios ¿no han hecho de las redes sociales máquinas de odio viral? Al luchar contra una epidemia, se trata de detener la propagación del contagio. Pero hay un punto en que se puede perder el control. Este principio también aplica para la propagación de mensajes de odio en las redes sociales.
Por ello se pretende ejercer cierta presión y poner ciertos límites pero evitando, a decir de quienes están a cargo, que se ejerza censura, lo cual no se ha logrado evidentemente. Para ralentizar la Web se puede establecer, por ejemplo, un límite de mensajes para conseguir que el usuario de prioridad a lo que realmente quiere compartir y se elijan contenidos que sean realmente importantes en lugar de mensajes de odio. "De esta manera, no tocamos la libertad de expresión, pero
limitamos la libertad de propagación", se resume y se alude aquí a la responsabilidad personal de cada persona que se asume como un "medio de información".
A nivel político, también está ganando terreno la idea de la fricción para moderar, vista ésta como un complemento a una lógica más clásica de eliminación de contenidos problemáticos, como ciertas leyes que han sido rechazadas por vulnerar la libertad de expresión. “La moderación es un pozo sin fondo. Una batalla para retirar contenidos, sin pensar en el diseño de redes, solo puede fracasar porque el odio se adapta, según Henri Verdier, embajador francés de lo digital, "por supuesto, debemos eliminar el contenido sobre ciertos temas, en particular el acoso y las amenazas directas, pero la solución no puede limitarse a eso". En Europa, la lucha contra la viralidad de los contenidos problemáticos podría abordarse en el marco de las actuales negociaciones en torno a la Ley de Servicios Digitales (DSA), un paquete legislativo que tiene como objetivo imponer nuevas obligaciones a las plataformas ante los contenidos ilícitos.
Sin embargo, los ejemplos de fricción utilizados con moderación aún son raros. Por una buena razón: esta estrategia pone en tela de juicio la propia naturaleza del modelo económico de estas plataformas, basado en la economía de la atención. “El paradigma de la moderación de contenido es liberar a las plataformas de sus responsabilidades pero también, en cierto sentido, liberarnos de nuestro deber de comportarnos bien”, concluye Sarah T. Roberts, investigadora estadounidense y autora de Behind the screen (Éditions La Découverte), una encuesta muy detallada a los moderadores de la web. "Crear técnicas que nos obliguen a hacer una pausa, a reflexionar sobre nuestras acciones, es poner al usuario en el centro de un proceso que antes era invisible".