Facebook justifica sus políticas de moderación: “nos equivocamos, pero queremos hacer lo correcto”

Ayer en Genbeta hablábamos de la filtración de las líneas maestras de moderación de Facebook a la hora de permitir o no la difusión de ciertos contenidos a través de la red social. Esta información llegó como parte de un enorme paquete informativo conocido como The Facebook Files.

Hoy de nuevo los Facebook Files vuelven a ser actualidad, y es que en The Guardian Monika Bickert, jefa de gestión de política global de Facebook, ha publicado un artículo en el que el gigante social responde a la filtración de ayer, a la par que intentan explicar a su manera por qué sus políticas funcionan como funcionan.

En primer lugar, Bickert alaba la labor del medio, ya que según sus propias palabras al publicar toda esa información ha “ayudado a aclarar las cosas”. Hace especial mención a la labor de moderar material online, que según la directiva es una tarea muy ardua y compleja. A partir de aquí, empieza una descripción de la labor de los moderadores.

Moderar es una cuestión de contextos

Censorship 610101 1280

A la hora de eliminar o no un contenido, el diseñar políticas que permitan que la red social sea un lugar seguro, que permita a sus usuarios compartir contenidos libremente, significa entender asuntos sociales emergentes y la forma en que las personas se manifiestan online.

Según Bickert también es importante que los moderadores entiendan el contexto en el que se comparten esos contenidos. Por ejemplo, se puede compartir un vídeo en el que una persona maltrata a un animal. ¿Por qué se ha hecho, porque quien lo ha compartido disfruta con ello o para concienciar? Son líneas muy borrosas, que cuesta mucho tener claro.

En este sentido, también señala que es importante comprender el contexto cultural. Por ejemplo, en España ciertas manifestaciones en redes sociales son perseguidas y condenadas, mientras que en otros lugares pueden ser perfectamente aceptables. También apunta a que los climas de crispación y las formas de contar las historias y compartir contenidos, que pueden hacer que las tensiones alcancen altos niveles.

Lo que Facebook quiere hacer, en última instancia, es evitar amenazas creíbles de violencia y respetar las leyes de cada país. Monika Bickert justifica a la red social comentando que no comparten los detalles de sus políticas, porque no quieren alentar que los usuarios encuentren formas de sortearlas. Lo que sí intentan dejar claro a través de las normas comunitarias es qué se permite y qué no.

Autolesiones y pornografía, fuente de polémica

Depression 824998 1280

Con respecto a lo que se publicó ayer de que Facebook iba a permitir imágenes de autolesiones, Bickert se apoya en la opinión de los expertos que aseguran que es mejor dejar que se difundan que impedirlo. Sin embargo, Facebook puede retirarlos después para evitar que alguien intente imitarlo.

En el caso de la pornografía y los desnudos, la directiva señala que los casos que se revisan suelen caer en una zona gris. El arte y la pornografía también están separados por líneas muy borrosas, pero desde Facebook aducen que las imágenes generadas digitalmente es más probable que sean pornográficas, con lo que su política refleja eso.

Bickert no quiere cerrar su disertación sin señalar antes que reciben “críticas de personas que quieren más censura y de quienes quieren menos”. En su opinión, se trata de una “señal útil” que indica que no favorecen a unos, ni a otros.

Bickert cierra el artículo con estas palabras:

Nos equivocamos, y estamos trabajando constantemente para asegurarnos de que pasa cada vez menos. Ponemos mucho empeño en intentar encontrar las respuestas correctas, incluso aunque no haya ninguna.

Vía | The Guardian
En Genbeta | Si subes estas imágenes a Facebook, tu cuenta acabará bloqueada

Loading...