Facebook, entre garante y regulador de la libertad de expresión en internet
La plataforma ha dado a millones de personas la posibilidad de compartir sus ideas y puntos de vista con una audiencia potencial gigantesca.
Facebook se ha erigido en un auténtico titán de las comunicaciones en internet (además de su propia plataforma, posee Instagram y WhatsApp), lo que ha abierto un intenso debate sobre el papel de garante o regulador de la libertad de expresión online que la empresa debe desempeñar.
La compañía que fundó hace 15 años Mark Zuckerberg junto a otros tres compañeros de la Universidad de Harvard (Massachusetts, EE.UU.) ha crecido hasta tal punto que alrededor de un tercio de la humanidad tiene actualmente una cuenta de Facebook, lo que le da una posición de dominio casi absoluto en el mercado.
Por un lado, la plataforma ha dado a millones de personas la posibilidad de compartir sus ideas y puntos de vista con una audiencia potencial gigantesca, lo que ha "democratizado" el mundo de la comunicación pública y ha supuesto un avance innegable en cuanto a libertad de expresión.
Por otro, la empresa se ha convertido en una de las principales herramientas que la ciudadanía usa para informarse, lo que ha hecho que tenga que pasar a plantearse cuestiones que poco tienen que ver con la programación y la tecnología, y mucho con decisiones editoriales y materias filosóficas en torno a la comunicación.
"Nuestras políticas se basan en los siguientes principios: seguridad, voz e igualdad", explicó en una entrevista con Efe una portavoz de Facebook que pidió no ser identificada para respetar las directrices de la compañía en cuanto a las declaraciones públicas de sus empleados.
"Nuestro objetivo es ofrecer puntos de vista diversos. Por defecto, permitimos todos los contenidos, incluso cuando los encontramos desagradables, a no ser que eliminar ese contenido particular pueda prevenir un daño concreto", indicó la portavoz de la empresa.
LEE TAMBIÉN: Martes 5 de febrero: Día Internacional de Internet Seguro 2019
La cuestión que deriva inmediatamente de este principio, por tanto, es qué significa exactamente "un daño concreto", ya que si bien parece claro que incluye supuestos como animar a cometer un acto violento o un suicidio, el terreno se vuelve más pantanoso al adentrarse en el campo de los daños morales o psicológicos.
Por ejemplo, según los "estándares de comunidad" de Facebook, que tratan de delinear estas difusas fronteras, la plataforma considera dañinas las imágenes que muestren desnudez o actividades sexuales porque "hay personas en nuestra comunidad que pueden ser sensibles a este tipo de contenidos".
Esta política, sin embargo, ha tenido que ser modificada en numerosas ocasiones a lo largo de los últimos años después de que los internautas se quejasen de que la red social estaba eliminando fotografías de madres amamantando a sus bebés, de campañas sobre el cáncer de mama o de pinturas en las que aparecían figuras desnudas.
"A veces, nuestros estándares pueden parece menos detallados de lo que nos gustaría, y eso implica que los resultados de su aplicación entren en conflicto con lo que originalmente pretendíamos", admitió la portavoz de Facebook.
"Por esa razón, en algunos casos, y cuando se nos provee de contexto adicional, tomamos decisiones en base al espíritu con el que fueron redactadas nuestras políticas, en lugar de guiarnos únicamente por el texto de la redacción", añadió.
Ello implica de nuevo un alto grado de subjetividad más propio de un editor de prensa que de una compañía de internet cuya misión, a priori, no incluía erigirse en regulador de lo que la gente puede o no puede decir en la red.
Este debate ha encontrado una de sus máximas expresiones, especialmente desde las elecciones presidenciales de EE.UU. en 2016, en la publicación de noticias falsas y la propagación de teorías conspirativas online, algo contra lo que si la firma quiere luchar, la pondrá literalmente en el papel de un editor.
Legisladores de distintas partes del mundo han presionado a Facebook para que desempeñe este papel y no permita la circulación de contenidos falsos, pero ello podría derivar en una discusión legal y filosófica muy profunda: ¿Quién decide qué es una noticia falsa? ¿Están amparadas las noticias falsas por la libertad de expresión? ¿Es Facebook sólo una plataforma o una compañía editora?
Al ser preguntada por estas cuestiones, la portavoz regresa a su premisa original: "La gente tiene que sentirse segura en nuestra comunidad. Nuestro compromiso es retirar contenido que aliente daños en el mundo real, incluyendo (pero sin limitarse a) daños físicos, financieros y emocionales".