ONU: ¿Cuándo censurar contenido en Facebook?
Tiempo de lectura aprox: 5 minutos, 21 segundos
El relator especial de la ONU sobre cuestiones de las minorías, Fernand de Varennes, pidió hoy a la Junta de Supervisión de Facebook que tenga en cuenta los derechos de las minorías étnicas, religiosas y lingüísticas a la hora de tomar decisiones, en particular sobre el discurso de odio.
Varios son los casos de censura en Facebook.
En relación con el caso 2020-001-FB-UA, un usuario publicó una captura de pantalla de dos tweets del ex primer ministro de Malasia, Mahathir Mohamad, en los que este último decía: «Los musulmanes tienen derecho a estar enojados y a matar a millones de franceses en venganza por la masacres del pasado” y “[pero] en general, los musulmanes no aplicaron la ley de represalias”.
Los musulmanes, enseguida a este mensaje, no aplicaron a ninguna represalia, ni los franceses lo hicieron.
Se trata de un problema social de fondo donde la mejor solución sería luchar contra la ignorancia que lleva al racismo hacia las otras culturas, enseñando el respeto por estas.
El usuario no agregó un título a las capturas de pantalla. Facebook eliminó la publicación por violar sus reglas de incitación al odio, y, en su apelación al Consejo de Supervisión, el usuario dijo que su intención era difundir las «palabras horribles» del ex primer ministro.
Refiriéndose a este hecho, el relator comentó que “no se debe tolerar el discurso de odio hacia las minorías, ni se debe utilizar la situación de las minorías para justificar o defender el odio o la violencia contra las mayorías. También es irrelevante si la cita se atribuye correctamente al Dr. Mahatir Mohamad. Sin embargo, el estatus del Dr. Mohamad como personalidad política internacional prominente con un número considerable de seguidores es de importancia. Además, el contenido de la supuesta declaración, que es un apoyo incondicional del «derecho a… matar a millones de franceses» debería clasificarse como discurso de odio y potencialmente como una incitación a la violencia.
A pesar de la ausencia de intención, el encuadre de la violencia extrema como un derecho dado el estatus del hablante, el alcance y la naturaleza del contenido planteaba un riesgo suficientemente serio de daño en el mundo real como para justificar la remoción.
Fue un usuario quien compartió esta declaración y no el presunto orador. “En este sentido, aconsejaría a la Junta que adopte el principio de ceder a la intención inherente de la declaración informada a menos que el reportero califique su cargo para llamar la atención explícita sobre su reprobabilidad”, afirmó el relator de la ONU.
Otro es el caso 2020-002-FB-UA, en donde un usuario publicó dos fotos muy conocidas de un niño que murió en una playa, completamente vestido junto al agua. El texto de la publicación (en birmano) pregunta por qué China no está siendo castigada por la forma en que trata a los musulmanes uigures, a diferencia del reciente asesinato de un profesor que mostraba caricaturas en Francia.
La publicación también se refiere a la crisis de refugiados sirios. Facebook eliminó el contenido por violar sus reglas de incitación al odio.
En su apelación a la Junta de Supervisión, el usuario dijo que la publicación no estaba de acuerdo con el asesino y tenía como objetivo enfatizar que las vidas humanas importan más que las ideologías religiosas.
“La difícil situación de una minoría no debe utilizarse para socavar la atención prestada a la difícil situación de otra. Las redes sociales están repletas de publicaciones que resaltan la inconsistencia de las respuestas y simplifican peligrosamente factores y circunstancias complejos. La muerte nunca puede justificarse o defenderse bajo ninguna circunstancia, ya sea infligida a personas pertenecientes a minorías o por agentes terroristas extranjeros no estatales que buscan empeorar las relaciones entre las minorías y la mayoría mediante la violencia contra civiles inocentes”, afirmó el relator de la ONU. “Sin embargo, en lugar de justificar actos terroristas, el usuario está levantando la hipocresía en respuesta a la pérdida de vidas humanas. Además, para establecer un discurso de odio de acuerdo con los Estándares Comunitarios de Facebook y la Estrategia de la ONU, un grupo con una característica protegida debe ser el objetivo de un ataque. En este caso, tal grupo protegido no es fácilmente identificable. La idea implícita detrás de la publicación de que las vidas musulmanas valen menos que las vidas francesas puede constituir una opinión errónea e incómoda, pero aun así estar dentro de los límites del derecho a la libertad de expresión”.
En fin, “en relación con el caso 2020-003-FB-UA[1], es notable que Azerbaiyán tiene una minoría cristiana que asciende aproximadamente al cinco por ciento de la población. En cuanto al contexto, Armenia y Azerbaiyán acaban de poner fin a un enfrentamiento militar con Armenia cediendo parte de territorio a Azerbaiyán. Ha habido ansiedades por parte de los cristianos en esos territorios en cuanto a la no negación «en comunidad con los otros miembros de su grupo… para profesar y practicar su propia religión». Por último, la Junta debe reconocer que el derecho a tener, mantener y utilizar lugares de culto religioso es un derecho establecido de quienes pertenecen a minorías religiosas. Como tal, independientemente de la veracidad de las afirmaciones hechas en la publicación relacionadas con la destrucción de iglesias, la preocupación por tales acciones está dentro del ámbito de las preocupaciones legítimas de las minorías. Además, debe haber un grupo protegido dirigido. Esta publicación parece estar dirigida al Gobierno de Azerbaiyán y no al pueblo azerbaiyano. Determinar si se ha producido un discurso de odio en este caso depende del significado y la connotación adecuados del término «т.а.з.и.к.и» y si este término se dirige a un grupo en particular sobre la base de características protegidas”.
La Junta de Supervisión de Facebook ha aceptado las apelaciones del relator contra decisiones de eliminar contenido.
El relator especial de la ONU sobre cuestiones de las minorías, Fernand de Varennes, acogió con satisfacción la noticia reciente de que la Junta de Supervisión de Facebook ha aceptado sus primeros seis casos en los que apela contra decisiones de eliminar contenido.
La Junta de Supervisión, comparada por el CEO de Facebook, Mark Zuckerberg, con la propia Corte Suprema de la plataforma de redes sociales, es un organismo independiente que revisa las decisiones de moderación de Facebook.
«Las minorías son el objetivo más probable del discurso de odio en línea, y sabemos que el discurso de odio en línea contra las minorías a menudo conduce a daños graves en el mundo real e incluso puede conducir a la limpieza étnica y el genocidio», dijo de Varennes. “El discurso de odio en línea es uno de los desafíos más graves para la vida y la dignidad humana.
El artículo 27 del Pacto Internacional de Derechos Civiles y Políticos y la Declaración de 1992 de la Asamblea General de las Naciones Unidas sobre los derechos de las personas pertenecientes a minorías nacionales o étnicas, religiosas y lingüísticas.
En particular, la Junta de Supervisión debería considerar el artículo 27 del Pacto Internacional de Derechos Civiles y Políticos y la Declaración de 1992 de la Asamblea General de las Naciones Unidas sobre los derechos de las personas pertenecientes a minorías nacionales o étnicas, religiosas y lingüísticas, así como otra jurisprudencia sobre los derechos de las minorías.
De Varennes también dijo que los Estándares Comunitarios de Facebook deben alinearse con la comprensión de «discurso de odio» en la reciente Estrategia y Plan de Acción de la ONU sobre Discurso de Odio. También dijo que la omisión de Facebook de la protección de las minorías lingüísticas del discurso de odio es preocupante y contraria al derecho internacional de los derechos humanos.
Sin embargo, llamó a la Junta de Supervisión «una iniciativa innovadora y ambiciosa para regular la expresión en línea, en particular el discurso de odio, que es esencial para la protección efectiva de las minorías vulnerables en todo el mundo».
Elogió el hecho de que la Junta esté integrada por destacados expertos comprometidos con los derechos humanos y la libertad de expresión, y señaló que se han realizado esfuerzos para garantizar la imparcialidad al contar con un fideicomiso independiente que la administre.
“Discurso de odio, redes sociales y minorías”
Durante 2020, de Varennes ha hecho de “Discurso de odio, redes sociales y minorías” su eje temático. Convocó foros regionales en Europa y Asia, y presidió el Foro de la ONU sobre Asuntos de Minorías en noviembre de 2020. Los tres foros han hecho más de 100 recomendaciones para abordar el discurso de odio en línea contra las minorías.
“Espero seguir participando de manera constructiva con la Junta de Supervisión y espero poder ayudar en su desarrollo institucional y en cuestiones relacionadas con las minorías”, dijo de Varennes.
[1] Un usuario publicó fotos supuestamente históricas que mostraban iglesias en Bakú, Azerbaiyán, junto con un texto que decía que la ciudad de Bakú fue construida por armenios y preguntaba qué sucedió con las iglesias. El usuario dijo que los armenios estaban restaurando mezquitas en su tierra porque era parte de su historia. Luego agregó que los «т.а.з.и.к.и» estaban destruyendo iglesias y no tenían historia. El usuario dijo que estaba en contra de la «agresión azerbaiyana» y el «vandalismo». El contenido fue eliminado por violar las pautas de discurso de odio de Facebook. En su apelación al Consejo de Supervisión, el usuario indicó que su intención era demostrar la destrucción de monumentos culturales y religiosos.
Elena Rusca, Ginebra