Regular el discurso de odio en línea para evitar daños no equivale a censurar, Volker Türk

Artículo de Opinión del Alto Comisionado de las Naciones Unidas para los Derechos Humanos.

24 de enero – El anuncio reciente de Meta de que va a revisar sus políticas sobre moderación de contenidos y verificación de los datos debería alarmar a todas aquellas personas a las que les preocupa la libertad de expresión.  Aunque estos pasos van dirigidos a proteger la libertad de expresión, resultarán afectando a muchas personas y comunidades.

Meta anunció que va a examinar su proceso de moderación automática de contenidos para limitar exclusivamente lo que denomina violaciones de extrema gravedad, como aquellas relacionadas con el terrorismo.  Este hecho sumado a políticas adoptadas por otras empresas, entre las que se incluyen Telegram y X (anteriormente conocida como Twitter), provocará probablemente que emerjan contenidos mucho más ofensivos y llenos de odio en algunas de las plataformas de redes sociales de mayor tamaño del mundo.  Algunos de estos contenidos irán dirigidos contra comunidades marginadas, entre las que se incluyen las personas LGBTIQ+, los refugiados, los migrantes, así como minorías de todo tipo.  Esto conducirá a que estas comunidades terminen abandonando estas plataformas, lo que limitará su visibilidad, les aislará aun más, y terminará reduciendo su libertad de expresión. 

En un sentido más amplio, todos estos cambios conllevarán daños que irán más allá de personas y grupos específicos.  La libertad de expresión requiere no solo que las personas puedan ser capaces de expresar sus puntos de vista, también debe suponer que las personas puedan buscar y recibir ideas e información.  Unas plataformas de redes sociales con una regulación insuficiente restringen esta libertad de varias maneras.  Al silenciar a algunas personas y comunidades, se limita el alcance de información disponible para todo el mundo. Y al permitir que proliferen las mentiras y la desinformación, enturbian el propio entorno donde se recibe información.  Difuminan la línea que separa los hechos de la ficción, fracturando a las sociedades y erosionando el espacio público, tan necesario para el debate abierto, el cual se basa en hechos y en una interpretación básica y común de la realidad.

El considerable incremento en el volumen de contenido sin moderar y de discurso de odio que se producirá a raíz de estos cambios será dañino en todo momento.  Y sobre todo podría tener consecuencias especialmente desastrosas en tiempos de conflictos, crisis, y campañas electorales, lo que afectará a cientos de millones de personas independientemente de si son usuarios o no de estas plataformas.  Acabo de volver de Siria, donde fui testigo de la toxicidad que destila la desinformación por venganza, la cual conduce a actos de violencia.

De hecho, en 2018, la propia plataforma Facebook reconoció que no había hecho lo suficiente para prevenir que su red fuera usada para fomentar la división e incitar a la violencia contra los Rohingya en Myanmar.  Facebook reconoció que puede y debe mejorar a este respecto.  Existen otros ejemplos parecidos.  Campañas electorales en todo el mundo han demostrado también que la ausencia de gobernanza basada en derechos en los entornos donde operan las redes sociales puede crispar la cohesión social y distorsionar la toma de decisiones democrática.  Durante los últimos años, en campañas electorales en Brasil, Kenya, Moldova y Rumanía, ha habido denuncias de difusión de desinformación y contenidos con mensajes de odio en plataformas de redes sociales.   En tales circunstancias, resulta fundamental que las empresas lleven a cabo procesos de diligencia debida en derechos humanos, y que los Estados aseguren que los espacios de debate en línea y fuera de línea sigan siendo libres y abiertos para todo el mundo.  

La moderación de contenidos no es fácil, y puede ser un asunto controvertido.  Mi Oficina ha hecho sonar la alarma en casos de una aplicación demasiado estricta, por ejemplo, cuando los Estados han hecho uso de leyes y políticas para silenciar voces discrepantes e impedir la llegada de material no deseado al dominio público.  Además, por citar solo un ejemplo, varias organizaciones de la sociedad civil documentaron recientemente la eliminación de material sobre derechos de la población palestina en plataformas de redes sociales.

No obstante, regular el discurso de odio en línea y moderar los contenidos para evitar daños reales no equivale a censurar.  Representa un elemento esencial para la integridad de la información en la era digital, además de ser responsabilidad de las plataformas de redes sociales.

La comunidad internacional cuenta ya con un marco que nos guíe a través de estas cuestiones: la normativa internacional de derechos humanos.  Este conjunto de normas y reglas acordadas tiene por objeto precisamente proteger todas las libertades, para todas las personas, a la vez que previene la incitación al odio y la violencia.  Es un conjunto universal, dinámico, y puede adaptarse a cuestiones emergentes.

Los derechos humanos no pueden ser tema de debate ni están abiertos a una nueva definición.  Nuestra libertad de expresión se ganó, mediante años de protestas contra la censura y la opresión.  Debemos permanecer alertas para salvaguardarla.  Esto supone abordar la incitación al odio y la violencia cuando esta vulnera la ley, así como proteger el derecho de todo el mundo al acceso a información, para que de ese modo las personas puedan buscar y recibir ideas provenientes de una amplia gama de fuentes distintas. Las lecciones aprendidas en años recientes son claras: las plataformas que permanezcan ciegas a la violencia y que ignoren las amenazas que se ciernen sobre periodistas y personas defensoras de derechos humanos inevitablemente socavarán  la libertad de expresión.   

Una gobernanza efectiva de los contenidos debe dar prioridad a la transparencia, la responsabilidad, y facilitar la capacidad de cuestionar las decisiones que afecten a la moderación de contenidos.  Ha de tener en cuenta el contexto, los matices que implican los idiomas locales, y quién está controlando los contenidos y su distribución.   En resumen, debe tener en consideración un entorno más amplio de la información. 

Una gobernanza efectiva de los contenidos en línea solamente podrá producirse a partir de debates abiertos, constantes y bien informados en toda la sociedad. 

Mi Oficina seguirá demandando y trabajando en pro de la rendición de cuentas en el espacio digital, de conformidad con la normativa de derechos humanos. Los derechos humanos deben servir como nuestra brújula para salvaguardar el discurso público, generar confianza y proteger la dignidad de todas las personas.

Comparte este artículo:

Comments are closed.