ESTADOS UNIDOS - El director ejecutivo de Meta, Mark Zuckerberg, anunció este martes una serie de cambios importantes en las políticas y prácticas de moderación de la compañía, citando un panorama político y social cambiante y el deseo de abrazar la libertad de expresión.
Zuckerberg dijo que Meta pondrá fin a su programa de verificación de datos con socios confiables y lo reemplazará con un sistema impulsado por la comunidad similar a las Notas de la comunidad de X.
Los cambios afectarán a Facebook e Instagram, dos de las plataformas de redes sociales más grandes del mundo, cada una con miles de millones de usuarios, así como a Threads.
Recibe las noticias locales y los pronósticos del tiempo directo a tu email.> Inscríbete para recibir newsletters de Telemundo 62 aquí.
"Volveremos a nuestras raíces y nos centraremos en reducir los errores, simplificar nuestras políticas y restaurar la libre expresión en nuestras plataformas", dijo Zuckerberg en un video. "Más específicamente, esto es lo que vamos a hacer. Primero, nos desharemos de los verificadores de datos y los reemplazaremos con notas comunitarias similares a X, comenzando en los EEUU".
Zuckerberg señaló las elecciones como una influencia importante en la decisión de la compañía y criticó a "los gobiernos y los medios heredados" por supuestamente presionar "para censurar cada vez más".
"Las recientes elecciones también parecen un punto de inflexión cultural hacia la priorización, una vez más, del discurso", afirmó.
"Así que volveremos a nuestras raíces y nos centraremos en reducir los errores, simplificar nuestras políticas y restaurar la libre expresión en nuestras plataformas".
También dijo que los sistemas que la compañía había creado para moderar sus plataformas estaban cometiendo demasiados errores y agregó que la compañía continuaría moderando agresivamente el contenido relacionado con las drogas, el terrorismo y la explotación infantil.
"Construimos muchos sistemas complejos para moderar el contenido, pero el problema con los sistemas complejos es que cometen errores", dijo Zuckerberg. "Incluso si censuran accidentalmente sólo el 1% de las publicaciones, son millones de personas, y hemos llegado a un punto en el que hay demasiados errores y demasiada censura".
Más allá del fin del programa de verificación de facetas, Zuckerberg dijo que la compañía eliminará algunas políticas de contenido en torno a temas candentes como la inmigración y el género, y reenfocará los sistemas de moderación automatizados de la compañía en lo que llamó "violaciones de alta gravedad" y confiará en a los usuarios para informar otras violaciones.
Facebook también trasladará su equipo de confianza, seguridad y moderación de contenido de California a Texas.
"También vamos a ajustar nuestros filtros de contenido para requerir una confianza mucho mayor antes de eliminar contenido", dijo. "La realidad es que esto es una compensación. Significa que vamos a detectar menos cosas malas, pero también reduciremos la cantidad de publicaciones y cuentas de personas inocentes que eliminamos accidentalmente".
Los cambios se producen cuando Meta y las empresas de redes sociales en general han revertido en los últimos años el rumbo de la moderación de contenidos debido en parte a la politización de las decisiones y programas de moderación. Los republicanos han criticado durante mucho tiempo el sistema de verificación de datos de Meta y la verificación de datos en general por considerarlo injusto y favorecer a los demócratas, una afirmación que está en disputa.
El sistema Community Notes de X, que el CEO Elon Musk ha utilizado para reemplazar los esfuerzos anteriores de X en materia de desinformación, ha sido celebrado por los conservadores y ha permitido una combinación de verificación de datos, trolling y otros comportamientos impulsados por la comunidad.
El anuncio de Zuckerberg se produce mientras los directores ejecutivos y líderes empresariales de todos los sectores están ganándose el favor de la administración entrante del presidente electo Donald Trump. Meta, junto con otras empresas tecnológicas, donó 1 millón de dólares al fondo inaugural de Trump y, antes de las elecciones, Zuckerberg elogió a Trump en una entrevista con Bloomberg Television sin ofrecer un respaldo absoluto. Antes de la toma de posesión de Trump, Meta habría designado al republicano Joel Kaplan para liderar su equipo de políticas, y el lunes, la compañía anunció que Dana White de UFC, un antiguo partidario de Trump, se uniría a su junta directiva.
El sistema inicial de verificación de datos de Meta, que se lanzó en Facebook en 2016, funcionaba ejecutando información en sus plataformas a través de verificadores de datos externos certificados por la Red Internacional de Verificación de Fact y la Red Europea de Estándares de Verificación de Fact. El programa incluyó a más de 90 organizaciones que verificarían publicaciones en más de 60 idiomas. En Estados Unidos, han incluido grupos como PolitiFact y Factcheck.org.
En un comunicado de prensa, Meta escribió que pudo identificar publicaciones que podrían estar promoviendo información errónea en función de cómo respondían las personas a ciertos contenidos y qué tan rápido se propagarían las publicaciones. Los verificadores de datos independientes también trabajarían para identificar por sí mismos publicaciones con posible información errónea. Las publicaciones que supuestamente incluían información errónea se mostrarían más abajo en los feeds mientras esperaban su revisión.
Los verificadores de datos independientes luego trabajarían para verificar la exactitud del contenido que se había marcado y le otorgarían una “calificación de contenido”, etiquetando el contenido como “falso”, “alterado”, “parcialmente falso”, “contexto faltante”, “ Sátira” o “Verdadero” y agregando avisos a las publicaciones.
Esas medidas de verificación de datos se aplicaron a cualquier publicación en Facebook y se expandieron para incluir Instagram en 2019 y Threads el año pasado. Los verificadores de datos pudieron revisar contenido que incluía "anuncios, artículos, fotos, videos, carretes, publicaciones de audio y solo texto".
Según Meta, los verificadores de datos no tenían la capacidad de eliminar contenido, y el contenido se eliminaría si violaba los estándares comunitarios de la empresa, lo cual fue discernido por la propia Meta.