Meta ha anunciado que llevará a cabo modificaciones en el sistema de verificación cruzada de Facebook con el objetivo de que sea más equitativo y transparente. Para ello, seguirá las directrices realizadas por el Consejo asesor de contenido, dado que han analizado dicho sistema tras el reportaje en «The Wall Street Journal», que tuvo lugar la publicación en 2021 sobre los criterios de moderación distinto para los contenidos de los usuarios de perfil alto, como políticos o famosos.
Este sistema se conoce como verificación cruzada, y suponía que con él se habría permitido publicar contenidos habitualmente no permitidos para otros usuarios, algo que Meta negó en todo momento e incluso recordó que el programa se presentó en 2018 como una capa adicional de revisión para las Páginas y los perfiles de usuario con la que se buscaba confirmar que se cumplían las reglas de uso de la red social.
Tras el análisis, el Consejo asesor publicó una opinión consultiva en diciembre de 2022, en el que concluía que se protegía más a unos usuarios que a otros y que sus contenidos permanecían más tiempos publicados pese a tener que ser retirados por incumplir las normas. También destacó que el sistema de verificación cruzada «no abarcaba todos los aspectos esenciales» en sus métricas y que faltaba transparencia en el funcionamiento de dicho programa de comprobación adicional.
Las conclusiones incluyen 32 recomendaciones, de las que Meta ha confirmado ahora que implementará once, y otras 15 de forma parcial, y que está revisando la viabilidad de otra recomendación, como recoge en una actualización en su blog oficial.
Meta se ha comprometido a ofrecer «informes regulares» para que el sistema sea más transparente y a ajustar los criterios que utilizan para la inclusión en la lista «para dar mejor cuenta de los intereses y la equidad de los derechos humanos». También van a modificar el sistema para evitar que se acumulen las solicitudes de revisión y reducir el tiempo que lleva analizar cada caso.