Viernes, 24 de enero, 2025
Maung Sawyeddollah, activista rohinyá de los derechos humanos y superviviente de atrocidades, ha presentado una demanda de denunciante de irregularidades ante la Comisión de Valores y Bolsa (SEC) de Estados Unidos en la que pide a ese organismo que investigue a Meta por presuntas violaciones de las leyes que regulan el mercado de valores derivadas de las informaciones erróneas de la empresa a sus accionistas en relación con su sustancial contribución a lo que el gobierno de Estados Unidos ha clasificado como genocidio perpetrado contra la población rohinyá en Myanmar en 2017.
Amnistía Internacional, la Iniciativa Pro-Justicia de la Sociedad Abierta y Victim Advocates International han apoyado conjuntamente la denuncia.
La denuncia presentada aporta información sobre el presunto papel desempeñado por Meta en las atrocidades perpetradas contra la población rohinyá y pone de relieve la información errónea facilitada a la SEC y a inversores públicos. Esperamos que la SEC considere la denuncia presentada e investigue a Meta por cualquier posible violación de las leyes federales sobre valores.
Mandi Mudarikwa, directora de Litigio Estratégico de Amnistía Internacional.
La documentación presentada a la SEC, un organismo independiente de Estados Unidos responsable de garantizar que el accionariado recibe un trato justo y honesto, detalla cómo Meta fue advertida reiteradamente por activistas e investigadores del riesgo de que Facebook se estuviera utilizando para fomentar e incitar a la violencia contra la población rohinyá en el periodo previo a 2017. La documentación presentada afirma que, pese a ello, Meta siguió omitiendo información clave sobre este riesgo de violencia en el mundo real en declaraciones efectuadas a inversores públicos.
Un informe de 2022 de Amnistía Internacional reveló que Meta contribuyó a las atrocidades cometidas en Myanmar contra la población rohinyá a través del uso en Facebook de algoritmos que amplifican contenidos nocivos y de la moderación inadecuada de este tipo de contenidos, lo que infringía sus propias Normas comunitarias, las reglas que definen los contenidos permisibles en la plataforma.
El informe reveló que el modelo empresarial de Meta se basaba en la elaboración de perfiles invasiva y la publicidad selectiva, lo que promovía la difusión de contenidos nocivos, incluida la incitación a la violencia. Los sistemas algorítmicos de Meta están diseñados para maximizar la participación de las personas usuarias con el fin de aumentar sus ingresos por publicidad. Como consecuencia, en muchos casos estos sistemas surten el efecto de priorizar los contenidos más incendiarios, divisivos y dañinos.
“Vi muchas cosas horribles en Facebook, y pensé que las personas que las publicaban eran malas. Entonces no me di cuenta de que la culpa era de Facebook. Un día vi una publicación que me hizo sentirme muy mal. Intenté informar de ella a Facebook. Dije que era discurso de odio pero recibí una respuesta que decía que ‘no va contra las Normas comunitarias’, dijo Maung Sawyeddollah, recordando su frustración antes sus vanos intentos de alertar a Meta sobre la proliferación de contenidos nocivos en Facebook.
Aunque era evidente que esos contenidos violaban las Normas comunitarias de Facebook, que se han modificado recientemente en el marco de un nuevo cambio de política, Meta no las hizo cumplir en grado suficiente en Myanmar ni eliminó de forma adecuada contenidos contra la población rohinyá en los meses y años previos a las atrocidades de 2017 en el norte del estado de Rajine. El número insuficiente de personal moderador de contenidos dotado de las necesarias competencias lingüísticas, las consecuencia de decisiones de la empresa en materia presupuestaria y de personal también contribuyeron a las eficiencias de Meta. Esto refleja la falta de inversión adecuada, en general, de la empresa en moderación de contenidos en muchos países de Asia, África y Latinoamérica, a pesar de sus declaraciones públicas.
“En Myanmar, donde Facebook era la principal plataforma de redes sociales y fuente de noticias, la temeraria utilización de algoritmos nocivos de Meta, con salvaguardias insignificantes, promovió campañas generalizadas en Internet contra la población rohinyá que contribuyeron a la violencia en el mundo físico”, ha declarado Eva Buzo, directora ejecutiva de Victim Advocates International.
La denuncia presentada ante la SEC subraya que Meta hizo caso omiso de las múltiples advertencias de la sociedad civil desde 2013 hasta 2017 en relación con el posible papel de Facebook en cuando a avivar la violencia. En ese periodo, la sociedad civil advirtió en repetidas ocasiones a personal empleado de Meta de que la plataforma estaba contribuyendo a un ‘genocidio’ inminente, a semejanza del papel que desempeñaron las emisoras de radio en el genocidio de Ruanda.
Aunque algunos inversores habían pedido a Meta que considerase las repercusiones en materia de derechos humanos de su negocio, Meta no fue plenamente transparente con ellos, a pesar de que en esa época Meta había sido advertida en múltiples ocasiones de la escalada de la situación en Myanmar y del papel que Facebook desempeñaba en ella.
James Goldston, director ejecutivo de la Iniciativa Pro-Justicia de la Sociedad Abierta.
A pesar de estas advertencias, entre 2015 y 2017 Meta informó a sus inversores de que los algoritmos de Facebook no daban lugar a la polarización, no obstante haber sido advertida del papel desempeñado por Facebook en la proliferación de contenidos contra la población rohinyá en Myanmar. Al mismo tiempo, Meta no reveló plenamente en sus informes económicos al accionariado los riesgos que entrañaban las operaciones de la empresa en Myanmar. Al contrario, en 2015 y 2016 Meta se opuso a las propuestas de accionistas de llevar a cabo una evaluación del impacto en los derechos humanos y establecer un comité interno para supervisar las políticas y prácticas de la empresa en relación con asuntos públicos internacionales, incluidos los derechos humanos.
En 2018, la presión pública obligó a Meta a reconocer de forma parcial y tardía el papel de Facebook en las atrocidades contra la población rohinyá. Sin embargo, entre noviembre de 2020 y noviembre de 2022, Meta eludió de nuevo tomar medidas adecuadas para detener la difusión de contenidos que hacen apología del odio y la violencia, en esta ocasión contra la población tigriana en Etiopía, lo que en última instancia contribuyó a la grave violencia en el mundo físico. Todo ello a pesar de las declaraciones públicas de la empresa en sentido contrario. Es evidente que Meta no ha aprendido la lección ni ha tomado medidas dignas de mención para reducir el papel que desempeña en la intensificación de la violencia étnica en el mundo.
Los cambios introducidos recientemente en la política de Meta en Estados Unidos para suprimir la verificación independiente, que podrían extenderse al ámbito internacional, entrañan un riesgo aún mayor de acentuar las contribuciones de Meta a los efectos perjudiciales para los derechos humanos y a la violencia en el mundo físico, tan flagrantes como los crímenes contra la población rohinyá.