La empresa tecnológica Meta, responsable de Facebook, Instagram, WhatsApp y Threads, ha reconocido que eliminó publicaciones relacionadas con la comunidad LGBTQIA+ debido a lo que calificó como un “error técnico”. Esta acción generó indignación y preocupación, especialmente porque afectó a recursos esenciales de apoyo psicológico y prevención del suicidio.
En noviembre, organizaciones y usuarios de la comunidad LGBTQIA+ denunciaron que Meta eliminó publicaciones inofensivas sin previo aviso. Entre los afectados se encuentran medios australianos como QNews y OutInPerth, así como iniciativas como Black Pride Western Australia y Out South West, cuyas publicaciones promocionaban los servicios de QLife Australia, un programa de consejería para personas LGBTQIA+. Los afectados recibieron mensajes que alegaban haber infringido las normas de seguridad cibernética al supuestamente “compartir software malicioso”. Sin embargo, Meta posteriormente admitió que esto fue un error.
Aunque Meta ofreció disculpas por el incidente, no brindó detalles sobre las causas del problema ni presentó medidas para evitar que se repita. Graeme Watson, editor de OutInPerth, criticó la falta de comunicación por parte de la compañía. “Meta no nos ha dado más información que un aviso genérico diciendo que somos un problema y que nuestras publicaciones han sido eliminadas. Nos encantaría obtener respuestas porque muchas organizaciones están esperando explicaciones”, expresó Watson.
Este no es el primer caso en el que Meta es señalada por su manejo del contenido LGBTQIA+. En octubre, el consejo de supervisión de la empresa condenó la tardanza en eliminar un video explícito de dos hombres agredidos en Nigeria debido a su orientación sexual. A pesar de violar múltiples normas comunitarias, el contenido permaneció en la plataforma durante cinco meses y acumuló más de 3.6 millones de vistas, exponiendo a las víctimas a riesgos adicionales en un contexto hostil.
Meta utiliza inteligencia artificial y revisores humanos para moderar contenidos, aunque no detalla con qué frecuencia se involucra personal humano. Estos casos han puesto en entredicho la eficacia de sus herramientas y la responsabilidad de la empresa en la protección de comunidades vulnerables. La censura de recursos vitales para la comunidad LGBTQIA+ plantea preguntas urgentes sobre la capacidad de Meta para equilibrar tecnología con sensibilidad y justicia.