A principios de julio, los ejecutivos de Facebook, incluido el director ejecutivo Mark Zuckerberg, la directora de operaciones Sheryl Sandberg y el director de producto Chris Cox, se prepararon para una reunión con líderes de derechos civiles que estaban hartos de lo que llamaron el fracaso de la empresa para frenar el discurso de odio y las fake news en su plataforma.
Los grupos habían organizado un boicot publicitario sin precedentes sobre el tema. Y no se andaban con rodeos en sus críticas al gigante de las redes sociales.
«Nos hemos sentido continuamente decepcionados y atónitos por el compromiso de Mark Zuckerberg de proteger la supremacía blanca, la supresión de votantes y las mentiras directas en Facebook», dijo el presidente de Color of Change, Rashad Robinson, en un comunicado de prensa en ese momento.
El llamado a boicotear Facebook se produjo pocas semanas después de una serie de publicaciones controvertidas del presidente Donald Trump en las que sugirió violencia contra los manifestantes antirracistas y difundió afirmaciones falsas sobre la votación por correo. Facebook dijo que ninguna de las publicaciones violaba sus políticas.
A pesar del retroceso, la compañía insistió en que sus políticas estaban bien, solo necesitaba fortalecerlas.
«Tenemos políticas claras contra el odio, y nos esforzamos constantemente por mejorar y hacer cumplir más rápido», escribió Sandberg en una publicación de Facebook antes de la reunión con grupos de derechos civiles. «Hemos logrado un progreso real a lo largo de los años, pero este trabajo nunca se termina y sabemos la gran responsabilidad que tiene Facebook para mejorar en la búsqueda y eliminación de contenido odioso».
Esta fue la primera vez que la compañía se comprometió a «mejorar»; sin embargo, los grupos de derechos civiles surgieron de la reunión sin estar convencidos de que esta vez sería diferente, diciendo que Facebook «aún no está listo para abordar el odio virulento en su plataforma».
Un día después, Facebook lanzó su primera auditoría de derechos civiles, que criticó a la compañía por su negativa a moderar el discurso político. Sandberg ofreció un compromiso tibio para implementar algunos, pero no todos, los cambios propuestos por los auditores.
Facebook dio a los críticos algunos breves destellos de esperanza en las siguientes semanas. Anunció ajustes en la forma en que etiqueta las publicaciones de políticos que violan sus políticas de incitación al odio, agregó una etiqueta a una publicación de Trump que hace afirmaciones falsas sobre la votación por correo, eliminó su publicación que contiene información errónea sobre el Covid-19 y cerró cuentas asociadas con grupos de odio y teóricos de la conspiración.
Pero la noticia de esta semana hizo añicos cualquier ilusión de que Facebook había logrado un progreso significativo en su supuesto objetivo de limpiar la plataforma.
Facebook no respondió a una solicitud de comentarios sobre esta nota.
El Wall Street Journal informó el viernes que Facebook se negó a aplicar sus políticas de incitación al odio contra T. Raja Singh, un político del partido gobernante de la India, a pesar de sus llamados a disparar contra inmigrantes musulmanes y sus amenazas de destruir mezquitas.
Los empleados de Facebook habían llegado a la conclusión de que, además de violar las políticas de la compañía, la retórica de Singh en el mundo real era lo suficientemente peligrosa como para merecer sacarlo de la plataforma por completo, según el informe; sin embargo, el principal ejecutivo de políticas públicas de la compañía en India las anuló, argumentando que las repercusiones políticas podrían dañar los intereses comerciales de Facebook en el país (su mercado más grande a nivel mundial).
Facebook ha enfrentado críticas similares en los EU, donde los empleados se han quejado de que Facebook permite que Trump y otros conservadores infrinjan constantemente sus reglas y no toman medidas porque temen una reacción política.
El lunes, NBC News pudo ver un adelanto de una investigación interna de Facebook. Esta muestra que miles de grupos y páginas afiliadas a la teoría de la conspiración de QAnon se han extendido por su plataforma y atraído a millones de seguidores.
NBC News informó que Facebook ha sido crucial para el crecimiento de QAnon debido a su énfasis en los grupos, y cuyo algoritmo recomienda a los usuarios en función de sus intereses anteriores. Los ejecutivos de Facebook incluso sabían que el algoritmo estaba empujando a la gente a posiciones más radicales, pero cerraron los esfuerzos para solucionarlo, según The Wall Street Journal.
Solo unos meses antes, Facebook se jactaba de haber eliminado 11 cuentas de QAnon por usar perfiles falsos para ampliar su alcance. Pero la investigación reportada por NBC News revela que Facebook solo ha destruido una pequeña fracción de las conspiraciones que corren desenfrenadas en su plataforma.
Un análisis del miércoles del grupo sin fines de lucro Tech Transparency Project dijo que los «boogaloos», extremistas violentos antigubernamentales que abogan por una segunda Guerra Civil y a menudo defienden puntos de vista de supremacistas blancos, escapaban de los esfuerzos de Facebook para expulsarlos de la plataforma.
En junio, Facebook dijo que prohibió cientos de cuentas, grupos y páginas afiliados al boogaloo, y lo designó como una «organización peligrosa». Pero la revisión de TTP encontró que la «respuesta lenta e ineficaz de Facebook ha permitido que el movimiento persista en su plataforma».
Más de 100 grupos nuevos aparecieron desde el anuncio de Facebook. Otros simplemente cambiaron su nombre para evitar la represión, según TTP, en una señal de que las tácticas de los boogaloos están evolucionando más rápido de lo que Facebook puede acabar con los delincuentes.
Los críticos han acusado durante mucho tiempo al programa de verificación de datos de terceros de Facebook de carecer de fuerza o recursos suficientes para luchar eficazmente contra la información errónea.
Un ejemplo destacado ha sido su política que exime a los artículos de «opinión» de las verificaciones de hechos. Esta fue objeto de escrutinio el otoño pasado cuando Facebook anuló uno de sus verificadores de hechos. El verificador había determinado que una publicación que expresaba dudas sobre el cambio climático había seleccionado datos cuidadosamente y los había etiquetado como «falso»; sin embargo, después de que algunos republicanos supuestamente prejuzgaran, Facebook eliminó la etiqueta, diciendo que en realidad era un artículo de opinión.
Los legisladores demócratas pidieron a la compañía que cierre la laguna jurídica, pero el jueves, The Verge informó que Facebook se niega a ceder. El portavoz Andy Stone le dijo a The New York Times que la compañía tiene prioridades más importantes, como la desinformación sobre el coronavirus.
Desafortunadamente, ni siquiera está claro que Facebook pueda abordar eso. Apenas dos semanas después de los comentarios de Stone al Times, Facebook eliminó un video de teoría de la conspiración sobre la pandemia; sin embargo, más de 14 millones de personas ya lo habían visto.
AHORA LEE: De qué trata la campaña ‘Stop Hate for Profit’ y qué empresas se han sumado — esto es lo que sabemos
TAMBIÉN LEE: Facebook niega ser un monopolio, pero en 2012 decía tener 95% “de todas las redes sociales” en Estados Unidos