El CEO de Facebook, Mark Zuckerberg, dio pasos para reformar las reglas de internet, señalando que las empresas deberían tener inmunidad de responsabilidad solo si siguen las mejores prácticas para eliminar material dañino de sus plataformas.
En un testimonio preparado para una audiencia ante los subcomités de Energía y Comercio de la Cámara de Representantes, Zuckerberg dijo que su compañía apoya «una regulación actualizada de internet para establecer las reglas del camino».
Zuckerberg también dijo que espera que el Congreso pueda considerar «una reforma reflexiva» de la Sección 230 de la Ley de Decencia en las Comunicaciones, una ley de internet que protege a empresas como Facebook de ser responsables por el contenido publicado por los usuarios.
La Sección 230 también les da el poder de elegir qué contenido moderar, como el discurso de odio o información falsa.
«Creemos que el Congreso debería considerar condicionar la protección de responsabilidad de intermediarios de las plataformas para ciertos tipos de contenido ilegal a la capacidad de las empresas para cumplir con las mejores prácticas para combatir la difusión de este contenido», dijo Zuckerbrg.
Zuckerberg aclaró que a las plataformas no se les debería «conceder inmunidad»; sin embargo, sí se les debería «exigir que demuestren que tienen sistemas para identificar contenido ilegal y eliminarlo».
A su vez, dijo que estas tampoco deberían considerarse responsables por el contenido que evade los sistemas de moderación. «Las plataformas no deben ser consideradas responsables si un contenido en particular elude su detección. Eso no sería práctico para plataformas con miles de millones de publicaciones al día», agregó.
Los directores ejecutivos de Facebook, Twitter y Google testificarán frente al Congreso de EU este jueves. Todas estas compañías son criticadas por los demócratas debido a la desinformación sobre la pandemia de coronavirus y las elecciones presidenciales de 2016 y 2020 que circulan en sus plataformas.
La lucha de Facebook contra el contenido nocivo no ha sido fluida. A finales del año pasado, la red social publicó los primeros datos sobre los discursos de odio en sus plataformas. En ese entonces dijo que de cada 100,000 vistas de contenido en el tercer trimestre, entre 10 y 11 publicaciones incluían alusiones violentas.
Sin embargo, Facebook mostró mejoras en tomar medidas contra el contenido falso y engañoso; por ejemplo, eliminando páginas y grupos relacionados con la teoría conspirativa QAnon.
La empresa de redes sociales tiene más 35,000 personas que trabajan en seguridad y detección de noticias falsas. Esta semana, Facebook también dijo que entre octubre y diciembre de 2020 eliminó 1,300 millones de cuentas falsas para abordar el desafío de la desinformación en internet. Sin embargo, admitió que no es una tarea fácil combatir las fake news.
Con información de Reuters.
AHORA LEE: Facebook trabaja en una pulsera que funcionará con sus gafas de realidad aumentada
TAMBIÉN LEE: Facebook permitirá a creadores de contenido obtener ingresos publicitarios mediante videos en formato corto