Moderación de contenidos en redes sociales: ¿cómo se mueve la desinformación?
Panelistas analizaron quién decide qué debe estar en internet, la manipulación con Inteligencia Artificial a campañas políticas y el uso de la tecnología en niños
Moderación de contenidos en redes sociales: ¿cómo se mueve la desinformación?
59:18
Compartir
El código iframe se ha copiado en el portapapeles
<iframe src="https://caracol.com.co/embed/audio/509/097RD130000001413669/" width="100%" height="360" frameborder="0" allowfullscreen></iframe>
Foto: Getty Images.
China, Canadá, Francia y Rusia han regulado las redes sociales en los últimos años. La regulación en estos países ha sido polémica debido a la limitación de la libertad de expresión. Sin embargo, este lunes la UNESCO presentó un plan de acción para regular las redes sociales. Dice la directora general de la organización, Audrey Azoulay, que esto debe hacerse protegiendo al mismo tiempo la libertad de expresión y los derechos humanos, con este fin, organizará la primera Conferencia Mundial de Reguladores a mediados de 2024.
De acuerdo con datos de la UNESCO, de 16 países en los que se celebrarán elecciones el próximo año, el 85% de los ciudadanos están preocupados por el impacto de la desinformación en línea, el 87% cree que esta desinformación ya ha tenido un impacto importante en la vida política de su país y el 88% desea que los gobiernos resuelvan rápidamente este problema regulando las redes sociales.
Lo que dicen los panelistas
Según Catalina Moreno Arocha, coordinadora de inclusión Social de la Fundación Karisma, no se debe perder de vista la promesa de redes de que todos pueden producir contenidos y expresarse libremente. “La moderación sí es una respuesta a cómo cumplir unas normas comunitarias que impone una plataforma. Cada red social tiene unas reglas propias que deberíamos conocer los usuarios para comportarnos en cada una de ellas”, dijo.
Para Emmanuel Vargas, codirector de El Veinte, más que centrarse en el contenido, se deberían establecer garantías claras para las decisiones que toman las plataformas de quitar o dejar contenidos. “Deberían existir garantías para que la gente pueda quejarse de las decisiones que toman las plataformas sobre la eliminación de contenidos que violen la libertad de expresión”, aseguró.
De acuerdo con Jonathan Bock, director de la Fundación para la Libertad de Prensa, Colombia ha tenido algunos intentos de regulación de redes sociales con buenas intenciones, pero suelen ser antitécnicas y terribles para la libertad de expresión. Señaló además que “a las plataformas les falta un debido proceso para eliminar contenidos, los ejercicios deben estar dirigidos a separar a los actores que intervienen y determinar la responsabilidad de cada quien”.
Añadió que “no es aconsejable entregarle a los Estados un poder que les permita limitar los entornos digitales, pues termina siendo un espacio para la censura”.
Pablo Medina, editor en el Centro Latinoamericano de Investigación Periodística (CLIP), planteó que es necesario un controlar las redes: “me gusta el concepto de gobernanza de las plataformas. Ahora las moderaciones de las redes son una caja negra, el control que hay sobre eso es casi inexistente”.
“No se debería poner la responsabilidad del control de redes sobre los usuarios, eso se ha intentado hacer en la mayoría de los proyectos de legislación que en Colombia. La ineficiencia de ese enfoque puede llevar a la censura o el control político”, agregó.