Debate público y redes sociales: ¿quién se responsabiliza por el aumento de fake news?

Tiempo de lectura:6 minutos

La regulación a las redes sociales varía según cada país. No obstante, cabe preguntarnos: ¿el análisis debe ser local o regional?, ¿sobre qué se regula?, ¿el Estado debe delegar en las plataformas la definición de lo que es un debate público, abierto y plural?

De acuerdo a Ian Bremmer, estas empresas ejercen una forma de soberanía sobre un ámbito que se extiende más allá del alcance de los reguladores: el espacio digital. Además de las normativas locales, resulta interesante pensar cómo se analiza esta situación desde los organismos internacionales y cuáles son las miradas de los expertos respecto a una posible regulación.

No se puede delegar todo en las redes

A la hora de debatir la regulación de las plataformas, el punto central es el aumento que han tenido los discursos de odio y las fake news. Las redes sociales se pensaron como un modelo de divulgación de información más democrático, en el cual el debate público se ejerce por todos y todas. Sin embargo, esta idea se ve empañada por las arbitrarias normas de convivencia y seguridad que las propias plataformas crean. 

Las plataformas digitales poseen características propias que dificultan la aplicación de las normativas de los medios tradicionales: 1) no tienen un número limitado de medios, hora o espacio para difundir información; 2) el contenido de noticias tradicional se produce con supervisión editorial, y 3) los usuarios de las redes no tienen el control de lo que ven, debido a los algoritmos. 

Roberto Darío Vázquez Romero, experto en redes sociales, señala que las vías de regulación no son iguales en todos los países. Es por ello que propone una co-regulación: por un lado, que las plataformas sean capaces de actuar en casos de fake news o información malintencionada; y por el otro, que sea el Estado el que garantice que cualquier expresión ideológica esté fuera de la censura. De esta manera, se busca evitar que el Estado censure todo aquello que no le “conviene o disguste”. 

Por su parte, Inés Dussel, licenciada en Ciencias de la Educación, analiza el cambio digital desde la educación. Considera que para la educación este tema tiene que ser agenda, a raíz de que hoy en día las plataformas son la fuente de información principal en la enseñanza. Propone pensar formas de regulación que no pasen por las empresas, donde no exista una voz pública, ya que los intereses en juego son distintos. 

Dussel invita a reflexionar sobre cómo se educan las nuevas generaciones. Incluso señala que si se delega todo en las plataformas para el año 2050, el conocimiento se caracterizará por ser “datificable, buscable, archivable”, con poca reflexión y mirada crítica. 

En línea con las observaciones de ambos autores, la Unión Europea comenzó a trabajar para brindar un marco normativo. En 2016 se creó un Código de Conducta en materia de incitación ilegal al odio en internet. Este acuerdo fue suscripto con Facebook (ahora Meta), Twitter, YouTube y Microsoft. Fundamentalmente busca asegurar que las legislaciones nacionales relativas a la lucha contra el racismo y la xenofobia sean aplicadas en el plano digital.

Dos años después, se emitió la Directiva 2018/1808, la cual incluyó a las plataformas de intercambio de videos a la reglamentación de servicios de comunicación audiovisual que tengan como fin informar, entretener o educar. En consonancia con lo expresado por Dussel, la UE advirtió que los jóvenes acceden cada vez más a estas plataformas con gran poder de influencia. Si bien se entiende que una parte significativa de los contenidos ofrecidos no están bajo una responsabilidad editorial, se debe exigir a los proveedores que tomen las medidas adecuadas para proteger a los menores de contenidos que inciten al odio o la violencia y afecten a su desarrollo físico, mental o moral. 

Al mismo tiempo, la CIDH emitió un informe que concluye que los niños y niñas ya no sólo buscan contenido, sino que también son quienes lo generan. Por ello, los Estados deben contar con un marco normativo acorde, teniendo en cuenta que es el sector privado el que se ha convertido en uno de los impulsores de la mayor expansión del acceso a la información de la historia. 

¿Qué están haciendo las plataformas?

Una crítica hacía las normativas mencionadas radica en que la mayoría son declaraciones que invitan a los dueños de las plataformas a realizar cambios. De esta manera, se delega el peso y la decisión de establecer qué es, según cada visión subjetiva, lo que se considera aceptado o no en el debate público. 

Luego del asalto al Capitolio de Estados Unidos, las plataformas digitales quedaron en evidencia como el medio por el cual los discursos de odio se exacerban. Esto no implica que previo a esta fecha no estuvieran bajo la lupa de investigación, sino que la mirada pública se centró aún más en ellas. 

YouTube eliminó videos de la cuenta de Trump que incitaban a la violencia. Twitter  suspendió la cuenta del mandatario y la de 70.000 personas ligadas a la teoría conspirativa QAnon. ¿Y Facebook? Bueno… tardó un poco más bajo el fundamento de que su política es permitir la mayor libertad de expresión posible

Sobre esto último, en septiembre 2021, The Wall Street Journal publicó “The Facebook Files”. En esta serie de reportajes a quienes trabajaron en la plataforma se denuncia que Facebook sabe detalladamente las fallas que causan daños a sus usuarios. Los avisos por parte de los empleados son varios: incitaciones al odio, racismo, tráfico de personas, venta de órganos y acciones de gobiernos para disminuir la disidencia política, por nombrar algunos.

Se generó el problema de la falta de escucha hacia quienes deseaban realizar un cambio desde adentro. Una de las respuestas que recibían a la hora de bajar contenido que infringía la normativa es la política de “cultura abierta” por la cual Facebook permite compartir diferentes opiniones y no desea ser reconocida como una plataforma que “censure demasiado”. En contraposición, y tratando de buscar una salida, los empleados consideran que cada persona es la que debe decidir qué ver en sus redes.

Es en esta línea que el coordinador de Políticas Públicas para Latinoamérica de “Acces Now” propone darle más poder a los usuarios para curar el contenido, es decir, que el algoritmo pueda ser decidido por cada uno sobre lo que quiere y lo que no quiere ver, inclusive si se trata de creer en teorías conspirativas. Como contrapartida, menciona que los aspectos educativos y culturales requieren un rol activo del Estado, debido a que dejar la solución en Internet sería un error. 

Con relación a esto, las empresas han invertido en Inteligencia Artificial (IA) a fin de detectar infracciones a su normativa. No obstante, hay quienes denuncian que no es la mejor solución si no se toma en cuenta los datos que brinda. Para la toma del Capitolio, Facebook no dio de baja una publicación de Trump que los propios controles internos y automatizados predijeron, con un 90% de certeza, que el mensaje infringía las reglas de la empresa contra la incitación a la violencia. 

Sobre este tema, Pallero menciona que aún no se generó el avance tecnológico necesario para que una máquina pueda interpretar el contexto. Por consiguiente, habría cosas que se le podrían escapar o censuraría, porque empezaría a prohibir cosas simplemente porque aparece un término o una palabra que considera “errónea”.

Por último, los Estados no pueden crear regulaciones acordes al avance tecnológico si no es con la ayuda de quienes ya han trabajado dentro de una plataforma. Según Frances Haugen, ex empleada de Facebook: “En este momento las únicas personas en el mundo que están capacitadas para comprender lo que está sucediendo dentro de Facebook son las personas que crecieron dentro de ella o Pinterest u otra empresa de redes sociales”. 

Desde su punto de vista,  Haugen propone aumentar los límites de edad para el uso de redes a 18 años debido a los altos índices de adicción y hacer responsable a las empresas por el uso que les dan a los algoritmos. 

Un futuro incierto

Si bien no podemos atribuirles a las redes lo que cada persona publica en su perfil, sí se puede dilucidar que en los últimos años las denuncias sobre la ligereza de permitir discursos de odio no han parado de aumentar. Lejos de considerar a las plataformas como las únicas culpables en la polarización del debate, me permito preguntar: ¿cuáles eran los intereses al momento de crearlas y en qué han mutado al día de hoy? 

Jimena Valdez menciona que Facebook perdió la batalla cultural debido a que no es la única red que difunden fake news, aunque es la más cuestionada. Si bien se mencionó que YouTube y Twitter dieron de baja las cuentas de Trump, estas lo hicieron sólo cuando se sabía que ya había perdido las elecciones, pero ¿qué pasó con todos los discursos y los videos subidos mintiendo sobre la inmigración o sus opositores? 

Es posible mejorar la convivencia en las redes, sobre todo si tomamos en cuenta las declaraciones de los empleados que admiten que existen otras formas de relacionarse. Lo que resta es la voluntad por parte de sus directores/as para mejorar las cosas desde adentro y un Estado que no delegue las reglas del debate público únicamente en CEO’S.

Portada: Krista Kennell/ Stone/ Catwalker/ Shutterstock |The Atlantic

Camila Farías

Camila Farías tiene 27 años y es Abogada por la Facultad de Derecho de la Universidad de Buenos Aires (UBA). Posee una Diplomatura en Migrantes y Protección de Refugiados de la UBA. Actualmente se encuentra maestrando en Diversidad Cultural por la Universidad Tres de Febrero y realizando la Diplomatura de Estudios Avanzados en Gestión Parlamentaria y Políticas Públicas del Instituto de Capacitación Parlamentaria de la Cámara de Diputados de la Argentina y la Universidad Nacional de San Martín.

Suscribir
Notificar de
guest
0 Comments
Ver todos los comentarios