Plataformas frente a Gobiernos: el debate sobre la moderación de contenidos en internet

La mayoría de ciudadanos en ocho países consideran que deben ser las plataformas digitales —y no los gobiernos— quienes establezcan sus propias normas de moderación de contenidos, aunque al mismo tiempo reclaman que asuman más responsabilidad frente a la desinformación que circula en sus servicios, según una investigación del Reuters Institute en colaboración con la Knight Foundation.

La conclusión principal de una investigación internacional es clara: la mayoría de los ciudadanos considera que las plataformas digitales deben ser responsables de fijar sus propias políticas de moderación de contenidos, en lugar de delegar esa tarea en los gobiernos.

Pero ese respaldo a la autorregulación no implica una confianza absoluta: los encuestados reclaman que las tecnológicas asuman también la responsabilidad frente a la desinformación que circula en sus servicios. 

El estudio realizado por Reuters Institute y la Knight Foundation en 2024, incluyó encuestas representativas en ocho países —Estados Unidos, Reino Unido, Alemania, Brasil, España, Argentina, Japón y Corea del Sur— y analizó dos cuestiones clave: quién debe decidir qué tipo de contenidos se permiten en las plataformas y quién debe rendir cuentas por la difusión de información falsa en sus espacios digitales.

El rechazo a la intervención gubernamental

Los datos muestran que entre un 51% y un 70% de los encuestados en cada país se inclina por que las propias plataformas —redes sociales como Facebook o X, buscadores como Google, servicios de mensajería como WhatsApp o WeChat y plataformas de vídeo como YouTube— marquen sus propias reglas de contenido. El apoyo a la intervención estatal se mantiene en minoría, aunque con matices según el país.

En Reino Unido, por ejemplo, existe un porcentaje mayor de ciudadanos que respaldan un papel más activo del Gobierno, posiblemente relacionado con el debate abierto sobre los riesgos de las redes sociales en adolescentes y con iniciativas legislativas recientes. Alemania también ha sido pionera en este terreno, con la aprobación en 2017 de la NetzDG, que obliga a las plataformas a retirar contenido ilegal en un plazo determinado. No obstante, incluso en estos países el apoyo a una supervisión estatal amplia sigue sin ser mayoritario.

En el caso de España, la opinión pública se alinea con la tendencia mayoritaria internacional: la mayoría de los encuestados considera que las plataformas deben fijar sus propias reglas de moderación, mientras que el respaldo a un papel más activo del Gobierno se mantiene en una posición claramente minoritaria. La percepción sobre la necesidad de intervención estatal es incluso menor que en países como los citados Reino Unido o Alemania, lo que sugiere que en el contexto español existe una mayor predisposición a confiar en la autorregulación de las tecnológicas antes que en una supervisión directa de las autoridades.

El caso de la inteligencia artificial generativa introduce una excepción. Mientras que en redes sociales, buscadores o aplicaciones de mensajería la preferencia por la autorregulación es nítida, en el ámbito de herramientas como ChatGPT, Google Gemini o Grok crece la percepción de que los gobiernos deberían intervenir. En Reino Unido, la mitad de los encuestados se decanta por un control gubernamental, reflejando un escepticismo hacia el impacto social de estas tecnologías.

Responsabilidad frente a la desinformación

Cuando la pregunta se formula en términos de información falsa, la opinión pública se vuelve más exigente. Entre un 56% y un 76% de los encuestados en los ocho países cree que las plataformas deben ser responsables de frenar los bulos que se difunden en sus espacios. La proporción de quienes opinan que no deberían serlo oscila solo entre un 14% y un 33%, lo que confirma un consenso transversal.

El debate se inserta en un contexto marcado por episodios recientes. En el Reino Unido, en 2024, un rumor infundado sobre la identidad del asesino de tres jóvenes provocó disturbios de carácter xenófobo. En Estados Unidos y Brasil, acusaciones falsas de fraude electoral alentaron el asalto al Capitolio en 2021 y la invasión del Congreso brasileño en 2023. Estos ejemplos refuerzan la percepción de que las plataformas no pueden permanecer al margen.

Las diferencias demográficas apenas son significativas. Las personas de mayor edad son algo más propensas a exigir responsabilidades, mientras que en el eje ideológico la izquierda muestra mayor inclinación a favor de la intervención. No obstante, incluso entre votantes de centro y derecha, las mayorías se inclinan por exigir a las plataformas que asuman su parte de responsabilidad.

Un dato llamativo es que los propios usuarios de YouTube, más que los no usuarios, se muestran partidarios de que la compañía tenga que responder por la difusión de información falsa. En general, el patrón se repite: quienes utilizan habitualmente las plataformas no se muestran menos críticos, sino más dispuestos a pedirles cuentas.

Consenso global y diferencias mínimas

El hallazgo más relevante de la investigación es que las diferencias entre países y entre grupos sociales son menores de lo esperado. Aunque los contextos políticos, legislativos y mediáticos son diversos, las posiciones de la ciudadanía convergen en torno a un principio: que sean las plataformas quienes establezcan las normas, pero que al mismo tiempo se les exija un compromiso mucho mayor frente a la desinformación.

Esa dualidad refleja un equilibrio complejo. Por un lado, los usuarios parecen desconfiar de la intervención de los gobiernos en un terreno que consideran ligado a la libertad de expresión. Por otro, reconocen los riesgos que genera un ecosistema digital en el que circula información de dudosa calidad y reclaman medidas más firmes por parte de las empresas.

La excepción parcial de la inteligencia artificial generativa pone de relieve que, cuando se trata de tecnologías emergentes, el público es más propenso a admitir una regulación externa. La incertidumbre sobre el futuro impacto de herramientas capaces de producir imágenes, vídeos o textos falsos a gran escala alimenta ese deseo de supervisión.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *