De la verificación de datos a las notas comunitarias: Cambios estructurales en la lucha contra la desinformación en redes sociales
CFT-Monográficos
Comunicación y sociedad
Recientemente, TikTok, con sede en China, y otras plataformas de redes sociales han enfrentado críticas y acciones legales por parte de varios países occidentales debido a su inacción a la hora de mitigar los riesgos de interferencia extranjera, permitiendo la propagación descontrolada de contenidos falsos vinculados a intereses geopolíticos. Otras grandes plataformas estadounidenses, como X y Meta, han experimentado un cambio de paradigma en sus estrategias de moderación de contenido, especialmente desde el inicio del segundo mandato de Donald Trump en enero de 2025. En particular, algunas de estas plataformas han anunciado su alejamiento de los modelos de verificación de hechos por terceros en favor de procesos de verificación impulsados por los propios usuarios, como Community Notes o notas comunitarias. Estos cambios tienen implicaciones significativas en la forma en que se identifica, aborda y mitiga la desinformación a nivel global, así como en panorama general de la verificación de datos y en el ecosistema más amplio de gobernanza del contenido y confianza de los usuarios.
Dado este panorama en rápida evolución, es fundamental analizar las características, implicaciones y mecanismos a través de los cuales las principales plataformas de redes sociales responden a la desinformación, considerando también los posibles intereses ocultos que influyen en sus decisiones. Además, es esencial evaluar las respuestas regulatorias, legales y periodísticas que están surgiendo en diferentes países como consecuencia de estas políticas cambiantes, así como la efectividad real de estas medidas — especialmente en un momento en el que las tecnologías emergentes de IA se están incorporando tanto a las campañas de desinformación como a los sistemas de moderación y gobernanza de contenidos.
El número especial “De la verificación de datos a las notas comunitarias: Cambios estructurales en la lucha contra la desinformación en redes sociales” busca explorar, desde una perspectiva científica, los modelos, patrones y resultados de diversos enfoques de moderación de contenido implementados por las plataformas digitales y, en general, abordar los cambios estructurales en la lucha contra la desinformación en sus redes sociales. Mediante el análisis de la verificación profesional de hechos, los sistemas de verificación impulsados por la comunidad y los enfoques híbridos, este número pretende fomentar una comprensión más profunda de cómo estas estrategias influyen en la propagación de la desinformación, el comportamiento de los usuarios y la confianza social.
Aceptamos contribuciones que aborden, entre otros, los siguientes temas:
1. Análisis comparativos entre la verificación de datos por terceros y los sistemas de verificación basados en la comunidad.
2. El impacto en las organizaciones de verificación de datos del cierre por parte de las grandes plataformas digitales de sus programas de verificación por terceros.
3. El papel de los algoritmos de las plataformas en la amplificación o reducción de la visibilidad del contenido verificado por usuarios.
4. El impacto de la verificación impulsada por los usuarios en la difusión de la desinformación y las tasas de corrección.
5. Patrones de participación e interacción de los usuarios en las Community Notes u otras iniciativas similares.
6. Consideraciones éticas en la transición de modelos de moderación de contenido profesional a colectivos.
7. La efectividad de los modelos híbridos que combinan aportes profesionales y comunitarios.
8. Comparaciones interplataforma sobre procedimientos de filtrado de contenido y sus implicaciones sociales.
9. La influencia de los contextos culturales, lingüísticos y regionales en el filtrado de contenido impulsado por los usuarios.
10. El papel de la inteligencia artificial en el apoyo o debilitamiento de estos modelos de moderación de contenido.
11. Impactos psicológicos y conductuales de los sistemas de verificación impulsados por los usuarios en los usuarios de las plataformas.
12. Estudios de caso sobre crisis de desinformación y su resolución bajo distintos modelos de filtrado.
13. Implicaciones regulatorias y políticas de los cambios en las estrategias de moderación. Se aceptan envíos que incluyan marcos teóricos, estudios empíricos, análisis de casos o perspectivas interdisciplinarias. Este número especial busca proporcionar información crítica sobre cómo las prácticas emergentes de moderación de contenido están redefiniendo la dinámica de las plataformas digitales y el discurso público.
Fecha límite para envío: 30 de octubre de 2025
Más información aquí.