P&R DE EXPERTO
Aunque la atención pública ha llevado a cambios en las políticas corporativas y públicas, los algoritmos y sus creadores podrían no ser el único factor que impulsa la polarización política en las redes sociales.
Justin Huang
Justin Huang, profesor asistente de marketing en la Escuela de Negocios Ross de la Universidad de Michigan, explora cómo la moderación de contenido impulsada por los usuarios es omnipresente y un aspecto pasado por alto de este problema.
Huang y sus colaboradores, el egresado de doctorado de la Escuela Ross Jangwon Choi y la egresada Yuqin Wan de la U-M, estudian la popular red social Reddit para explorar cómo los sesgos de los moderadores de subreddits en las decisiones de eliminación de contenido en más de cien comunidades independientes ayudan a crear esferas de eco, de acuerdo a un
nuevo estudio.
Con una elección presidencial en el horizonte y cuestiones éticas en torno a la censura en las redes sociales, el estudio plantea consideraciones importantes para los líderes de la industria y los responsables de políticas. Huang comparte sus perspectivas.
¿Cuáles son algunas de las implicaciones negativas de la eliminación de contenido con sesgos políticos?
Nuestra investigación documenta el sesgo político en la moderación de contenido impulsada por los usuarios, a saber, los comentarios cuya orientación política es opuesta a la orientación política de los moderadores tienen más probabilidades de ser eliminados. Este sesgo crea esferas de eco, espacios en línea caracterizados por la homogeneidad de opinión y el aislamiento de puntos de vista opuestos.
Una implicación negativa clave de las esferas de eco es que distorsionan las percepciones de las normas políticas. Observamos a nuestros pares para ayudarnos a formar y moldear nuestras creencias políticas, y estar en una esfera de eco puede llevar a una visión distorsionada de lo que es normal.
En algunos casos, esto puede radicalizar a las personas y permitir que la desinformación no sea cuestionada. También puede llevar al desánimo y reducir la confianza en los resultados electorales, ¿cómo pudo ganar el Candidato A cuando todos con los que hablé apoyaban al Candidato B?
En última instancia, esto socava el discurso deliberativo y el entendimiento común que son clave para el buen funcionamiento de nuestra democracia.
Al identificar las opiniones políticas de los moderadores y los comentaristas, ¿encontraron que alguna opinión política en particular era más propensa a eliminar comentarios que otras?
Para los usuarios habituales de Reddit, no debería sorprender que el sitio, en promedio, se incline hacia la izquierda. El subreddit político más grande del sitio web, /r/politics, es un bastión de apoyo demócrata. Esto también se refleja en nuestros datos y modelos de opinión política entre los usuarios y moderadores de los subreddits locales que estudiamos.
Basta decir que la moderación de contenido sesgada no se limita a un solo lado.
¿Podría haber efectos similares de la moderación de contenido por parte de los usuarios en otras plataformas de redes sociales?
El tipo de moderación de contenido impulsada por los usuarios que estudiamos está presente en todas las grandes plataformas de redes sociales, incluidas Facebook, TikTok, Instagram, YouTube y X (anteriormente Twitter). Estas plataformas otorgan a los usuarios propiedad y control de moderación sobre espacios en línea, como grupos o las secciones de comentarios del contenido que crean, y prácticamente no hay directrices de la plataforma ni supervisión sobre cómo un usuario modera.
Trazando un paralelo con el entorno comercial de la gestión de marcas, los gerentes de redes sociales a menudo recomiendan participar en la censura relacionada con los puntos de vista (eliminar comentarios de los “haters”) para crear una esfera de eco de opiniones positivas sobre la marca.
¿Qué pueden hacer las empresas de redes sociales para fomentar un discurso más abierto?
La moderación de contenido impulsada por los usuarios juega un papel clave en combatir la toxicidad y establecer normas comunitarias en los espacios en línea, destacando el desafío para los administradores de plataformas para preservar sus aspectos beneficiosos mientras se reduce el potencial de abuso y la formación de esferas de eco. Aquí hay algunas cosas que las plataformas podrían considerar:
- Proporcionar pautas claras sobre lo que constituye razones apropiadas vs. inapr
opiadas para la eliminación de contenido. Además, educar a los moderadores sobre el potencial y los daños que crean las eliminaciones sesgadas podría llevar a los moderadores a ser más juiciosos en sus decisiones.
- Aumentar la transparencia de las eliminaciones de contenido notificando a los usuarios cuando su contenido es eliminado. Además, proporcionar datos públicos sobre el volumen de eliminaciones podría ayudar a frenar los abusos mediante el escrutinio público y la presión comunitaria sobre los moderadores.
- Implementar análisis y supervisión podría ayudar a las plataformas a monitorear en qué medida los moderadores exhiben sesgo político en su moderación de contenido. En combinación con las pautas proporcionadas, los análisis pueden permitir que las plataformas detecten automáticamente y hagan un seguimiento con los moderadores que puedan estar abusando del sistema.
Escrito por JT Godfrey de Ross School of Business, adaptado al español por Juan Ochoa de Michigan News.