Facebook fomenta la polarización social, según WSJ

El medio estadounidense asegura que la red social apartó sus esfuerzos para reducir las confrontaciones, por lo que divide a los usuarios.

by
https://cdn.lavoz.com.ar/sites/default/files/styles/width_1072/public/nota_periodistica/23_1590579817.png
La imagen usada por WSJ para ilustrar su informe. (WSJ)
https://cdn.lavoz.com.ar/sites/default/files/styles/width_1072/public/nota_periodistica/facebook_1590579218.jpg
(AP).

Los algoritmos de Facebook agravan la polarización entre sus usuarios, como se desprende de estudios internos enfocados a atajar este problema y que la compañía acabó por apartar en pos del crecimiento de la plataforma, según una información de The Wall Street Journal.

La red social emplea algoritmos para sugerir nuevos contenidos a los usuarios en base a su experiencia en la plataforma. Estos algoritmos, como se desprende de estudios internos, han contribuido a polarizar la conversación y a dividir a la gente.

Según se dice en una presentación interna de 2018, recogida por el medio citado, los algoritmos "explotan la atracción del cerebro humano hacia la división. Si se dejan sin comprobar, Facebook alimentará a los usuarios con contenido cada vez más divisivo en un esfuerzo por atraer su atención e incrementar el tiempo en la plataforma".

Esta presentación forma parte de los esfuerzos de la compañía por comprender cómo la red social conforma el comportamiento de los usuarios y cómo se debería atajar el daño potencial que pudiera causar.

La grieta

Según han señalado personas próximas a estos trabajos a The Wall Street Journal, las propuestas fueron apartadas por altos directivos, entre ellos el CEO, Mark Zuckerberg, y el responsable de Política Pública, Joe Kaplan. Algunas propuestas se rechazaron por la posibilidad de que afectaran desproporcionadamente a los usuarios y medios más conservadores, o por entenderse como paternalistas.

La vinculación de la plataforma con la proliferación de contenido extremista se encuentra ya en estudios e investigaciones de 2016, como el de la socióloga y trabajadora de Facebook Monica Lee, quien descubrió que en Alemania los grupos estaban "desproporcionadamente influenciados", según el medio citado, por un subconjunto de usuarios hiperactivos. Preocupaba entonces el número de grupos extremistas, cuyo crecimiento se debía al algoritmo de la plataforma y sus recomendaciones.

En 2017, la compañía creó los llamados 'Equipos de integridad', para investigar sobre el contenido divisorio y el comportamiento de los usuarios, que plantearon la cuestión de la forma en que Facebook priorizaba el compromiso de los usuarios, expresado en acciones como dejar comentarios, compartir publicaciones, dar 'Me Gusta' o el tiempo que pasan en la red social.

https://cdn.lavoz.com.ar/sites/default/files/styles/landscape_1020_560/public/nota_periodistica/facebook_1590579218.jpg

La decisión de esos equipos de integridad se centró en un compromiso con la neutralidad, es decir, no controlar las opiniones de la gente ni detener el conflicto en la plataforma, según un documento interno. En otro documento de 2018, se recoge que la compañía no va a crear "explícitamente" contenido que "atente contra las creencias de la gente" y, en su lugar, se centraría en "productos que incrementen la empatía, la comprensión y la humanización de la 'otra parte'".

Hubo propuestas diversas para cumplir con este fin. Por ejemplo, y según fuentes internas y documentos dictados por The Wall Street Journal, se planteó la creación de subgrupos temporales y moderados que acogieran la conversación más encendida. También la modificación de los algoritmos para que ofrecieran recomendaciones más amplias. Sin embargo, su implantación, según otro informe de mediado de 2018, afectaría al crecimiento de la plataforma.

Desde las acusaciones, en 2016, de sesgo por parte de los grupos conservadores en Estados Unidos, muchas de las decisiones sobre cambios en la plataforma debían pasar no solo por los responsables de producto e ingenieros, sino también por los equipos de marketing, relaciones públicas y jurídicos de la compañía.

Las diferencias de opiniones llevaron a procesos de veto interno, que afectaron, por ejemplo, a la creación de un sistema de clasificación para el contenido hiperpolarizado o a los esfuerzos para suprimir clickbait sobre política más que sobre otros temas. En su lugar, se implementaron cambios más débiles.

Carlos Gomez Uribe, antiguo responsable del sistema de recomendaciones de Netflix, empezó a liderar el equipo de integridad en enero de 2017, del que se marcharía un año después. Entonces, propuso reducir el impacto que tenían los usuarios hiperactivos, ya que debido a los algoritmos, un usuario que interactúa con 1.500 contenidos tiene más influencia que alguien que lo hace con 15.

Se trata, además, de cuentas más partidistas, y que tienen mayores probabilidades de mostrar un comportamiento sospechoso, incluso de estar involucrados en acciones de 'spam'. Su propuesta, enfocada a limitar el contenido 'spam' y a potenciar la actividad de los usuarios medios, fue apartada por preocupaciones sobre los editores y por otros grupos no extremistas muy activos en la plataforma, según señaló Kaplan tiempo después.

La compañía tecnológica ha introducido cambios en los últimos años enfocados a combatir el contenido que viole sus políticas. En una conferencia en octubre de 2019, Zuckerberg anunció que no eliminaría contenido político si es noticioso aunque vaya en contra de sus estándares. Según defendió, descubrieron que la estrategia más efectiva para los acasos de desinformación era "centrarse en la autenticidad del que habla más que en intentar juzgar el contenido en sí".

TECNOLOGÍA
Newsletter con el análisis y las novedades más importantes, todos los miércoles.
Ingresá tu correo electrónico
Suscribirme
¡Gracias por suscribirte!
Ha ocurrido un error, por favor intente nuevamente más tarde.