https://timeline.canaltech.com.br/350294.1400/facebook-sabia-que-seu-algoritmo-promoveria-extremismos-e-nao-fez-nada.jpg
LeoLevahn

Facebook sabia que seu algoritmo promoveria extremismos e não fez nada

by

Tudo sobre

https://imagens.canaltech.com.br/thumbnail/213058.439086.jpg

Facebook

https://imagens.canaltech.com.br/empresas/644.400.jpg

Saiba tudo sobre Facebook Ver mais

O Facebook não tem o melhor histórico quando o assunto é legitimidade de informação ou justiça na promoção de conteúdos. Prova disso é a quantidade de postagens recheadas de fake news que acabam ganhando tração na rede social ou conteúdos de cunho extremista que acabam aparecendo sem um mecanismo de defesa para usuários.

Segundo uma reportagem do Wall Street Journal, porém, a empresa de Mark Zuckerberg sabia de antemão de pelo menos uma dessas duas situações. Usando como base uma apresentação mostrada exclusivamente para funcionários seletos (e desde então descartada sem ser aplicada na comunicação oficial dos produtos do Facebook), o jornal argumenta que a direção da empresa tinha noção do potencial de seu algoritmo em promover conteúdo divisivo, ampliando sentimentos de polarização.

https://imagens.canaltech.com.br/245577.483425-Mark-Zuckerberg-ouvindo.jpg
Msrk Zuckerberg, CEO do Facebook (Imagem: Divulgação/Facebook)

“Nosso algoritmo explora a atração do cérebro humano pela divisão. Se deixarmos isso sem supervisão, o Facebook pode apresentar aos usuários mais e mais conteúdo polarizado em um esforço para ganhar mais atenção de público e ampliar o tempo [gasto] na plataforma”, diz um slide da apresentação que, de acordo com o Wall Street Journal, foi sumariamente descartada e suas observações, ignoradas.

O jornal ainda nota que o chefe de políticas do Facebook, Joel Kaplan, achava à época que as mudanças que levaram ao novo algoritmo teriam afetado usuários e publicações mais conservadores, mas não explicou em qual contexto (se as escondeu ou promoveu, por exemplo).

Respondendo à matéria, o Facebook emitiu um comunicado:

“Nós aprendemos muito desde 2016 e não somos a mesma empresa hoje. Nós construímos um time robusto voltado à integridade, reforçamos as nossas políticas e práticas a fim de limitar conteúdos danosos, e usamos pesquisas para compreender o impacto de nossa plataforma na sociedade para que pudéssemos melhorar”.

Em outras palavras, o Facebook não negou as informações levantadas pelo Wall Street Journal. O periódico norte-americano ressaltou, porém, que antes mesmo de a rede social criar esse “time de integridade”, uma pesquisadora a serviço da empresa, chamada Monica Lee, descobriu em 2016 que “64% de todos os grupos extremistas entram [no Facebook] por meio de nossas ferramentas de recomendação”. Houve até uma tentativa de ajustar o algoritmo para coibir esse comportamento, mas a ideia foi supostamente derrubada por ser “anticrescimento”.

Recentemente, a empresa chefiada por Mark Zuckerberg nomeou um comitê de supervisão que ataca justamente a promoção de conteúdos polarizantes e extremos. O brasileiro Ronaldo Lemos, advogado e diretor do Instituto de Tecnologia e Sociedade do Rio de Janeiro, está nesse grupo.