Precisamos falar dos algoritmos


Ronaldo Lemos

Fórmulas que definem o que você lê em redes como o Facebook não são neutras: são invisíveis, mas existem

Na semana passada grandes jornais do mundo anunciaram que vão publicar notícias diretamente no Facebook. Isso confirma que a rede social mais popular do planeta está se convertendo também em "infraestrutura" para a disseminação de conteúdos. A situação lembra o que acontecia com a TV a cabo nos EUA em meados dos anos 1970: a princípio, as empresas tinham de convencer as emissoras a aceitar serem incluídas na programação.

Pouco depois a maré mudou. Várias companhias começaram a produzir programação especialmente para o cabo, que passou então a cobrar para carregar os conteúdos.

Um exemplo disso é a campanha "I want my MTV" (eu quero a minha MTV), do início dos anos 1980. O objetivo era convencer as TVs por assinatura a transmitir o sinal da emissora musical, que engatinhava.

Curiosamente, dias antes do anúncio do pacto entre os jornais e o Facebook, o site havia publicado um estudo sobre o funcionamento do algoritmo que controla o que cada usuário vê em seu feed de notícias. O nome do documento é "Exposição a Notícias e Opiniões Ideologicamente Diversas no Facebook".

O estudo tem várias limitações metodológicas, mas a conclusão é interessante. Ele apresenta evidências de que as fórmulas do site nos mostram mais notícias que refletem aquilo que pensamos e reduz nossa exposição ao que discordamos.

Se alguém é a favor da redução da maioridade penal, vai ver mais opiniões similares à sua do que contrárias. É um erro crasso achar que o que vemos na "timeline" do Facebook representa a opinião pública.

Essa filtragem traz problemas. Quem se expõe apenas ao que pensa fica ainda mais convencido das próprias ideias. E se torna avesso a posições contrárias.

A questão é se esse viés seria culpa do algoritmo em si ou dos próprios usuários, que, por meio dos seus "likes", ensinariam a rede social a privilegiar alguns conteúdos. Acadêmicos importantes, como a pesquisadora Zeynep Tufekci, apelidaram o estudo de "it's not our fault" (não é nossa culpa), dizendo que a rede social estaria usando o documento para afirmar que a culpa do viés seria mais dos usuários.

O fato é que hoje 30% das pessoas nos EUA leem notícias apenas pelo Facebook. Com isso, faz sentido pensar sobre a importância de uma diversidade editorial. Algoritmos vieram para ficar. Mas não podem se tornar "filtro" para tudo. Quanto mais pluralidade de editorias, humanas e digitais, melhor para a esfera pública.

No caso de um jornal, pode-se discordar de sua linha editorial, mas ao menos ela é um dado objetivo e em geral visível. No caso de algoritmos, a linha editorial é invisível. Só que ela existe. Algoritmos não são neutros, como mostra o estudo recém-publicado. Sempre que você não gostar daquilo que leu no jornal, saiba que isso é bom para você.

***
JÁ ERA algoritmos só como modelos teóricos
JÁ É algoritmos tomando decisões automatizadas de investimentos financeiros
JÁ VEM algoritmos tomando decisões militares

0 comentários:

Postar um comentário

Comente esta postagem.