Em Ciência e Educação, Destaques

Por Rafael Evangelista

Na última quinta (07/05), pesquisadores do Facebook publicaram um artigo na revista Science analisando os efeitos de seu polêmico algoritmo de seleção, aquele pedaço de código que roda nas redes sociais e seleciona os amigos cujas publicações você vê ou não, quais aparecem primeiro e mais frequentemente e quais vão lá pra baixo da tela. Outros pesquisadores rapidamente apelidaram o artigo de “não é minha culpa”, dado o viés complicado na análise dos dados coletados. A conclusão principal do estudo é, basicamente, que a razão de vermos na nossa linha do tempo textos cuja tendência política é mais parecida com a nossa deriva de seleções feitas por nós mesmos.  Quanto mais diversos ideologicamente os nossos amigos, mais conteúdo diverso receberíamos. O Facebook só apimentaria um pouco isso, fazendo uma retirada, em tese mínima, do que é diverso. Entre 5 a 10% do que não se alinha à visão política do usuário é omitido pelo sistema.

Os portais e jornais brasileiros rapidamente repetiram a fala oficial, provavelmente seguindo algum release.

Mas, como mostra, Zeynep Tufecki, socióloga ligada ao Berkman Center, de Harvard, o estudo tem coisas bem mais interessantes escondidas. Coisas inclusive que complicam bastante as conclusões contidas no artigo original. (Além de Tufeck muitos outros pesquisadores comentaram o artigo, o texto dela é um bom ponto de partida para outros links).

 Em primeiro lugar, a amostra usada para o estudo é problemática.  Foram tomados dados de um pequeno subgrupo de usuários, aqueles que se auto-identificam como liberais ou conservadores (o que na língua política brasileira corresponde mais ou menos a esquerda e direita, respectivamente). Ora, presume-se que esses que se auto-identificam claramente são mais propensos a criarem uma bolha informativa em torno de si, estão politicamente bem definidos.

Além disso, o estudo meio que esconde coisas bem interessantes – que ficam fora também do release.  Uma delas é que há uma brutal variação entre a probabilidade de um link ser clicado se ele está disposto no topo da página ou lá embaixo. Ou seja, o Facebook não precisa sumir com um determinado link, basta dispô-lo no fim da linha do tempo (que “do tempo” não tem mais nada) que a chance de ser realmente visto será menor. Por exemplo, um link tem 20% de chance de ser clicado, por um conservador, se estiver no topo da página. Esse número cai para menos de 10% se estiver na décima posição e vai a quase 5% se, além de estar em décimo, não for ideologicamente alinhado a esse leitor.

A supressão automática de posições políticas diversas à nossa, somada às regras utilizadas para o ordenamento das postagens são dois elementos que se complementam e não podem ser analisados em separado.

O fato de que evitamos ler algo que não está politicamente alinhado a nossa visão de mundo não é exatamente uma novidade. É por isso que, idealmente, deveria haver uma variedade ideológica entre os meios de comunicação, refletindo os diferentes setores da sociedade.

O elemento novo trazido pelos algoritmos das redes sociais é que essa escolha não é mais transparente, não se trata mais de comprar o jornal A ou B, ou ver a TV B ou C. Os próprios pesquisadores, que são do Facebook e têm acesso aos códigos que rodam lá, não fizeram uma análise do algoritmo, do código, para mostrar seus efeitos. Eles trabalharam com a interação entre usuários e código, tentando ver o que emerge dali. O algoritmo em si mostra pouco, seria como tentar entender o futebol apenas lendo as regras do jogo.

Isso indica que a análise do consumo de notícias tem um problema técnico e de difícil compreensão pela frente. Um problema que envolve poder e que é agravado pela centralização da distribuição das notícias em poucas redes sociais, cuja propriedade é privada. Mais complicado ainda, em sua análise, para quem nem pode ler as regras, como nós. Um abacaxizão cibernético.

Rafael Evangelista. Cientista social e linguista.


Créditos de imagem: hypescience.com

Facebooktwitter