Não são só robôs: editores humanos também decidem o que você lê no Facebook

publicado na Super

Não é difícil pensar que as redes sociais, principalmente o Facebook, são cada vez dominadas por máquinas e cálculos. Natural, fomos condicionados a isso. Uma das cenas mais emblemáticas de A Rede Social, o filme de 2010 que representa a criação do site, é justamente Zuckemberg desenhando números e números em uma janela, afim de produzir o algoritmo perfeito. Além disso, o próprio Facebook reforça essa imagem – seus comunicados constantemente se referem à uma melhora em sua inteligência artificial. Eis que as coisas não funcionam exatamete assim: alguns documentos vazados mostram que, no fim das contas, quem decide o que aparece na sua timeline é um grupo de humanos.

Mao_segura_balao_com_hashtag_0

A história toda começou quando, no último dia 9, o Gizmodo reportou que o Facebook estava sabotando seus Trending Topics para favorecer assuntos com temática favorável aos conservadores americanos. A reportagem se baseava no relato de funcionários que, anonimamente, afirmavam bloquear assuntos da lista. A notícia caiu como uma bomba. Até então, o Facebook afirmava que os tópicos eram determinados por algoritmos gerados a partir de seu engajamento, páginas curtidas e localização. Em meio ao bafafá, o jornal britânico The Guardian vazou um manual interno do Facebook, em que eram dadas orientações sobre como uma de suas equipes deveria editar os tópicos, o que incluiria, sim, a opção de remover e adicionar tópicos.

A princípio isso pode nem te incomodar muito – para o público brasileiro os tópicos são basicamente invisíveis, com a exceção de poucas experiências em português que ainda estão sendo estudadas – mas há um impacto. Desde outubro de 2014 (mesmo ano em que os Trending Topics chegaram ao Facebook), os tópicos influenciam no seu feed de notícias. Em termos práticos, se “Capitão America: Guerra Civil” entra na relação de notícias mais comentadas, o próprio Facebook aumenta as chances de uma matéria, ou um comentário de um amigo, sobre o novo filme da Marvel aparecerem na sua tela. Isso tem impacto direto na audiência de sites, na divulgação de produtos, e (como no caso dos conservadores) ideias.

O Facebook, então, se pronunciou. Liberou o tal manual para quem quiser ler e explicou que, sim, existe uma equipe, mas, não, o objetivo deles não é manipular os usuários. “A escolha dos tópicos que aparecem para o público é feita por algoritmos, não pessoas. Esse produto também tem um time de pessoas que possuem um importante papel em garantir que o que aparece nos Treding Topics são uteis e de alta qualidade”, afirmou Justin Osofsky, vice-presidente de operações globais do Facebook.

O que o Facebook afirma é bem coerente, na verdade. De acordo com seus representantes, o processo é o seguinte: um algoritmo nativo na rede social calcula quais são as palavras, ou assuntos, que tiveram um aumento significativamente maior que a média em um período de 24 horas. Cabe então, à equipe de humanos supervisionar o resultado dos robôs.

A possibilidade de remover só seria utilizada para apagar o que eles chamam de “barulho”, hashtags comuns que não representam nenhum acontecimento, algo como #FimDeSemana, #Viagem, e o famigerado #Top.

A inserção de conteúdo, por outro lado, seriam mais uma edição do que outra coisa. Quando dois tópicos acabam representando a mesma coisa, um terceiro que abrange ambos pode ser criado para armazenar as referências de maneira única. Em um jogo do Flamengo contra o Fluminense, por exemplo, seriam apagados tópicos com os nomes dos dois times e criado um chamado “Flamengo vs Fluminense”.

Os editores também possuem o devem classificar os tópicos em grau de importância “Normal” “História Nacional”, “História Grande” ou “História Nuclear”, o que representaria respectivamente um nível maior de relevância – e quanto mais importante, em mais feeds os conteúdos relacionados a ela aparecem. Para determinar isso, os humanos checavam sites de notícia para ver se os assuntos realmente tinham repercutido na grande mídia. Para ser considerado “Grande”, por exemplo, deveria aparecer em pelo menos cinco grandes sites americanos.

A origem disso tudo também parece ser bem justificada. De acordo com o Guardian, o Facebook institucionalizou que uma equipe de humanos deveria supervisionar os algoritmos depois que muita gente reclamou que matérias referentes ao caso de Ferguson (que causou furor nos Estados Unidos após um adolescente negro ter sido morto por um policial) não estavam com alcances proporcionais à seriedade da questão. Rolou uma pressão para que as coisas mudassem.

Quanto à censura, o Facebook nega que visões políticas estão sendo suprimidas e afirma que, caso percebe esse comportamento, demitirá os envolvidos.

No fim, a ideia de humanos e máquinas trabalhando junto faz bastante sentido, é uma tentativa de deixar a aba mais organizada do que os Trends do concorrente Twitter – onde não é difícil encontrar tópicos sem relevância, repetidos, e muitas vezes desnecessariamente comuns (ou você acha que o One Direction realmente precisa de um tópico por dia?). Mas é sempre bom lembrar que, sim, tem um grupo de pessoas que define o que você vai ler – inclusive esta reportagem aqui.

Comentários

Este QR-Code permite acessar o artigo pelo celular. QR Code for Não são só robôs: editores humanos também decidem o que você lê no Facebook

Deixe o seu comentário