O bizarro experimento de manipulação emocional do Facebook

facebook

Uma das coisas que carece em demasia no Facebook é ética. Isso não é novidade, a empresa do Mark Zuckerberg faz bilhões vendendo todo o nosso comportamento social na rede aos mais diversos clientes, de uma forma tão ou mais flagrante do que o Google – esse ao menos nos retorna serviços. A fraude da venda legal de likes da rede social mostrou como ela ganha dinheiro com os anúncios exibidos para qualquer um: como as curtidas vem de usuários que não interagem e seu post só aparece para mais usuários conforme seu engajamento, você está literalmente jogando dinheiro fora.

E agora foi revelada mais uma tramoia do Facebook: pelo menos uma vez a rede social manipulou os feeds de milhares de usuários, de modo a gerar uma resposta específica.

Um estudo conjunto de pesquisadores ligados ao Facebook e das Universidades de Cornell e da Califórnia (e financiado pela própria rede social, é bom frisar) publicado recentemente descreve um experimento realizado durante uma semana em 2012, em que o algoritmo do feed de 689.003 usuários foi manipulado para exibir atualizações de modo a influenciar seu comportamento. O estudo buscava verificar se mensagens animadoras ou depressivas apresentadas aos usuários poderia gerar uma resposta positiva ou negativa em seus status. No que o estudo chamou de “contágio emocional em larga escala”, verificou-se que os expostos ao experimento realmente reagiam à exposição do material da forma pressuposta, atualizando seus status de acordo com o conteúdo que lhes foi exibido através da mudança de humor, que nada mais é do que um botão onde você informa como se sente no momento: se excitado, alegre, triste, etc.

Publicado em junho, o caso explodiu quanto o The Atlantic comentou o estudo no sábado. O estudo visava observar se o estado emocional de uma pessoa poderia influenciar o de outra mesmo em uma rede social, entretanto as implicações disso são nebulosas. Do ponto de vista legal, o Facebook pode realizar tais intervenções nos feeds dos usuários, e se pensarmos friamente isso é algo que Zuck não titubearia em fazer. Entretanto o emprego dessa técnica, mesmo legal é antiético. Metadados minerados por estudos visam observar o comportamento natural dos usuários de redes sociais, entretanto o Facebook poderia em tese manipular os resultados para gerar uma resposta desejada e distorcer os resultados a seu favor, tendo em vista a própria forma do Facebook operar, em que ele seleciona previamente o que pode e o que não pode ser exibido diretamente ao usuário.

Claro, a resposta não foi das melhores e nem falo do público. Mesmo a professora de psicologia Susan Fiske da Universidade de Princeton, responsável pela edição da versão final do artigo para a publicação se mostrou preocupada enquanto preparava o documento, devido seu conteúdo. Ao questionar os autores do artigo, eles lhe informaram que o “o comitê de ética (IRB) aprovou o estudo, assim como aparentemente o Facebook manipula os feeds dos usuários o tempo todo”.

O problema aqui é que o Facebook estaria não só bagunçando com o feed dos usuários, mas também com seus estados emocionais deliberadamente como forma de gerar uma resposta específica. Como saber se o usuário não está em uma posição delicada, fragilizado por uma instabilidade emocional que a rede social não tem como antecipar? E se a exposição a post negativos intensificar esse estado?

Tendo em vista o intenso backlash depois do experimento se tornar público, o autor do estudo e cientista de dados do Facebook dr. Adam D.I. Kramer esclareceu alguns pontos em um post público. O motivo pelo qual ele e os co-autores Jamie E. Guillory e Jeffrey T. Hancock conduziram tal experimento seria porque “se preocupam com o impacto emocional” que o Facebook pode vir a causar em seus usuários, além de claro, estarem preocupados se visualizar posts negativos fariam com que as pessoas deixassem de utilizar a rede social. Além disso, o experimento teria sido conduzido em “apenas” 0,04% da população total de usuários e por um curto espaço de tempo, e que ele foi conduzido no intuito de fornecer um melhor serviço.

No fundo, isso não é novidade. Somos manipulados por marcas e empresas o tempo todo, desde a mais tenra idade, de comerciais de cadeias de lanchonetes e refrigerantes, e daí por diante. Entretanto pensava-se que uma rede social seria se não imune, menos sujeita a esse tipo de conduta. Entretanto, ao criar uma conta na rede do Zuck você concorda em ceder seus dados “para operações internas, análise de dados, testes, pesquisas e melhorias de serviço“. Legal? Sim. Ético? Nem de longe.

Relacionados: , , , , , , , ,

Autor: Ronaldo Gogoni

Profissional de TI auto-didata, blogueiro que acha que é jornalista e careca por opção. Autor do Meio Bit e Portal Deviante, podcaster/membro fundador/Mestre Ancião do SciCast e host/podcaster do Sala da Justiça.

Compartilhar