Tecnologia

Veja por que o Facebook está encerrando os experimentos do dia da eleição

Fonte: Thinkstock

Fonte: Thinkstock

Como o dia da eleição dá aos americanos a chance de escolher seus senadores, congressistas e governadores e votar em iniciativas eleitorais, a rede social mais popular do país fará sua parte para incitar seus usuários a votar. O Facebook terminou de ajustar a ferramenta que mostra um botão proeminente 'Estou votando' ou 'Eu sou um eleitor' para fazer os usuários irem às urnas e, conforme Micah L. Sifry relata para Mother Jones, um alguns milhões a mais Espera-se que dos 150 milhões de usuários americanos do Facebook votem, pelo menos em parte, porque o Facebook os encorajou, com uma pequena ajuda de seus amigos. Mas os esforços do Facebook para promover a votação neste ano serão muito mais restritos do que nos anos anteriores, e muito disso tem a ver com a política e a percepção pública de como a rede social conduz sua pesquisa.

A empresa chama sua ferramenta para promover a votação durante a temporada eleitoral de 'megafone do eleitor' e, como observa Sifry, deixou os usuários no escuro sobre o processo de desenvolvimento da ferramenta. O Facebook está conduzindo experimentos discretamente para ver como pode influenciar o comportamento de votação de seus usuários, estudando como o Feed de notícias pode afetar o interesse dos usuários por política e a probabilidade de eles votarem.



Um experimento conduzido durante os três meses anteriores ao dia da eleição de 2012 aumentou o número de notícias importantes nos Feeds de notícias de 1,9 milhão de usuários do Facebook. Um cientista de dados do Facebook relatou que a mudança, não anunciada aos usuários, aumentou consideravelmente o engajamento cívico e a participação eleitoral.

Esse experimento foi apenas a mais recente adição a uma série de experimentos de pesquisa que o Facebook vem realizando desde 2008, com o objetivo de aumentar a participação dos americanos nas eleições. Sifry relata que, desde 2008, o Facebook oferece aos usuários uma maneira fácil de proclamar aos amigos que estão votando. Os cientistas de dados da empresa experimentaram maneiras de trazer à tona essas informações no Feed de notícias para aumentar a participação eleitoral.

Em 2010, eles colocaram diferentes versões do botão “Estou Votando” nas páginas de 60 milhões de usuários americanos para testar o impacto de cada uma e descobrir como otimizar o botão. Como Sifry explica, dois grupos de 600.000 usuários serviram como controle - um viu o botão 'Estou votando', mas não obteve informações sobre o comportamento de seus amigos, enquanto o outro não viu nenhum conteúdo relacionado à votação.

O papel resultante (PDF), publicado dois anos depois em Natureza revista com o título “Um experimento de 61 milhões de pessoas em influência social e mobilização política”, citou um “crescente interesse na capacidade de usar redes sociais online para estudar e influenciar o comportamento no mundo real” entre os pesquisadores.

O artigo observou que era 'uma questão em aberto' na época se 'as redes online, que aproveitam informações sociais de redes cara a cara, podem ser usadas de forma eficaz para aumentar a probabilidade de mudança de comportamento e contágio social.' O Facebook já provou que as redes sociais podem influenciar o comportamento de seus usuários. O estudo de 2010 descobriu que o botão “Eu votei” era uma forma atraente de exercer pressão social para fazer as pessoas votarem.

O jornal observou que “a mensagem social do Facebook aumentou a participação diretamente em cerca de 60.000 eleitores e indiretamente por meio do contágio social por outros 280.000 eleitores, para um total de 340.000 votos adicionais. Isso representa cerca de 0,14% da população em idade eleitoral de cerca de 236 milhões em 2010. ”

Enquanto os pesquisadores do Facebook relataram que o estudo teve implicações importantes na compreensão de como funciona a mobilização política online - mostrando que a mobilização social é mais eficaz do que a simples mobilização informativa - eles também notaram a importância mais ampla da influência social para efetuar mudanças no comportamento do usuário. Eles descobriram que “Mostrar rostos familiares aos usuários pode melhorar drasticamente a eficácia de uma mensagem de mobilização” e concluíram que:

As mensagens online podem influenciar uma variedade de comportamentos offline e isso tem implicações para a nossa compreensão do papel das mídias sociais online na sociedade. Os experimentos são caros e têm validade externa limitada, mas a disponibilidade crescente de dados de redes sociais online baratos e em grande escala significa que esses experimentos podem ser facilmente realizados no campo. Se quisermos realmente compreender - e melhorar - nossa sociedade, bem-estar e o mundo ao nosso redor, será importante usar esses métodos para identificar quais comportamentos do mundo real são passíveis de intervenções online.

como pegar o maior perdedor

Embora as intenções dos pesquisadores com o experimento do dia da eleição de 2010 e outros semelhantes (como os experimentos de 2012 que supostamente testaram se a localização ou as diferentes mensagens no botão 'Estou votando' influenciaram a probabilidade de os usuários interagirem com ele) podem ter destinada a ajudar o Facebook a “entender e melhorar nossa sociedade, bem-estar e o mundo ao nosso redor”, a empresa parece ter perdido a confiança de que a intenção pode protegê-la da má imprensa e da reação dos usuários em futuros experimentos sociais.

Um porta-voz do Facebook disse à VentureBeat que a empresa optou por pare alguns experimentos , incluindo o estudo do megafone do eleitor em grande escala, embora a empresa ainda não tenha divulgado todos os detalhes de seus experimentos com os feeds dos usuários relativos ao dia da eleição de 2012. De acordo com Mother Jones, os estudos de 2012 incluem um experimento de Solomon Messing do Facebook para aumentar a proeminência das notícias nos feeds de 1,9 milhão de usuários. A participação eleitoral nesse grupo aumentou de 64% para mais de 67%.

Michael Buckley, vice-presidente de comunicações empresariais globais do Facebook, disse a Sifry que o público não receberá todos os detalhes até 2015, quando os relatórios acadêmicos sobre os experimentos serão publicados. E, como observa Sifry, a maioria dos usuários tem pouca ideia de como a empresa muda constantemente e experimenta o algoritmo que preenche o Feed de notícias. A tensão sobre a escolha do Facebook de não divulgar os experimentos que realiza com seus usuários chegou a um ponto de ebulição durante o verão, quando uma equipe de pesquisadores acadêmicos e cientistas de dados do Facebook revelaram que haviam alterado o conteúdo emocional de 700.000 feeds de notícias dos usuários, para determinar se as emoções se espalham de forma contagiosa em uma rede social.

Embora o impacto do experimento de contágio emocional tenha sido limitado, ele cruzou uma linha ética na mente de muitos usuários. Muitos ficaram com raiva porque o Facebook manipularia as emoções dos usuários, e sua desconfiança na empresa se aprofundou. Mas, na opinião de Sifry, a desconfiança dos usuários na rede social é apenas um motivo para a rede social ser reticente em divulgar exatamente o que está acontecendo em seus experimentos de promoção de votos.

Como a base de usuários do Facebook distorce os democratas, o megafone do eleitor provavelmente levou mais democratas às urnas do que republicanos. Essa notícia não agradaria aos republicanos no Capitólio, e o medo de uma potencial reação pode ser o motivo do Facebook estar optando por manter suas cartas fechadas - mesmo com a implantação planejada do megafone de eleitor nas páginas dos usuários em todas as principais democracias. as eleições nacionais este ano tornam a necessidade de transparência ainda maior.

Buckley disse a Sifry que para o dia da eleição de 2014, o Facebook implantará o megafone do eleitor sem nenhum experimento de pesquisa anexado. Quase todos os usuários americanos do Facebook com mais de 18 anos verão o botão 'Eu votei', mas esse botão supostamente não fará parte de um esforço adicional para manipular o processo de promoção de votação, ou medir como a rede social afeta a participação eleitoral entre seus Comercial.

Mas para Gregory Ferenstein da VentureBeat, a pesquisa do megafone do Facebook é o 'estudo acadêmico mais importante sobre o valor da mídia social na democracia até o momento', e uma pesquisa que não deve ser interrompida pelo medo do Facebook da imprensa ou reação política. (Afinal, como ele observa, os experimentos de 2010 tiveram uma resposta positiva moderada e poucas críticas.)

A capacidade do Facebook de aumentar a participação eleitoral em 2,2% parece estatisticamente pequena, mas é significativa para os padrões de eleições que são ganhas nas margens. Ferenstein escreve que as campanhas gastam milhões de dólares para levar “alguns milhares” de eleitores a mais às urnas, e a eficácia comprovada dos métodos do Facebook para levar os usuários às urnas é incomparável aos métodos tradicionais de aumentar a participação.

Para a próxima eleição de 2016, o Facebook está interrompendo seus experimentos. Todos os usuários do Facebook verão o mesmo botão - ou nenhum botão - e o Facebook não medirá quantos usuários incentivou a votar ou se alguns tipos de mensagens são mais eficazes do que outros. Para Ferenstein, isso significa que o Facebook está se curvando às pressões políticas para parar de inovar, decisão que ele caracteriza como decepcionante, e uma concessão aos críticos que buscam controlar as decisões da rede social.

Duas forças potentes parecem estar em jogo nas percepções do público (e da imprensa) sobre os experimentos de pesquisa do Facebook: a ética dos estudos versus o bem social que eles podem afetar. O efeito positivo dos estudos do megafone do eleitor é, como Ferenstein demonstra, um argumento direto a se apresentar. A maioria das pessoas concordaria que quanto mais eleitores (informados) chegarem às urnas, melhor. Embora a manipulação dos feeds dos usuários pelo Facebook e, portanto, seu comportamento pareça intrusiva, isso não prejudica ninguém e, em vez disso, tem um efeito positivo no engajamento cívico das pessoas.

Mas a ética da pesquisa como o estudo da manipulação emocional é menos clara. Embora o Facebook confie em sua política de privacidade e termos de uso como um modo instável de obter o consentimento informado dos usuários para a pesquisa que seus cientistas de dados concluem, os usuários ainda ficam desconcertados ao saber que o algoritmo do Feed de notícias está fazendo mais do que apenas tentar mostrar-lhes o atualizações, fotos e notícias mais envolventes. Além disso, o Feed de notícias se tornou o veículo pelo qual o Facebook busca influenciar as emoções e o comportamento dos usuários.

Os benefícios imediatos para a sociedade de pesquisadores de ciências sociais que obtêm uma melhor compreensão de como as emoções se propagam por meio de uma rede social são menos óbvios do que os benefícios de fazer com que mais jovens usuários votem. Mas quando se trata de princípios, um estudo pode realmente ser mais ético do que o outro? Ambos são projetados para afetar o comportamento e, ao fazê-lo, quantificam a capacidade do Facebook de afetar o comportamento. Por outro lado, a ética de um experimento deve ser medida por seu potencial de causar danos aos usuários? Se não afetar negativamente os usuários, mesmo na ausência de um efeito positivo sobre eles, a sociedade da qual fazem parte, está tudo bem?

Como o Tech Cheat Sheet relatou recentemente, o Facebook anunciou que estava implementando novas diretrizes e políticas que regem a pesquisa que os cientistas de dados da empresa conduzem sobre seus usuários. Mas a falta de transparência da rede social sobre exatamente o que as novas diretrizes exigiam e quais processos de revisão novos experimentos passarão, não foram suficientes para renovar a confiança dos usuários ou dar-lhes qualquer certeza de que o Facebook havia melhorado a forma como seus métodos de pesquisa se comparam aos parâmetro ético dos regulamentos que a pesquisa acadêmica ou financiada pelo governo federal deve seguir.

Mas, como o Facebook é uma empresa privada, tecnicamente está apenas executando testes A / B em seus usuários sem o conhecimento deles - e sem a supervisão de um órgão regulador externo. No entanto, o problema continua sendo que a maioria das empresas de tecnologia não pretende realizar testes comerciais A / B como pesquisa psicológica ou sociológica e, em vez disso, opta por manter seus testes privados.

O Facebook, por outro lado, tenta combinar o melhor dos dois mundos, buscando a credibilidade pública da pesquisa acadêmica com a liberdade não regulamentada de projetar experimentos como testes A / B privados. Seria melhor para o Facebook conduzir experimentos em seus usuários em silêncio, renunciando à publicação de sua pesquisa de ciências sociais e deixando os usuários no escuro se seus feeds de notícias estão sendo manipulados de maneiras que vão além das mudanças usuais no algoritmo? Isso seria difícil de vender, não apenas para os usuários, mas também para os pesquisadores que veem os potenciais efeitos positivos que a pesquisa do Facebook pode ter.

A concessão do Facebook aos críticos, uma vez que reduz drasticamente o escopo do programa do megafone do eleitor, pode ser considerada não apenas como uma perda para as ciências sociais, mas como um passo na direção errada. O Facebook teria uma melhor recepção do público e da imprensa se tornasse seus processos de pesquisa mais transparentes, divulgando estudos com mais antecedência e com mais atenção à influência que os experimentos têm na experiência dos usuários com a rede social.

Em vez disso, a rede social está mantendo todos no escuro sobre os dados que coleta e analisa - 'o maior estudo de campo na história do mundo', como o cientista de dados do Facebook e principal autor do estudo de contágio emocional, Adam Kramer, o caracterizou em um Entrevista 2012 no site do Facebook. Mas, embora o Facebook possua um dos maiores conjuntos de dados comportamentais e sociais já reunidos, todas as descobertas de sua equipe de ciência de dados são limitadas à atividade que ocorre no Facebook, e as motivações da empresa também limitam a utilidade de sua pesquisa.

Os objetivos da equipe de ciência de dados são ostensivamente descobrir como fornecer um melhor serviço aos membros da rede social, e temos que questionar o que o Facebook está realmente contribuindo quando ocasionalmente publica sua pesquisa para o benefício dos cientistas sociais.

Em vez de presumir cinicamente que os experimentos de pesquisa do Facebook são projetados para a manipulação de usuários ou ingenuamente que seus experimentos de algoritmo têm como objetivo tornar o mundo um lugar melhor, o público e a imprensa precisam ser mais críticos de forma inteligente dos estudos que o Facebook conduz. Por que o Facebook os está conduzindo? Quais resultados podem ser generalizados? Quais são limitados ao próprio ambiente de engenharia do Facebook, e com que conhecimento a empresa está contribuindo para nossa compreensão mais ampla da psicologia e das ciências sociais?

Nada disso pode acontecer se o Facebook retirar sua pesquisa da opinião pública com medo de outro desastre de relações públicas, ou se a empresa continuar a manter sua pesquisa comercial separada da ética da pesquisa acadêmica.

Mais da Folha de Dicas de Tecnologia:

  • Os experimentos não anunciados do Facebook estão melhorando de maneira ética?
  • O Facebook tem muito controle sobre as notícias que lemos?
  • A luta do Facebook pela captura de dados em massa reflete as preocupações da indústria de tecnologia