Naquele período fizeram uma pesquisa com 689.003 usuários, sem que eles soubessem, sobre o “contágio emocional” por meio das redes sociais. Utilizando conceitos como negativo e positivo, manipulando as postagem visualizadas pelos usuários, o Facebook, criou critérios para enquadrar as manifestações posteriores e avaliar se os internautas sofriam influência conforme o navegante recebesse estímulos negativos ou positivos.
O manipular aqui não significa que o Facebook forjasse publicações para os usuários. Por meio do algorítimo que determina e seleciona as notícias publicadas, eram “selecionados” os mais positivos e mais negativos conforme o interesse da pesquisa. Todos os posts, no entanto, garante o Facebook, foram apresentados ao navegador.
Ou seja, os usuários anglofalantes do Facebook naquela semana foram tratados como ratinhos de laboratório. O detalhe é que o laboratório do Face era a vida real de quase 700 mil pessoas.
Ninguém foi avisado e a alegação é de que a autorização prévia teria sido feita quando o usuário aceitou as condições para filiar-se à rede social.
A pesquisa realizada em conjunto com cientistas da Universidade de Cornell, em Nova York, foi editada por Susan Fiske, psicóloga da Princeton Universty e publicada pela National Academy of Sciences of America (PNAS) com o título: “Evidência experimental sobre contágio de emoções em grande escala por meio de redes sociais”
O texto destaca que “os estados emocionais podem ser transferidas para outras pessoas por meio de um contágio emocional, levando pessoas a experimentar as mesmas emoções sem o seu conhecimento. Contágio emocional pode ser bem estabelecido em experimentos de laboratório, com pessoas transferindo emoções positiva e negativas para os outros”.
Redes Sociais no mundo real
Ressalta ainda que “os dados coletados ao longo de um período de 20 anos”, por meio de relações diretas, nas redes sociais do mundo real, “sugerem que o estado de humor mais duradouro (por exemplo, depressão, felicidade) podem ser transferidos por meio de redes”. Embora reconheça que “os resultados sejam controversos”.
Nos dois sentidos, o de ser possível e o de ser controverso, um bom ambiente para uma pesquisa de "contágio emocional" seria aquele das redes sociais que se formam nos diversos cultos envangélicos espalhados pelo país.
Após ressaltar que a influência sobre os humores poderia ser manipulada em laboratório, pondera, no entanto, que “o contágio pode resultar do experimento da interação em si em vez de exposição à emoção de um parceiro”.

Assim, a experiência com o Facebook apresenta-se como alternativa pois o parceiro está invisível e os internautas não sabem que estão sendo monitorados.
“Em um experimento com pessoas que usam Facebook, testamos se o contágio emocional ocorre fora de interação presencial entre os indivíduos, reduzindo a quantidade de conteúdo emocional no News Feed. Quando expressões positivas foram reduzidas, as pessoas produziram menos mensagens positivas e mais mensagens negativas; quando as expressões negativas foram reduzidas, o padrão oposto ocorreu”.
“Estes resultados indicam que emoções expressas por outras pessoas no Facebook influenciam nossas próprias emoções, constituindo evidência experimental para o contágio em grande escala através das redes sociais”.
E conclui: “este trabalho sugere que, em contraste com os pressupostos vigentes, a interação presencial e não-verbal não são estritamente necessárias para o contágio emocional e que a observação de experiências positivas de outras pessoas constitui uma experiência positiva”.
Críticas variadas
Claro que há muita contestação sobre a pesquisa. Sobre a legalidade da manipulação do que é visto pelo usuário, segundo os interesses dos pesquisadores.
E críticas também sobre a eficiência da pesquisa: nada prova que a emoção da segunda pessoa é devida ao que exprime a primeira”, afirma uma pesquisadora dos Estados Unidos.
Outro estadunidense, John Grohol, escreve no sítio PsychCentral: “contágio emocional no Facebook? Mais parecem métodos ruins de investigação”. E destaca que a pesquisa por palavras e expressões positivas e negativas pode cair em armadilhas sutis da língua. E cita dois exemplos: “Eu não estou feliz” e “Eu não estou tendo um grande dia”. Apesar de serem frases claramente negativas, o LIWC 2007 (Linguistic Inquiry and Word Count Software), que serviu de referência para a pesquisa do Facebook, não interpreta dessa forma. Pois as palavras “grande” e “feliz” são contadas como positivas e os dois “não” como negativas, distorcendo, portanto, o resultado.
Manipulação da informação
Mas o grande debate é o ético. Quais os limites para se manipular as informações que chegam aos usuários.
E o debate é exatamente sobre os limites da manipulação. Pois a manipulação já ocorre sem que as pessoas à frente do teclado tenham conhecimento, mesmo que não estejam sendo monitoradas nem tendo seus comportamentos induzidos.
O Facebook manipula sistematicamente as informações. Como a quantidade de informação produzida é absurdamente enorme, o Facebook tem um logarítimo que processa as notícias para apresentar ao usuário aquilo que, supostamente, mais irá lhe agradar, o que mais lhe interessaria. Para isso, claro, dados do usuário são coletados e utilizados para traçar um perfil, que será atendido pela seleção realizada pelo logorítimo.
Quais são, no entanto, esses critérios que atendem especificamente cada usuário?
Inicialmente eram afinidade, peso e decadência de tempo. No entanto, hoje, ganharam uma dimensão que poucos imaginam. A triagem era feita pelo EdgeRank, um sistema que, originalmente, classificava as notícias do Facebook – hoje, já sepultado.
Segundo o sítio Marketing Land, em 16 de agosto de 2013, “durante uma chamada telefônica esta semana, Lars Backstrom, Gerente de Engenharia do News Feed Ranking at Facebook (o sistema de classificação das notícias), estimou que existem cerca de 100.000 pesos individuais no modelo que produz News Feed”. Isso mesmo cem mil … . Quais são esses critérios?
E a questão mais interessante está registrada em texto do jornal francês Le Monde: “selecionar um conteúdo suscetível de ser compartilhado e comentado, utilizando notadamente as ações do usuário, é a mesma coisa do que modificar o conteúdo a fim de medir a influência das emoções e os sentimentos do usuário?”
E o jornal responde: “impossível de saber, principalmente porque o funcionamento do algorítimo secreto do Facebook permanece em grande parte desconhecido, então aos usuários não resta outra escolha do que utilizá-lo”.
E o poder das grandes corporações como Facebook cresce na medida exata em que cada vez mais somos reféns de suas engenhocas indispensáveis à vida moderna. Mesmo que o Facebook não possa ser incluído entre os “indispensáveis”, por sua presença cotidiana e ramificações, abre caminho para o debate.