{"id":413189,"date":"2021-12-01T19:08:41","date_gmt":"2021-12-01T19:08:41","guid":{"rendered":"https:\/\/theintercept.com\/?p=378745"},"modified":"2021-12-01T19:08:41","modified_gmt":"2021-12-01T19:08:41","slug":"facebook-papers-as-provas-que-faltavam-para-mostrar-como-a-rede-manipulou-voce","status":"publish","type":"post","link":"https:\/\/radiofree.asia\/2021\/12\/01\/facebook-papers-as-provas-que-faltavam-para-mostrar-como-a-rede-manipulou-voce\/","title":{"rendered":"Facebook Papers: as provas que faltavam para mostrar como a rede manipulou voc\u00ea"},"content":{"rendered":"

N<\/span>o final de 2017, o Facebook anunciou uma novidade para conquistar um novo p\u00fablico: um aplicativo de mensagens para crian\u00e7as. O Messenger Kids foi apresentado com os diferenciais de poder ser monitorado pelos pais e ter sido desenvolvido com apoio de especialistas. A ideia era permitir que as crian\u00e7as “se conectassem com quem elas amavam”. Filtros e joguinhos garantiriam a divers\u00e3o, com seguran\u00e7a para pais e m\u00e3es.<\/p>\n

Pouco mais de um ano depois, no entanto, um estudo interno da empresa levantou preocupa\u00e7\u00f5es sobre a ferramenta. O aplicativo estava sendo usado apenas para as crian\u00e7as se comunicarem com quem estava longe. Mas o Facebook queria mais. Queria tornar o Messenger Kids prioridade em momentos de lazer infantis. Queria que os amiguinhos passassem a usar o aplicativo tamb\u00e9m em brincadeiras ao vivo, juntos, e n\u00e3o apenas quando estivessem longe.<\/p>\n

Em um documento interno da empresa chamado “Explorando brincadeiras como alavanca de crescimento do Messenger Kids”, funcion\u00e1rios do Facebook discutem o que chamam de “oportunidade”: trabalhar com os pais e as crian\u00e7as para que o aplicativo rompesse a barreira do online e passasse a permear as brincadeiras ao vivo dos pequenos.<\/p>\n

No estudo, o Facebook constatou que a maioria dos pais n\u00e3o permite que os filhos fa\u00e7am o uso de eletr\u00f4nicos na hora de brincar. Isso era um problema para os neg\u00f3cios. “A maioria das crian\u00e7as (68%) n\u00e3o usa o Messenger Kids nos momentos reservados para brincadeiras”, diz o documento. Em seguida, a empresa pontuou o que chamou de “\u00e1reas de oportunidade”: ferramentas para fazer com que o aplicativo seja usado para iniciar brincadeiras e marcar encontros. “Queremos encontrar maneiras de ajudar as crian\u00e7as a falar sobre o app quando elas est\u00e3o juntas”, diz o texto.<\/p>\n

O objetivo da empresa fica claro: ela queria crescimento e reten\u00e7\u00e3o dos usu\u00e1rios \u2013 no caso, crian\u00e7as pequenas. N\u00e3o havia men\u00e7\u00e3o, por exemplo, ao fato de a Organiza\u00e7\u00e3o Mundial da Sa\u00fade recomendar que crian\u00e7as entre 6 e 10 anos, o p\u00fablico-alvo do aplicativo, passem no m\u00e1ximo duas horas di\u00e1rias em frente a telas. Segundo a empresa, agora rebatizada de Meta, a pesquisa tinha como objetivo melhorar as experi\u00eancias das fam\u00edlias com o aplicativo. A assessoria de imprensa da empresa, no entanto, afirmou reconhecer que “a linguagem usada no estudo n\u00e3o reflete nossa abordagem para uma quest\u00e3o s\u00e9ria”.<\/p>\n

<\/div>\n

O avan\u00e7o sobre as crian\u00e7as \u00e9 mais uma faceta da empresa, segundo revela\u00e7\u00f5es feitas \u00e0 SEC, a ag\u00eancia federal americana respons\u00e1vel pela regulamenta\u00e7\u00e3o e controle dos mercados financeiros, e fornecidas ao Congresso dos Estados Unidos em formato editado pelos advogados de Francis Haugen, uma ex-funcion\u00e1ria do Facebook. A vers\u00e3o editada do arquivo recebida pelo Congresso norte-americano est\u00e1 sendo revisada e publicada por um cons\u00f3rcio internacional de ve\u00edculos jornal\u00edsticos, incluindo o Intercept<\/b>.<\/p>\n

Os documentos vazados por Haugen mostram de maneira cristalina o que cr\u00edticos apontavam h\u00e1 anos: a m\u00e1quina de experimentos do Facebook trabalha incessantemente para aumentar sua base de usu\u00e1rios e manter as pessoas por cada vez mais tempo na plataforma. Parte fundamental dos experimentos era a coleta cont\u00ednua de uma montanha de dados sobre n\u00f3s, usados para manipular a nossa aten\u00e7\u00e3o, moldar nosso comportamento e exibir an\u00fancios desenhados com base nessas informa\u00e7\u00f5es para satisfazer nossos desejos \u00edntimos.<\/p>\n

Os cr\u00edticos j\u00e1 denunciaram muitas vezes as consequ\u00eancias desse modelo de neg\u00f3cios. Ele n\u00e3o est\u00e1 apenas transformando as pessoas em consumidores compulsivos de produtos, mas tamb\u00e9m de teorias da conspira\u00e7\u00e3o, p\u00e2nico e desinforma\u00e7\u00e3o. O algoritmo que produz a timeline que voc\u00ea v\u00ea\u00a0prioriza conte\u00fados produzidos por pessoas brancas e ajuda a espalhar publica\u00e7\u00f5es de \u00f3dio e racismo. Influencia elei\u00e7\u00f5es e provoca viol\u00eancia pol\u00edtica real, assassinatos e linchamentos. Tamb\u00e9m destr\u00f3i a sa\u00fade mental de crian\u00e7as e adolescentes. Em resumo, a plataforma criada com o singelo prop\u00f3sito de \u201cconectar pessoas\u201d ajuda a eleger tiranos e racha fam\u00edlias.<\/p>\n

O Facebook sempre rebateu as cr\u00edticas, refutadas em seus comunicados de imprensa rob\u00f3ticos e a\u00e7\u00f5es precisas de rela\u00e7\u00f5es p\u00fablicas, com o apoio de parceiros que ajudaram a limpar sua imagem. Mas, enquanto emitia negativas protocolares, a empresa acumulava dezenas e mais dezenas de documentos, estudos, experimentos e discuss\u00f5es internas que confirmavam tudo. O arquivo mostra que empregados da empresa levavam em conta as cr\u00edticas que a sociedade estava apontando e os problemas internos da rede social. Mas, na maior parte dos casos, o Facebook escolheu n\u00e3o corrigi-los, apesar dos esfor\u00e7os de alguns funcion\u00e1rios.<\/p>\n

Em quatro semanas, um novo usu\u00e1rio que segue s\u00f3 conte\u00fado recomendado passa a ver mais posts distorcidos.<\/blockquote>\n

Mais grave, a empresa de Mark Zuckerberg n\u00e3o apenas sabia que os problemas existiam, mas tamb\u00e9m tinha condi\u00e7\u00f5es t\u00e9cnicas e recursos para resolv\u00ea-los. Ainda assim, decidiu n\u00e3o fazer isso. \u00c9 essa a hist\u00f3ria contada pelos documentos de Haugen, o que torna as coisas muito piores para Zuckerberg e sua tropa de choque.<\/p>\n

Ex-cientista de dados da empresa, Haugen vazou os documentos, a princ\u00edpio, para o Wall Street Journal \u2013 mais tarde, para as autoridades americanas. Depois, rompeu com o anonimato em v\u00e1rias entrevistas bomb\u00e1sticas, em que acusa o Facebook de priorizar o lucro em detrimento da sa\u00fade mental de seus usu\u00e1rios, de sociedades e da democracia. Segundo ela, “vidas estavam em risco”. “Eu fiz o que era necess\u00e1rio para salvar vidas, especialmente no sul global, que eu acho que estavam em perigo pela prioriza\u00e7\u00e3o do Facebook de lucro acima de pessoas. Se eu n\u00e3o tivesse apresentado esses documentos, isso nunca teria vindo \u00e0 tona”, ela declarou<\/a>.<\/p>\n

Outro documento revelado por Haugen e revisado pelo Intercept, por exemplo, mostra investiga\u00e7\u00f5es internas sobre v\u00e1rios conte\u00fados conspirat\u00f3rios que se tornaram virais. Por que eles continuavam online mesmo ap\u00f3s uma enxurrada de den\u00fancias? Um deles, que questionava os atentados de 11 de setembro, foi classificado como “desinforma\u00e7\u00e3o” pelo pr\u00f3prio Facebook. Isso n\u00e3o o impediu de ser visto mais de 4 milh\u00f5es de vezes em um \u00fanico dia. O veredito da equipe interna que analisou o v\u00eddeo? “Ignorar” as den\u00fancias. Outro, que questionava a efic\u00e1cia de m\u00e1scaras na preven\u00e7\u00e3o da covid-19, foi visto 11 milh\u00f5es de vezes antes de ser classificado como desinforma\u00e7\u00e3o. Na an\u00e1lise interna, o Facebook tamb\u00e9m decidiu ignorar as den\u00fancias.<\/p>\n

Em mais um documento vazado, um funcion\u00e1rio explica que, em 2018, no dia das elei\u00e7\u00f5es, 18,4 milh\u00f5es de posts pol\u00edticos foram visualizados 2,7 bilh\u00f5es de vezes. No total, 74 milh\u00f5es de pessoas foram impactadas pelo conte\u00fado pol\u00edtico. Mas s\u00f3 3% dos usu\u00e1rios foram respons\u00e1veis<\/a> por 35% daquele material. \u00c9 uma “influ\u00eancia desproporcional” no debate p\u00fablico, orquestrada, que pendia para um lado. Voc\u00ea pode imaginar qual: Jair Bolsonaro foi eleito presidente da Rep\u00fablica com folga.<\/p>\n

O funcion\u00e1rio que escreveu o documento sugeria a ado\u00e7\u00e3o de medidas para equilibrar o debate e abaixar o alcance desse tipo de influ\u00eancia pol\u00edtica coordenada. N\u00e3o foi para frente. O resto da hist\u00f3ria voc\u00ea conhece: Bolsonaro se elegeu com facilidade e continuou usando o Facebook como trampolim pol\u00edtico, inclusive com lives que espalharam mentiras negacionistas no meio da pandemia.<\/p>\n

\n\"WASHINGTON,\n

Mark Zuckerberg alardeou o investimento em checagem de fatos como prova de que o Facebook se importava com a luta contra a desinforma\u00e7\u00e3o. O que ele decidiu manter em segredo \u00e9 que estudos internos provaram que os desmentidos\u00a0n\u00e3o t\u00eam tanto efeito quanto se esperaria.<\/p>\n

\nFoto: Graeme Jennings-Pool\/Getty Images<\/p><\/div>\n

N\u00e3o \u00e9 usual que ex-funcion\u00e1rios de big techs quebrem a muralha de sigilo que protege as pol\u00edticas internas. Desde que deixou o Facebook, revelou sua identidade em uma entrevista bomb\u00e1stica e dep\u00f4s no Senado americano, Haugen tem recebido apoio de organiza\u00e7\u00f5es como a Whisteblower Aid e a Luminate, bra\u00e7o filantr\u00f3pico do grupo de Pierre Omidyar, fundador do eBay \u2013 que tamb\u00e9m financiou a funda\u00e7\u00e3o do Intercept. “O que as evid\u00eancias mostram, de forma mais cr\u00edtica, \u00e9 que as torrentes de conte\u00fado t\u00f3xico das redes sociais s\u00e3o sintomas de uma causa raiz, o design de produto e o modelo de neg\u00f3cios. Esses servi\u00e7os digitais foram projetados para maximizar engajamento, isso \u00e9, capturar a nossa aten\u00e7\u00e3o para vender aos anunciantes com pouca preocupa\u00e7\u00e3o sobre as consequ\u00eancias”, disse a Luminate em um comunicado<\/a> em que explicou por que apoiar\u00e1 diretamente as iniciativas que trouxerem essas quest\u00f5es ao debate p\u00fablico.<\/p>\n

Desde outubro, um cons\u00f3rcio de ve\u00edculos tem se debru\u00e7ado sobre o arquivo, cuja vers\u00e3o dispon\u00edvel para a imprensa omite informa\u00e7\u00f5es como nomes de funcion\u00e1rios e t\u00edtulos de pesquisas. Os documentos n\u00e3o ser\u00e3o apresentados na \u00edntegra para evitar a exposi\u00e7\u00e3o involunt\u00e1ria de outros funcion\u00e1rios do Facebook. N\u00f3s j\u00e1 falamos das primeiras revela\u00e7\u00f5es, publicadas no The Wall Street Journal, aqui<\/a>. No Brasil, reportagens baseadas no arquivo de Haugen tamb\u00e9m j\u00e1 foram publicadas pelo N\u00facleo Jornalismo, Folha e Estad\u00e3o.<\/p>\n

N\u00f3s mergulhamos nos documentos e conversas, que saem agora do campo et\u00e9reo de algoritmos e outros c\u00e1lculos dif\u00edceis de entender e chegam em pessoas reais, que ganhavam sal\u00e1rios para maximizar nosso tempo na plataforma, captar nossas informa\u00e7\u00f5es e fazer a empresa lucrar mais do que nunca. Nesse laborat\u00f3rio, fomos todos cobaias, e o resultado do experimento ultrapassa as fronteiras do mundo virtual.<\/p>\n

A seguir, confira alguns dos principais documentos analisados pelo Intercept at\u00e9 agora.<\/p>\n

<\/div>\n

Os documentos secretos de Haugen mostram evid\u00eancias de que o Facebook sabia muito bem como o seu algoritmo operava a favor da radicaliza\u00e7\u00e3o dos usu\u00e1rios. Um post publicado na rede interna da empresa em 3 de setembro de 2020 cita tr\u00eas estudos e conclui que leva apenas quatro semanas para que um novo usu\u00e1rio que segue s\u00f3 conte\u00fado recomendado passe a ver mais posts divisivos, polarizadores ou distorcidos. Um m\u00eas de Facebook, e uma pessoa razo\u00e1vel vira um radical pol\u00edtico, gra\u00e7as ao algoritmo.<\/p>\n

Um dos estudos citados, detalhado na Vice<\/a>, mostra que um usu\u00e1rio comum leva apenas uma semana para ser bombardeado por conte\u00fados do QAnon, que espalha uma s\u00e9rie de mentiras delirantes<\/a> sobre uma suposta elite global de ped\u00f3filos.<\/p>\n

O Facebook sabia como isso acontecia. O escrit\u00f3rio da empresa no Reino Unido encomendou a pesquisadores independentes um estudo s\u00f3 sobre teorias conspirat\u00f3rias. O arquivo, que suprime o nome dos envolvidos, tamb\u00e9m est\u00e1 entre o material vazado por Haugen e analisado pelo Intercept. “O alcance global do Facebook e outras plataformas de m\u00eddia permitem uma r\u00e1pida dissemina\u00e7\u00e3o dessas teorias por vastas dist\u00e2ncias”, diz a pesquisa. “A interatividade, conte\u00fado que prende a aten\u00e7\u00e3o e a habilidade de formar grupos dedicados em algumas redes sociais facilitam o compartilhamento e a manuten\u00e7\u00e3o de teorias da conspira\u00e7\u00e3o”.<\/p>\n

Os pesquisadores enumeram v\u00e1rias: del\u00edrios de que redes 5G causam covid-19, negacionistas de mudan\u00e7as clim\u00e1ticas, gente que batia o p\u00e9 acreditando que a pandemia era uma farsa e o pr\u00f3prio ecossistema QAnon.<\/p>\n

O estudo mostra que h\u00e1 grupos dedicados a disseminar essas teorias e que os usu\u00e1rios mais suscet\u00edveis a elas normalmente tendem a s\u00f3 compartilhar esse tipo de conte\u00fado e ignorar o resto. “A informa\u00e7\u00e3o \u00e9 muitas vezes tirada de um amigo que tem a mesma vis\u00e3o, resultando em c\u00e2maras de eco online”, diz o documento. “Nelas, usu\u00e1rios tendem a ficar presos em comunidades que compartilham o mesmo interesse, e isso resulta no refor\u00e7o de cren\u00e7as conspirat\u00f3rias e alimenta o vi\u00e9s de confirma\u00e7\u00e3o”.<\/p>\n

Em um post antivacina, por exemplo, os pesquisadores constataram que a linguagem normalmente aparenta ser factual e tem uma estrutura l\u00f3gica \u2013 muitas vezes mimetizando informa\u00e7\u00e3o cient\u00edfica.<\/p>\n

O estudo detalha, tamb\u00e9m, estrat\u00e9gias que funcionam e que n\u00e3o funcionam contra esse tipo de conte\u00fado. No rol das falhas est\u00e1 a mera suspens\u00e3o de contas, o que alimenta a suposi\u00e7\u00e3o de que “eles n\u00e3o querem que voc\u00ea saiba disso”. Outra \u00e9 a checagem de fatos: apesar de os desmentidos poderem “potencialmente” mitigar cren\u00e7as conspirat\u00f3rias, eles n\u00e3o agem sobre as cren\u00e7as mais profundas, nem desmontam o sistema mental que faz as pessoas ca\u00edrem nas mentiras.<\/p>\n

O estudo interno desmonta uma estrat\u00e9gia do Facebook: listar financiamento de checagem como “combate \u00e0s fake news”. Essa foi, ali\u00e1s, uma das a\u00e7\u00f5es que a empresa alardeou, em 2018, como uma estrat\u00e9gia para “ajudar as pessoas<\/a> a tomarem decis\u00f5es mais informadas” na campanha eleitoral. Como sabemos, funcionou mais como marketing<\/a> do que como pol\u00edtica de prote\u00e7\u00e3o do debate p\u00fablico.<\/p>\n

Isso porque, enquanto anunciava esses gastos \u2013 que, convenhamos, n\u00e3o faziam nem c\u00f3cegas nos lucros bilion\u00e1rios da empresa \u2013, o Facebook n\u00e3o mudava em nada seu sistema de ranqueamento que privilegiava conte\u00fado mentiroso e violento para prender aten\u00e7\u00e3o.<\/p>\n

A empresa, por meio de sua assessoria, afirmou que as pesquisas internas s\u00e3o parte de um “esfor\u00e7o para criar um espa\u00e7o seguro em nossas plataformas para todos os usu\u00e1rios”. Tamb\u00e9m contestou a ideia de que \u00e9 respons\u00e1vel pela radicaliza\u00e7\u00e3o. “As evid\u00eancias que existem simplesmente n\u00e3o apoiam a ideia de que o Facebook, ou as redes sociais em geral, s\u00e3o a principal causa da polariza\u00e7\u00e3o. O aumento da polariza\u00e7\u00e3o pol\u00edtica antecede as redes sociais em v\u00e1rias d\u00e9cadas. Se fosse verdade que o Facebook \u00e9 a principal causa da polariza\u00e7\u00e3o, esperar\u00edamos v\u00ea-la crescendo onde quer que o Facebook seja popular. N\u00e3o \u00e9”, disse a empresa.<\/p>\n

<\/div>\n

Em junho de 2020, um funcion\u00e1rio decidiu compartilhar seu “pensamento aprofundado” sobre a diferen\u00e7a no uso dos produtos do Facebook de acordo com a ra\u00e7a dos usu\u00e1rios. Seu diagn\u00f3stico: a empresa estava escolhendo n\u00e3o olhar para essa quest\u00e3o, mesmo sabendo que muitos de seus produtos poderiam reproduzir racismo.<\/p>\n

“Mesmo que n\u00f3s presumidamente n\u00e3o tenhamos pol\u00edticas desenhadas com a inten\u00e7\u00e3o de prejudicar minorias, n\u00f3s definitivamente temos pol\u00edticas e pr\u00e1ticas que o fazem”, come\u00e7a o texto, que faz parte do arquivo de Francis Haugen, postado em um grupo interno que debate ideias para enfrentar a injusti\u00e7a racial.<\/p>\n

O que ele reconheceu internamente \u00e9 o que vem sendo repetido h\u00e1 anos por pesquisadores que acusam a plataforma de racismo algor\u00edtmico: os sistemas da empresa reproduzem desigualdades de acordo com a ra\u00e7a do usu\u00e1rio. Em 2019, um estudo j\u00e1 havia mostrado que o Facebook era escandalosamente racista e machista<\/a>: an\u00fancios de vagas de t\u00e1xi eram exibidos para homens negros, e de secret\u00e1rias, para mulheres. Em setembro de 2021, a intelig\u00eancia artificial do Facebook indicou<\/a> a usu\u00e1rios da plataforma v\u00eddeos de primatas ap\u00f3s a reprodu\u00e7\u00e3o de um video protagonizado por um homem negro.<\/p>\n

“Devemos exaustivamente estudar como nossas decis\u00f5es e os mecanismos da rede social apoiam ou n\u00e3o minorias”, defendeu o funcion\u00e1rio. Ele explicou que identificou usos d\u00edspares nos produtos do Facebook por ra\u00e7a, mas seu pr\u00f3ximo par\u00e1grafo deixa claro por que quest\u00f5es sobre grupos minorit\u00e1rios n\u00e3o s\u00e3o tratadas: o Facebook escolheu ser “racialmente cego” \u2013 express\u00e3o que significa n\u00e3o considerar quest\u00f5es raciais nas decis\u00f5es. E com isso, faltam medidas e m\u00e9tricas que apoiem mudan\u00e7as para garantir justi\u00e7a racial.<\/p>\n

Segundo o funcion\u00e1rio, o Facebook “intencionalmente evita capturar informa\u00e7\u00f5es sobre a ra\u00e7a dos usu\u00e1rios”. A raz\u00e3o para isso pode at\u00e9 ser boa: sem coletar dados de ra\u00e7a, anunciantes n\u00e3o conseguem segmentar an\u00fancios espec\u00edficos para pessoas brancas, por exemplo. Mas o empregado viu dois problemas com a escolha.<\/p>\n

“Primeiro, nossos sistemas de machine learning<\/a><\/i> quase certamente s\u00e3o capazes de supor a ra\u00e7a de muitos usu\u00e1rios. \u00c9 virtualmente garantido que nossos sistemas apresentam preconceitos baseados na ra\u00e7a do usu\u00e1rio”.<\/p>\n

“Segundo, muitas das ideias de justi\u00e7a social que discuto abaixo s\u00e3o extremamente dif\u00edceis de estudar se n\u00e3o formos capazes de fazer an\u00e1lises baseadas em ra\u00e7a”, continuou o funcion\u00e1rio. E h\u00e1 ainda uma vis\u00e3o mais c\u00ednica, ele completa, para a falta de dados sobre ra\u00e7a no Facebook. A plataforma deseja evitar saber o que est\u00e1 fazendo. E o que o Facebook est\u00e1 fazendo?<\/p>\n

Assim como percebido nas elei\u00e7\u00f5es brasileiras de 2018, quando grande parte do conte\u00fado do feed de not\u00edcias foi produzido por um pequen\u00edssimo n\u00famero de usu\u00e1rios, o Facebook percebeu que pessoas negras estavam marginalizadas no debate na rede.<\/p>\n

“Qual a fra\u00e7\u00e3o de VPV<\/a> dos Estados Unidos de posts criados por pessoas negras e qual a fra\u00e7\u00e3o de posts visualizados por pessoas negras?”, ele questiona. Se as publica\u00e7\u00f5es de pessoas negras forem significativamente menos vistas que as publica\u00e7\u00f5es criadas por grupos dominantes e vistas por negros, ent\u00e3o vozes negras s\u00e3o sub-representadas em rela\u00e7\u00e3o ao seu uso da plataforma.<\/p>\n

Os usu\u00e1rios recorrem ao Instagram quando precisam de suporte em maus momentos, mas a rede social piora o que j\u00e1 est\u00e1 ruim.<\/blockquote>\n

N\u00e3o fosse isso um problema por si s\u00f3, ele \u00e9 agravado pela otimiza\u00e7\u00e3o do engajamento promovido pela pr\u00f3pria plataforma: “a maioria das grandes vozes negras no espa\u00e7o c\u00edvico s\u00e3o conservadoras e apresentam vis\u00f5es que n\u00e3o parecem representar amplamente a comunidade negra”, o funcion\u00e1rio aponta.<\/p>\n

“De maneira simples, as escolhas que fazemos no ranqueamento do feed de not\u00edcias (e distribuindo an\u00fancios, e em outros produtos) t\u00eam um grande efeito em quem se d\u00e1 bem ou n\u00e3o na nossa plataforma”. Vozes divisivas e sensacionalistas ganham com o posicionamento do Facebook, enquanto todo o resto dos usu\u00e1rios, popula\u00e7\u00f5es e democracias perdem. E a plataforma sabe disso, outro funcion\u00e1rio fez quest\u00e3o de complementar.<\/p>\n

Embora o “problema com pessoas negras” da plataforma seja discutido h\u00e1 anos<\/a>, o Facebook passou longe de assumir ou resolver as implica\u00e7\u00f5es de sua atividade nas comunidades minorit\u00e1rias. Uma planilha interna utilizada para enumerar casos de racismo na plataforma d\u00e1 uma ideia da dimens\u00e3o dos problemas. O primeiro da lista s\u00e3o relativos a reclama\u00e7\u00f5es sobre “notifica\u00e7\u00f5es indesejadas sobre familiares\/publica\u00e7\u00f5es que elas consideram racistas”. A solu\u00e7\u00e3o do Facebook? “Educar os usu\u00e1rios sobre como desligar notifica\u00e7\u00f5es indesejadas”.<\/p>\n

Tamb\u00e9m h\u00e1 uma s\u00e9rie de problemas com sugest\u00f5es e pedidos de amizade. Usu\u00e1rios reportaram receber pedidos de amizade de pessoas que tinham exclu\u00eddo de sua lista de amigos por racismo, al\u00e9m de ver pessoas exclu\u00eddas pelo mesmo motivo sendo reapresentadas pelo Facebook como sugest\u00f5es de amizade. Teoricamente, usu\u00e1rios que desfizeram amizades na plataforma n\u00e3o deveriam ser importunados novamente pelos indiv\u00edduos. A solu\u00e7\u00e3o proposta \u00e9 apenas confirmar se a experi\u00eancia de sugest\u00e3o e pedidos de amizade est\u00e1 funcionando como pretendido.<\/p>\n

No dia 18 de novembro deste ano \u2013 muito provavelmente em resposta \u00e0s cr\u00edticas levantadas pelos vazamentos \u2013, a empresa publicou um texto<\/a> em que detalha suas metodologias para criar m\u00e9tricas para estudar quest\u00f5es raciais na plataforma. No mesmo dia, tamb\u00e9m divulgou um relat\u00f3rio<\/a> sobre o avan\u00e7o de suas medidas de equidade.<\/p>\n

\n\"Mark\n

Confrontado\u00a0em mar\u00e7o do ano passado\u00a0por uma deputada sobre o papel do Facebook no aumento de 60% do n\u00famero de tentativas de suic\u00eddio entre adolescentes nos EUA entre 2011 e 2018, Mark Zuckerberg preferiu fazer rodeios\u00a0a responder.<\/p>\n

\nFoto: Michael Nagle\/Bloomberg via Getty Images<\/p><\/div>\n

<\/div>\n

Na \u00faltima d\u00e9cada, pesquisadores do mundo todo se aprofundaram nos sentimentos negativos proporcionados pelo uso das redes sociais, como a inseguran\u00e7a e a compara\u00e7\u00e3o constante. O pr\u00f3prio Facebook tamb\u00e9m investigou o impacto desses sentimentos. N\u00e3o porque exista uma preocupa\u00e7\u00e3o genu\u00edna com a sa\u00fade dos seus usu\u00e1rios, mas, sim, devido ao medo de perd\u00ea-los e do desejo de prolongar e estreitar cada vez mais essa rela\u00e7\u00e3o.<\/p>\n

Outro documento dos Facebook Papers mostra como a empresa tem ci\u00eancia disso. Intitulado \u201cCommunity RYSK 2020\u201d e postado internamente em 12 de fevereiro de 2020, ele enumera v\u00e1rias pesquisas internas que os funcion\u00e1rios t\u00eam que conhecer \u2013 RYSK \u00e9 um sigla para research you should know <\/i>(pesquisas que voc\u00ea deveria conhecer, em portugu\u00eas).<\/p>\n

O primeiro deles, sobre sa\u00fade mental, considera a opini\u00e3o de mais de 22 mil entrevistados de pa\u00edses como Estados Unidos, Brasil, \u00cdndia, Turquia e Indon\u00e9sia. Os participantes tinham entre 13 e 65 anos e responderam um question\u00e1rio sobre o Instagram. As constata\u00e7\u00f5es trazem alguns pontos:<\/p>\n