sábado, 11 de dezembro de 2021

Eu sabia, você sabia, agora temos evidências

 


Há alguns dias, escrevi nesta news sobre a bancada de dados, ou como prefiro, "bancada do like", uma frente no Congresso que se diz preocupada em discutir tecnologia e inovação, mas na prática atende aos interesses de lobistas das gigantes da área. Anteontem, publicamos uma nova reportagem sobre a ética deturpada das big techs, mais especificamente do Facebook. Tivemos acesso aos documentos vazados por Frances Haugen, ex-funcionária do império de Mark Zuckerberg, e vimos se materializar o que eu e você já sabíamos, mas antes não havia provas: a empresa sabe dos riscos das suas tecnologias e não só não trabalha para reduzir esses riscos como cria mecanismos de estímulo para que os usuários continuem colados na tela.

Os documentos, que incluem estudos contratados pelo Facebook (agora "Meta"), detalham como o design dos produtos e o modelo de negócio do grupo são a raiz do problema. Você já deve ter visto, no topo do seu perfil do Facebook, um convite para uma pesquisa da rede, em tese segura e que dura apenas alguns minutos, para que eles te conheçam melhor. Agora entendemos o que eles fazem com isso. 

O que teria um potencial revolucionário infelizmente é usado para estudar comportamentos de consumo que estimulam, por exemplo, a disseminação de desinformação, o racismo estrutural e a radicalização de discursos políticos. Há evidências nesses arquivos de que o Facebook sabe quantas semanas um usuário leva para se radicalizar seguindo posts recomendados – e por tabela se tornar um potencial polinizador de conteúdos polêmicos e engajadores.

Na matéria, que assino com os repórteres Débora Lopes e Paulo Victor Ribeiro, mostramos que o Facebook de fato se preocupa com a saúde mental dos usuários — mas faz isso para evitar que os insatisfeitos deixem de usar as plataformas do grupo. Ver tudo isso documentado na nossa frente foi um misto de assombramento e frisson: finalmente, o que eu venho apontando há anos e, nas matérias do TIB, desde 2018, está provado. 

Minha reportagem de estreia aqui, aliás, em junho de 2018, tinha como título "Facebook e Google investem contra fake news, mas são uma das causas do problema". À época, um consórcio de mais de 20 veículos brasileiros se uniu para combater a divulgação de notícias falsas, uma enxurrada que começou na eleição de Donald Trump com a Cambridge Analytica e teve reflexos no Brasil na traumática campanha eleitoral de Bolsonaro. Apesar de reconhecer a importância da iniciativa, fiz questão de marcar posição e apontei o contrassenso que era essa ação ser financiada pelo Google e pelo Facebook, que sempre vi como parte do problema. 

Fui vista como chata do rolê por alguns colegas jornalistas, mas não me arrependo: os documentos do Facebook revelados pela ex-funcionária que analisamos confirmam o que eu venho dizendo há mais de três anos: essas empresas não são boazinhas, não querem saber se o usuário está bem quando convidam para pesquisas. Elas são empresas que visam ao lucro e, como tal, fazem de tudo para obtê-lo. A matéria-prima que elas usam para isso é o seu tempo — e a sua saúde mental.

Se você ainda não leu a reportagem, te convido a ler, está no nosso site. É importante sabermos que nossa presença em redes sociais não é um simples passatempo: envolve dinheiro grande e riscos, assim como outras indústrias. 

Quero também que você lembre que esses são alertas que fazemos desde o início do Intercept: hoje somos um dos veículos mais críticos à cultura digital predatória em que vivemos. E uma conclusão óbvia, mas o óbvio também precisa ser dito: não é possível fazer isso com o dinheiro do Google, do Facebook, da Amazon ou do iFood. Por mais que eles já tenham apoiado iniciativas positivas e importantes, não é preciso ser especialista para saber que tudo que eles não querem são investigações e denúncias sérias sobre seus impérios. Bom, nós queremos.



Abraço,

Tatiana Dias
Editora Sênior

Nenhum comentário:

Postar um comentário