Há
alguns dias, escrevi nesta news sobre a bancada de dados, ou como
prefiro, "bancada do like", uma frente no Congresso que se diz
preocupada em discutir tecnologia e inovação, mas na prática atende aos
interesses de lobistas das gigantes da área. Anteontem, publicamos uma
nova reportagem sobre a ética deturpada das big techs, mais
especificamente do Facebook. Tivemos acesso aos documentos vazados por
Frances Haugen, ex-funcionária do império de Mark Zuckerberg, e vimos se
materializar o que eu e você já sabíamos, mas antes não havia provas: a
empresa sabe dos riscos das suas tecnologias e não só não trabalha para
reduzir esses riscos como cria mecanismos de estímulo para que os
usuários continuem colados na tela.
Os
documentos, que incluem estudos contratados pelo Facebook (agora
"Meta"), detalham como o design dos produtos e o modelo de negócio do
grupo são a raiz do problema. Você já deve ter visto, no topo do seu
perfil do Facebook, um convite para uma pesquisa da rede, em tese segura
e que dura apenas alguns minutos, para que eles te conheçam melhor.
Agora entendemos o que eles fazem com isso.
O
que teria um potencial revolucionário infelizmente é usado para estudar
comportamentos de consumo que estimulam, por exemplo, a disseminação de
desinformação, o racismo estrutural e a radicalização de discursos
políticos. Há evidências nesses arquivos de que o Facebook sabe quantas
semanas um usuário leva para se radicalizar seguindo posts recomendados –
e por tabela se tornar um potencial polinizador de conteúdos polêmicos e
engajadores.
Na matéria, que assino com os repórteres Débora Lopes e Paulo Victor Ribeiro, mostramos que o
Facebook de fato se preocupa com a saúde mental dos usuários — mas faz
isso para evitar que os insatisfeitos deixem de usar as plataformas do
grupo. Ver tudo isso documentado na nossa frente foi um misto
de assombramento e frisson: finalmente, o que eu venho apontando há anos
e, nas matérias do TIB, desde 2018, está provado.
Minha
reportagem de estreia aqui, aliás, em junho de 2018, tinha como título
"Facebook e Google investem contra fake news, mas são uma das causas do
problema". À época, um consórcio de mais de 20 veículos brasileiros se
uniu para combater a divulgação de notícias falsas, uma enxurrada que
começou na eleição de Donald Trump com a Cambridge Analytica e teve
reflexos no Brasil na traumática campanha eleitoral de Bolsonaro. Apesar
de reconhecer a importância da iniciativa, fiz questão de marcar
posição e apontei o contrassenso que era essa ação ser financiada pelo
Google e pelo Facebook, que sempre vi como parte do problema.
Fui
vista como chata do rolê por alguns colegas jornalistas, mas não me
arrependo: os documentos do Facebook revelados pela ex-funcionária que
analisamos confirmam o que eu venho dizendo há mais de três anos: essas
empresas não são boazinhas, não querem saber se o usuário está bem
quando convidam para pesquisas. Elas são empresas que visam ao lucro e,
como tal, fazem de tudo para obtê-lo. A matéria-prima que elas usam para
isso é o seu tempo — e a sua saúde mental.
Se
você ainda não leu a reportagem, te convido a ler, está no nosso site. É
importante sabermos que nossa presença em redes sociais não é um
simples passatempo: envolve dinheiro grande e riscos, assim como outras
indústrias.
Quero
também que você lembre que esses são alertas que fazemos desde o início
do Intercept: hoje somos um dos veículos mais críticos à cultura
digital predatória em que vivemos. E uma conclusão óbvia, mas o óbvio
também precisa ser dito: não é possível fazer isso com o dinheiro do Google, do Facebook, da Amazon ou do iFood.
Por mais que eles já tenham apoiado iniciativas positivas e
importantes, não é preciso ser especialista para saber que tudo que eles
não querem são investigações e denúncias sérias sobre seus impérios.
Bom, nós queremos.
Abraço,
|
Nenhum comentário:
Postar um comentário