
Audiência Pública AGU: Discurso Marie Santini/Reprodução
Nesta quarta-feira (22/01), a diretora do Laboratório de Estudos de Internet e Redes Sociais da Universidade Federal do Rio de Janeiro (NetLab UFRJ), Marie Santini, participou da audiência pública, convocada pela Advocacia Geral da União, para debater os efeitos das novas políticas de moderação de conteúdo implementadas pelas plataformas digitais no Brasil.
Confira no vídeo abaixo o discurso completo de Marie Santini na audiência, e sua transcrição.
ADVOCACIA-GERAL DA UNIÃO
AUDIÊNCIA PÚBLICA, 22 DE JANEIRO DE 2025
PROFESSORA R. MARIE SANTINI
Boa tarde a todos os presentes. Gostaria de agradecer imensamente a oportunidade de comparecer perante esta audiência pública para discutir um tema de extrema relevância para a sociedade brasileira que são as recentes mudanças nas políticas da Meta. As decisões de desmantelar programas de checagem de fatos e relaxar os padrões para moderação de desinformação e discurso de ódio são um ponto de inflexão que ameaça a integridade informacional e a liberdade de expressão no Brasil e no mundo. No entanto, queria chamar a atenção para uma mudança muito significativa anunciada pelo Sr. Zuckerberg, que são as alterações em seus algoritmos, que decidem quais vozes serão amplificadas e silenciadas, quais conteúdos serão recomendados e como os anúncios serão direcionados a cada um de nós. Esses algoritmos, programados para curadoria e moderação de conteúdo, operam sem nenhuma transparência sobre seus critérios. Não sabemos quais conteúdos são efetivamente moderados (removidos por iniciativa própria da
empresa) e quais não são moderados e por quê, mesmo contendo irregularidades ou
crimes, sejam eles pagos ou não. E quando a empresa divulga seus critérios de moderação, verificamos graves inconsistências em muitos casos onde não são aplicadas suas próprias regras.
Essa opacidade mina a confiança pública na real preocupação da empresa com a liberdade de expressão. Afinal, a liberdade só é efetiva quando acompanhada de transparência. A opacidade na moderação permite que se dê liberdade a somente aqueles escolhidos pela empresa, porém de forma velada.
A falta de moderação adequada, especialmente na publicidade - que é a forma como a empresa ganha dinheiro - também compromete gravemente a segurança dos usuários e dos anunciantes legítimos. Uma investigação publicada este mês pelo Financial Times revelou que a Meta programa os algoritmos para reduzirem a detecção de irregularidades e crimes nos conteúdos pagos. Isso é uma critério velado de moderação que causa danos materiais significativos aos usuários e tem facilitado a disseminação de golpes e fraudes na Meta. Pessoas públicas, instituições, empresas privadas, parlamentares e o próprio governo brasileiro têm sofrido com milhares de anúncios fraudulentos que usam de forma indevida suas imagens, marcas e reputações para obtenção de ganhos ilícitos.
Um relatório recente da Silverguard, empresa especializada em proteção financeira digital, revela um dado alarmante: entre janeiro e junho de 2024, 80% dos golpes financeiros no Brasil tiveram início nas plataformas da Meta (Whatsapp, Facebook e Instagram). O mesmo relatório estima que os brasileiros perderam 25 bilhões de reais em golpes financeiros em 2024, valor subestimado pois metade das vítimas de golpes não abrem boletim de ocorrência. Esses números demonstram o impacto concreto da falta de interesse e investimento em moderação pela empresa.
Além disso, a retórica da censura frequentemente utilizada pelas plataformas esconde uma questão importante: a ausência de transparência que tem como objetivo eximí-las de responsabilidades. O discurso das empresas induz o entendimento de que a censura só poderia vir do Estado. Contudo, na realidade atual, as plataformas digitais se constituem como a principal estrutura de censura dos usuários na Internet, decidindo unilateralmente o conteúdo que será moderado ou não. E mais grave: essas empresas detêm mais informações sobre seus usuários do que qualquer Estado-nação jamais sonhou em possuir sobre seus cidadãos. Usam dados das pessoas, inclusive dados sensíveis, para distribuir anúncios personalizados, independente se são legítimos ou não, se contêm crimes de
qualquer ordem ou se colocam os usuários em risco.
Ora, sem transparência adequada a liberdade de expressão se torna uma promessa vazia. Sobre esse ponto, é preciso esclarecer como funcionam os relatórios de transparência de moderação de conteúdo da Meta. Sua estrutura é superficial e sem possibilidade de auditoria independente. Nós, pesquisadores, temos apontado repetidamente a falta de dados para pesquisa. As big techs passaram a adotar o que chamamos de transparency-washing, liberando só dados que lhes convêm. Por exemplo, as empresas divulgam as requisições de governos e tribunais para retirada de conteúdo. No entanto, permanecem opacas quanto às suas próprias práticas cotidianas de moderação, que respondem a 99.8% do conteúdo retirado das plataformas, segundo o DSA Transparency Database.
Importante destacar que a Meta adota um comportamento distinto no Brasil em relação à Europa, onde disponibiliza relatórios de moderação consideravelmente mais detalhados e oferecem dados a pesquisadores. Essa disparidade reforça a tese de que a empresa é capaz de oferecer mais transparência, porém adota voluntariamente uma postura de descaso com o Brasil.
A ausência de regulamentação das plataformas digitais agravará o cenário já opaco em que estamos. Sem transparência na moderação de conteúdo, estamos diante do “tribunal privado e secreto” das próprias plataformas, que têm o poder de controlar o debate público de acordo com seus interesses comerciais, mas usam a retórica da liberdade para manter sua imunidade perante as leis locais.
É urgente a necessidade de um arcabouço regulatório e instruções normativas que possam garantir mecanismos de transparência das plataformas digitais no Brasil para proteção dos direitos fundamentais e da saúde da nossa democracia.