O impacto do uso da IA nas eleições é uma grande preocupação nos mais de 80 países que vão às urnas este ano. Mas o Brasil tenta avançar no combate a atores que podem prejudicar o processo democrático.
DFRLab e NetLab UFRJ
O Brasil está entre os mais de 80 países que realizarão eleições em 2024, enfrentando um contexto inédito de fácil acesso a ferramentas de inteligência artificial generativa. Essas ferramentas podem afetar as campanhas eleitorais com manipulação e criação de conteúdos de desinformação e deepfakes (termo que se refere a vídeos, fotos ou áudios em que o corpo, rosto ou voz de uma pessoa é digitalmente alterado por ferramentas de IA, com o intuito de causar danos).
No dia 6 de outubro de 2024, cerca de 155 milhões de brasileiros irão às urnas para eleger prefeitos e vereadores dos 5.568 municípios do país. Em uma tentativa de conter o uso nocivo de tecnologias em uma eleição tão grande e descentralizada, o Tribunal Superior Eleitoral (TSE), órgão responsável pela organização e fiscalização do pleito no Brasil, aprovou em 27 de fevereiro uma resolução com diretrizes para o uso de inteligência artificial nas campanhas eleitorais.
Trata-se de uma das primeiras iniciativas, em todo o mundo, de regulamentar a IA no contexto eleitoral. Na última década, o Brasil tem sido pioneiro em discussões e legislações sobre governança de internet, regulamentação de plataformas e redes sociais e combate à desinformação.
Em 2014, o país aprovou o Marco Civil da Internet, uma lei que estabelece os princípios, garantias, direitos e deveres no uso da rede. Atualmente, está em discussão no Congresso um projeto de lei para estabelecer diretrizes de moderação de conteúdo em redes sociais, relatórios de transparência e medidas contra contas e perfis inautênticos em plataformas sociais (projeto de lei 2.630/2020, chamado de PL das Fake News). A iniciativa gerou forte reação das plataformas digitais, que se articularam para derrotar o projeto, lançando campanhas de deslegitimação do PL. A Polícia Federal concluiu que a atuação de Google e Meta configurou “abuso de poder econômico, manipulação de informações e possíveis violações contra a ordem consumerista".
Em fóruns multilaterais, o Brasil já organizou duas edições do NETMundial+10, congresso sobre governança de internet, e levou temas de regulação de plataforma para o G20, cuja presidência temporária é exercida pelo país em 2024.
Apesar dos avanços em matéria de governança da internet, o país ainda registra intensas atividades e campanhas de desinformação no ambiente virtual, e não apenas em períodos eleitorais.
A nova resolução eleitoral brasileira exige transparência na veiculação de materiais de comunicação que tenham recebido tratamento de ferramentas de inteligência artificial. Pela norma, qualquer utilização de IA deverá ser explicitamente informada à audiência, assim como o nome da ferramenta usada. A única exceção são os retoques em imagem e som para melhoria de qualidade, ou montagens fotográficas rotineiras de campanhas eleitorais. O descumprimento desta determinação acarreta na remoção do conteúdo ou na indisponibilidade do serviço de comunicação onde o conteúdo é veiculado.
O TSE, no entanto, prevê punições mais rígidas quando os recursos de IA forem usados para produzir conteúdos falsos e deepfakes, com a intenção de prejudicar ou favorecer uma candidatura. Nesses casos, haverá a cassação do registro ou do mandato do candidato que empregou a estratégia.
“É vedada a utilização, na propaganda eleitoral, qualquer que seja sua forma ou modalidade, de conteúdo fabricado ou manipulado para difundir fatos notoriamente inverídicos ou descontextualizados com potencial para causar danos ao equilíbrio do pleito ou à integridade do processo eleitoral”, diz o texto.
“É proibido o uso, para prejudicar ou para favorecer candidatura, de conteúdo sintético em formato de áudio, vídeo ou combinação de ambos, que tenha sido gerado ou manipulado digitalmente, ainda que mediante autorização, para criar, substituir ou alterar imagem ou voz de pessoa viva, falecida ou fictícia (deep fake)”, complementa a resolução.
No entanto, a resolução não estipula como será feita a regulação de conteúdo falso produzido por pessoas não ligadas a partidos, candidatos ou campanhas, e tampouco estabelece como se dará a fiscalização desses casos.Pelo menos três casos de deepfake contra pré-candidatos a prefeituras foram identificados no Brasil antes da publicação da resolução do TSE. Foram áudios adulterados que circularam em grupos de WhatsApp, plataforma de mensagens que é considerada a principal fonte de informação para 79% dos brasileiros. As mensagens, que imitavam as vozes das vítimas, faziam críticas e xingamentos a servidores públicos e adversários políticos.
A campanha para as eleições municipais brasileiras começa, oficialmente, no dia 16 de agosto, e se encerra em 1º de outubro, a cinco dias do primeiro turno. É permitido veicular peças publicitárias e conteúdos informativos na televisão, rádio e internet, inclusive com impulsionamento de anúncios na web. Qualquer publicidade ou pedido explícito de voto fora desse período pode ser considerada uma irregularidade passível de multa. No entanto, desde 15 de maio, os partidos políticos e pré-candidatos já podem arrecadar fundos para as campanhas. Esse período é popularmente chamado de pré-campanha, e a resolução do TSE também inclui essa fase.
Embora o Brasil seja referência mundial na realização de eleições graças à utilização de urnas eletrônicas que garantem mais celeridade e segurança ao pleito, a intensa polarização política no país vêm impondo, nos últimos anos, desafios para a legitimidade do sistema eleitoral.
Desde a disputa que o elegeu presidente em 2018, Jair Bolsonaro é um incansável articulador de teorias conspiratórias sobre a vulnerabilidade das urnas eletrônicas, que são utilizadas desde 2000 no Brasil e nunca tiveram registro de irregularidade.
A campanha eleitoral de 2022 foi marcada por acusações de falta de lisura no processo eleitoral e ameaças de rompimento do Estado de Direito. Inflados por influencers e personalidades bolsonaristas com grande audiência nas redes sociais, grupos afins ao ex-presidente foram eloquentes nas acusações de fraude e nos pedidos de golpe militar das forças armadas, culminando nas manifestações antidemocráticas de 8 de janeiro de 2023.
Os recentes acontecimentos da democracia brasileira são o pano de fundo para as eleições de 2024. A polarização no país não dá sinais de esfriamento, o que levou o Edelman Trust Barometer a indicar, em 2023, que o Brasil está em risco de polarização severa.
Também não há motivos para crer que o recurso à desinformação, fartamente observado nos últimos pleitos, será reduzido. A rigor, há uma forte expectativa de que ele tenha ainda mais impacto com o uso de deepfake.
A resolução do TSE em detalhes
As diretrizes para o uso de ferramentas de IA nas eleições brasileiras estão na resolução de número 23.732 do TSE. O documento lista um conjunto de 12 medidas aprovadas no dia 27 de fevereiro pelos juízes do TSE para atualizar a resolução 23.610, de 2019, que regia toda a propaganda eleitoral no Brasil.
As normas de IA estão descritas no Artigo 9º-B: “A utilização na propaganda eleitoral, em qualquer modalidade, de conteúdo sintético multimídia gerado por meio de inteligência artificial para criar, substituir, omitir, mesclar ou alterar a velocidade ou sobrepor imagens ou sons impõe ao responsável pela propaganda o dever de informar, de modo explícito, destacado e acessível que o conteúdo foi fabricado ou manipulado e a tecnologia utilizada”.
O artigo detalha como essa informação deve aparecer nas peças de comunicação. Por exemplo: “no início das peças ou da comunicação feitas por áudio” ou “ em cada página ou face de material impresso”.
Só será permitido utilizar ferramentas de inteligência artificial em materiais eleitorais em três situações:
Para ajustes destinados a melhorar a qualidade de imagem ou de som;
Para produção de elementos gráficos de identidade visual, vinhetas e logomarcas;
Em recursos de marketing de uso costumeiro em campanhas, como a montagem de imagens em que pessoas candidatas e apoiadoras aparentam figurar em registro fotográfico único utilizado na confecção de material impresso e digital de propaganda.
A nova resolução também restringe a utilização de robôs (os famosos chatbots) que simulem diálogo com o candidato ou com qualquer outra pessoa, e trata de outros temas, como:
Conteúdo falso
A norma exige que as plataformas de tecnologia e redes sociais se responsabilizem por retirar do ar, imediatamente, conteúdos que contenham desinformação, discurso de ódio, ideologia nazista e fascista, além de narrativas antidemocráticas, racistas e homofóbicas.
Chamada de “responsabilidade solidária”, a medida pede que as big techs atuem contra conteúdos desinformativos, sem a necessidade de denúncia dos usuários ou ordem judicial para a remoção das postagens. Esse nova medida é um dos pontos mais relevantes da resolução do TSE, pois exige um esforço maior das plataformas no combate à desinformação.
Em resposta, plataformas como Google e Meta demonstraram incômodo com a determinação e chegaram a pedir ao TSE uma alteração no texto para que não fossem responsabilizadas pelo conteúdo produzido pelos usuários. O pedido não foi atendido e a resolução foi aprovada com esse item no texto.
Pela nova resolução, também fica estritamente proibido o impulsionamento de anúncios que contenham fatos falsos.
Anúncios políticos
As plataformas que permitirem impulsionamento de anúncios eleitorais deverão adotar medidas específicas para evitar a disseminação de conteúdos inverídicos. Entre as medidas, a resolução sugere:
A aplicação de termos de uso e de políticas de conteúdo compatíveis com o contexto eleitoral;
A criação de canais de denúncia acessíveis a usuários e a instituições públicas e privadas;
A adoção de ações preventivas e corretivas na plataforma; e transparência em relação aos efeitos e resultados dessas ações;
A elaboração de relatório específico para o ano eleitoral sobre o impacto da plataforma na integridade das eleições.
Só será permitida a veiculação de anúncios políticos positivos, ou seja, aqueles que não falem mal de adversários ou difundam informações difamatórias, inverídicas ou descontextualizadas.
Além disso, as plataformas que permitirem impulsionamento de conteúdos políticos terão que disponibilizar um repositório com todos os anúncios que forem ao ar. A resolução exige que o repositório seja acessível facilmente e que ofereça a opção de busca avançada nos dados dos anúncios. É preciso que:
A ferramenta faça buscas de anúncios a partir de palavras-chave, termos de interesse e nomes de anunciantes;
Mostre os gastos em impulsionamentos, período que o anúncio foi ao ar, a quantidade de pessoas atingidas e os critérios de segmentação definidos pela(o) anunciante no momento da veiculação do anúncio;
Permita coletas sistemáticas, por meio de interface dedicada (application programming interface – API), de dados de anúncios, incluindo seu conteúdo, gasto, alcance, público atingido e responsáveis pelo pagamento.
Colaboração com a justiça
A resolução exige que as plataformas colaborem com a justiça eleitoral e cumpram as ordens judiciais para remoção de conteúdo e suspensão de perfis. Os materiais e contas bloqueadas permanecerão indisponíveis na plataforma mesmo após o período eleitoral, salvo se outra decisão judicial permitir sua liberação.
Impactos da regulamentação
A regulamentação do TSE para o uso de ferramentas de IA na campanha eleitoral brasileira é algo inédito no Brasil. Trata-se de uma tentativa importante de minimizar riscos e vulnerabilidades no processo eleitoral, considerando os frequentes novos desafios impostos pela tecnologia.
No entanto, como será a primeira vez que as eleições ocorrerão com uma regulamentação específica para IA, é imprescindível acompanhar o processo eleitoral brasileiro e como as medidas serão aplicadas. Os aprendizados desse pleito devem servir de insumo para a evolução de legislações sobre o tema no médio e longo prazo.
O texto do TSE deixa lacunas em uma série de tópicos. Por exemplo, falta a definição do que deve ser considerado “conteúdo com desinformação” ou “fato descontexualizado”. Apesar da dificuldade mundial de definir esses termos, é importante ter uma classificação para evitar falhas na moderação de conteúdo e na execução da lei.
Em seu Artigo 9o, a resolução fala em “ações corretivas preventivas, incluindo o aprimoramento de seus sistemas de recomendação de conteúdo”, sem estabelecer parâmetros ou indicadores, e maneiras de aferir o cumprimento da determinação. Estas imprecisões podem prejudicar o combate ao uso irregular da tecnologia, relegando ao juízo das próprias plataformas decisões importantes sobre ações de correção e prevenção.
Considerando que a própria resolução exige pró-atividade das plataformas em retirar do ar casos de deepfake, desinformação e fatos descontextualizados, abre-se espaço para a adoção de diferentes critérios e ferramentas na moderação dos conteúdos. É possível garantir que as remoções de conteúdos, perfis e contas sejam feitas de maneira imparcial, transparente e precisa?
A resolução também não dá detalhes sobre como, especificamente, será feita a fiscalização do cumprimento das medidas. O texto sugere que haja uma responsabilidade compartilhada, com os agentes da lei, a sociedade civil, os partidos políticos, coligações, candidatos e as próprias empresas de tecnologia atuando em conjunto. Mas não informa o mecanismo prático — se é que existirá — dessa fiscalização. Não há previsão, por exemplo, de alguma ferramenta que será desenvolvida para este fim.Nesse sentido, é de se prever que alguns casos de deepfake e desinformação passem despercebidos. A regulamentação, então, não é garantia de eliminação de todos os casos.
Há também uma preocupação a respeito da produção de materiais falsos por eleitores e apoiadores, o que foi frequente nas últimas eleições no Brasil. As plataformas digitais foram extensamente utilizadas para disseminar conteúdos falsos com o objetivo de alavancar candidaturas, mas sem ligação oficial com as campanhas ou partidos. A resolução proíbe o impulsionamento de conteúdo eleitoral por pessoas físicas, mas, em eleições passadas, as plataformas não cumpriram com sua obrigação de proteger o processo eleitoral, permitindo inúmeros anúncios do tipo, e os órgãos fiscalizadores não foram capazes de coibir a prática. A resolução não especifica o que será feito para detectar esta prática, e quais seriam as punições para os envolvidos.
A curto prazo, a regulamentação já tem provocado reações no Brasil. O Google, por exemplo, decidiu que não permitirá a veiculação de anúncios eleitorais já a partir do mês de maio em suas plataformas, como o motor de buscas e o YouTube. A empresa alegou dificuldade técnica em cumprir as normas do TSE, como a manutenção de um repositório para acompanhamento em tempo real dos anúncios e uma ferramenta de pesquisa avançada. A empresa já possui ferramenta com essa finalidade, mas seu funcionamento é limitado. Segundo o Google, a definição de “conteúdo político” apresentada pelo TSE é muito ampla, tornando inviável o acompanhamento dos impulsionamentos dessa categoria.
O X, antigo Twitter, também parou de permitir que usuários do país impulsionem conteúdos políticos em sua plataforma. A mudança foi constatada por veículos de imprensa brasileiros, na primeira semana do mês de maio, quando se encerrou o prazo dado pelo TSE para as plataformas se adequarem à resolução. Até o momento, o X não se pronunciou oficialmente sobre o tema.
Ao suspender a veiculação de propaganda eleitoral em suas plataformas, o Google - e possivelmente também o X - se abstém de adotar as práticas regulatórias estabelecidas pela autoridade eleitoral brasileira. Tendo em vista a experiência dos pleitos anteriores, a medida não será suficiente para impedir a veiculação de anúncios irregulares feita por terceiros.
Apesar das mudanças, as plataformas não deixam de ser atores importantes no contexto eleitoral. Devem continuar recebendo tentativas de publicações de anúncios políticos, o que abre um novo cenário complexo de fiscalização.
Diante desse contexto inédito, o DFRLab e o NetLab UFRJ farão parceria para acompanhar o uso de ferramentas de IA durante as eleições municipais brasileiras de 2024 e os efeitos da regulamentação do TSE sobre o tema. Esse artigo foi publicado também no site do DFRLab.