top of page

Criminosos manipulam com IA vídeos de pequenos influenciadores para aplicar golpes nas redes sociais

  • Foto do escritor: Rafaela  Campos da Silva
    Rafaela Campos da Silva
  • 28 de mar.
  • 1 min de leitura

Atualizado: 10 de abr.

Estadão- 28 de março de 2025



Imagine estar rolando pela timeline de uma rede social e se deparar com o anúncio de um remédio milagroso ou com uma promessa de dinheiro fácil. Mas isso não é o mais estranho: o vídeo da postagem usa sua imagem e sua voz para parecer que você disse coisas que nunca disse.


Essa situação tem se tornado comum para pequenos influenciadores - perfis que produzem conteúdo para um pequeno público e não são famosos. Golpistas têm usado os vídeos dessas contas menores para criar conteúdos falsos, com uso de inteligência artificial (IA). São os chamados deepfakes, conteúdos gerados artificialmente a partir de imagens reais.


Plataformas deveriam fazer combate transparente a conteúdos fraudulentos, segundo pesquisador


O pesquisador Carlos Eduardo Barros, do Laboratório de Estudos de Internet e Mídias Sociais (NetLab) da Universidade Federal do Rio de Janeiro (UFRJ), explica que a facilitação de acesso à tecnologia de IA favorece a aplicação de golpes com vídeos falsos.


“O ideal seria que as forças de segurança tivessem possibilidade de fiscalizar melhor”, afirmou Carlos. “E isso passa por um ponto chave, que é a falta de transparência e responsabilidade das plataformas sobre esses conteúdos”.






 
 
Institucional
Contato
logo_atualizada_branca.png
assinatura.png
ufrj-horizontal-negativa-completa-telas.png

© NetLab UFRJ 2023.  Este trabalho pode ser copiado gratuitamente para fins de ensino e pesquisa não comerciais. Caso queira realizar quaisquer outros usos que infrinjam o direito autoral, contacte nossa coordenação por e-mail.

bottom of page