BrasilCaratingaMinas Gerais

Deepfakes: o que é e como podemos nos proteger da nova onda de crimes

A inteligência artificial possibilita formas novas de manipulação de imagens permitindo a utilização de aplicativos para a produção de conteúdos adulterados ou falsos, as também chamadas de deepfakes.

Apesar dos inúmeros benefícios da Inteligência Artificial (IA), como aprimorar e agilizar o diagnóstico precoce do câncer de mama e democratizar a educação por meio do acesso à conteúdo e às aulas remotas, a falta de segurança tornou-se o ponto mais frágil e preocupante. Com o avanço da tecnologia e da IA, é cada vez mais comum surgirem softwares que conseguem reproduzir a imagem de uma pessoa com voz dela, criando frases completas e imitando até mesmo os trejeitos de fala e sotaque. Para fazer essa criação basta ter acesso a poucos segundos de imagem ou da voz da pessoa — como, por exemplo, um vídeo postado nas redes sociais ou até mesmo um áudio enviado em aplicativos de mensagem.7


Segundo os dados do Anuário Brasileiro de Segurança Pública 2023, foram registrados 200.322 casos de estelionato por meio eletrônico, número 65% maior do que o registrado em 2021, quando esse número foi de 120.470. Os Estados com mais casos desse tipo de golpe são Santa Catarina (64.230), Minas Gerais (35.749), Distrito Federal (15.580) e Espírito Santo (15.277). Nesse cenário, é preciso desconfiar dos conteúdos encontrados na internet e dos recebidos por aplicativos. Prova disso é um vídeo em que o médico Drauzio Varella aparece supostamente indicando gotinhas milagrosas para manter a pele jovem e bonita, que ganhou as redes sociais e grupos de famílias. Apesar da voz ser muito semelhante à do médico, o vídeo é falso e se trata de uma montagem com uso de IA para clonar a voz, que é colocada em um vídeo produzido por ele, mas que originalmente abordava outro assunto.


A inteligência artificial avança e fica mais sofisticada para cometer crimes ao possibilitar o desenvolvimento de programas para aplicar golpes com manipulação da voz e de imagens. Os criminosos se passam por pessoas de bancos e até por órgãos públicos para tirar dinheiro e criar informações falsas. O crescimento dos crimes virtuais fez até a Receita Federal emitir um comunicado para evitar novas vítimas relacionadas a compras internacionais. Entre as orientações, a Receita alerta que nunca liga ou manda mensagem sobre cobrança de pagamento para liberar mercadorias que não recebe pagamento de impostos dos importados por meio de Pix, QR Code, cartão de crédito ou cartão de débito. Por meio do site, o órgão reforça que qualquer pagamento para a Receita Federal é realizado somente por Documento de Arrecadação de Receitas Federais (DARF) e que no caso de encomendas feitas pelos Correios a emissão do boleto é feita pelo site ou aplicativo da própria empresa.


Além dos golpes financeiros, a tecnologia também é utilizada para manipular e constranger mulheres. No início deste ano, imagens falsas geradas por inteligência artificial nas quais a cantora Taylor Swift aparece nua circularam pelas redes sociais, gerando revolta nos fãs da cantora, que colocaram a tag “protect Taylor” (protejam a Taylor, em português). Swift foi mais uma vítima dos falsos nudes, ou “deepnudes” — uma variação do termo “deepfakes”, usado para designar imagens ou vídeos que manipulam a voz, o corpo ou o rosto das pessoas de maneira realista usando inteligência artificial. A prática, quase sempre aplicada contra mulheres, costuma ser usada para extorquir ou constranger a vítima.


Na tentativa de combater a prática, tramita na Câmara Federal o projeto de lei 5.695/23 que puniria quem adulterar fotos, vídeos ou áudios com intuito de humilhar ou ameaçar mulheres. O texto foi aprovado pela Comissão de Defesa dos Direitos da Mulher, agora precisa ser analisado e aprovado pela Comissão de Constituição e Justiça e de Cidadania (CCJ) para ser levado ao plenário da Câmara. Em caso de aprovação, ele será enviado ao Senado. O intuito é punir quem “adulterar, alterar, criar, desenvolver, elaborar, fabricar, manipular, preparar ou produzir fotos, vídeos ou áudios, utilizando-se de sistema de inteligência artificial, com o objetivo de causar constrangimento, humilhação, assédio, ameaça ou qualquer outro tipo de violência à mulher, no âmbito doméstico ou familiar”. Uso de IA e deepfakes para constranger mulheres poderá dar até 4 anos de cadeia, prevê projeto.


A modalidade de fraude também foi usada durante as eleições. Este ano, a credibilidade de candidatos e partidos esteve em risco, assim como a confiança pública nas informações que circularam durante o período eleitoral. Na tentativa de combater o uso indevido de imagens, o Tribunal Superior Eleitoral (TSE) regulamentou o uso da IA na propaganda de partidos, coligações, federações partidárias, candidatas e candidatos nas Eleições Municipais de 2024. Ao alterar a Resolução nº 23.610/2019, que trata de propaganda eleitoral, o Tribunal incluiu diversas novidades que envolvem a inteligência artificial.

São elas: proibição das deepfakes; obrigação de aviso sobre o uso de IA na propaganda eleitoral; restrição do emprego de robôs para intermediar contato com o eleitor (a campanha não pode simular diálogo com candidato ou qualquer outra pessoa); e responsabilização das big techs que não retirarem do ar, imediatamente, conteúdos com desinformação, discurso de ódio, ideologia nazista e fascista, além dos antidemocráticos, racistas e homofóbicos.

Veja 7 dicas para se proteger de golpes que usam IA

Fique atento: tenha consciência que esse tipo de golpe existe e desconfie de qualquer tipo de conteúdo em vídeo, áudio ou imagem;

Use o telefone ou fale pessoalmente: na dúvida se é realmente a pessoa que está interagindo por uma chamada de vídeo ou em um vídeo use o telefone e ligue direto para aquele contato ou tente falar com ele pessoalmente;

Atenção aos detalhes: analise detalhes de movimentações dos olhos e da boca, eles podem indicar algumas inconsistências e falta de naturalidade;

Qualidade da conexão: se a imagem ou o som parecem perfeitos demais, ou, ao contrário, artificialmente distorcidos, pode ser um sinal;

Perguntas específicas: faça perguntas a respeito de situações que só você e a pessoa vivenciaram ou criem uma frase, ou palavra-chave para confirmar a autenticidade de quem está do outro lado da chamada;

Mude de assunto: se você suspeitar que algo está errado durante uma ligação ou chamada de vídeo, tente mudar de assunto, perguntando como está no trabalho. Muitos golpistas acabam desligando nessas situações;

Atenção redobrada em pedidos de dinheiro: casos que envolvam pedidos de dinheiro, seja por PIX ou outras transferências eletrônicas, redobre a atenção. Nesses casos existe uma chance muito grande de ser um golpe.

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo