Técnicas avançadas de inteligência artificial permitem criar vídeos falsos que vão de pornô a golpes milionáriosDeepfake: você também pode ser vítima de vídeos falsos que parecem perfeitos, porque são feitos com técnicas avançadas de inteligência artificial que lhes dão alto nível de verossimilhança. Esse tipo de material já está sendo usado para crimes que vão da disseminação de “pornô de vingança” até golpes milionários contra pessoas e empresas, passando, é claro, pelas indefectíveis fake news que visam desinformar e manipular a opinião pública.
Deepfake para pornografia
O “pornô de vingança” é o crime pelo qual vídeos íntimos são divulgados na internet como forma de vingança contra alguém. Até recentemente, tratava-se de vídeos reais gravados por ex-namorados ou ex-namoradas, por exemplo. Com a técnica de deepfake, porém, é possível criar falsos vídeos pornográficos a partir de fotos e vídeos normais de praticamente qualquer pessoa.
Um levantamento da empresa de consultoria Sensity aponta que 96% dos vídeos deepfake atualmente na rede envolvem pornografia com base em imagens obtidas de forma não consensual. Muitos deles simulam celebridades em atos sexuais, mas cresce preocupantemente o número de vídeos falsos e vingativos de ex-parceiros e, ainda mais grave, de menores para consumo de pedófilos. Um caso registrado pela Sensity é o de um robô do aplicativo Telegram que recebia fotos de mulheres e simulava como elas ficariam nuas.
Deepfake para notícias falsas e “provas” forjadas
Para mostrar como essa tecnologia pode ser perigosa, o cineasta Jordan Peele produziu um vídeo-exemplo usando imagens do ex-presidente norte-americano Barack Obama falando do filme Pantera Negra e criticando o presidente Donald Trump. Quem vê o vídeo não desconfia que seja falso, tamanha é a naturalidade das imagens, embora falsas.
É possível, por exemplo, falsificar discursos, conversas de bastidores, supostas confissões ou declarações polêmicas. E essas falsificações verossímeis podem envolver não apenas políticos, empresários, celebridades e outras pessoas influentes na vida social, mas qualquer pessoa: colegas de trabalho, parentes, vizinhos. E colegas de escola, já que até adolescentes provavelmente passarão usar a técnica à medida que ela for se popularizando.
Além disso, vídeos forjados e razoavelmente convincentes podem bastar para impedir a condenação de um criminoso e, pior ainda, para condenar um inocente.
Deepfake para golpes e extorsões
Se já são frequentes as falsas “provas de sequestro” via telefone tentando extorquir pais e filhos desprevenidos e facilmente impressionáveis, imagine o estrago de vídeos que simulem a pessoa num cativeiro. Ou que simplesmente aparentem um familiar ou amigo muito próximo em situação normal e espontânea, pedindo para você lhe passar dados pessoais sensíveis.
A técnica permite até criar pessoas inexistentes: falsas identidades virtuais podem ser úteis para uma ampla gama de fraudes, desde abertura de contas bancárias em fintechs até manipulação da biometria de uma pessoa real.
É possível identificar um vídeo deepfake?
Por enquanto, sim. Alguns indícios:
- Movimentos pouco naturais dos olhos
- Expressões faciais dissonantes da situação em questão
- Cabelo com aspecto rígido
- Rosto não alinhado com o pescoço
- Aspecto borrado na junção de partes do corpo, como pescoço e cabeça
Executar o vídeo em velocidade reduzida pode facilitar a identificação de trechos manipulados. Buscas no Google também podem encontrar a versão original de imagens adulteradas.
O problema é que a técnica necessariamente vai evoluir e solucionar essas limitações e defeitos atuais, tornando cada vez mais difícil a identificação de vídeos deepfake. Será imprescindível considerar os vídeos apenas como uma parte do quebra-cabeças que precisará ser montado para concluir a veracidade ou falsidade de um suposto fato.
__________
Com informações de Techtudo
Leia também:
Sexo com robôs? Um surreal panorama com questões escabrosas