Com o avanço da inteligência artificial (IA), deepfakes, que são vídeos, imagens e áudios falsos criados por algoritmos sofisticados, estão se tornando uma preocupação crescente em áreas como mídia, política e segurança pessoal. Gabriel Gomes de Oliveira, especialista do Instituto de Engenheiros Elétricos e Eletrônicos (IEEE), destaca que, apesar da dificuldade em identificar esses conteúdos, é possível detectá-los por meio de sinais como inconsistências na iluminação, movimentos mecânicos e sincronia labial inadequada.Com o avanço da inteligência artificial (IA), deepfakes, que são vídeos, imagens e áudios falsos criados por algoritmos sofisticados, estão se tornando uma preocupação crescente em áreas como mídia, política e segurança pessoal. Gabriel Gomes de Oliveira, especialista do Instituto de Engenheiros Elétricos e Eletrônicos (IEEE), destaca que, apesar da dificuldade em identificar esses conteúdos, é possível detectá-los por meio de sinais como inconsistências na iluminação, movimentos mecânicos e sincronia labial inadequada.
A detecção de deepfakes exige atenção a detalhes específicos, como variações não naturais na iluminação de um quadro para outro e movimentos bruscos que parecem artificiais. Além disso, alterações no tom de pele e frequentes piscadas de olhos são indicativos de manipulação digital. A educação e o uso de medidas de segurança avançadas são essenciais para combater essa ameaça crescente.
Para proteger a privacidade, especialmente em tecnologias imersivas como realidade aumentada e virtual, Oliveira recomenda a revisão constante dos sistemas, a implementação de medidas de cibersegurança e o investimento em treinamentos contínuos. A colaboração entre equipes de TI e outros departamentos é fundamental para garantir uma defesa robusta e alinhada com as necessidades organizacionais, além de conduzir avaliações regulares de vulnerabilidades para manter a segurança das inovações tecnológicas.
Da Redação