De acordo com o mais recente Internet Safety Report, o aumento da capacidade técnica destas ferramentas e a sua crescente utilização pelos utilizadores tornarão os conteúdos gerados por IA cada vez mais convincentes e, consequentemente, mais atractivos para os cibercriminosos. A investigação, divulgada em Março, segue-se a um conjunto de acontecimentos recentes que voltaram a expor o lado obscuro da IA generativa. A mais mediática foi a abertura de um processo de averiguação à plataforma X – a antiga rede social Twitter – devido à circulação de imagens sexualizadas criadas através do seu chatbot Grok. Um caso que a imprensa internacional admite reacender o debate sobre a responsabilidade das plataformas tecnológicas e a urgência de mecanismos de controlo para conter a disseminação de conteúdo sintético sem consentimento.
Mas as manipulações de natureza sexual são apenas uma das faces do fenómeno. De acordo com especialistas em cibersegurança, os deepfakes estão a ser amplamente utilizados para fins fraudulentos e esquemas de burla. «As tecnologias de IA tornaram mais fácil do que nunca enganar pessoas em larga escala», afirma Konstantin Levinzon, co-fundador da Planet VPN, uma empresa que fornece serviços de rede virtual privada com «uma política rigorosa de ausência de registos». Os criminosos utilizam estas ferramentas «para tudo, desde falsos vídeos de celebridades e políticos até à usurpação de identidade e à imitação de executivos empresariais para obter transferências não autorizadas», sublinha.
Ataques empresariais e risco financeiro
A dificuldade em distinguir o real do artificial está a criar novas vulnerabilidades corporativas. Konstantin Levinzon explica que há relatos de ataques em que empregados foram induzidos, através de vídeos falsos de chefias, a realizar operações financeiras fraudulentas. «Estamos a assistir a uma nova geração de esquemas de phishing audiovisual, em que a imagem e a voz substituem o texto e o correio electrónico», refere. «É um desafio crescente para as instituições financeiras, onde a confiança e a autenticidade são decisivas».
O especialista confirma que parte do problema reside na acessibilidade das ferramentas de criação. «Hoje, um vídeo convincente pode ser fabricado em segundos, com um simples comando de duas linhas, usando aplicações gratuitas». Um exemplo recente foi o vídeo viral que mostrava actores de Hollywood em confronto numa cena inexistente, produzido em minutos e amplamente partilhado nas redes sociais. «Isto demonstra como a fronteira entre o real e o simulado está a desaparecer», acrescenta Konstantin Levinzon.
Europa reage à ameaça
A Comissão Europeia (CE) e várias autoridades nacionais já iniciaram investigações sobre a utilização indevida de IA generativa. Bruxelas considera estabelecer regras mais restritivas para a criação e disseminação de deepfakes, integradas no futuro AI Act, que já começou a entrar em vigor de forma faseada. O objectivo, comunica a CE, é equilibrar o incentivo à inovação tecnológica com a salvaguarda da segurança digital e da confiança pública.
Konstantin Levinzon alerta, porém, que os mecanismos de detecção ainda estão longe de ser perfeitos. «Mesmo os sistemas que analisam imagens e vídeos em busca de sinais de geração artificial produzem apenas resultados probabilísticos, não certezas», explica. Os indicadores mais comuns incluem movimentos faciais ligeiramente forçados, inconsistência de luz e sombra, ou distorções subtis em torno do rosto. «Os traços técnicos podem ajudar, mas não substituem uma vigilância crítica por parte dos utilizadores».
A prevenção, destaca Konstantin Levinzon, passa por uma boa gestão da exposição digital. «Quanto menos vídeos pessoais estiverem disponíveis online, menor é o risco de serem explorados para criar deepfakes», aconselha. O co-fundador da Planet VPN recomenda também o uso de autenticação multifactor e de redes VPN para reforçar a segurança de contas e comunicações. «Uma VPN encripta o tráfego de dados e dificulta que terceiros monitorizem a actividade online, reduzindo significativamente o risco de ser alvo de fraudes e esquemas associados a deepfakes», conclui.
O Internet Safety Report prevê que a próxima geração de conteúdos gerados por IA se torne ainda mais convincente e adaptável, à medida que as plataformas incorporam o retorno dos utilizadores nos seus modelos. Uma evolução que, segundo os especialistas, fará dos deepfakes não apenas uma curiosidade tecnológica, mas uma das maiores ameaças à integridade da informação na era digital.









