Na conferência Tech for Good, realizada em Atenas, a ESET explicou a sua estratégia e falou de como IA está a mudar a cibersegurança. Roman Kovac, chief research officer, explicou que este é um ambiente «muito dinâmico», como um «jogo em que, de um lado, está a indústria da cibersegurança e os defensores e, no outro, os adversários», que estão «constantemente a obrigar a outra parte a inovar». Sobre a estratégia, Pavol Holeczy, president of EMEA Region, salientou que a segurança do cliente está no «centro das preocupações» e que isso se aplica «tanto ao segmento de consumo como ao empresarial». Por outro lado, Roman Kovac realçou que a ESET vai continuar a apostar em «funcionalidades cloud-first», na «monitorização de vulnerabilidades e na gestão de patches»; em «funcionalidades de desencriptação e reversão de ransomware» e nas áreas de «detecção/resposta de endpoint (EDR) e inteligência contra ameaças».
Para o bem e para o mal
Na keynote ‘Machine Learning in Cybersecurity: Opportunities and Challenges’, Jakub Debski (na foto), chief product officer da ESET, esclareceu que a «IA é como um superpoder que está a transformar os seres humanos em super-heróis ou em vilões» e mostrou exemplos de como isso se reflecte na cibersegurança. O responsável revelou que, no caso dos criminosos, a inteligência artificial dá poderes de «mudança de forma, ao permitir deep fakes» para conseguirem «proveitos financeiros». Jakub Debski alertou que este tipo de ataque se está a tornar «muito popular». Outro dos poderes que a IA está a dar aos vilões é o de «controlar a mente», já que os «large language models [LLM] podem gerar notícias falsas, propaganda e + censura». Segundo a Freedom House, uma ONG americana, há «55 países onde as pessoas já sofrem repercussões graves por exprimirem as suas ideias online», número este que «está a aumentar», disse o chief product officer. Além disso, a IA está a permitir que os cibercrimininosos conjuguem diferentes ameaças e «criem malware», apesar das salvaguardas existentes nos modelos. Há, por isso, um «novo serviço na dark web ligado aos LLM».
Os modelos também podem ser utilizados para a «automatização de identidades virtuais» em ataques nas redes sociais – o responsável explicou como: «Antes, era tudo feito com trolls, mas, neste momento, todo o trabalho pode ser automatizado criando conteúdos únicos. Era muito fácil agrupar os atacantes que utilizavam estas técnicas por semelhanças de conteúdos, mas, agora, cada um pode ser uma identidade única. No futuro, isto vai ser muito difícil de distinguir, em especial quando for implementado em escala». Há ainda a questão da «omnisciência», já que os LLM podem «aumentar o conhecimento de determinada técnica de ataque» ou servir de «fonte de informação para ataques de engenharia social». Por outro lado, podem ajudar na «rápida tradução de um ataque de phishing», em diversas línguas.
Os super-heróis
Mas a IA também pode ajudar os “super-heróis”, sublinhou o responsável. O chief product officer indicou que a ESET já usa «machine learning na detecção de vírus desde 1997» e que foi a «segunda empresa no mundo a fazê-lo, depois da IBM». Os defensores têm, assim, uma ampla gama de poderes derivados da IA à sua disposição que, combinados, permitem aumentar a segurança das soluções, como na «classificação de conteúdos, controlo de acessos, monitorização de comportamentos, detecção de anomalias, reputação e reforço da protecção». Isto está a ser usado para «ajudar na inteligência contra ameaças» da ESET, mas também para dar poderes aos utilizadores. Assim, estes podem trabalhar de perto com a empresa de cibersegurança «usando um chatbot para identificar ameaças e perceber os incidentes nos complexos sistemas de endpoint detection and response. Jakub Debsk finalizou a sua apresentação indicando que «há uma guerra entre o bem e o mal» e que a «IA pode transformar qualquer pessoa num super-herói» nessa batalha.