Outro desafio para este profissional é a escassez de profissionais qualificados em IA e cibersegurança: «Um estudo de Maio de 2024 indica que 89% dos profissionais de TI e segurança relatam uma lacuna significativa de competências, o que pode dificultar a implementação eficaz de soluções baseadas em IA». Para reduzir estes desafios, Rui Duro salienta a importância de investir em formação contínua e promover uma cultura de cibersegurança dentro das organizações: «A Check Point tem a vantagem de ter quantidades massivas de dados na Threat Cloud que ajuda a treinar a eficácia da sua IA».
Já António Correia, aponta, como desafios, a gestão de volumes crescentes de dados necessários para treinar os modelos de IA, a integração com sistemas existentes e a necessidade de garantir que os resultados fornecidos pela IA sejam confiáveis e livres de vieses: «Além disso, a supervisão humana continua a ser crucial para interpretar os resultados e tomar decisões informadas».
Garantir que os modelos de IA sejam alimentados por dados de alta qualidade e livres de vieses foi o principal repto mencionado por David Sanz, da Commvault: «Além disso, as empresas enfrentam desafios na integração das soluções com infra-estruturas legadas e na formação das equipas para utilizarem estas ferramentas de forma eficaz».
Integração é sempre uma incógnita
O repto encontrado durante a implementação de soluções baseadas em IA avançado por Raphael Reischuk, da Zühlke, é que, sempre que se faz a integração de uma nova tecnologia, é necessário adoptar uma gestão de risco, uma vez que esta pode representar novas oportunidades e desafios. Assim, e no caso das soluções baseadas em IA, o responsável destacou dois riscos: «Em primeiro lugar, as decisões tomadas pela IA não são muitas vezes explicáveis – por vezes não se faz ideia do motivo pelo qual uma decisão foi tomada de uma determinada forma». Raphael Reischuk diz que a melhor forma de lidar com este desafio é «fornecer o maior número possível de fontes e explicações para compreender por que razão a IA tomou uma determinada decisão e, em certos casos, por que motivo falhou»
Como segundo desafio, o especialista considera que, muitas vezes, a IA não é suficientemente testada: «Muitos dos modelos públicos não são considerados suficientemente seguros, mas mesmo assim são divulgados ao público, o que acarreta muitos riscos». No seu entender, a estratégia deve passar, por isso, por testá-los bem e não os divulgar demasiado cedo: «A Apple é um bom exemplo desta estratégia, pois embora tenha surgido com soluções de IA mais tarde que alguns concorrentes, a sua tecnologia parece ter sido testada mais formalmente».