NotíciasTendências

IA confiável «não é só a tecnologia» e requer uma «abordagem global» que envolva pessoas e processos

Numa conferência de imprensa online, o SAS explicou a sua abordagem à IA confiável (trustworthy AI, em inglês) e como funciona Regulamento da Inteligência Artificial da União Europeia, que vai entrar em vigor ainda este ano.

Josefin Rosén ©SAS

Neste webinar, Josefin Rosén (trustworthy AI specialist do SAS Data Ethics Practice) começou por esclarecer que existem riscos associados à inteligência artificial, mas que estes «não são existenciais». A responsável salientou que o risco reside no facto de a «IA realizar tarefas de forma muito mais rápida e eficiente» que os humanos; por isso, se «cometer um erro, ou se se comportar de forma injusta ou discriminatória», o impacto ser muito maior.

O SAS acredita que os riscos podem ser geridos com um «sólido framework de governança» que permita continuar a «tirar partido de todas as vantagens da IA, gerar valor económico e, até, enfrentar os desafios globais». A «prioridade» da tecnológica americana é desenvolver uma inteligência artificial confiável: a empresa descreve-se, precisamente, como sendo «trustworthy by design».

Josefin Rosén disse que é necessário garantir que a IA «prejudique nada ou ninguém», que reflicta os valores da sociedade», e que a tecnologia criada pelo SAS segue diversas orientações, como a «inclusão, a privacidade, a segurança, a transparência, a responsabilidade e a robustez», além de ser «centrada no ser humano». Josefin Rosén sublinhou ainda que a empresa ajuda os «parceiros e clientes» na jornada para uma IA confiável.

A primeira regulamentação do mundo
O Regulamento da Inteligência Artificial (EU AI Act, em inglês) é a primeira regulamentação horizontal sobre a IA, a nível mundial, e deve «começar a ser aplicada gradualmente a partir do final do ano», realçou Kalliopi Spyridaki, chief privacy srategist, EMEA & Asia Pacific do SAS. A responsável disse que as coimas são «mais avultadas que as do RGPD e dependem da infracção», chegando a um «máximo de 35 milhões de euros ou 7% do volume de negócios anual global (o que for mais elevado)» para quem utilize práticas de IA proibidas.
Além disso, fez uma descrição detalhada da legislação, das suas aplicações e revelou que a Comissão Europeia assegurou que as PME têm «obrigações mais leves em certos aspectos, para que as empresas mais pequenas possam gerir o fardo da conformidade» e que tenham a «possibilidade de testarem e experimentarem as suas soluções de IA num ambiente seguro».

Apesar de a Lei da UE sobre IA ser algo complexa, Josefin Rosén indicou que as empresas não devem adoptar «a abordagem da avestruz» e devm começar a trabalhar numa IA confiável. A responsável revelou que se deve começar logo «na primeira linha de código e continuar ao longo de todo o ciclo de vida, como um processo contínuo».

Josefin Rosén salientou ainda que o ciclo de vida da IA «começa com os dados» e que a qualidade dos mesmos é, «realmente, a base para uma IA confiável». Por isso, é preciso ter a «capacidade de detectar se os dados são privados ou sensíveis para os mascarar, esconder ou suprimir», além de garantir que são «representativos» para promoveram a inclusão e «para evitar ou atenuar os preconceitos». A trustworthy AI specialist destacou ainda a importância da proveniência dos dados: «Temos de saber de onde vêm os dados. Isto é obviamente importante para percebermos onde começou o problema, para o conseguir resolver. E, quando começamos a desenvolver os modelos, é tudo uma questão de transparência. Para podermos confiar em algo, temos de ser capazes de avaliar se é justo ou não e de compreender como tomam uma decisão».

Por último, Josefin Rosén referiu que é preciso ter a certeza de que a IA «continua a fazer bem ao longo do tempo» – para isso, é necessário «monitorizar o desempenho dos modelos e retreinar automaticamente os mesmos, para que se mantenham relevantes».

Deixe um comentário