Em Foco

AI TRiSM: a responsável forma de estar na IA

À medida que a quarta revolução industrial se desenvolve, a Inteligência Artificial (IA) surge, não só como uma força disruptiva, mas também como uma nova fronteira de inovação e eficiência operacional. Desempenhando um papel cada vez mais crítico numa imensa variedade de sectores, a IA promete remodelar o tecido da indústria global, redefinindo o que é possível alcançar através da tecnologia. No entanto, com este grande poder, vem uma grande necessidade de governança e confiança: é aqui que surge o AI TRiSM.

Steve Johnson/Unsplash

Não há ganhos sem riscos
Parece consensual a ideia de que a IA pode criar eficiência e ganhos de produtividade substanciais, mas não sem riscos. Conjuntos de dados defeituosos conduzem, frequentemente, a resultados defeituosos que, em última análise, podem prejudicar a organização e os seus clientes. Outro desafio identificado por José Gonçalves (senior systems engineer da Exclusive Networks) na adopção de tecnologias de IA é a dependência de integrações de terceiros, como a OpenAI ou a Google: «Esta dependência pode introduzir riscos como falhas e limitações técnicas, enquanto as actualizações permanecem fora do nosso controlo».

O engenheiro explicou à businessIT que AI TRiSM envolve a consideração de uma série de factores, como a privacidade dos dados, a segurança, a parcialidade, a explicabilidade e a responsabilidade. Ao adoptar uma abordagem abrangente para gerir os riscos da IA, as organizações podem, no seu entender, evitar potenciais danos legais e de reputação, garantindo ao mesmo tempo que estão a utilizar a IA de uma forma responsável e ética: «Ao adoptar a estrutura AI TRiSM, as organizações podem adquirir uma compreensão mais profunda dos processos envolvidos na concepção, desenvolvimento e implementação de modelos de IA».

A privacidade exige que se mantenham os dados a salvo de violações e que se protejam as informações dos utilizadores. Segundo José Gonçalves, o AI TRiSM ajuda as empresas a desenvolver políticas e procedimentos para recolher, armazenar e utilizar dados, para proteger os direitos de privacidade dos indivíduos. «Alguns dos métodos, poderão ser a conformidade com regulamentos como o GDPR e o HIPAA, técnicas de anonimização de dados ou mecanismos de consentimento explícitos e bem identificados».

Dados insuficientes levam a erros
Questionado sobre até que ponto estas soluções ajudam a garantir que os modelos de IA sejam justos e imparciais, José Gonçalves começa por explicar que o preconceito ocorre quando padrões são encontrados onde não deveriam estar, muitas vezes devido a um conjunto de dados insuficiente. Quando isso acontece, o modelo de IA pode começar a tomar decisões com base em parâmetros indesejados: comprimento do nome, raça ou género, para citar alguns: «Quando as decisões são tomadas com base em parâmetros arbitrários como estes, os modelos tornam-se propensos a erros. Pior ainda, podem tornar-se propensos a discriminação. Para que tal seja evitado, têm de ser definidos e implementados controlos que usam algoritmos avançados de comportamento e de preconceito dentro das próprias soluções».

Estes controlos, diz o senior systems engineer da Exclusive Networks, terão de ser claros e objectivos, permitindo que as empresas ajustem os seus modelos e algoritmos para garantir equidade: «Com os avanços tecnológicos, a IA está a ser usada massivamente e a complexidade das operações também tem aumentado. Assim, a documentação adequada do processo ou das operações fornece transparência e permite a monitorização e a auditoria de eventos na eventualidade de algum erro ser detectado». José Gonçalves enfatiza o facto de a verificação dos sistemas poder permitir que uma organização evite falhas e funcionalidades inadequadas dos modelos de ML: «É preferível verificar desvios e ou preconceitos e corrigi-los para permitir que o modelo tome decisões informadas e optimize os processos».