Não há ganhos sem riscos
Parece consensual a ideia de que a IA pode criar eficiência e ganhos de produtividade substanciais, mas não sem riscos. Conjuntos de dados defeituosos conduzem, frequentemente, a resultados defeituosos que, em última análise, podem prejudicar a organização e os seus clientes. Outro desafio identificado por José Gonçalves (senior systems engineer da Exclusive Networks) na adopção de tecnologias de IA é a dependência de integrações de terceiros, como a OpenAI ou a Google: «Esta dependência pode introduzir riscos como falhas e limitações técnicas, enquanto as actualizações permanecem fora do nosso controlo».
O engenheiro explicou à businessIT que AI TRiSM envolve a consideração de uma série de factores, como a privacidade dos dados, a segurança, a parcialidade, a explicabilidade e a responsabilidade. Ao adoptar uma abordagem abrangente para gerir os riscos da IA, as organizações podem, no seu entender, evitar potenciais danos legais e de reputação, garantindo ao mesmo tempo que estão a utilizar a IA de uma forma responsável e ética: «Ao adoptar a estrutura AI TRiSM, as organizações podem adquirir uma compreensão mais profunda dos processos envolvidos na concepção, desenvolvimento e implementação de modelos de IA».
A privacidade exige que se mantenham os dados a salvo de violações e que se protejam as informações dos utilizadores. Segundo José Gonçalves, o AI TRiSM ajuda as empresas a desenvolver políticas e procedimentos para recolher, armazenar e utilizar dados, para proteger os direitos de privacidade dos indivíduos. «Alguns dos métodos, poderão ser a conformidade com regulamentos como o GDPR e o HIPAA, técnicas de anonimização de dados ou mecanismos de consentimento explícitos e bem identificados».
Dados insuficientes levam a erros
Questionado sobre até que ponto estas soluções ajudam a garantir que os modelos de IA sejam justos e imparciais, José Gonçalves começa por explicar que o preconceito ocorre quando padrões são encontrados onde não deveriam estar, muitas vezes devido a um conjunto de dados insuficiente. Quando isso acontece, o modelo de IA pode começar a tomar decisões com base em parâmetros indesejados: comprimento do nome, raça ou género, para citar alguns: «Quando as decisões são tomadas com base em parâmetros arbitrários como estes, os modelos tornam-se propensos a erros. Pior ainda, podem tornar-se propensos a discriminação. Para que tal seja evitado, têm de ser definidos e implementados controlos que usam algoritmos avançados de comportamento e de preconceito dentro das próprias soluções».
Estes controlos, diz o senior systems engineer da Exclusive Networks, terão de ser claros e objectivos, permitindo que as empresas ajustem os seus modelos e algoritmos para garantir equidade: «Com os avanços tecnológicos, a IA está a ser usada massivamente e a complexidade das operações também tem aumentado. Assim, a documentação adequada do processo ou das operações fornece transparência e permite a monitorização e a auditoria de eventos na eventualidade de algum erro ser detectado». José Gonçalves enfatiza o facto de a verificação dos sistemas poder permitir que uma organização evite falhas e funcionalidades inadequadas dos modelos de ML: «É preferível verificar desvios e ou preconceitos e corrigi-los para permitir que o modelo tome decisões informadas e optimize os processos».