Em Foco

AI TRiSM: a responsável forma de estar na IA

À medida que a quarta revolução industrial se desenvolve, a Inteligência Artificial (IA) surge, não só como uma força disruptiva, mas também como uma nova fronteira de inovação e eficiência operacional. Desempenhando um papel cada vez mais crítico numa imensa variedade de sectores, a IA promete remodelar o tecido da indústria global, redefinindo o que é possível alcançar através da tecnologia. No entanto, com este grande poder, vem uma grande necessidade de governança e confiança: é aqui que surge o AI TRiSM.

Steve Johnson/Unsplash

Benefícios da IA TRiSM
Os produtos, serviços e estruturas TRiSM estão a tornar-se ferramentas essenciais para estabelecer e manter a utilização responsável da IA, defende Margaret Rouse, já que podem ajudar os utilizadores e as partes interessadas a confiar na forma como uma organização está a utilizar a IA, verificando as decisões de IA, facilitando a identificação precoce e a atenuação de questões relacionadas com a privacidade dos dados e o enviesamento algorítmico. «Na frente da segurança, a governação do modelo de IA pode ajudar a salvaguardar a infraestrutura, preservar a integridade dos dados e ajudar a evitar que a IA se torne um vector de ataque», escreve a especialista num artigo para a plataforma Technopedia. Talvez o maior benefício, no entanto, seja a forma como as ferramentas TRiSM podem ajudar as organizações a lidar de forma mais eficaz com a evolução dos regulamentos e práticas recomendadas de IA e promover a confiança nas decisões do modelo de IA.

Abordagem holística é a ideal
Para a IBM, a adopção de IA nas empresas requer uma abordagem holística baseada em processos, pessoas e tecnologia. Existem diversos desafios, como, por exemplo, a fraca qualidade dos dados utilizados para treinar os sistemas de IA, o desconhecimento de como funcionam estes sistemas ou como pode a IA ser adoptada de forma segura e escalável. À businessIT, Nuno Maximiano, data e AI tech sales manager da IBM SPGI, explicou que a AI TRiSM é uma framework que pretende «ajudar as empresas a entender que processos e procedimentos devem ser implementados para garantir a privacidade, a segurança, a monitorização e a explicabilidade dos modelos de IA». Na prática, diz este especialista, o objectivo é o de reforçar a metodologia MLOps com estes pontos by design: «Isto é de extrema importância para as empresas, pois a utilização de sistemas baseados em IA, no mundo empresarial, será regulada por legislação própria que terá impacto no modelo de operação das empresas».

Promover a justiça e a imparcialidade
Para garantir a confidencialidade dos dados e proteger a privacidade dos utilizadores, o AI TRiSM sistemiza os processos e controlos a implementar: «Este primeiro passo é fundamental para entender o que fazer, mas é igualmente crítico adoptar tecnologias como o watsonx.governance ou o IBM Data Fabric, que nos permitem implementar na prática estes processos para assegurar o controlo da empresa relativamente à confidencialidade e à privacidade dos dados envolvidos no treino e execução dos sistemas de IA».
A principal garantia para que os modelos de IA sejam o mais justos e imparciais possível, reside nos dados utilizados para treinar esses modelos: «Existem técnicas que permitem que os modelos sejam treinados com dados devidamente equilibrados para promover a justiça e imparcialidade», explica Nuno Maximiano. Depois, quando os modelos entram em operação, é «crítico utilizar ferramentas como o watsonx, que monitorizam a execução dos modelos para detectar sinais de injustiça e parcialidade dos modelos», assim como «dar visibilidade dos mesmos ao longo do seu ciclo de vida». Ao adoptar uma framework como o AI TRiSM, a organização, no entender do data e AI tech sales manager da IBM, inclui em todo o ciclo de vida dos modelos, as diferentes técnicas para gerir de forma assertiva a justiça e imparcialidade pretendidas.

Alertas em tempo real
A compatibilidade com a regulamentação e normas de conformidade é um requisito basilar para o desenvolvimento e utilização de modelos de IA. Neste sentido, as soluções já apresentadas por Nuno Maximiano disponibilizam um mapeamento dos requisitos regulamentares com os modelos de IA em utilização, permitindo efectuar uma classificação dos mesmos em tempo real e tomar as devidas acções correctivas. «Por exemplo, se um determinado modelo começa a apresentar resultados enviesados, somos alertados imediatamente e tomamos as acções previamente definidas para mitigar este possível risco, reestabelecendo rapidamente a operação normal do modelo em questão».