NotíciasTendências

IBM: CEO são os principais responsáveis pela ética na inteligência artificial

Um estudo do IBM Institute for Business Value (IBV) mostra que são cada vez mais os responsáveis não-técnicos, nomeadamente os CEO, a defender e a implementar uma estratégia de ética na inteligência artificial nas empresas.

Freepik

O ‘AI Ethics in Action: An Enterprise Guide to Progressing Trustworthy AI’ revelou que os líderes das empresas estão a “tomar as rédeas” no que diz respeito à responsabilidade pela ética da inteligência artificial (IA), promovendo o uso da tecnologia para a dar «prioridade aos humanos e ao seu bem-estar». Segundo o estudo, realizado em parceria com a Oxford Economics (que entrevistou 1200 líderes de negócio em 22 países), os responsáveis não-técnicos são, agora, os principais defensores da ética da IA: de 15% em 2018, cresceram para 80% em 2021. Assim, os papéis vistos como os que têm maior responsabilidade pela ética na IA são os CEO (28%), os membros do conselho de administração (10%), os consultores jurídicos (10%), os responsáveis de privacidade (8%) e de risk & compliance (6%).

A construção de uma IA de confiança é «um diferenciador estratégico», de acordo com a IBM; por isso, as organizações estão a começar a implementar mecanismos de ética no uso e desenvolvimento de soluções de IA.

Por outro lado, outros relatórios do IBV mostram que os consumidores, os cidadãos e os colaboradores vêem a IA como uma tecnologia que vai ajudar a resolver os desafios mais importantes que a humanidade enfrenta, sendo que uma abordagem rigorosa de ética na IA é essencial para 85% desses inquiridos.

Ética é essencial
O estudo mostra ainda que 75% dos líderes inquiridos concordam com o facto de que a ética na IA é importante para as suas organizações, uma subida substancial em relação aos 50% de 2018. Os CEO entrevistados (79%) estão, agora, preparados para incorporar a ética na IA, um valor muito acima dos 20% registados no estudo anterior. Na verdade, as estratégias para abordar este tema já estão em marcha: mais de metade dos inquiridos dizem que as suas organizações tomaram medidas para incorporar a ética na IA e 45% a reconhecerem que já foram criados mecanismos de ética específicos, como ferramentas/abordagens de avaliação de risco dos projectos e processos de auditoria e revisão.

Outras das conclusões presentes tem que ver com a diversidade e inclusão no local de trabalho – são factores importantes para mitigar o preconceito na IA: 68% das organizações inquiridas reconhecem este facto, mas o estudo indica que as equipas de IA ainda são substancialmente menos diversificadas que as restantes: 5,5 vezes menos mulheres, 4 vezes menos indivíduos LGBT+ e 1,7 vezes menos inclusivas racialmente.

No estudo, a IBM deixa algumas recomendações sobre o que as empresas devem fazer para terem maior sucesso na implementação de ética na IA, que passam por uma «abordagem multifuncional, colaborativa e holística para incentivar, gerir e governar soluções de IA em todo o ciclo de vida, desde a definição da cultura certa para promover a IA de forma responsável, até às práticas, políticas e produtos». Além disso, a multinacional acredita que as organizações devem «envolver os principais parceiros tecnológicos, académicos e startups, assim como outros parceiros do ecossistema para estabelecer uma interoperabilidade ética».