ReportagemTendências

Unbabel lidera consórcio para criar inteligência artificial responsável

Várias startups, empresas e centros de investigação nacionais juntaram-se para ajudar a criar um centro de inteligência artificial (IA), cujo objectivo é o de desenvolver tecnologia com ética. O consórcio liderado pela Unbabel espera contar com fundos do PRR e criar até trezentos postos de trabalho.

A Unbabel lidera um consórcio que está a concorrer ao Plano de Recuperação e Resiliência (PRR) com um projecto para criar o primeiro centro de inteligência artificial responsável, ou seja, com tecnologia ética que não cause danos às pessoas. Para falar da iniciativa, a Unbabel, uma das startups fundadoras a par de Feedzai, Talkdesk e Cleverly, organizou o evento Responsible AI Forum, onde reuniu os 22 participantes do consórcio, entre startups (as quatro scaleups e ainda Automaise, NeuralShift, Visor.ai, YData e Semasio); os centros de investigação Fundação Champalimaud, Fraunhofer Portugal e o INESC-ID, entre outros; e grandes empresas como a Bial, Sonae, Pestana, Priberam, Hospital da Luz ou o escritório de advogados VdA – Vieira de Almeida.

Um dos principais mentores para a criação do Center for Responsible AI é Paulo Dimas, VP of product innovation da Unbabel, que revelou que o objectivo é o «desenvolvimento da próxima geração de produtos de IA», criados de «forma ética e utilizados para mudar a sociedade para melhor». O director de inovação esclareceu que a inteligência artificial responsável assenta em três pilares: «Equidade ou justiça, explicabilidade e sustentabilidade». O primeiro «centra-se principalmente na redução dos preconceitos e das suas consequências negativas»; o segundo tem como objectivo «compreender porque é que a IA se comporta da forma como se comporta» e «lidar com a transparência sobre a forma como esta tecnologia funciona». Por último, a sustentabilidade está relacionada «com a abordagem das implicações ambientais do desenvolvimento inteligência artificial, que envolve muita energia, e com isso produz grandes emissões de dióxido de carbono». O responsável mostrou alguns dados que provam isso mesmo: «um carro produz 57 toneladas de CO2 durante a sua vida útil» e «treinar um algoritmo pode gerar 552 toneladas». Assim, o projecto quer desenvolver de uma espécie de «pontuação verde (green score) para classificar os modelos de IA pela sua eficiência energética» e criar um «selo de aprovação que designe quando um modelo alcançar um certo nível de desempenho energético sustentável».

Com ou sem PRR
O Center for Responsible AI pretende «criar sinergias entre startups em que vão ser criados projectos verticais, resolver problemas reais e projectos transversais de inteligência artificial responsável que vão resultar de parcerias com os centros de investigação e beneficiar as iniciativas. É um círculo virtuoso entre a investigação e o mercado».

Para avançar com o centro, o consórcio acredita que será preciso um investimento de cem milhões euros, um montante que esperam conseguir com a ajuda do PRR; contudo, mesmo no caso de «as verbas vindas da Europa não chegarem», a iniciativa vai avançar, embora não com a «mesma velocidade», realçou Paulo Dimas.

Com o centro, a Unbabel e os restantes elementos da iniciativa esperam criar trezentos empregos nos próximos quatro anos e ter 138 novas teses de doutoramento e mestrados ligados às tecnologias de inteligência artificial. Segundo Paulo Dimas, a integração entre o meio académico e empresarial é um «modelo de sucesso» – o responsável salientou ainda como o consórcio vê esta situação: «Gostávamos de ver este modelo de estimular a criação de doutoramento no contexto das empresas reforçado. Isto acontece na Unbabel e os alunos estão muito orientados para necessidades concretas de mercado». Este é também um ponto-chave em termos de estratégia, para «reter os melhores talentos» que são «fundamentais para desenvolverem a próxima geração de produtos de IA», disse o VP of product innovation.

Responsabilidade é fundamental
Num painel dedicado à inteligência artificial responsável, Pedro Bizarro, co-fundador e CSO da Feedzai, revelou que a empresa começou «a trabalhar em inteligência artificial responsável há cerca de seis anos», quando olharam para os algoritmos «como algo que podia falhar em alguns momentos» e tentaram perceber «como é isso se ia traduzir na vida das pessoas, por exemplo, no acesso ao crédito».

A Feedzai iniciou, assim, o seu percurso para que as soluções fossem o mais justas possível: «Estamos a cumprir a visão e temos sido capazes de treinar modelos sem perder quase precisão (1%) e aumentando a imparcialidade em 40-50%. Isto é um game changer». O CSO revelou ainda que tem havido uma grande evolução no sector financeiro: «Até os bancos mais tradicionais querem produtos com inteligência artificial responsável e vêm isso como um benefício para o negócio, já que os ajuda a reter talento e a ter uma boa reputação enquanto empresa». É por isso que, como um dos mentores do consórcio, Pedro Bizarro se mostrou confiante no futuro.

Por outro lado, Paulo Dimas criticou plataformas como o Facebook cujos algoritmos são criados «para maximizar o lucro e não estão preocupados com a ética»; o VP of product innovation da Unbabel defendeu que a regulação é muito importante para «garantir que os produtos não vão discriminar e basear as decisões em raça, género e religião».

Já Madga Cocco, sócia responsável da área comunicações, protecção de dados & tecnologia da VdA, alertou que a proposta da União Europeia «necessita de ter ainda muitas alterações», incitando as empresas e startups presentes a «lutar por estas mudanças», porque se a legislação for implementada como está, vai haver «custos regulatórios elevados» e pode «ser inimiga da inovação».

O “lado negro da força”
A IA nem sempre é desenvolvida de forma correcta e pode trazer problemas. Lawrence de Almeida, senior engineering manager da Unbabel, referiu que é muito fácil construir «inteligência artificial parcial e tendenciosa», que designa como «IA negra», já que «os algoritmos, que são um conjunto de instruções para resolver problemas, podem ser opacos, mal treinados ou mesmo mal codificados». Apesar de as redes neuronais estarem «mais avançadas, isso não significa que são «melhores que os humanos», porque «não funcionam realmente como os cérebros das pessoas», acrescentou.

O responsável deu o exemplo de um dos maiores modelos usados, o GPT-3, treinado com 45 Terabytes de dados – mesmo assim, quando analisa imagens «identifica mulheres como enfermeiras e homens como médicos», quando na realidade era o oposto. «Isto não significa que o algoritmo esteja errado, mas sim que os dados com que foi treinado tinham preconceitos associados», lembrou Lawrence de Almeida, que colocou ainda uma questão: «Será que queremos este algoritmo a decidir coisas importantes sobre a nossa vida?». O senior engineering manager salientou que o consórcio quer resolver exactamente isto e «construir soluções para estes problemas», apesar de reconhecer que sempre que «resolve um problema, se criam outros» e que «a responsabilidade de quem desenvolve a tecnologia é pensar nesses efeitos secundários e antecipá-los antes de colocar produtos no mercado que afectam a vida de milhões de pessoas».