Entrevista

«Estamos a utilizar a inteligência artificial como se estivéssemos a usar um carro sem travões»

Entrevista a Virgínia Dignum, especialista em IA, professora de inteligência artificial responsável na Universidade de Umeå e membro do Órgão Consultivo de Alto Nível das Nações Unidas sobre Inteligência Artificial.

© Ciências ULisboa

A Faculdade de Ciências da Universidade de Lisboa celebrou recentemente o 113.º aniversário e convidou Virgínia Dignum, alumna da instituição de ensino, para uma keynote especial. Antes do evento ‘Dia de Ciências’, tivemos oportunidade de falar com esta especialista portuguesa doutorada em IA pela Universidade de Utrecht, membro da Academia Real Sueca de Ciências da Engenharia, da Associação Europeia de Inteligência Artificial e uma das 38 especialistas eleita a nível internacional para o Órgão Consultivo de Alto Nível das Nações Unidas sobre Inteligência Artificial.

A inteligência artificial já existe há várias décadas e faz parte das nossas vidas há anos de forma quase invisível. No entanto, o ChatGPT e a IA generativa vieram trazer uma massificação da tecnologia. Por que motivo é que acha que houve esta adopção tão rápida?

Penso que a adopção do ChatGPT tem muito a ver com duas coisas. A facilidade de utilizar, já que não é preciso instalar um programa e não é preciso saber nada para o utilizarmos; e, por outro lado, a campanha mediática e de marketing que deu a ideia de que esta tecnologia é o próximo passo e que, a seguir, está tudo resolvido. Portanto, é esta combinação que tornou possível uma adopção impressionante.

O acesso à IA e à IA generativa é diferente em todo o mundo. Acha que isso pode criar um fosso ainda maior entre os países desenvolvidos e em desenvolvimento e ajudar a criar ainda mais desigualdades?

Sem dúvida que estamos perante uma possibilidade de aumentar a desigualdade e a divisão entre os que têm e os que não têm. Não é só uma diferença entre o Norte e o Sul, ou países desenvolvidos e não desenvolvidos, é mesmo dentro dos países desenvolvidos, mesmo entre os Estados Unidos e a Europa. Estamos cada vez mais a ver uma dependência de organizações privadas, não democráticas, que dominam estas tecnologias. Estamos todos dependentes do que eles querem ou não querem, fazem ou não fazem. Neste momento, são os únicos que estão a conseguir desenvolver e distribuir a tecnologia.
Também estamos cada vez mais a ver aquilo a que chamo ‘desigualdade de representação’. Os sistemas de dados que temos estão a dividir o mundo entre aqueles que são representados, que fazem parte dos sistemas de dados, e aqueles que só podem ser estimados, só podem ser calculados. Dados da Mozilla, que revelam como a IA vê o mundo, mostram que os Estados Unidos têm um peso significativamente maior que outros países. Por outro lado, os sistemas de dados médicos tratam crianças como um quinto de um adulto, já que não têm informação suficiente sobre crianças. Esta é uma diferença que me preocupa cada vez mais.

Além desta desigualdade de representação, qual é a outra preocupação que tem em relação à IA?

Neste momento, não é possível utilizar a inteligência artificial sem o número enorme de pessoas que estão a fazer o check-up de todos os dados. É um grupo laboral invisível, que não tem suporte algum: é um trabalho que é feito quase sempre da maneira mais barata possível. Portanto, está a ser feito em países do Terceiro Mundo e aqui na Europa está a ser feito por pessoas que estão em instituições prisionais, que são obrigados a fazer este trabalho e pagos minimamente. É preciso termos atenção a esse grupo crescente de trabalhadores.

As Big Tech, que gerem a maioria dos sistemas de IA, dizem que têm orientações e regras sobre IA responsável e falam de transparência, não-discriminação, justiça e igualdade. Como é que vê esta situação?

Estamos todos nas mãos destas empresas. Uma das razões que levaram as Nações Unidas a criar o grupo de trabalho de que eu faço parte, o Órgão Consultivo de Alto Nível sobre Inteligência Artificial, é exactamente essa. Como é que queremos, de uma maneira global, garantir alguma responsabilidade e governança global sobre estas empresas? Porque, ao fim e ao cabo, o ChatGPT foi atirado de um dia para o outro para a Internet e com razões que não são exactamente para nos ajudarem, darem apoio ou trazer alguma democracia.

Como é que considera que se pode criar uma IA responsável?

Em termos de accountability, todos temos responsabilidade, mas há uns que têm mais responsabilidade que outros, como diria o George Orwell. Por um lado, criar uma IA responsável faz parte de uma awareness e de uma educação global. Neste momento, estamos a utilizar a inteligência artificial como se estivéssemos a usar um carro sem travões. Estamos completamente focados no motor do carro, em conseguir que o motor seja o mais eficiente e o mais rápido possível, mas estamo-nos a tentar convencer de que pôr travões no carro vai diminuir a velocidade. Dizemos que não podemos ter leis porque iríamos diminuir a inovação e a capacidade, mas nenhum de nós entraria num carro sabendo que o carro não tem travões nem cintos de segurança.
É preciso fazer força para que se ponham travões no carro, porque garantem a confiança e, por outro lado, porque também nos ajudam a inovar noutras direcções. Podemos ter a capacidade, não só de inovar no motor do carro, mas também nos travões, em sinais de trânsito ou em qualquer outra coisa. Reconhecer isto é o primeiro passo para termos uma inteligência artificial responsável. Tem de ser um trabalho coordenado, por um lado, de awareness em que os media têm um papel importante, mas também dos governos nacionais e organizações internacionais que têm de chamar a atenção para o facto de não ser possível ter um carro sem travões. Pôr sinais de trânsito e fazer regras de trânsito não tem tanto que ver com tecnologia, mas muito mais com questões sociais. Temos de passar a ideia de que a inteligência artificial não é só engenharia, mas é muito mais, é interdisciplinar.

Falou de legislação e, normalmente, a tecnologia está sempre à frente da legislação. De que forma é que viu o AI Act recentemente aprovado pela União Europeia? É suficiente ou é o primeiro passo e é preciso continuar? E o facto de ter sido introduzido o acesso a sistemas biométricos por parte das autoridades?

O AI Act é necessário. É suficiente? Não. Ainda vão ter de mudar muitas coisas. A grande importância do AI Act é o facto de termos concordado em diversas matérias e é essa a grande contribuição da legislação. Em termos do que está e do que não está, acabou por ser, como quase sempre em todos estes trajectos europeus, uma grande discussão sobre os diferentes interesses.
Uma das coisas que mais me preocupa é o facto de se estar a focar exclusivamente numa coisa a que chamamos ‘inteligência artificial’, mas que não se sabe muito bem o que é que estamos a incluir dentro dessa coisa. Cada vez mais, a IA é um termo que representa tudo ou representa nada. Como cidadã europeia, não me interessa se uma decisão sobre mim foi tomada usando IA ou se por alguém que “atirou” um dado. Se essa decisão foi tomada de uma maneira semi-autónoma, e seme afecta sem ter tido regulação, alguém tem de ser responsabilizado, seja IA ou não. O facto de o foco estar em IA abre a possibilidade de, de repente, as empresas e as instituições começarem a dizer que não é inteligência artificial e, assim, não faz parte do IA Act. Este vai ser um dos problemas.

Uma das grandes questões da IA é quantidade de dados necessária para treinar os modelos. Como pode haver um equilíbrio entre a utilização dos dados, a privacidade e, até, o respeito pelos direitos de autor?

Fundamentalmente, é uma questão de investigação. Neste momento, as técnicas de IA que temos estão extremamente dependentes da quantidade de dados, mas há outras hipóteses que, em princípio, são tão capazes e muito menos dependentes de quantidades brutas de dados. Penso que uma das maneiras de abordar isto, e de continuar a ter uma tecnologia inovadora, é repensar a maneira como estamos a desenvolver estes modelos. Na parte do treino, temos mesmo de começar a repensar a maneira como desenvolvemos os sistemas de IA. A ideia que temos agora de que os sistemas generativos são o fim do caminho e que está tudo resolvido, não dá. Temos de experimentar outros caminhos e explorar maneiras diferentes, porque não é sustentável, em termos privados, sociais e ambientais: tratar todos estes dados começa a custar muito mais que a energia necessária para iluminar Lisboa todos os dias.

Falou-me da sua participação no grupo da ONU. Quais são os objectivos desse grupo e que balanço faz do trabalho feito até agora?

Estamos quase nos últimos passos. Começámos no fim de Outubro e, em meados de Dezembro, publicámos o nosso relatório interino, onde falamos de oportunidades e riscos, principalmente a nível global, de como é que se pode fazer o equilibro e uma análise de quais serão as possíveis funções globais a implementar para garantir a responsabilidade global e a governança global da IA. Desde o princípio de Janeiro, temos estado a ter reuniões em vários pontos do mundo com diferentes sectores, desde a agricultura à cibersegurança, para discutir as propostas que fizemos, saber o que acham que deve ser incluído e o que é acham não fazer sentido estar lá. No fim de Junho, vamos publicar o nosso relatório final, que depois será apresentado em Setembro no Summit of the Future, uma reunião organizada pela ONU em Nova Iorque.

E em relação ao futuro da inteligência artificial, acha que alguma vez vamos chegar ao que se chama ‘inteligência artificial geral’ ou dificilmente isso vai acontecer?

Já temos a inteligência geral de cada um, à qual podemos juntar a inteligência de dois, três, quatro ou cinco, e por aí adiante. O facto de não conseguirmos utilizar esta inteligência global que temos é mais preocupante que a ideia de que vamos conseguir fazer uma máquina que vai substituir esta falta de diálogo e esta falta de responsabilidade comum.
Portanto, se estamos a falar de inteligência geral, temos muito mais que investir em diálogo, em colaboração e em entendimento, para lá chegarmos. Claro que as tecnologias podem ajudar a conseguir fazer isso, mas a ideia de que vamos criar um semi-deus tecnológico que responde a tudo e
Um dos problemas deste momento é o facto de estarmos a ser liderados tecnologicamente por uma geração de homens brancos, educados na América do Norte a ler ficção científica e que estão a tentar reproduzir aquelas coisas todas que leram, como conquistar Marte. Temos de investir mais em inteligência geral, ou seja, mais em nós que na inteligência artificial geral.

Como professora, está a moldar a futura geração de engenheiros que vão desenvolver sistemas de IA. Qual é a mensagem mais importante que tenta transmitir aos seus alunos?

A mensagem que tento dar é exactamente o que tenho tentado dizer agora: a tecnologia, por si, não é a solução de todos os nossos problemas. Como engenheiros ou cientistas tecnológicos, temos de começar a pensar muito mais no ‘porquê’ do que estamos a fazer, em vez de nos fixarmos só na solução do problema. Isto é um problema para quem? O que é que significa ‘ser um problema’? Normalmente, não fazemos estas perguntas numa educação científica, tecnológica e de engenharia, mas fazemos nas humanidades, nas letras e na filosofia. Temos de integrar muito mais disciplinas e garantir que os engenheiros e os cientistas que estamos a formar tenham a capacidade de, pelo menos, perceber que há perguntas que têm de ser feitas antes de se começar a trabalhar na solução para um problema. E é para isso que os engenheiros normalmente não estão treinados: há um problema e vamos resolver. Por que é que é um problema? Não sei. Portanto, temos de ter muito mais atenção à multidisciplinaridade dentro da educação.