A conferência, organizada pela Abreu Advogados e pelo Instituto do Conhecimento, contou com um painel sobre tecnologia em que Arlindo Oliveira, professor do Instituto Superior Técnico (IST), explicou que os agentes «representam um desenvolvimento significativo dos sistemas de IA» e que já têm «agência», ou seja, «capacidade de tomar decisões e de agir no mundo real ou na internet», não sendo «sistemas passivos» como os chatbots.
Ana Paiva, professora do IST e especialista em inteligência artificial, disse que os agentes não são novos, mas que o que mudou é que agora «falam a nossa linguagem», o que «mudou tudo». A responsável salientou que os agentes se caracterizam pela «autonomia, já que podem agir sem estarem a ser controlados ou dirigidos por um outro agente humano» e pela «proactividade». Além disso, Paulo Dimas (CEO do Center for Responsible AI) equiparou a «IA com agência» ao «nível 5 (o mais elevado) dos carros autónomos».
Benefícios vs. riscos
Os participantes no painel foram unânimes num ponto: os agentes têm «potencial» para fazer coisas boas e ajudar as empresas e até a economia a ser mais competitiva, mas são os riscos de usar a tecnologia que mais preocupam estes especialistas. Arlindo Oliveira destacou que a «capacidade destes sistemas, enriquecidos com acesso a ferramentas e poder para fazer certas acções, é muito mais poderosa» e que, por isso, têm de existir «garantias de que vão funcionar como estão planeados». O responsável disse que este «é um desafio, por um lado, tecnológico, mas também legal e social». Paulo Dimas salientou também a importância da sustentabilidade social e o efeito no mercado de trabalho, sublinhando que é preciso começar a pensar nisso: «Começamos a ter agentes que substituem profissões, que substituem pessoas e isso vai ter um impacto muito significativo».
O responsável indicou aqueles que considera serem os três novos riscos da IA com agência. Por um lado, «fazerem tarefas irreversíveis, ou seja, qualquer coisa que depois já não se pode voltar atrás», por outro, o de «não dar controlo ao utilizador quando é suposto» e o de se desviarem do objectivo traçado». O CEO do Center for Responsible AI falou ainda das alucinações dos modelos, que não foram ultrapassadas e que vão também afectar os agentes. «Isto é um risco inerente à própria tecnologia, que as versões mais actuais dos LLM não resolveram». Assim, é «preciso um novo paradigma ou avanço, porque isso limita» o uso da inteligência artificial.
O ser humano é central
Ana Paiva esclareceu que os agentes têm de ter «um leque restrito de acções que podem executar» e ter sempre os «humanos envolvidos» nos processos. «Sempre defendi uma ligação muito forte entre o humano e a inteligência artificial. No entanto, em última instância, a decisão tem de ser do humano. Tem de existir supervisão. Acredito que os agentes vão ajudar bastante, mas mais num cenário de colaboração» entre máquina e homem, avançou a docente.
A responsável alertou ainda para ser necessário criar «sandboxes regulatórias para fazer testes» e assim perceber melhor as vantagens e vulnerabilidades da tecnologia, bem como uma regulação que envolva a «autenticação dos agentes» de forma a garantir a sua «credibilidade» e assim aumentar a «confiança» na sua utilização.






