Reportagem

A IA ainda está longe de ser totalmente confiável

A segunda edição do Tribeca Festival Lisboa contou com uma conversa ligada à inteligência artificial em que uma das protagonistas foi a Lupa, o chatbot do Expresso. No ‘Quatro à Conversa’ ficou patente que ainda não é possível confiar a 100% na tecnologia.

© businessIT

A mesa-redonda dedicada inteiramente à tecnologia que decorreu no segundo dia do festival mostrou como a Sword Health está a usar IA na área da saúde e desafios éticos e de segurança associados à rápida expansão da tecnologia.

A Lupa apresentou-se como o chatbot do Expresso, desenvolvido a ajuda do Google Gemini, e explicou que ia «ouvir as conversas, aprender em tempo real, e prometeu não interromper a fluidez do pensamento dos participantes», algo que acabou por acontecer.

Luís Ungaro, VP of AI at Sword Health, descreveu a sua primeira utilização do ChatGPT como «um momento eureka» e Paulo Dimas, CEO do Centro de IA Responsável, salientou que tudo mudou com a OpenAI e que «mais 10% da população mundial já usa» o chatbot de IA generativa da empresa de Sam Altman. Na sua segunda intervenção, a Lupa afirmou que existiu «um impacto inesperado da tecnologia acessível» e que «é quase como um estagiário ansioso com superpoderes que de repente resolve tudo mais rápido». O chatbot disse ainda que a IA «parece mais uma revolução na forma de pensar e colaborar do que simplesmente uma nova tecnologia».

O responsável da Sword Health concordou e disse que numa equipa de IA, as contas são «fáceis de fazer e «não há praticamente investimento, só há retorno». Isto porque existe um aumento da produtividade «não só ao nível da quantidade de coisas que conseguem entregar, mas da qualidade»

Humanos vs tecnologia
Luís Ungaro referiu que a forma de garantir que a IA não compromete a qualidade do trabalho é ter «uma pessoa no loop» e que é importante «continuar a exigir aos humanos e a responsabilizá-los por aquilo que entregam» sejam «os machine engineers que estão a produzir o código da Sword, sejam os fisioterapeutas que usam a IA para tratar pacientes». Assim, ainda que usem uma ferramenta que os ajude a pensar melhor e a ser mais produtivos, eles são responsáveis». O VP caracterizou o uso de IA como «positivo» já que a «esmagadora maioria dos projectos funciona e está a ter bons resultados».

Já Paulo Dimas disse que há «arriscar pois estamos perante uma transformação muito profunda» e falou dos riscos: «Estamos todos a aprender sobre as potencialidades da tecnologia, mas não devemos recear inovar». O responsável disse que na área da saúde, «a inteligência artificial pode ter um impacto tremendo, já que pode ajudar a salvar vidas» e Luís Ungaro acrescentou que é necessário perceber se «no caso concreto que se está a considerar usar IA, se está é efectiva e necessariamente positiva para a saúde».

A Lupa também interveio e disse que a inteligência artificial poderia ser usada na «escalabilidade em sistemas de resposta urgente onde existe excesso de pedidos» e que podia «funcionar como um multiplicador de capacidade, permitindo responder de forma mais eficiente ao volume do que seria possível apenas com a componente humana».

Desafios na saúde
Até que ponto estamos preparados para que IA tome decisões na saúde foi um dos temas abordado e Paulo Dimas explicou que a existência de «alucinações não permite ter uma confiança total» na tecnologia. Assim, apesar das «alucinações terem diminuído», tem de «se incluir supervisão humana nas decisões de alto risco porque a IA não é inteiramente confiável».

A transparência é relevante, mas Luís Ungaro considera que, «se não for crítico», saber-se que se está a falar com uma IA em contexto de atendimento telefónico não é importante dizê-lo». Já a Lupa considerou que «que a transparência é útil» e que se isso gerar «confiança» deve ser feito.

O CEO do Centro de IA Responsável sublinhou que «a IA está a ser utilizada para auto-ajuda e que as pessoas começam a acreditar mais no chatbot em vez dos terapeutas e não procuram apoio técnico competente». É por isso que alertou para a necessidade de «ter salvaguardas e trabalhar na segurança dos modelos» e que «nem sempre há ética como na Europa». A missão do centro que «é precisamente desenvolver uma tecnologia que seja responsável, confiável e que seja segura. Sobre este assunto, o VP of AI avançou que na Sword Health, «os incentivos financeiros estão alinhados com os interesses dos pacientes», sendo que a empresa «só é recompensada quando há melhorias».

Futuro da IA
Sobre o uso da IA nos próximos anos, Luís Ungaro disse que «não se atrevia a fazer previsões» mas que é preciso um «avanço» para «dar um salto para outra coisa qualquer», mas que «ainda há alguns frutos para colher antes de se atingir um ponto de saturação». Paulo Dimas concordou e afirmou que se «atingiu um patamar com o modelo GPT-5» e que a «grande tendência do momento é a questão da IA com agência, ou seja, usá-la para realizar acções e tarefas». O responsável da Sword esclareceu que «os agentes são uma promessa grande, mas o hype ainda ultrapassa os benefícios conseguidos» e que «funcionam mais para uso pessoal do que no contexto empresarial». No final, a Lupa concluiu que «é importante pensar em como esses agentes se vão integrar nas nossas vidas e garantir que o benefício acompanha a evolução tecnológica».