A Automaise anunciou o Hallucinations Detector, um sistema que identifica e reduz a produção de conteúdos incorrectos ou enganosos gerados por modelos de inteligância artificial generativa. Com esta solução, a startup nacional responde a um dos maiores desafios da IA e quer dar «maior segurança e
confiança às empresas na implementação da tecnologia».
O Hallucinations Detector usa «lógica probabilística inerente aos modelos de IA» para «avaliar a probabilidade da validade da informação e reduzir substancialmente a geração de conteúdos imprecisos», o que vai permitir interações precisas e mais seguras.
Ernesto Pedrosa, CEO da Automaise, explica que as «alucinações são o que mais coloca em causa o bom desempenho e a precisão dos modelos de IA generativa, levando a que muitas empresas não se sintam seguras em adoptar estas soluções». Algo que a própria startup experienciou.
Assim, «sabendo que a reputação das marcas é muito valiosa e as organizações não querem correr riscos a esse nível», a startup resolveu desenvolver uma solução que permite que as empresas confiem» na tecnologia, acrescenta.
Por outro lado, Fábio Pinto, head of artificial intelligence da Automaise, salienta por que motivo, o Hallucinations Detector é diferenciador: «Conseguimos reduzir muito substancialmente as alucinações geradas, de uma forma mais eficaz do que usando soluções standard da indústria. São sistemas como este que fazem com que a IA generativa evolua de forma a que as empresas se sintam seguras para implementar».