Nesta esclarecedora entrevista, Daniel Rasmus, visionário, especialista em conteúdos, ex-Microsoft, ex-Forrester e experiente orador, lança luz sobre o funcionamento interno da IA generativa, desmistificando a ideia de que estes sistemas têm inteligência real. Em vez disso, explica que a IA generativa é, essencialmente, um poderoso mecanismo de correspondência de padrões estatísticos, alimentado por enormes conjuntos de dados. As conversas que envolvem IA generativa são, portanto, mais sobre o que o sistema já sabe que sobre a sua capacidade de aprendizagem ou compreensão.
Por que é que a IA generativa está a ganhar tanto destaque?
Porque pensamos que é uma forma superior de inteligência artificial. As pessoas acreditam que estão a comunicar com um sistema que tem, efectivamente, inteligência. Mas não estão. A IA generativa não tem qualquer memória ou intenção. É, sim, um excelente mecanismo de correspondência de padrões estatísticos, muito sofisticado, com enormes quantidades de dados por trás. Mas, essencialmente, é isto. É muito bom em pegar em grandes quantidades de dados e criar um fluxo de conversação com as pessoas. E acho que as pessoas estão claramente intrigadas com isso. É isto que está a atrair os utilizadores.
Acha que, mesmo a nível empresarial, ainda tendemos a ficar confusos com isso?
Sim, é assim desde o início dos computadores. Já faço isto há muito tempo… repare no velho programa Eliza. As pessoas pensavam que falavam com o Eliza como se fosse um terapeuta. Mas o seu código mostra que todas essas respostas estavam já disponíveis. Actualmente, é muito mais sofisticado que isso. Diria que, hoje, temos uma conversa mais com o conteúdo, que com a IA, porque é tudo sobre o que esta tecnologia sabe. Se tentarmos falar sobre algo que não tenha conhecimento, não é muito impressionante, certo? É muito vago. É por isso que há um forte movimento empresarial no sentido de dotar os sistemas de conteúdo para que se possam ter o mesmo tipo de conversas.
Neste momento, é tudo do domínio público, está na Web. Mas a IA sabe nada sobre a minha empresa, sobre a sua empresa, apenas sabe o que está no site, nos comunicados de imprensa, na bolsa de valores, nas notícias. Enfim, no que é de acesso público. Se eu pedir para que me fale sobre a metodologia que a Singularity usa para implementar a IA generativa, não faz ideia. Provavelmente, diria algo sobre a implementação de metodologias em geral.
Ou seja, hoje, a IA é um reportório de imensas generalidades?
Depende do que sabe e nós não sabemos o que sabe. Tem realmente uma enorme quantidade de informação geral, que de resto sempre foi o Santo Graal da inteligência artificial. Nos anos oitenta e noventa, quando fazia sistemas especializados, eram frágeis, só sabiam aquilo que lhes ensinámos.
Fiz sistemas especializados para diagnósticos e para chão de fábrica – tudo o que sabiam fazer era programar muito bem, mas faziam-no melhor que uma pessoa, embora não conseguissem responder a uma única pergunta que fizessemos.
De que forma é que a IA generativa transformou o modelo de negócio tradicional?
Ainda estamos no processo de o fazer. Acho que existem muitas organizações complexas em termos de conteúdo, como os serviços jurídicos, de apoio ao cliente, vendas, marketing, onde são precisas várias pessoas especializadas para fazer as tarefas. A ideia é: eu não consigo levantar uma pedra pesada, mas se arranjar um empilhador, consigo, certo? Aqui, é o mesmo. Se há coisas que as empresas não conseguem fazer, a IA pode ajudar, por exemplo, a escrever uma peça de conteúdo proforma igual para quase todos clientes. A IA pode fazer e libertar recursos para se dedicarem à investigação ou algo do género, em vez de produzir conteúdo que não requer muita inteligência.
Em quanto tempo é que as empresas podem esperar para ver um retorno sobre o investimento, quando integram soluções de IA generativas? Sabemos que, para investir, as empresas precisam logo de tentar perceber o ROI.
Todas as novas tecnologias são, obviamente, desafiadas com o retorno do investimento. A minha experiência diz-me que encontramos os problemas que ainda não foram resolvidos. O que acha mais difícil de fazer, no seu trabalho? O que não gosta de fazer? Acha que devia ser automatizado?
Se começarmos com esse tipo de conversas, descobrimos coisas importantes para as empresas. O ROI tem muito que ver com o facto de ser um problema comercial importante. Posso fazer uma coisa muito pequena, ter um óptimo ROI e ninguém se vai importar. Se for um problema com que se deparam regularmente e a tecnologia solucione, então a combinação do retorno do investimento, com a crença na tecnologia, é a melhor solução.
Temos estado a falar internamente sobre a procura de casos de utilização gerais, mas, depois, temos de os adaptar às organizações. Toda a gente tem um serviço de apoio ao cliente: é um óptimo caso de utilização para a IA generativa, mas tem de saber realmente sobre os produtos e serviços da empresa. Por isso, é necessário criar um modelo que inclua o seu conteúdo.
Como acha que a ascendência da IA generativa afecta o conjunto de competências que as empresas procurarão nos seus funcionários? Hoje fala-se imenso na falta de talento disponível.
Vai ser complexo. Ao automatizar algo, a IA generativa passa a executar bem essa tarefa. Acho que o mais interessante é que vai exigir que as organizações tenham novas funções. Imagino que, daqui a menos de um ano, talvez no próximo Outono, as universidades, se ainda não o tiverem, terão cursos de IA generativa nos quais ensinarão as pessoas a fazer prompt engineering.
A questão é que é preciso que os professores descubram primeiro como funciona a IA generativa, para depois poderem ensinar alguma coisa. Admito que estou fascinado com o número de seminários que surgem, de pessoas de quem nunca ouvi falar… é uma coisa muito complexa e que requer, tanto a perspectiva de como funciona em particular, como uma boa compreensão para estruturar os dados e fazer com que funcionem.
Porque é isso que a IA generativa está a fazer: pega nos dados, sejam eles estruturados ou não, e dá-lhes uma nova forma de interagir com o utilizador. Imagine que colocamos os mesmos dados num motor de busca. Se eu quiser saber como se faz uma análise de risco no banco, posso escrever o prompt: «Encontra-me o documento», mas depois tenho de ler e compreender. Se estiver a utilizar IA generativa, digo: «Diz-me como fazer a gestão de risco». E a IA explica-me, sendo que depois posso fazer perguntas sobre o que não percebi. Isso é muito diferente de um motor de busca. É importante perceber como fazer isso e criar esse tipo de sistemas.
Do ponto de vista da liderança, vai ser um desafio ver como será a adopção da IA generativa?
Sim, vi uma pesquisa um pouco desanimadora, não recordo os números exactos, mas os executivos não sabem o que a IA generativa está a fazer. Aliás, mesmo as pessoas que fazem IA generativa não compreendem o que a IA generativa está a fazer!
Tem propriedades que foram, entretanto, desenvolvidas e há cientistas que admitem não saber porque ou como a IA generativa está a fazer determinadas coisas. Ou seja, há aqui uma novidade: esta tecnologia parece ser capaz de criar os seus próprios conjuntos de competências e o seu próprio tipo de modelos, com base nas camadas múltiplas – e os cientistas não sabem como o faz. A IA pode adquirir uma competência ou aprender algo e as pessoas que o escrevem não sabem exactamente como o fez…
Isso é um pouco assustador…
Estamos todos a aprender juntos. Penso que, neste momento, precisamos de alguma humildade, pois é uma coisa nova que estamos todos a tentar fazer, a tentar encontrar o caminho certo e a compreender juntos. As organizações que pensam que sabem demasiado de IA generativa vão, provavelmente, meter-se em sarilhos.
O que é que as empresas têm de ter em conta quando falamos de questões éticas aplicadas à IA generativa?
Tenho trabalhado muito nisso. A minha previsão é que não existe uma IA ética, mas sim uma utilização ética da IA. Tudo isto tem que ver com pessoas, é sobre o que fazemos com isso, não tem moral. A tecnologia, em si, escolhe fazer nada. Portanto, trata-se de ‘nós’. Para mim, se não é ético fazer algo com uma máquina, com uma peça-padrão de algoritmo e código ou IA generativa, não importa qual a tecnologia que estou a utilizar indevidamente, continua a não ser ético.
Por isso, penso que o que está em causa é a ética da empresa e das pessoas envolvidas, o que fazem e como o fazem. Quando falamos das questões subjacentes, falamos sobre preconceitos, por exemplo. As pessoas que estão a alimentar os conjuntos de dados sabem que estão enviesados. Em muitos casos, sabem que isso se deve ao facto de terem um conjunto de dados limitado e conseguem perceber isso muito rapidamente.
Por vezes, avançam porque se trata de uma experiência, para ver o que acontece. Ainda estamos a ter problemas com os sistemas visuais, por exemplo, para reconhecer pessoas com pele mais escura ou com diferentes tons de pele – isto deve-se ao facto de o conjunto de dados em que foi treinado ser tendencioso para os caucasianos. Até porque quando se olha para a quantidade de dados que estão em IA, a maioria deles é da América do Norte. Penso que precisamos ter uma maior representação dos dados globais.
Como vê a evolução da IA generativa nos próximos tempos?
Por profissão, sou um planeador de cenários, por isso olho a dez anos. Não é apenas a questão da tecnologia, é também a da regulação dos comportamentos sociais. As pessoas vão querer utilizá-la? Como é que vai ser regulamentada? Há muitas incertezas, mas podemos imaginar diferentes futuros. A minha convicção geral é que vai estar disponível de alguma forma, porque uma das premissas do planeamento de cenários é que nada do que temos hoje desaparece, certo? Não se pode simplesmente tirar algo do jogo. Está lá. Penso que a IA generativa, em particular, vai ter um longo, longo caminho pela frente. Mas até que ponto é utilizada, onde é utilizada, em que tipo de aplicações? Penso que isso ainda está para ser visto.