Uma ameaça?
Claro que não será difícil, por isso, imaginar que modelos como o GPT-3 possam ser usados para criar ensaios, tweets ou notícias falsas ou enganosas. Já este ano, a Universidade de Stanford lançava um documento no qual fazia a comparação destes modelos de linguagem com a manipulação de imagens. O problema não será propriamente o programa ou o modelo, mas o uso que deles fazemos, tal como o programa de edição de fotos Photoshop, que pode ser usado para manipular imagens. Segundo os investigadores desta universidade, é preciso entender melhor as economias da desinformação automatizada em comparação com a desinformação gerada por humanos antes de entender o quanto a GPT-3 e todos estes modelos representam uma ameaça.
No documento da Universidade de Stanford, os investigadores acreditam que os modelos futuros não reflectirão apenas os dados, mas também os nossos valores. E, tal como diz o MIT, também esta universidade fala em comportamentos indesejáveis, incluindo preconceitos raciais, de género ou religiosos. A questão é que parece não haver uma solução mágica para resolver todas estas questões, até porque o uso da linguagem apropriada varia de acordo com o contexto e culturas. Stanford defende a necessidade de haver mais pesquisas interdisciplinares sobre quais os valores que devem ser imbuídos nestes modelos e como fazê-lo.
Podem os chatbots ser demasiado pessoais?
Foquemo-nos no exemplo dos chatbots. Hoje, estamos cercados por máquinas e programas que fazem muito do nosso trabalho de uma forma mais fácil, ultrapassando a capacidade humana. Seja a realizar tarefas industriais complexas ou a navegar na Internet, a tecnologia de programação moderna revolucionou todas as esferas da vida e dos negócios. Os chatbots estão à nossa volta há vários anos, sendo capazes de conversar com humanos nas redes sociais e em diferentes canais digitais usando linguagem natural. Ora, os chatbots usam os tais sistemas de aprendizagem de máquina, não estando apenas habilitados a responder a perguntas, mas tendo já a capacidade de aprender a responder apropriadamente usando inferência probabilística de grandes conjuntos de dados com supervisão humana. Esses agentes de conversação com tecnologia de IA começaram agora a fornecer um toque mais pessoal, como reservar voos, tocar música e até mesmo ajudar a equipa médica a diagnosticar problemas médicos graves.
E apesar de todas as questões levantadas pelo MIT ou Stanford, a verdade é que o mundo e os negócios esperam que esse toque pessoal continue a aumentar à medida que mais e mais pessoas estão a adoptar chatbots nas suas vidas diárias. Alexa da Amazon, Siri da Apple, Google Home e outros já o estão a fazer, respondendo às dúvidas e solicitações diárias dos utilizadores, como tocar música, desligar e ligar as luzes, ler notícias, proporcionando experiências mais pessoais. Enquanto a IA trabalha nos bastidores, muitas organizações estão ansiosas para aproveitar o potencial dos chatbots de IA para interagir e se envolver directamente com a sua base de clientes.
A interacção humana influenciada por chatbots
«Sem dúvida que o uso de chatbots de IA oferece muitos benefícios. Mas a sua maior humanização pode trazer potenciais perigos. Não estou a falar num colapso da civilização, mas podem fazer uma mudança de paradigma crucial nas formas humanas de interacção e comunicação», explicou o sociólogo Miguel Macedo.