Responsáveis da Google passaram por Lisboa e, nas instalações da incubadora Beta-i, explicaram a visão da empresa no que toca a machine learning (ML) e inteligência artificial.
Em primeiro lugar, Jeremiah Harmsen, da Google Research Europe, em Zurique, quis começar por desmistificar que a inteligência artificial (IA) não é sinónimo de robótica, contrariamente ao que muita gente possa pensar. Afinal, a Google quer que conceitos como IA ou ML passem a ser coisas do dia-a-dia para os seus utilizadores.
Neste momento, a visão da «IA na Google passa por quanto mais a Google perceber as coisas, melhor os utilizadores também as poderão perceber», explicou Jeremiah Harmsen.
Assim, o uso de machine learning da gigante da internet está assente em três factores: o primeiro, ligado às empresas, é que estas possam usar machine learning e IA para resolução de problemas. Em segundo lugar, em pesquisa: quanto mais informação os investigadores da Google tiverem, mais aplicações podem existir no futuro. E, por último, educação. Para Jeremiah Harmsen, é importante «ensinar como utilizar machine learning para que possa ser utilizado para resolução de problemas por outras pessoas».
À medida que a Google vai fazendo as investigações na área de ML e IA, começam a chegar as pequenas mudanças aos utilizadores. Entre os exemplos dados? Funcionalidades como o reconhecimento de voz na pesquisa, a Smart Reply no Gmail, que utiliza redes neuronais para sugerir respostas relevantes a um email. De acordo com a Google, esta opção já é utilizada por 12% dos utilizadores, por exemplo.
O problema dos preconceitos nos dados
«Estamos a treinar os computadores da mesma forma que treinamos as crianças – por exemplo», explicava Andrés Martinez. A Google reconhece que existe um problema de bias ou preconceito nos dados, principalmente quando os modelos de treino são baseados em preconceitos.
Para Fernando Pereira, VP da Google and Engineering Fellow da Google, envolvido no desenvolvimento do Google Assistant, «os modelos são ainda muito superficiais, muito dependentes dos dados que lhes são dados». E o responsável reconhece que «muitos dos dados que existem são preconceituosos porque são baseados em dados sociais». Um dos exemplos de como a Google está a lidar com esta questão é o o do projecto PAIR – People + AI Research, que trabalha para que a utilização da IA seja inclusiva para todos, baseando-se numa abordagem humana para a questão da IA.