Podemos ainda não estar a viver num cenário de ficção científica cheio de máquinas inteligentes, mas os precursores da inteligência artificial (IA) já fazem parte da vida quotidiana de muitas pessoas.
O debate público actual em torno da IA abrange uma vasta gama de áreas, seja do ponto de vista tecnológico ou jurídico. O conceito de ‘inteligência artificial’ inclui tudo, desde algoritmos avançados a machine learning que podem ser usados para analisar, prever e tomar decisões sobre indivíduos, até à hollywoodesca ideia de máquinas autónomas a invadirem cidades e robots assassinos.
Fixando-nos na realidade, hoje já usamos IA em motores de busca, na produção e análise de classificações de crédito, reconhecimento de voz e texto, traduções instantâneas, determinações de seguros, candidaturas a empregos, veículos autónomos, justiça criminal, e muito mais.
Com o desenvolvimento contínuo do machine learning e o aumento do uso de algoritmos, o papel da inteligência artificial nas nossas vidas diárias também aumentará. Mas estamos prontos para isso? Como estão os governos, nomeadamente a Europa, a abordar essa transformação?
IA para a humanidade: um conceito promissor
Nos últimos anos, de Paris a Moscovo, de Washington a Pequim, os líderes mundiais têm-se envolvido numa corrida frenética à inteligência artificial. De acordo com o presidente russo Vladimir Putin, o país que liderar a IA «governará o mundo».
Na União Europeia, os decisores temem ficar atrás da China e dos Estados Unidos no investimento em inteligência artificial. Como resultado, os países têm vindo a encorajar as empresas a abrirem centros de IA na União Europeia, incentivando investimentos em pesquisa e inovação neste campo. A estratégia da UE em matéria de inteligência artificial visa aumentar a capacidade industrial e tecnológica da União Europeia através de apoio financeiro público e privado.
Embora o objectivo seja aumentar o investimento em IA para pelo menos vinte mil milhões de euros até 2020, a Comissão Europeia começou por aumentar o seu financiamento do programa de pesquisa e inovação Horizonte 2020 em 1,5 mil milhões para o período 2018-202. Adicionalmente, a UE espera desbloquear 2,5 mil milhões de euros de financiamento em parcerias público-privadas, em área como big data e robótica. Por último, a Europa tem vindo a tomar medidas legislativas e financeiras adicionais para incentivar os investimentos do sector privado na investigação em IA.
Mas, com todo este dilúvio de informação, financiamento e desde logo encorajamento à inovação neste sector, há uma dúvida que parece assolar a mente dos especialistas: que tipo de IA realmente queremos para nossas sociedades? «Não devemos apressar a adopção da IA simplesmente por uma questão de inovação. Nem toda a inovação significa ‘progresso’ para a sociedade, principalmente se os seus impactos não forem considerados com cautela e, se necessário, mitigados», explicou à businessIT o sociólogo Alberto Dias Mendes.
Nos Estados Unidos, as empresas de tecnologia estão a fazer investimentos maciços em IA, mas as recentes violações de dados e escândalos relacionados ao uso indevido de dados, do Equifax ao Facebook, mostram claramente os perigos de avançar sem uma protecção abrangente de dados e estrutura de privacidade. «Sem a base certa, há um risco tangível de que a tecnologia de inteligência artificial desenvolvida nos Estados Unidos viole os direitos fundamentais dos indivíduos», garante o sociólogo. «Também precisamos de considerar cuidadosamente os resultados que desejamos do uso de processos automatizados. Queremos usar esses processos para aumentar a produtividade, garantir a precisão ou garantir a não discriminação?».
Tomemos como exemplo o uso de algoritmos nos EUA para procedimentos de justiça criminal. Ao serem presos no sistema americano, é comum que os suspeitos recebam uma pontuação destinada a prever a probabilidade de cometerem um crime no futuro. Um dos sistemas mais commumente usado foi desenvolvido por uma empresa chamada COMPAS, o Correctional Offender Management Profiling for Alternative Sanctions. A pontuação de “avaliação de risco” que o sistema COMPAS fornece é usada para suportar as decisões sobre se um suspeito pode ser libertado em cada fase do processo de justiça criminal. Uma investigação da ProPublica revelou que o sistema tem um viés racial distinto, já que sinaliza falsamente os réus negros como futuros criminosos quase duas vezes mais que os réus brancos.
Ao mesmo tempo, os réus brancos foram erroneamente rotulados como de baixo risco com mais frequência do que os réus negros. O método de pontuação e o desenho do sistema podem ter tornado o sistema de tribunais criminais mais “produtivo” ao limitar o número de casos que vão a julgamento, mas esse benefício parece vir às custas da equidade, justiça e igualdade.