Reino Unido quer prever assassinatos com uso de inteligência artificial à la Filme Minority Report
Você já assistiu Minority Report? No filme dirigido por Steven Spielberg e estrelado por Tom Cruise, uma tecnologia futurista (à lá inteligência artificial) permite prever assassinatos antes que eles aconteçam, com alto grau de precisão. Na prática, isso erradica os homicídios… até que o sistema começa a apresentar problemas.
O Reino Unido levou a proposta do filme a sério. De acordo com o jornal britânico The Guardian, o governo está desenvolvendo um programa que usa algoritmos preditivos para determinar a probabilidade de uma pessoa cometer assassinato.
Além da suposta capacidade preditiva, o projeto chamou atenção por usar dados sensíveis de até meio milhão de pessoas, incluindo histórico de saúde mental e informações de vítimas de violência doméstica.
Ativistas britânicos chamaram a iniciativa de “assustadora e distópica”. Mas não é a primeira vez que uma tecnologia deste tipo vem à tona. Você já deve ter lido por aqui outros casos sobre o uso de inteligência artificial na segurança pública (como nos Estados Unidos e até mesmo no Reino Unido).
‘Inteligência artificial’ para prever assassinatos levantou polêmicas
O programa do Reino Unido foi originalmente batizado de “projeto de previsão de homicídios”, mas teve o nome alterado para “compartilhamento de dados para aprimorar a avaliação de risco”. Trata-se de uma iniciativa colaborativa do Ministério de Justiça, Ministério do Interior, Polícia de Manchester e Polícia Metropolitana de Londres, descoberta pelo grupo de pressão Statewatch através de documentos obtidos pela Lei de Liberdade de Informação (a versão britânica da Lei de Acesso à Informação, vigente no Brasil).
O sistema analisa dados de 100 mil a 500 mil pessoas para tentar identificar indivíduos com maior risco de cometer crimes violentes, como assassinatos. No entanto, segundo o Statewatch, a inteligência artificial estaria sendo treinada com dados sensíveis não apenas de pessoas que já têm histórico criminal, mas também de cidadãos sem nenhum tipo de condenação. Isso inclui informações de vítimas de violência doméstica, dados de saúde mental, automutilação, vícios, situações de vulnerabilidade e até deficiências.
As autoridades negam, dizendo que apenas informações de pessoas com pelo menos uma condenação criminal foram usadas.
Segundo o Ministério da Justiça, o sistema vai “analisar as características do infrator que aumentam o risco de cometer homicídio” com o objetivo de fornecer “evidências para melhorar a avaliação de risco de crimes graves e, em última análise, contribuir para proteger o público”.
Sofia Lyall, pesquisadora do grupo, chamou o projeto de previsão de assassinatos de “assustador e distópico”, ressaltando como algoritmos preditivos são falhos e podem reforçar preconceitos estruturais, como discriminação contra comunidades racializadas e de baixa renda.
O Ministério de Justiça declarou que, por ora, o projeto está sendo conduzido “apenas para fins de pesquisa” e que um relatório sobre o assunto será publicado “oportunamente”.
Como destacou Lyall, do Statewatch, a própria tecnologia é falha. São vários os casos de alucinações (quando a inteligência artificial inventa informações) e trechos tirados de contexto.
Luis Flávio Sapori, especialista em segurança pública e professor da PUC Minas, destaca o risco de uma iniciativa como a do Reino Unido no que diz respeito à própria previsão de assassinatos. Para ele, usar a tecnologia para determinar o potencial criminoso de um indivíduo pressupõe que o comportamento criminoso é previsível… mas não é bem assim. O especialista afirma que estudos criminológicos não têm esse tipo de exatidão, nem confiabilidade.
A inteligência artificial pode ser muito útil na previsibilidade de um indivíduo adulto que já tem uma trajetória criminosa ser um reincidente criminal depois de cumprir pena. Já existem sistemas para isso. Mas a trajetória de vida de um indivíduo não é determinada por fatores externos a ele, então não tem como prever essa dimensão.
Luis Flávio Sapori
Ele destaca como adolescentes que cometem pequenos delitos nem sempre continuam na trajetória do crime. O resultado disso seria gerar uma “seletividade penal” voltada para certos perfis raciais (principalmente de pessoas negras) ou de indivíduos vivendo em áreas de vulnerabilidade.
Já o pesquisador e doutorando em Mídia e Tecnologia Alan Tomaz de Andrade lembra que, antes mesmo das alucinações e dos erros técnicos, o problema está em quem treina as máquinas: os humanos, que inevitavelmente são seres ideológicos. Se as tecnologias forem alimentadas com dados enviesados produzidos por nós, elas os replicarão.
No Brasil especificamente, algumas cidades já começaram a discutir o uso da tecnologia para esses fins. No entanto, por enquanto, o que existe é uma admiração geral com as ferramentas, sem necessariamente debater os riscos dela.
Nesse sentido, Ponce lembra: “não temos que absorver tudo que a IA pode fazer”. É preciso entender o custo benefício na sociedade. E no caso de um algoritmo para prever assassinatos, qualquer erro pode destruir a vida de uma pessoa.