Estudo mostra que máquinas, sem ‘influência externa’, tendem a um problema que julgava-se ‘apenas’ demasiado humano
De “bolhas” virtuais alimentadas por preconceitos bem reais, digamos que o Brasil conhece bem, ainda mais este Brasil de agora mesmo, quando, saltando por todas as contradições de sempre, que crivam o país de históricas mazelas, sobrepõe-se a contradição, ou a encruzilhada, entre democracia e fanatismo. Mas os entusiastas de todo o mundo com a ideia de que a ciência e a tecnologia serão, sim, um dia redentoras da espécie, a humana, não contavam com o que aponta um estudo feito pela Universidade de Cardiff, no Reino Unido, em parceria com o Instituto de Tecnologia de Massachusetts (MIT, na sigla em inglês), dos EUA.
O estudo, publicado em meados de setembro na conceituada revista científica Nature e intitulado “Reciprocidade Indireta e Reprodução de Grupos de Preconceito”, demonstrou que os algoritmos não apenas tendem a formar “bolhas” de rivalidade e hostilidade na esfera das relações humanas via internet, mas também entre si. Isso mesmo: “automaticamente”, o que significa dizer que sem serem programados para isso, também os algoritmos –também eles, além de nós – desenvolvem preconceito contra seus iguais que não lhes parecem, afinal, tão iguais assim.
Os pesquisadores Roger Whitaker, Gualtiero Colombo e David Rand reuniram várias inteligências artificiais, ou “indivíduos virtuais”, em diferentes grupos num jogo de dar e receber recursos cuja única regra predefinida, ou “influência externa”, esgotava-se mesmo nisso: indivíduos com “níveis de preconceito idênticos” fazendo e recebendo doações.
Após milhares e milhares de “transações”, observou-se a tendência dos algoritmos para ajudarem algoritmos com valores numéricos parecidos com o seu, mesmo com todos os algoritmos tendo seus valores numéricos codificados aleatoriamente. Rapidamente formaram-se grupos de “indivíduos virtuais” marginalizados, contra os quais se tornou evidente o “preconceito” dos algoritmos mais bem-sucedidos, por assim dizer. A reação a essas inteligências artificiais e preconceituosas levou as inteligências artificiais e marginalizadas a formarem outros grupos preconceituosos, resultando em uma “população de algoritmos” dividida, tendendo a escantear o diferente, em vez de alicerçada na cooperação.
‘Problema do século’
“Preconceito é uma atitude humana que envolve prejulgamentos geralmente negativos e não substanciados de outros. Quando emerge, isso resulta em comportamentos como sexismo, preconceito etário e discriminação contra a preferência sexual; o extremismo étnico, racial, nacionalista e religioso”, observam os autores do estudo a título de introdução do seu trabalho, lembrando ainda que o preconceito já chegou a ser caracterizado por Susan Tufts Fiske, renomada psicóloga social americana, como o “problema do século”.
Roger Whitaker, Gualtiero Colombo e David Rand destacam ainda que, “mais recentemente, o preconceito foi assinalado por sua conexão com eventos políticos globais: por exemplo, o preconceito contra a imigração foi um forte correlato do apoio ao Brexit”.
Ao jornal Público, de Portugal, o professor Roger Whitaker, da Universidade de Cardiff, explicou o porquê da experiência cujos resultados afinal se revelaram assombrosos: “Decidimos fazer esta simulação porque a cooperação é um problema complexo com que as máquinas autônomas podem se deparar no futuro, ao tornarem-se mais comuns”.
À preocupação com as consequências da substituição do homem pelas máquinas, “ao tornarem-se mais comuns”, soma-se agora a preocupação com a possibilidade delas desenvolverem um vício, o “problema do século”, que se julgava “apenas” demasiado humano. Ou, como consta no estudo:
“Os resultados também demonstram que o preconceito não é dependente da cognição humana sofisticada e é facilmente manifestado em agentes simples com inteligência limitada, com implicações potenciais para futuros sistemas autônomos e interação homem-máquina”.