Policiamento preditivo e racismo algorítmico: uma questão de matemática apenas?
Você consegue viver completamente no mundo off-line? Talvez não absolutamente. Em um momento ou outro você precisará acessar seu celular, ainda que para acessar as redes sociais. O celular que era um instrumento de comunicação auditiva, passou a ser um auxiliar para muitas práticas cotidianas.
Todos os dias acessamos o celular, nos conectamos à internet e vamos deixando rastros. Isso é fato! Hoje tudo é possível rastrear e chegar à informação original. Não adianta apagar! Ao nos conectarmos deixamos de ser um ser humano em si para ser um código IP e com ele vários outros dados são coletados, na medida em que fazemos nossos cadastros de acesso em sites, escolhermos objetos de compras, demonstrarmos interesses literários, ou mesmo adotarmos posicionamentos políticos.
Todos esses dados são coletados e organizados por programas de softwares inteligentes, fazendo um portfólio de gostos e preferências do usuário da internet, decodificando um comportamento individual e coletivo das/nas sociedades.
No mundo, uma dezena de empresas possuem os dados de quase toda a humanidade, sendo esse o seu maior e mais valioso ativo que é capaz de influenciar de forma direta ou indireta inclusive, em eleições estatais, bastando apenas um clique direcionado aos interesses dos desavisados. Nesse solo fértil é que nascem também as “fake news”. Mas isso é outra história.
Essa inteligência artificial pode incorporar padrões comportamentais humanos. Ela te oferece exatamente aquilo que está ao gosto do freguês. Isso tem um preço. Na verdade, voluntariamente nós oferecemos informações preferenciais a esses sistemas inteligentes e eles nos oferecem o que pode nos dar o prazer imediato, num looping de dopamina eterno.
Lembra daqueles jogos trazidos pelas redes sociais para envelhecer ou rejuvenescer os rostos? Você fez a sua regressão ou projeção usando esse software? Pois bem, era apenas para coleta de dados utilizados para reconhecimento facial, sendo esse mais um elemento da inteligência artificial para ampliar ao máximo possível as peculiaridades dos rostos humanos. Isso se transforma em uma valiosa informação[1]. Afinal somos tão diversos, não é mesmo?
Curiosamente, a mídia tem investido em documentários procurando desvelar essa realidade obscura do mundo virtual, como é o caso do documentário Dilema das Redes, Privacidade Hackeada[2]. Mais recentemente, a Netflix[3] publicou em abril de 2021, um documentário denominado Coded Bias, em que uma pesquisadora negra do Instituto de Tecnologia de Massachusetts (MIT), Joy Buolamwini, trouxe seu estudo demonstrando que a inteligência artificial tem vieses que erram ao identificar rostos de pessoas de pele escura, especialmente mulheres.
Em seu estudo a pesquisadora Buolamwini notou que seu próprio rosto não era identificado pelo sistema de reconhecimento facial, mas somente quando colocava uma máscara branca. Esse fato a fez perceber que existiam vieses e passou a investigar softwares da Microsoft, IMB e Google, chegando à conclusão de que não havia erro de reconhecimento facial, o que não ocorria quando se tratava de homens brancos.
De forma interessante, a pesquisadora Joy Buolamwini fundou o que ela chama Liga da Justiça Algorítmica e com elas vários outros estudos acontecem no mundo buscando entender e desvelar o que de fato acontece no mundo virtual. Dentre esses estudos está o realizado pelo Instituto Nacional de Padrões de Tecnologia (NIST[4]) que identificou o falseamento de rostos afro-americanos e asiáticos em até 100% das vezes, sendo que os rostos afro-americanos são mais passíveis de erros de identificação, podendo gerar prisões ilegais ou mesmo imputações comportamentais inverídicas.
Esses fatos demonstram que a programação dos algoritmos não é neutra. Há um reflexo do comportamento social humano que, ao ser utilizado pelo Estado como mecanismo de vigilância, pode trazer prejuízos, notadamente para pessoas negras, como é o caso de George Floyd, que foi morto violentamente nos Estados Unidos, levando a IBM, Microsoft e Amazon a não mais oferecer tecnologias de reconhecimento facial para órgãos policiais.
O Facebook[5] nesse mesmo sentido se comprometeu a formar equipes para examinar como a sua inteligência artificial afeta os usuários, notadamente negros, hispânicos ou outro grupo não branco. Talvez pressionado pelo movimento Stop Hate for Profit, que levou à suspensão de contratos de anúncios de empresas como Adidas, Coca-Cola, Ford, Honda, Mozilla, Puma Unilever e outras
Para se ter uma ideia, nos países da américa do norte estudos demonstram que a tecnologia erra 96% dos casos na identificação dos suspeitos[6]. Não por menos mais de 2000 matemáticos e pesquisadores em nível de doutorado assinaram uma carta[7] manifestando preocupação com a utilização da matemática para criar um verniz científico para o racismo, sugerindo a submissão dos algoritmos de alto impacto sejam submetidos à auditoria pública, recomendando, inclusive, um boicote[8] generalizado de colaboração com a polícia.
A discriminação algorítmica[9] põe sobre a mesa uma questão importante no que se refere à prisão de pessoas negras em sua grande maioria, demonstrando que há uma questão discriminatória enraizada na sociedade mundial e que precisa ser discutida para que haja reconhecimento e mudança comportamental.
Portanto, usar a inteligência artificial para facilitar a vida social tem o seu valor para o mercado de consumo, por outro lado servir como instrumento para reconhecimento facial pautado em premissas preconceituosas, com vernizes matemáticos pseudocientíficos é outra questão que precisa ser encarada de frente. Afinal, são os direitos civis das pessoas não-brancas que está em jogo.
Eliana Freire do Nascimento
[1] https://www.redebrasilatual.com.br/saude-e-ciencia/2019/05/malte-spitz-empresas-estao-coletando-nossos-dados-precisamos-entender-isso/
[3] https://www.uol.com.br/tilt/noticias/redacao/2021/04/10/coded-bias-da-netflix-prova-como-a-tecnologia-e-racista-e-viola-direitos.htm
[4] https://venturebeat.com/2019/12/20/u-s-government-study-finds-racial-bias-in-facial-recognition-systems/
[5] https://olhardigital.com.br/2020/06/30/noticias/boicote-de-anunciantes-coloca-facebook-em-risco-e-finalmente-pressiona-zuckerberg/
[7] https://docs.google.com/forms/d/e/1FAIpQLSfdmQGrgdCBCexTrpne7KXUzpbiI9LeEtd0Am-qRFimpwuv1A/viewform