Pages Menu
TwitterRssFacebook
Categories Menu

Pode uma inteligência artificial ser preconceituosa?

por em 25/01/2019 em Ciência, Notícias | Nenhum comentário

Pode uma inteligência artificial ser preconceituosa?

Hoje vamos falar de algo sério que pode trazer consequências drásticas no futuro. Você já deve ter ouvido falar em Machine Learning ou Inteligência Artificial. Caso não, fica a dica de alguns textos publicados no Deviante e do Scicast sobre o assunto [1-4]. Bem, se você procurar no Google por “machine learning applications” (pode ser em português também) vai encontrar diversas listas de aplicações criativas, surpreendentes, disruptivas (insira sua buzzword preferida aqui) e etc. É fato que cada dia alguém pensa em uma aplicação diferente que pode ajudar muitas vidas.

Eis então que surge um questionamento baseado em super vilões: E as aplicações do mal, existem? É claro que existem, como toda aplicação de tecnologia. O caso mais comum não é necessariamente “do mal”, vide o exemplo de alguma empresa que usa seus dados para encontrar o melhor momento de te vender um produto que normalmente você não precisa. A empresa está fazendo o seu papel e talvez, vendo de fora, você não concorde com isso. Entretanto, há casos mais preocupantes como o problema que vamos abordar aqui.

I AM THE LAW

Cena comum de filmes: uma pessoa é abordada por um policial por estar dirigindo seu veículo acima da velocidade permitida. Digamos ainda que este cidadão estava bêbado. Este evento faz com que o infrator vá até a corte, onde será interrogado por um juiz. Baseado na infração, no depoimento e possíveis dados em uma ficha criminal o juiz estipula um método para que o cidadão “pague” pela sua atitude: a pena pode ser perdoada, pode haver apenas uma multa, talvez alguns dias preso… A vida então segue e os dados do ocorrido ficam armazenados.

Um problema que ocorre no mundo todo é a lentidão de todo este processo, provocada muitas vezes pela burocracia e pela falta de policiais e magistrados. É claro que não demorou muito para que alguém tivesse a ideia de otimizar todas essas etapas com o uso de… Machine Learning [6]. Como? Com os dados de cada cidadão, inclusive dados envolvendo raça, gênero e condição social.

Se isso não preocupou você veja um exemplo:
Analisando apenas negros e brancos, qual você diria que compõe em maior número a massa carcerária, seja nos EUA ou Brasil?
Sim, negros.
Por quê?
Por causa de todo um histórico de desigualdade social, não precisamos ser sociólogos para entender isso. O fato é: hoje em dia mais negros são presos. Se isso for uma característica que o algoritmo avalia quando está aprendendo com os dados, ele vai associar que negros têm uma chance maior de ser considerados culpados, de voltar a cometer crimes e etc.

O resultado inicial disso é que, no caso de duas pessoas cometerem exatamente o mesmo crime ou infração e a única diferença entre elas for a cor, um negro e um branco, o algoritmo vai considerar que o negro oferece um risco maior a sociedade. Isso ocorre porque o algoritmo não sabe o significado da característica raça, para ele, essa é só mais uma variável do problema. Não é o algoritmo que é preconceituoso, e sim os dados que carregam anos de injustiça social ou o modelo que foi criado para resolver o problema. Um exemplo com um problema similar a este ocorreu nos anos 70 e 80, quando estudos apontavam que adolescentes que ouviam Heavy Metal tinham grande tendência de serem violentos. Os pesquisadores criaram um viés no seu estudo e o que perceberam foi “adolescentes violentos ouvem Heavy Metal” quando na verdade não perceberam que os não violentos também ouviam o mesmo estilo musical, pois quase todo adolescente fazia isso [7].

O que isso pode ocasionar?

Atualmente existe este viés na sociedade, os dados mostram uma correlação entre raça e status econômico com o risco que uma pessoa representa para a sociedade. Esperamos que futuramente este viés vá diminuindo até o ponto em que não exista esta correlação. Por outro lado, se passarmos a usar unicamente algoritmos para decidir estas questões, a sociedade continuará carregando o mesmo viés preconceituoso que tanto tentamos eliminar. Isso porque o algoritmo não estará sendo treinado com dados de uma nova sociedade e sim com dados gerados por outros dados de épocas passadas.

Se você não está convencido, analise a seguinte situação, propositalmente exagerada:

Joãozinho foi pego fazendo bullying com um colega de escola e agora será julgado pela sociedade em épocas diferentes, ou seja, com diferentes vieses: (i) hoje em dia e (ii) 100 anos atrás. Será que ele seria punido com a mesma pena nestas duas épocas? 100 anos atrás seria possível que ele recebesse o castigo da palmatória, enquanto hoje em dia talvez fosse encaminhado para conversar com o psicólogo do colégio.

Isso serve para mostrar que a mentalidade da sociedade muda com o tempo e tudo precisa ser atualizado, inclusive um algoritmo.

NÃO TEM NINGUÉM VENDO ISSO?!

A solução então é não usar Machine Learning? Claro que não, não podemos deixar de usar uma tecnologia que de fato pode ajudar muito a sociedade. Devemos, sim, assegurar que ela seja utilizada de forma correta e justa. Para isso basta que sejamos cuidadosos na construção do modelo e que esses algoritmos sejam constantemente supervisionados e testados, garantindo que o viés seja eliminado com o tempo conforme a sociedade muda. O problema é que, em muitos desses códigos já utilizados pelos sistemas judiciais, a forma como todo o modelo funciona não é aberta ao público. Portanto, não há como saber que considerações o algoritmo faz na hora de dar uma recomendação, ferindo o direito de livre defesa do cidadão. Há muitas pessoas preocupadas com essa questão, pois, sem saber como o algoritmo julga, não há como se defender [8].

E agora?

Este assunto é polêmico e poderia ser discutido por horas, mas essa não é a ideia aqui. Deixo como recomendação de leitura um artigo disponibilizado pela Universidade de Harvard discutindo vários aspectos pertinentes mais a fundo [9,10].


Junior “Ninja” Koch. Bacharel em Física, Doutor em Ciência e Engenharia de Materiais e Pós-doutorando em Gravidade Quântica. Adora criar modelos matemáticos para tudo que vê e colocar machine learning no meio. Seu lema é “Tudo é matemática”.

 

 

Referências:

[1] – http://www.deviante.com.br/noticias/ciencia/machine-learning-para-o-jogo-do-mario/

[2] – http://www.deviante.com.br/noticias/ciencia/por-dentro-da-deep-learning/

[3] – http://www.deviante.com.br/noticias/tecnologia/precisamos-falar-sobre-deep-learning/

[4] – http://www.deviante.com.br/noticias/machine-learning-explica-por-que-voce-nao-entende-a-escolha-de-candidatos-de-seus-amigos/

[5] – http://www.deviante.com.br/podcasts/scicast/scicast-253/

[6] – https://channels.theinnovationenterprise.com/articles/machine-learning-could-help-when-sentencing-criminals-if-used-right

[7] – https://ourpastimes.com/the-effects-of-heavy-metal-music-on-teenagers-12536600.html

[8] – https://canaltech.com.br/inteligencia-artificial/senadores-dos-eua-pedem-aos-orgaos-publicos-avaliacao-sobre-preconceito-nas-ias-123200/

[9] – https://www.wired.com/2017/04/courts-using-ai-sentence-criminals-must-stop-now/

[10] – https://dash.harvard.edu/bitstream/handle/1/33746041/2017-07_responsivecommunities_2.pdf

Modo Noturno