Olá, caro e cara ouvinte deviante, Dobrý Den! Esta é a edição 1422 do Spin de Notícias, o seu giro diário de informações científicas em escala subatômica. Eu sou o Igor Alcantara, cientista de dados e um dos apresentadores do podcast Intervalo de Confiança, especializado em ciência de dados e Inteligência Artificial.

Hoje vamos falar sobre um alerta da ONU sobre o risco que as IAs causam aos direitos humanos e sobre uma nova classificação usada pelo Twitter em relação a bots malignos.

A primeira notícia é sobre um assunto de extrema importância

A chefe dos direitos humanos da Organização das Nações Unidas (ONU) pediu a todos os Estados membros que colocassem uma moratória na venda e uso de sistemas de inteligência artificial. Explicando o termo, moratória é uma suspensão ou mesmo um atraso em realizar alguma coisa, normalmente um pagamento, mas nesse caso está relacionado ao comércio de um bem.

A alta comissária da ONU para os direitos humanos, Michelle Bachelet, que já foi presidente do Chile, reconheceu que a IA pode ser uma “força para o bem”, mas também pode ter “efeitos negativos, até catastróficos”, se os riscos que ela representa não forem tratados.

Os comentários de Bachelet vêm junto com um novo relatório do Escritório do Alto Comissariado para os Direitos Humanos (OHCHR).

O relatório analisa como a IA afeta os direitos das pessoas à privacidade, saúde, educação, liberdade de movimento, entre outras coisas.

Segundo disse a própria Bachelet:

“a inteligência artificial agora alcança quase todos os cantos de nossas vidas físicas e mentais e até mesmo estados emocionais. Os sistemas de IA são usados ​​para determinar quem recebe serviços públicos, decidir quem tem a chance de ser recrutado para um emprego e, claro, eles afetam as informações que as pessoas veem e podem compartilhar online ”

Tanto o relatório quanto os comentários de Bachelet seguem as revelações de julho em torno do spyware Pegasus, que o chefe de direitos da ONU descreveu como parte do “nível de vigilância sem precedentes” visto em todo o mundo atualmente.

Lembrando aos nossos ouvintes do que se trata isso. O Pegasus é um vírus de espionagem para celulares desenvolvido pela empresa israelita NSO. De acordo com o Washington Post e outras fontes de mídia , o Pegasus não só permite a monitorização das teclas de todas as comunicações de um telefone (textos, e-mails, pesquisas na web), mas também permite o seguimento de chamadas telefônicas e da localização, ao mesmo tempo em que permite ao Grupo NSO sequestrar tanto o microfone do celular como a câmara, transformando o aparelho num dispositivo de vigilância constante.

Em 23 de agosto de 2020, o Grupo NSO foi acusado de vender o spyware Pegasus por centenas de milhões de dólares para vários países que tinham o interesse em espionar seus próprios cidadãos, em especial opositores políticos. Entre esses países está, veja só, o Brasil, com o próprio filho do presidente supostamente envolvido nessa compra. Só que a divulgação disso aparentemente atrasou esses planos.

Michelle Bachelet disse que essa situação é “incompatível” com os direitos humanos. Agora, de maneira semelhante, o OHCHR voltou sua atenção para a IA.

De acordo com o relatório, os estados e as organizações muitas vezes deixam de dar a devida atenção a processos e normas quando correm para criar aplicativos de IA, levando a um tratamento injusto de indivíduos como resultado da tomada de decisões de IA.

Além do mais, os dados usados ​​para informar e orientar os sistemas de IA podem ser defeituosos ou discriminatórios e, quando armazenados por longos períodos de tempo, podem algum dia ser explorados por meios ainda desconhecidos.

É algo que eu sempre falo nos episódios aqui do Spin, no Scicast ou lá no Intervalo de Confiança. Uma IA é tão boa quanto dois fatores: o algoritmo e os dados em que ela foi treinada. Se os dados de treinamento são enviesados, a IA será enviesada. Vamos ver um exemplo que eu sempre cito.

Há poucos anos a polícia de Detroit começou a usar um sistema de IA para saber quais as áreas da cidade com maior propensão a acontecer crimes e passou a alterar a rota dos policiais para privilegiar essas áreas. Aí você pode pensar “nossa, isso parece uma boa ideia”, só que os dados de crimes usados são os dados da polícia.

E a gente sabe que esses dados estão bem enviesados e são parte do que a gente chama de racismo estrutural. Nos EUA, se você tem duas pessoas que cometeram o mesmo crime e foram presas sobre as mesmas circunstâncias, e um deles é negro e o outro branco, o negro tem 700% mais chance de ser condenado que o branco. Então o que aconteceu em Detroit foi que os bairros com população majoritária negra começaram a contar com vigilância ostensiva da polícia. E isso não é o caso mais grave, a IA já foi usada como forma de reconhecer imagem de câmeras na identificação de suspeitos e foi responsável pela prisão de inocentes. Então, se você usa dados racistas, sua IA não vai ser melhor que uma pessoa que usa uma bandeira confederada na parte de trás de sua pickup.

Só que isso já é um assunto complexo que merece um episódio de pelo menos umas duas horas.

Encerrando uma notícia com uma frase da Bachelet , ela disse que “o poder da IA ​​para servir as pessoas é inegável, mas também o é a capacidade da IA ​​de alimentar violações dos direitos humanos em uma escala enorme, praticamente sem visibilidade. É preciso agir agora para colocar uma proteção dos direitos humanos sobre o uso de IA, para o bem de todos nós ”. E eu concordo!

Vamos resolver logo os problemas que já deveriam estar resolvidos no Século XIX como casamento entre pessoas do mesmo sexo, direitos das mulheres, vacinas, formato da terra, beterraba não é gostoso, e focar nos graves desafios que temos no Século XXI: como desemprego, IA e mudança climática.

A segunda notícia é bem curtinha e é sobre o Twitter.

Recentemente o Twitter vem bloqueando inúmeros bots da sua plataforma, algo que ela parecia não se importar até 2019. Só que com o uso dessas ferramentas para espalhar mentiras sobre a pandemia de Covid-19 e sobre vacinas. Só que um efeito colateral disso foi que Bots que faziam um trabalho importante e honesto também estavam sendo bloqueados.

Por exemplo, eu posso citar os bots de verificação de fatos, como o da agência Aos Fatos. Isso sem contar bots que avisam sobre previsão do tempo, desastres naturais, situações de segurança, como a presença de um atirador em alguma área, serviços de transporte público (em Boston eu seguia o bot do MBTA que me avisava de atrasos no metrô, por exemplo) e muitas outras coisas.

No mês passado, Setembro, o Twitter anunciou que estava testando um novo rótulo que seria aplicado a tweets feitos por Bots, mas que seriam tweets aprovados pela plataforma. Esses tweets vào vir acompanhados da hashtag #GoodBots.

Um estudo da Carnegie Mellon University no ano passado descobriu que quase metade das contas do Twitter que tuíam sobre a pandemia do coronavírus são provavelmente contas automatizadas. Ou seja, bots. O Twitter diz que continuará removendo contas falsas que violam suas regras.

A mudança pode ser comparada ao esquema de contas verificadas do Twitter, que coloca uma pequena marca azul ao lado do nome de um usuário para mostrar aos outros que ele pertence à pessoa em questão e não é uma conta fake ou uma conta de paródia.

No entanto, ao contrário do esquema de contas verificadas do Twitter, que não oferece garantias sobre o conteúdo dos tweets de um usuário, a rede social está apostando que os tweets de uma conta de bot “boa” permanecerão corretos. Agora é ver se isso vai de fato funcionar. Vamos aguardar.

Bom, gente, por hoje é só. Para encerrar, eu queria dizer que esse projeto, o Spin de Notícias, e também outros como o SciCast, Contrafactual, Fronteiras do Tempo, Beco da Bike, Miçangas,  RPG Guaxa, além de outros podcasts, os textos do site e tudo isso que é feito aqui só é possível por causa do seu apoio no site do Portal Deviante, através das plataformas Patreon, Padrim e PicPay. Entre lá em deviante.com.br, clique no link “Seja um Patrono” e ajuda a patrocinar a divulgação científica. Isso é muito importante.

Como eu disse, eu sou o Igor Alcantara e vocês me encontram volta e meia aqui no Spin de Notícias e no meu podcast onde falo mais desses assuntos, o Intervalo de Confiança, intervalodeconfianca.com.br, no meu podcasts de histórias pessoais surreais o “Aconteceu com Igor”, ou no meu site pessoal igoralcantara.com.br

Um grande abraço e até amanhã com mais Spin de Notícias!

Tchau! Na Shledanou!


Igor Alcântara. Cientista de Dados há vários anos, com experiência em diversas empresas e universidades como Philadelphia Eletric Company, University of Southern California e Harvard University. Um dos apresentadores do podcast “Intervalo de Confiança”, especializado em dados e Inteligência Artificial, Igor também é o criador da Science Sauces, onde ele usa seus conhecimentos científicos para disfarçar sua total falta de talento culinário e ao mesmo produzir deliciosos molhos de pimenta que homenageiam grandes nomes da ciência.