Quando os robôs começarem a nos hackear… Quando?!

Olá, ouvintes! Bom dia e bem-vindos e bem-vindas ao milésimo ducentésimo nonagésimo episódio, em outras palavras o episódio de número 1290, do Spin de Notícias, o seu giro diário de informações científicas… em escala sub-atômica e em formato de texto.

Aqui é o Marcel Ribeiro-Dantas, falando de Paris mas natural de Natal, e hoje falaremos sobre robôs e hacking. Quando os robôs começarem a nos hackear… Aliás, quando!? Editor, roda a vinheta!

Bruce Schneier é um pesquisador de segurança da Harvard Kennedy School e tem discutido bastante um tema que ele chama de “AI Hackers”. A discussão que ele traz tem inclusive relação com o título desse episódio de hoje. Se é uma IA, por que eu falei robô? Imaginar uma entidade física intervindo no mundo é mais natural para nós do que um programa de computador, e essa é uma das razões que historicamente as pessoas quase sempre falam de robôs quando querem falar sobre inteligência artificial. É um truque para nos tornar mais receptivos para a notícia, ou para facilitar nossa compreensão do que está sendo falado. Esse truque é um hacking, e é nessa linha que o Dr. Schneier discute sobre hacking e inteligência artificial. Talvez você tenha imaginado que eu fosse falar sobre um robô que engana seres humanos, mas felizmente se trata da realidade “sem sal” e não cinematográfica que é seres humanos enganando seres humanos através de ferramentas. Nesse caso, a ferramenta é a IA!

Ao longo da história, nos tornamos muito bons em aprender a enganar uns aos outros, principalmente ao compreender de que modo somos vítimas de alguns truques. Vamos para alguns exemplos! Sentimentos não são puramente genéticos, isto é, você consegue nutrir sentimentos por pessoas que não seus filhos, pais e irmãos biológicos. Filhos ou pais adotivos, e até amigos, podem ser pessoas muito queridas. Crianças, especificamente, costumam provocar sentimentos em muitas pessoas. Essa sensação em inglês se chama de “nurturing”, a vontade de alimentar e proteger. Pesquisadores observaram algumas características comuns a crianças e que podem causar esse efeito. Crianças têm cabeças grandes em comparação ao restante do seu corpo e grandes olhos em comparação com suas cabeças. Também falam com um tom de voz mais agudo que adultos, e nós respondemos a tudo isso. Artistas utilizaram disso por gerações para fazer suas criações parecerem mais simpáticas. Bonecas são produzidas assim. Personagens de desenho animado igualmente! O autor dá o exemplo do filme de 2019 “Alita: Anjo de Combate”, em que a personagem Alita tem seus olhos desproporcionalmente grandes, e isso me lembra dos olhos do gato de botas nos filmes Shreck.

Ainda assim, mesmo robôs antropomórficos, isto é, que não parecem com seres humanos e têm inteligência muito rudimentar, podem ser tecnologias emocionalmente persuasivas, e a inteligência artificial pode ampliar isso além das nossas expectativas. Em 2016, o Instituto de Tecnologia da Georgia (Georgia Institute of Technology) publicou um estudo científico sobre a confiança humana em robôs. Eles utilizaram um robô não-antropomórfico para dar orientações de deslocamento dentro de um prédio para um conjunto de participantes e essas orientações eram intencionalmente muito ruins. Após algum tempo dando instruções ruins pra os participantes do estudo, houve uma simulação de emergência e TODOS os 26 participantes seguiram as orientações do robô, mesmo quando eles foram orientados a entrar em uma sala escura sem uma saída aparente, em vez de terem saído pela porta que eles utilizaram para entrar no prédio, ainda que há poucos instantes eles estivessem cientes das péssimas orientações do robô.

Os pesquisadores fizeram outros experimentos com outros robôs que davam a impressão de estarem funcionando mal, e ainda assim as pessoas abandonavam seu bom senso e seguiam as orientações dos robôs. Esses experimentos nos levam a imaginar que robôs, ainda que não antropomórficos, e visualmente com mal funcionamento, podem hackear a nossa confiança. Já imaginou se tivéssemos um robô com uma aparência muito mais humana, como a Alita do filme, controlado por um modelo inteligente feito especificamente para nos manipular através de todas as vulnerabilidades humanas conhecidas?

Ao longo da nossa história evolutiva, desenvolvemos vários atalhos cognitivos para reconhecer outras pessoas. Essa é uma das razões de facilmente identificarmos rostos, mesmo quando eles não estão lá, como no escuro ou em pinturas. Nós vemos rosto em todos os lugares! Dois pontos em uma linha reta muitas vezes acabam por automaticamente nos fazer pensar em dois olhos, uma face. E, se tem uma face, nossa intuição diz que é uma criatura. Com sentimentos, intenções e tudo que vem no pacote. Se falar então, conseguir comunicar alguma coisa, a coisa só sai ainda mais do controle! Pensar em sentimentos por animais ou robôs pode soar estranho, mas é cada vez mais comum. Houve um episódio em que um coronel das forças armadas americanas decidiu impedir que o robô em formato de inseto feito pra procurar minas continue fazendo seu trabalho, pois ele estava se machucando no exercício de sua função. Existem diversos relatos de pessoas que não querem trocar seus Roombas, aqueles robôs em formato circular que limpam o chão para seus donos. Há diversas reclamações de pessoas que não querem seu Roomba substituído, mas concertado! Nos dormitórios da universidade Harvard, local com muitas das mais brilhantes mentes jovens de nossa geração, um robô conseguiu enganar alunos e permitir sua entrada em seus quartos fingindo ser um robô de entrega de alimentos. No MIT, um robô infantil chamado Boxie conseguia que pessoas respondessem perguntas pessoais ao pedir com jeitinho.

Mas, como eu disse, o problema que o Dr. Schneier se refere como AI Hackers não se limita a intervenções físicas através de robôs. Durante as eleições de 2016 nos Estados Unidos, em seu texto, o Dr. Schneier menciona que 20% de todos os tweets políticos foram publicados por contas controlados por programas de computador. No Brexit do Reino Unido, um terço de todos os tweets. Um relatório de 2019 do Oxford Internet Institute encontrou evidências do uso de contas controladas por programas de computador para espalhar propaganda em 50 países. Não era nada muito elaborado, apenas programas simples repetindo as mesmas coisas, quando não com apenas algumas pequenas variações. É questão de tempo para que essas estratégias se tornem mais elaboradas e cada vez mais difíceis de serem identificadas. Com contas autênticas e contas controladas por programas de computador se comportando cada vez de forma mais parecida, em um cenário de bilhões de mensagem por dia, se torna impraticável conseguir identificar as publicações feitas por programas de computador.

Em um experimento recente, Dr. Schneier relata, pesquisadores utilizaram um programa de geração de texto para enviar 1.000 comentários em resposta a uma enquete do governo americano sobre o Medicaid, o sistema de saúde pública para pessoas de baixa renda nos Estados Unidos. Os 1.000 comentários pareciam originais e únicos entre si, como verdadeiras pessoas defendendo suas opiniões. Os comentários foram capazes de enganar os administradores que aceitaram todos os comentários. Após o episódio, os pesquisadores informaram os administradores para que eles removessem os comentários feitos pelo programa. Se não fosse um estudo científico, os comentários teriam ficado lá! Você já deve ter ouvido falar de Deep Fake, onde é possível substituir o rosto de alguém. Uma mensagem dita por mim, apareceria visualmente como outra pessoa falando. Percebe o potencial destrutivo disso? O perigo disso é o que ele chama de “persona bots”. Programas de computador que têm um perfil verdadeiro na internet, com suas peculiaridades, estilo de escrita, opiniões, entre outras coisas, e que na maior parte do tempo não estão disseminando desinformação. Assim como já houve ataques utilizando dados reais de pessoas, aqui não seria diferente. Um robô assumindo a sua persona, ou de alguém que já faleceu e para todos os efeitos, uma pessoa real. Através da inteligência artificial, esse persona bot pode inclusive falar COMO VOCÊ, com os mesmos estilos de escrita e gírias, e saber seus dados pessoais. Não precisaria de 1 pessoa para lhe substituir, já que poderíamos ter virtualmente infinitas persona bots.

Assim como ele, eu concordo e vejo um perigo óbvio a primeiro momento, mas assim como esses pesquisadores estão estudando essas possibilidades, também se estuda como prevenir isso. O ponto é que antes de conseguirmos resolver um problema, precisamos saber que ele existe, como ele ocorre, sobre quais circunstâncias. Assim poderemos ter as informações necessárias para contra-atacar. Infelizmente, não se trata mais de quando, já que dei vários exemplos ao longo desse episódio de que isso já está ocorrendo, mas ainda não chegamos no pior que pode ser feito já com as tecnologias recentes, como os modelos de linguagem, isto é, modelos inteligentes que permitem que programas gerem textos bastante convincentes, como o GPT-3 da empresa e instituto de pesquisa Open AI.

Esse Spin de hoje pode ter te assustado, mas antes de qualquer coisa trouxe informação, e só podemos combater o que conhecemos. Por hoje é só! Lembro ainda que esse podcast só é possível acontecer por conta de seu apoio no patronato do SciCast, tanto no Patreon quanto no Padrim e também no Pic Pay.