Olá, caro e cara ouvinte deviante, Dobrý Den! Esta é a edição 1326 do Spin de Notícias, o seu giro diário de informações científicas em escala subatômica. Eu sou o Igor Alcantara, cientista de dados e um dos apresentadores do podcast Intervalo de Confiança, especializado em ciência de dados e Inteligência Artificial. E hoje, dia 10 Gaian do Calendário Dekatrian e dia 28 de Junho do calendário gregoriano, aniversário do químico alemão Emil Erlenmeyer, eu trago para vocês notícias nas áreas de Inteligência Artificial. Hoje vamos falar sobre Inteligências Artificiais Benevolentes e o uso de bots em drive-thrus.

A primeira notícia é sobre a empresa Hi Auto e um produto inovador que eles criaram que são drive-thrus com um sistema de IA de conversação, usando tecnologia Intel. O uso do drive-thru disparou no ano passado, com muitos restaurantes fechados devido a restrições criadas pela pandemia. Na verdade, uma pesquisa do Pew Research Institute sugere que os pedidos de drive-thru apenas nos EUA aumentaram 22% em 2020, perdendo apenas para os pedidos de entrega por aplicativo que mais que triplicaram.

As longas filas no drive-thrus tornaram-se, portanto, parte do “novo normal”. A Hi Auto, empresa com sede em Israel, criou um sistema de IA de conversação que cumprimenta os hóspedes do drive-thru, responde às suas perguntas, sugere itens do menu e insere seus pedidos no sistema de ponto de venda. Se uma pergunta não relacionada for feita – ou o cliente pedir algo que não está no menu padrão – o sistema de IA muda automaticamente para um funcionário humano.

O primeiro restaurante a testar o sistema é o “Lee’s Famous Recipe Chicken”, em Ohio. Chuck Doran, proprietário e operador da Lee’s Famous Recipe Chicken, disse:

“O drive-thru automatizado de IA impactou meus negócios de uma forma simples. Não temos mais clientes esperando. Nós os cumprimentamos assim que chegam ao totem e a ordem é anotada corretamente.”

Segundo usuários e funcionários ouvidos, é incrível ver o nível de precisão da tecnologia de reconhecimento de voz, que ajuda a acelerar o serviço. Pode até sugerir itens adicionais com base no pedido, o que nos ajuda a aumentar as vendas do restaurante.

Se uma pessoa estiver atendendo os clientes do drive-thru, ela pode sugerir uma venda em um de cada 20 pedidos. Com essa IA, isso acontece em todas as transações onde é viável.

Segundo diz a empresa, essa tecnologia não impacta os empregos, pois eles dizem que ao reduzir o número de funcionários necessários para atendimento ao cliente, mais funcionários podem ser colocados para trabalhar no preparo dos pedidos para atender o maior número de pessoas. Uma pesquisa recente de pequenas empresas descobriu que 42 por cento têm vagas de emprego que não podem ser preenchidas, portanto, garantir que cada trabalhador seja utilizado de forma ideal é fundamental.

Só que na prática eu acho que a adoção de tecnologias assim são apenas mais uma já esperada etapa nesse processo de automação que vai cada vez mais impactarão mercado de trabalho.

Quem está testando algo nesse sentido, mas usando o produto de uma outra empresa, é o McDonald’s e isso tem causado alguns problemas e polêmicas.

A famosa rede de Junk, ops, Fast Food, anunciou no início deste mês que estava implantando um chatbot de IA para lidar com seus pedidos de drive-thru, mas descobriu-se que ele pode infringir leis de privacidade.

O chatbot é o produto de uma empresa de reconhecimento de voz aberta pelo McDonald’s em 2019 chamada Apprente, que agora é conhecida como McD Tech Labs.

O McDonald’s implantou os chatbots em dez de seus restaurantes em Chicago, estado de Illinois. E aí está o problema. O estado de Illinois possui algumas das leis de privacidade de dados mais rígidas dos Estados Unidos. Por exemplo, a Lei de Privacidade de Informações Biométricas (BIPA) do estado afirma: “Nenhuma entidade privada pode coletar, capturar, comprar, receber por meio de comércio ou de outra forma obter um identificador biométrico ou informações biométricas de uma pessoa ou de um cliente.”

Um residente, Shannon Carpenter, processou o McDonald’s em seu nome e em nome de outros residentes de Illinois, alegando que o negócio de fast food violou o BIPA ao não receber consentimento explícito por escrito de seus clientes para processar seus dados de voz.

No texto do processo é dito que as pessoas não sabem o paradeiro de sua biometria de impressão vocal que foi coletada pela empresa. É dito que o software não apenas transcreve a fala em texto, mas também a processa para prever informações pessoais sobre os clientes, como “idade, sexo, sotaque, nacionalidade e origem nacional.

Além disso, o processo alega que o McDonald’s tem testado software de IA em seu drive-thrus desde o ano passado. Qualquer pessoa que tenha seus direitos violados sob o BIPA pode receber até US $ 5.000 por caso. Dado o grande número de clientes do McDonald’s, estima-se que os pagamentos por danos possam ultrapassar US $ 5 milhões.

Mais uma vez, este caso mostra a necessidade de ter certeza de que todas as implantações de IA são 100% compatíveis com as leis de dados cada vez mais rígidas em todos os estados e países em que operam.

Pode parecer exagero ou oportunismo por parte desses clientes, mas segurança e uso de dados é sim uma questão importante e a gente precisa se preocupar como esses dados são usados.

A segunda notícia é sobre o tipo de inteligência artificial que esperamos ter no futuro. Ninguém quer um futuro quando as máquinas dominam e controlam o mundo e nossa espécie é extinta ou até mesmo escravizada. Nós humanos esperamos que a IA seja principalmente duas coisas: benevolente e confiável. Só que ao mesmo tempo a gente não está disposto a agir dessa forma com ela. Um novo estudo revela que nós não estamos dispostos a cooperar de forma construtiva com as máquinas. Nosso objetivo é basicamente o mesmo que os europeus quando chegaram à África e América: explorar e escravizar.

Imagine que você, caro e cara ouvinte, está dirigindo em uma estrada estreita em um futuro próximo, quando de repente outro carro surge vindo de uma curva lá na frente. É um carro que dirige sozinho, sem passageiros dentro. Você vai avançar e fazer valer o seu direito de passagem ou ceder para deixá-lo passar? No momento, a maioria de nós se comporta com gentileza em tais situações que envolvem outros humanos. Vamos mostrar essa mesma gentileza para com os veículos autônomos? Será?

Usando métodos da teoria dos jogos comportamentais, uma equipe internacional de pesquisadores da LMU (Ludwig-Maximilians Eniversitat, Munique) e da Universidade de Londres conduziu estudos online em grande escala para ver se as pessoas se comportariam de maneira tão cooperativa com sistemas de inteligência artificial (IA) quanto com outros humanos. Ou seja, o nível de empatia, ai menos em teoria, seria o mesmo?

A cooperação mantém a sociedade unida. É através dela que a gente consegue fazer coisas como trazer a vocês conteúdo novo todo dia aqui no Spin de Notícias e no Portal Deviante. Freqüentemente, é preciso que a gente se comprometa com os outros e que aceitemos o risco de que eles nos decepcionem. C’est la vie, ou em tcheco: To je život. O trânsito é um bom exemplo. Perdemos um pouco de tempo quando deixamos outras pessoas passarem na nossa frente e ficamos indignados quando os outros não retribuem nossa bondade. Faremos o mesmo com as máquinas?

O estudo publicado na revista iScience descobriu que, no primeiro encontro, as pessoas têm o mesmo nível de confiança em relação à IA e aos humanos: a maioria espera encontrar alguém que esteja pronto para cooperar.

A diferença vem depois. As pessoas estão muito menos dispostas a retribuir com IA e, em vez disso, explorar sua benevolência em seu próprio benefício. Voltando ao exemplo do tráfego, um motorista humano daria lugar a outro humano, mas não a um carro que dirige sozinho.

O estudo identifica essa relutância em se comprometer com as máquinas como um novo desafio para o futuro das interações humano-IA. explica o Dr. Jurgis Karpus, teórico de jogos comportamentais e filósofo da LMU Munique e primeiro autor de o estudo: “Colocamos as pessoas no lugar de quem interage com um agente artificial pela primeira vez, como poderia acontecer na estrada. Modelamos diferentes tipos de encontros sociais e encontramos um padrão consistente. As pessoas esperavam que os agentes artificiais cooperassem tanto quanto os outros humanos. No entanto, eles não retribuíram tanto sua benevolência e exploraram a IA mais do que os humanos.”

Com perspectivas da teoria dos jogos, ciência cognitiva e filosofia, os pesquisadores descobriram que a ‘exploração de algoritmos’ é um fenômeno real. Eles replicaram suas descobertas em nove experimentos com quase 2.000 participantes humanos.

Cada experimento examina diferentes tipos de interações sociais e permite que o ser humano decida se compromete e coopera ou age de forma egoísta. As expectativas dos outros jogadores também foram avaliadas. Em um jogo conhecido, o Dilema do Prisioneiro, as pessoas devem confiar que os outros personagens não as decepcionarão. Eles abraçaram o risco tanto com humanos quanto com IA, mas traíram a confiança da IA ​​com muito mais frequência, para ganhar mais dinheiro.

A cooperação é sustentada por uma aposta mútua: eu confio que você será gentil comigo e você confia que eu serei gentil com você. A maior preocupação nesse campo de pesquisa é que as pessoas não confiarão nas máquinas. Mas os pesquisadores deste estudo afirmam que o que eles encontraram mostra o contrário. As pessoas confiam tanto na máquina que usam essa suposta honestidade e ingenuidade da IA para explorá-la. E mais: as pessoas pesquisadas relatara, que não sentem culpa ou remorso por agirem assim.

Veja que aqui o tipo de IA aplicada foi uma IA benevolente. Ou seja, as pessoas sabiam que decisão tomada pela máquina seria por padrão a de cooperação. Isso não é algo que costuma chamar a atenção. As IA tendenciosas ou antiéticas são as que ganham muito destaque: desde as IA racistas de Detroit até os sistemas de justiça – mas essa nova pesquisa traz uma nova cautela. A indústria e os legisladores se esforçam para garantir que a inteligência artificial seja benevolente. Mas a benevolência pode ser um tiro que sai pela culatra.

Se as pessoas pensam que a IA está programada para ser benevolente com elas, elas serão menos tentadas a cooperar. Alguns dos acidentes envolvendo carros autônomos podem já mostrar exemplos da vida real: os motoristas reconhecem um veículo autônomo na estrada e esperam que ele ceda. O veículo autônomo, entretanto, espera que os compromissos normais entre os motoristas sejam mantidos.

A exploração de algoritmos tem outras consequências no futuro. Se os humanos relutam em deixar um carro autônomo educado entrar em uma estrada lateral, o carro autônomo deveria ser menos educado e mais agressivo para ser útil? O que vocês acham?

IA benevolente e confiável é uma palavra da moda com a qual todos nós que trabalhamos com isso estamos animados. Mas consertar a IA não é tudo. Se percebermos que o robô à nossa frente será cooperativo não importa o que aconteça, usaremos isso para nosso interesse egoísta. Os compromissos são o motor que faz a sociedade funcionar. Para cada um de nós, parece apenas um pequeno ato de interesse próprio. Para a sociedade como um todo, poderia ter repercussões muito maiores. Se ninguém permitir que carros autônomos entrem no trânsito, eles criarão seus próprios congestionamentos nas laterais e não tornarão o transporte mais fácil.

E o pior: se as máquinas perceberem que, para serem eficientes, elas precisam ser egoístas, criar uma máquina 100% ética pode ter como consequência uma IA desonesta e sem escrúpulos. Ou seja, não basta criar a IA perfeita, precisamos educar as pessoas a viver nessa sociedade trans-humana.

Bom, gente, por hoje é só. Para encerrar, já que estamos falando de cooperação, eu queria dizer que esse projeto, o Spin de Notícias, e também outros como o SciCast, Contrafactual, Fronteiras do Tempo, Beco da Bike, Miçangas,  RPG Guaxa, além de outros podcasts, os textos do site e tudo isso que é feito aqui só é possível por causa do seu apoio no site do Portal Deviante, através das plataformas Patreon, Padrim e PicPay. Entre lá em deviante.com.br, clique no link “Seja um Patrono” e ajuda a patrocinar a divulgação científica. Isso é muito importante.

Como eu disse, eu sou o Igor Alcantara e vocês me encontram volta e meia aqui no Spin de Notícias e no meu podcast, o Intervalo de Confiança, intervalodeconfianca.com.br ou no meu site pessoal igoralcantara.com.br

Um grande abraço e até amanhã com mais Spin de Notícias!

Tchau! Na Shledanou!


Igor Alcântara. Cientista de Dados há vários anos, com experiência em diversas empresas e universidades como Philadelphia Eletric Company, University of Southern California e Harvard University. Um dos apresentadores do podcast “Intervalo de Confiança”, especializado em dados e Inteligência Artificial, Igor também é o criador da Science Sauces, onde ele usa seus conhecimentos científicos para disfarçar sua total falta de talento culinário e ao mesmo produzir deliciosos molhos de pimenta que homenageiam grandes nomes da ciência.