Pages Menu
TwitterRssFacebook
Categories Menu

Deep learning & Teoria de Cordas

por em 28/11/2017 em Ciência, Notícias | 3 comentários

Deep learning & Teoria de Cordas

Provavelmente você já leu, ou ouviu, alguém falando que um dos grandes problemas atuais da física é a quantização da gravidade, e como a teoria das supercordas é provavelmente a resposta consistente para esse  problema.

Por outro lado, existem grandes problemas de ordem matemática que impedem um completo entendimento da teoria de supercordas e, por consequência, da gravidade quântica. Em 2017 uma mini-revolução começou a acontecer nesse área da física, e tudo começa com os princípios do Deep learning.

Nesse texto gostaria de responder a duas questões:

O que torna teoria de cordas tão complicada? e como deep learning pode ajudar a resolver alguns dos problemas da teoria?

Supercordas busca descrever a toda a matéria (elétrons, quarks, neutrinos e etc) e as partículas responsáveis pelas interações fundamentais, a gravidade, o eletromagnetismo, a interação fraca e a interação forte, como diferentes modos de vibração de cordas no espaço-tempo. Esse projeto pode parecer muito ambicioso, mas não é: Lembre que o modelo padrão de partículas elementares descreve três das quatro interações mencionadas anteriormente, faltando apenas a gravidade. Nesse sentido, teoria de cordas é apenas uma extensão do modelo padrão.

Quantizar a gravidade corretamente e entrar pra história como um grande gênio é muito simples: Basta resolver as equações que aparecem na teoria de cordas. O problema é que essas equações formam um sistema de equações diferenciais parciais não-lineares acopladas. Só pelo nome já deu pra perceber que é um catatau meio complicado de resolver né?

Sistema, significa que são várias equações; diferencias, diz que as equações relacionam funções com suas variações (derivadas); acopladas, significa que cada solução de cada uma das equações, depende das outras soluções das outras equações. Mas dentre todos esses adjetivos, o mais chatinhos é o não-lineares.

A consequência da Não-linearidade é que equações desse tipo além de mais complicadas, podem possuir mais de um solução. Por exemplo, $latex x^2=1 &s=-4$ tem duas soluções, $latex x=\pm 1 &s=-4$. No caso da teoria de cordas, é estimado que suas equações tem mais ou menos $latex 10^{500} &s=-4$ soluções possíveis, mas apenas 1 delas descreve, obviamente, o nosso universo.

Esse problema é chamado de problema do Landscape (paisagem) e esse nome tem origem num termo na biologia evolutiva: Paisagem de aptidão (Fitness Landscape). Mas que diabo de problema é esse? Felizmente, é possível explicar esse problema sem uso de ferramentas matemáticas.

Obviamente, devemos achar a solução que descreve o universo que vivemos nesse zilhão de soluções. Por 40 anos, desde a sua infância, a abordagem mais tradicional pra esse problema é: de grão-em-grão a galinha enche o papo. Ou seja, testar de uma em uma, diferentes soluções da teoria de cordas. Não é idiotice, é apenas a única maneira que se tinha de atacar de modo sensível esse problema. Outros métodos são mais filosóficos (circulares): Princípio antrópico, multiverso e tals.

Mas com o desenvolvimento de métodos de deep learning, uma nova janela pra atacar esse problema se abriu. Em 2017 os seguintes papers foram disponibilizados no arXiv:

  1. Deep-Learning the Landscape
  2. Machine Learning in the String Landscape
  3. Evolving neural networks with genetic algorithms to study the String Landscape

O princípio básico por trás dessa conexão é a semelhança entre certos problemas, que são lugar comum, de redes neurais e teoria de cordas. Por exemplo: como uma máquina pode reconhecer faces, números ou letras escritas a mão e as interpretar de maneira única? Nesse ultimo caso, uma das primeiras abordagens poderia ser classificar as letras de acordo com alguma propriedade invariante, por exemplo, o número de buracos que a letra tem

Esses “buracos” são conhecidos no nosso reino favorito, a matemática, como genus e invariantes desse tipo são chamados de invariantes topológicos. De fato, existem nomes ainda mais chiques para essas coisas, classes de homotopia, mas deixa pra lá… a propósito, lembra que o prêmio Nobel de física 2016 foi pelas aplicações de conceitos topológicos em física da matéria condensada?

E como isso pode aparecer no contexto das teorias de cordas? Ok, lembre de algo: Teoria de cordas é uma teoria da gravitação, teoria da gravitação lida com geometria, espaços curvos e et cetera (veja meus três textos sobre topografia e buracos negros). Os zilhões de espaços relevantes para se estudar o problema do Landscape são espaços de 6 dimensões, mas pra fins didáticos, considere apenas 2 dimensões. Nesse caso, também podemos classificar esses espaços de acordo com os seus buracos (genus)

Evidente que o número de buracos é um invariante topológicos muito simples, e os casos relevantes para 6 dimensões são muito mais abstratos (e complicados), mas a lógica é exatamente a mesma: Se para problemas da vida real a máquina aprende os caracteres ou a reconhecer faces, no caso de teoria de cordas a máquina seria capaz de reconhecer onde está o universo que vivemos, nesse conjunto de $latex 10^{500}$ espaços disponíveis. Eis como máquinas podem nos ajudar a achar o Santo Graal da física. Fascinante não?

Referências

  1. O aprendizado das máquinas: o que estamos ensinando a elas?
  2. Qual a diferença entre Machine Learning e Deep Learning?
  3. Scicast #160: Alan Turing
  4. Scicast #207: Ada Lovelace
  5. PODEntender #019: Sobre deep learning
  6. Spin de Notícias #11: Inteligência artificial
Modo Noturno