Como as pessoas decidem o que é certo e o que é errado? Aliás, o que é certo e errado mesmo? Apesar de durante grande parte da história ocidental a filosofia ter sido a responsável por responder a essas questões, ninguém precisa ser filósofo para tomar decisões e emitir julgamentos morais no cotidiano. Quer dizer, ninguém precisa se perguntar sobre a natureza do certo e do errado para saber que trapacear é errado. Atualmente, a psicologia social e a filosofia experimental se responsabilizaram por responder algumas dessas perguntas, isto é, os mecanismos fisiológicos, cognitivos e fatores contextuais por trás de uma decisão moral. Às vezes isso pode ser lido como a ciência finalmente sendo utilizada para responder com evidências a perguntas que os filósofos respondiam de forma especulativa. Essa moda de matar a filosofia encontrou vozes como a do próprio cosmólogo recém-falecido Stephen Hawking. Acredito que olhar para a ciência como superação da filosofia está fundamentalmente equivocada.

Esse texto é uma tentativa de mostrar um pouco da diferença completamentar entre filosofia e ciência no estudo da moral. Isto é, você vai perceber que as duas áreas respondem a perguntas diferentes sobre o mesmo tema, não estando de maneira nenhum em competição para ver quem fica com o osso. Isso nos levará a refletir sobre como uma mente humana essencialmente enviesada e falha poderia chegar a princípios morais gerais.

Filosofia e Filosofia Experimental

A psicóloga Cory Clark deu uma entrevista no canal do youtube chamado The Dissenter. Clark estuda psicologia da moralidade e orientação política (os estudos dela são bem interessantes; recomendo). O ponto é que em determinado momento da entrevista Clark e o entrevistador dizem que hoje a ciência responde melhor a questões que antes eram respondidas pela filosofia. Não é que isso não esteja certo. Essa afirmação nem errada chega a estar.

O otimismo dos cientistas às vezes eclipsa o fato de que nem toda questão é do tipo que exige respostas científicas. E eu nem estou falando de religião aqui, mas de problemas metafísicos, conceituais, filosóficos mesmo. Filósofos estudam a natureza do bem e do mal, do certo e do errado, discutem o certo a fazer de acordo com essas definições metafísicas de moralidade. Por outro lado, cientistas (especificamente psicólogos) estudam como as pessoas tomam suas decisões morais.

Um cientista não poderia classificar uma ação como moralmente correta ou errada com base em evidências. Isso é tarefa da filosofia. Mas sim, um cientista poderia demonstrar como processos internos (cognição, fisiologia, personalidade e sexo) e externos (cultura, criação, contexto) influenciam não apenas as nossas decisões morais, mas também nossas intuições filosóficas sobre certo e errado. Ou  seja, chegar a princípios morais é diferentes de estudar como as pessoas respondem a questões morais. Uma coisa é tarefa filosófica, a outra é tarefa científica (psicologia social e filosofia experimental).

As intuições morais

Filósofos chegam a respostas sobre a natureza do certo e do errado através de intuições. Existe um verbete inteiro na Stanford Encyclopedia of Philosophy com explicações sobre intuição num sentido filosoficamente relevante, mas para meus propósitos neste texto podemos ficar com uma definição mais próxima do senso comum. Intuição pode ser a mera percepção de que determinado argumento faz mais sentido do que outro.

Por exemplo, você salvaria mil pessoas sacrificando um único indivíduo? Se você acha que essa troca vale a pena, então você é um utilitarista moral (certa é sempre a ação que causa mais bem, ou que salva mais vidas). Agora, se você achou esse dilema absurdo porque considera que qualquer vida humana tem valor absoluto, então você é a favor de imperativos morais, conhecido também como deontologia kantiana (existem coisas erradas por princípio, em qualquer situação, e matar pode ser uma dessas coisas).

Gedankenexperiment

Utilitarismo e deontologia são princípios éticos, são visões sobre a possível natureza do bem e do mal, da ação boa e da ação ruim. Esses princípios derivam de intuições que as pessoas demonstram ao responderem dilemas filosóficos ou experimentos de pensamento (Gedankenexperiment, como chamava ninguém menos que Albert Einstein).

E se você pudesse impedir que os 100 passageiros desse trem morressem, mas pra isso tivesse que sacrificar uma pessoa?

O experimento do trem é tão famoso quanto seu número de variações. Todas as versões desse dilema pedem para as pessoas imaginarem que elas estão numa cabine de comando de uma estação ferroviária. Elas sabem que um trem carregando 100 pessoas vai se chocar contra uma parede, matando todos os passageiros. Mas no painel de controle tem um botão que pode ser pressionado para mudar a direção dos trilhos, conduzindo o trem com as 100 pessoas para um caminho seguro. O problema é que nesse caminho seguro tem um funcionário da empresa fazendo manutenção nos trilhos. Conduzir o trem para esse caminho salva os 100 passageiros, mas mata o funcionário. Em outras palavras, o dilema pede para que a pessoa decida entre (a) não fazer nada e ver 100 pessoas morrerem podendo evitar o desastre, ou (b) intervir salvando os passageiros em troca do sacrifício involuntário de um indivíduo que nada tinha a ver com a situação. Se você apertar o botão, você é um utilitarista, se você escolher não fazer nada, você é um kantiano. Não existe resposta cientificamente correta aqui porque é uma questão de princípio moral.

As intuições morais não ocorrem num abstrato

Acontece que a opinião das pessoas muda diante de variações desse dilema do trem. Em geral, as pessoas acham mais fácil sacrificar um indivíduo em troca de salvar os 100 quando para isso só é preciso apertar apenas um botão sem nem ver direito as consequências dessa singela ação. Mas as intuições mudam quando, para salvar os passageiros, as pessoas devem empurrar da ponte alguém que vai cair nos trilhos, oferecendo obstáculo suficiente para travar o caminho da locomotiva para a morte.

Isso significa que as pessoas são utilitaristas quando estão distantes da situação (apertar um botão sabendo apenas no abstrato o que vai acontecer depois), mas não quando estão próximas o suficiente para “botar a mão na massa”, digamos assim. Ter que matar alguém quase com as próprias mãos faz as pessoas seguirem princípios mais kantianos em suas decisões morais. Como na prática pouca gente topa de verdade matar alguém, diante dessa saída as pessoas justificam sua decisão de não matar como um imperativo moral de que matar é sempre errado.

A suposta racionalidade da atribuição de responsabilidade moral

Esse tipo de influência contextual ocorre até para julgar a responsabilidade moral. Em geral, todos concordariam que uma pessoa é responsável moralmente pelas consequências de uma ação desempenhada intencionalmente. É a diferença entre homicídio doloso e culposo, com e sem intenção de matar. Mas em geral as pessoas não são tão racionais quanto parece pensando abstratamente.

Estudos de filosofia experimental utilizam um famoso dilema moral para apreender intuições sobre responsabilidade moral. Imagine que um empresário está diante de um investidor apresentando um projeto ambiental que vai render milhões em lucro. O investidor alega que não está nem aí sobre se o projeto vai causar danos à natureza ou não, o que importa é o lucro. No final das contas o projeto até ajuda importantes causas ambientais. Você acha que o investidor foi responsável por esses resultados ambientalmente benéficos? A maioria das pessoas diz que não — o que é racional já que as consequências não foram propositais.

Agora, considere uma versão alternativa desse dilema. Nessa versão, o investidor também não está nem aí para os possíveis danos ou benefícios gerados pelo projeto, mas dessa vez além de lucrar muito, o projeto gera importantes danos à natureza. Você acha que o investidor foi responsável por esses danos? A maioria das pessoas responde que sim — pelo princípio usado no primeiro dilema, a pessoa também não deveria ser responsabilizada aqui.

Uma das interpretações dadas a esses resultados é que os seres humanos evoluíram com uma espécie de algoritmo cognitivo que facilita a punição altruística. Em outras palavras, temos mais facilidade de punir comportamentos que geram problemas para o grupo quando inferimos que as consequências desse comportamento foram propositais. Repare, eu não estou advogando que deva ser assim, estou reportando que as pessoas parecem se comportar de acordo sob essa lógica.

Conclusão

É bom que algumas coisas fundamentais fiquem estabelecidas com esse texto. A primeira delas é essa complementaridade entre filosofia e ciência. É positivo que exista uma filosofia cientificamente informada (um exemplo disso é a filosofia das ciências cognitivas), mas ainda assim, a Filosofia se dedica a assuntos essencialmente diferentes. Esses assuntos exclusivos da filosofia geralmente incluem questões metafísicas, dilemas explicativos/conceituais e pressupostos que muitas vezes são tomados como certos por cientistas (o que não está errado). Isso significa que cabe à Filosofia discutir o que é certo e errado moralmente, e cabe à ciência descobrir como as pessoas chegam a essas intuições metafísicas.

A interdisciplinaridade entre filosofia e psicologia social/filosofia experimental também é importante porque  dá margem para discutir a natureza das intuições filosóficas. Em tese, as intenções filosóficas são janelas para se chegar a verdades mais abstratas. Mas o que acontece com essa tese se consideramos que a razão humana não é fruto da atividade de uma mente abstrata límpida intocada pelo corpo e pelo mundo material? Isso não necessariamente derruba o castelo de cartas da metafísica, mas indica que os seres humanos estão longe de ser animais racionais.