Física Quântica e Marxismo

Milhões de agradecimentos ao Elicardo Gonçalves e ao Rodrigo Santos, sem os quais esse texto não seria possível.


O Materialismo Dialético e a Escola de Copenhague da Física Quântica



“Cada revolução na ciência provoca uma revolução no materialismo”
Engels


O materialismo dialético foi concebido nas condições culturais e científicas do século XX, e tentou alcançar com o seu método várias áreas da ciência, como a antropologia, a física e a biologia, principalmente através das obras de Engels, como A Origem da Família, da Propriedade Privada e do Estado e Dialética da Natureza. Para fazer isso, Marx e Engels procuraram nas investigações científicas de ponta em cada área os cientistas que defendiam posições materialistas, insistindo na evolução, nas transformações e na tensão entre elementos contraditórios.

Como não podia deixar de ser, o avanço da ciência desde a morte de Engels tornou muitos dos seus escritos desatualizados.

Mas o problema que vamos tratar aqui é diferente. A física do século XX, a partir da descoberta da teoria da relatividade e da teoria quântica, foi usada por alguns filósofos como base para provar a inviabilidade do materialismo. Na frase famosa de Einstein, “Acabou o materialismo por falta de matéria”.

Ao lado dessa crítica filosófica e metodológica ao materialismo, existe a exploração (no sentido de “exploração da ciência pela ideologia”, como é definido por Althusser em Filosofia e Filosofia Espontânea dos Cientistas) das descobertas da física por pessoas que não têm nenhum conhecimento real do assunto, de Fritjof Capra a O Segredo, com o objetivo de dar a entender que as novas descobertas da física servem de ponto de apoio para as suas concepções religiosas ou supersticiosas. Sobre isso falaremos um pouco, mais à frente.

O centro do ataque ao materialismo feito pelos próprios descobridores da mecânica quântica, principalmente Werner Heisenberg, é a rejeição da ideia de que existe matéria anterior à consciência. Lênin definiu a matéria em Materialismo e Empiriocriticismo como “tudo o que é anterior à consciência e a provoca”. O que a Interpretação de Copenhague defende é justamente que o observador é essencial para a definição de um evento em escala atômica.

Para avançar, temos primeiro que explicar como surgiu a física quântica e como a Interpretação da Escola de Copenhague se impôs, derrotando as outras interpretações. Depois, veremos a incapacidade das correntes marxistas da URSS em aceitar a interpretação, e como ela pode revolucionar a concepção materialista da natureza.

É importante a gente não perder de vista que não é errado ser contra uma nova teoria. Se um paradigma antigo mudasse com cada coisa que ficasse “estranha” pra ele, as ciências iam perder muito da consistência. O ceticismo de Einstein, Bohm e outros foi importante, porque obrigou os defensores da Interpretação de Copenhague a fazerem mais e mais experiências e desenvolverem a sua teoria, que, no final, deu mais crédito a ela.


Da Física Clássica à Física Quântica

Na virada do século XX, foi descoberto um erro nas equações que explicavam a emissão de energia eletromagnética pela matéria:

Para explicar melhor, temos que voltar ao que estava sendo estudado.

Todos os corpos emitem radiação eletromagnética, por causa da sua temperatura. Isso acontece porque a temperatura expressa a velocidade dos átomos de um corpo, e a movimentação dos átomos dispersa energia. Essa radiação eletromagnética se converte em luz. A cor dos objetos é justamente a frequência da radiação que eles emitem. É por causa dessa emissão de radiação eletromagnética que os objetos têm uma tendência a esfriarem (ou seja, a sua energia se dispersar em forma de luz).

De acordo com a temperatura de um objeto, ele emite energia (em forma de radiação eletromagnética) em todas as freqüências, indo do infravermelho (frequência de energia mais baixa) até o ultravioleta (a mais alta), passando por todo o espectro de cores. Quando a temperatura de um corpo permanece constante (e ele emite toda a energia que recebe para todos os ângulos, o que é chamado na física de “corpo negro”), a energia dele se distribui igualmente por todo o espectro de cores. Na parte do espectro com frequência mais alta, isso o levaria a emitir cada vez mais energia, conforme fosse maior a frequência, infinitamente.

Como a energia emitida por um corpo não pode ser infinita, várias pessoas tentaram descobrir o que estava errado. Finalmente, Max Planck descobriu a solução, em 1900. Ele viu que o erro estava em considerar que a energia era emitida continuamente. Em vez disso, ele chegou à conclusão de que ela é emitida em “pacotes” de energia, de valor constante, como se fossem blocos. Ele chamou esses “blocos” de quanta (ele provavelmente chegou a essa conclusão muito depois. Ele primeiro resolveu a equação na teoria, depois tentou interpretar o que a equação dizia).

Enquanto fosse possível dividir a energia infinitamente, ela seria emitida para sempre. Se a energia tivesse que ser emitida em “pacotes” inteiros de cada vez, e se as frequências mais altas exigissem maior energia, tornando mais difícil emitir, o erro estaria explicado e seria possível entender como a energia emitida pelos corpos não é infinita.

Essa foi a base da física quântica. Parece pouco, mas é uma ruptura violenta com a física clássica, que imaginava que a energia pode ser dividida infinitamente, ou seja, que ela é contínua. Para distâncias normais, como as que usamos no dia a dia, isso não leva a grandes diferenças, mas quando vamos observar os átomos, que estão mais próximos do nível de energia e do tamanho dos quanta, as consequências são tão graves que mudaram toda a nossa visão sobre a matéria.


Um exemplo: a estrutura do átomo

Uma das primeiras aplicações da física quântica foi feita pelos sueco Niels Bohr para analisar como o elétron podia girar em volta do núcleo do átomo.

Até então, se imaginava que o elétron girava em volta do núcleo da mesma forma que a Terra em volta do Sol, numa miniatura do sistema solar. Mas, como o elétron emite energia para girar, ele acabaria perdendo tanta energia que ia cair no núcleo do átomo com o tempo. Assim, esse modelo não conseguiria explicar como os átomos podem ser estáveis.

Em 1913, Bohr demonstrou que o elétron teria que emitir radiação suficiente no valor de um quantum para que isso acontecesse, o que não acontece numa situação normal. Então, a descontinuidade que existe na emissão de energia é o que impede o elétron de se “descarregar” pouco a pouco, e cair.

A descoberta de Bohr foi uma prova de que a teoria de Planck realmente servia para descrever a realidade. Mas o grande impacto foi o que aconteceu depois.


O Princípio da Incerteza de Heisenberg

A interpretação da Escola de Copenhague foi formulada entre 1924 e 1927, e dependia do Princípio da Incerteza, proposto por Werner Heisenberg.

Como as energias das partículas subatômicas precisam ser emitidas em “pacotes”, a velocidade e a posição de uma partícula (que dependem uma da outra) não podem ser conhecidas ao mesmo tempo – elas ficam “abaixo” desse limite.

Como isso acontece?

A energia que é gasta para medir a posição e a velocidade da partícula acaba afetando o seu estado. Por isso, não temos como saber o que acontece no momento da medição. Por isso, só o que pode ser conhecido é a função de onda da partícula, ou seja, todas as combinações possíveis de velocidade e posição, distribuídas estatisticamente. Para ver o valor isolado de cada uma numa situação específica, o observador deve colapsar a função de onda, com a sua observação, que muda a situação da partícula.

A primeira reação diante desse limite ao conhecimento do estado das partículas foi avaliar a descoberta de Heisenberg com os olhos da física clássica. Nessa interpretação (que foi defendida por Einstein), o que acontece é simplesmente que não podemos conhecer o que acontece com a partícula, e por isso temos que nos “virar” com as estatísticas, mas que, na verdade, elas têm sim posição e velocidade separadas, que não podemos ver.

Foi contra essa interpretação que surgiu a Escola de Copenhague, de Bohr e Heisenberg.


A Interpretação de Copenhague

A interpretação do Princípio da Incerteza com os critérios da física clássica, onde cada partícula está em um lugar e numa velocidade determinados, foi a base da tese das Variáveis Ocultas, defendida principalmente por David Bohm, e que foi a versão oficial que os cientistas soviéticos mantiveram, justamente porque é a única interpretação que “salva” o materialismo do século XIX. Einstein definiu a sua posição na famosa frase: “Deus não joga dados”. A melhor crítica a essa posição está no livro de Heisenberg, Física e Filosofia.

Mas a Escola de Copenhague (apesar das divergências entre seus integrantes) rejeitou as variáveis ocultas, e fez isso em nome do realismo filosófico. Ou seja, eles mantiveram a posição de que o que era observado era exatamente o que acontecia na natureza.

Até aquela época, a radiação eletromagnética era entendida como se fosse formada de ondas, mas algumas observações e teorias davam a entender que ela era formada de partículas (como as emissões de quanta). Como isso poderia ser conciliado?

Os defensores da Interpretação de Copenhague usaram o Princípio da Complementaridade, de Niels Bohr. Que dizer que, no nível subatômico não existe separação entre partícula e onda, todos os fenômenos são, ao mesmo tempo, possíveis de ser interpretados como partículas ou como ondas. No nível quântico, não existe posição e velocidade, e sim partículas-ondas em estado de flutuação no seu estado. E essas partículas não são ligadas por relações deterministas de causa e efeito, como no nosso dia a dia, e sim por determinação estatística baseada nas probabilidades.

Isso derruba pela base toda a visão da natureza dos materialistas do século XIX. Segundo Heisenberg, a matéria no estado subatômico está numa situação que pode ser entendida com o conceito de potência, de Aristóteles, ou seja, em pura virtualidade onde ela pode mudar espontaneamente.

A natureza que surgia da Interpretação de Copenhague era radicalmente diferente de tudo o que a ciência tinha imaginado até então: um mundo indeterminado, sem causa e efeito diretos, onde a própria observação afetava o que é real ou não, na base da matéria.

Depois disso, todos os que defendiam o materialismo do século XIX tentaram derrubar a Interpretação de Copenhague.


O Paradoxo do Gato





Em 1935, Erwin Schrödinger propôs uma experiência no pensamento, para mostrar as consequências da interpretação de Copenhague.

Nas palavras dele: “Um gato é trancado dentro de uma câmara de aço, juntamente com o dispositivo seguinte (que devemos preservar da interferência direta do gato): num tubo contador geiger há uma pequena porção de substância radioativa, tão pequena que talvez, no decurso de uma hora, um dos seus átomos decaia, mas também, com igual probabilidade, talvez nenhum decaia; se isso acontecer, o tubo contador liberta uma descarga e através de um relé solta um martelo que estilhaça um pequeno frasco com ácido cianídrico. Se deixarmos todo este sistema isolado durante uma hora, então diremos que o gato ainda vive, se entretanto nenhum átomo decaiu. A função-Ψ do sistema como um todo iria expressar isto contendo em si mesma o gato vivo e o gato morto (desculpem-me a expressão) misturados ou dispostos em partes iguais”.

E então, a matéria pode estar em dois estados ao mesmo tempo? É a consciência que determina o estado da matéria? O passo seguinte foi tentar mostrar que existem variáveis ocultas, e que a matéria subatômica fica nos mesmos estados que a que vemos no dia a dia, e só não podemos medir.


Não adianta dar murro em ponta de faca

Einstein, junto com Podolsky e Rosen, formulou em 1935 uma experiência com o objetivo de mostrar que a Interpretação de Copenhagen estava errada.

De acordo com a Teoria da Relatividade Geral, de Einstein, nada pode se mover mais rápido que a luz (porque a velocidade da luz é a velocidade das partículas sem massa). Isso inclui a sincronização entre dois elétrons. A experiência que eles propuseram (e que ficou com o nome de EPR, por causa das iniciais deles) era a seguinte: alguma força separa dois elétrons, que estão no estado “emaranhado” (ou seja, no estado de potência antes do colapso da função de onda). Eles têm 50% de chance, por exemplo, de girarem para cada lado.

Se um deles estiver girando para um lado, quando for observado (o que vai colapsar a função de onda), o outro automaticamente terá que estar girando para o outro lado.

Mas, e se a distância dos elétrons for tão grande que a medição demorar menos tempo que a velocidade da luz para ir de um até o outro? Significa que um vai “saber” do estado do outro mais rápido que a luz.

Era esse argumento que E, P e R usaram para mostrar que a física quântica não poderia ser uma teoria completa da realidade. Ou seja, que necessariamente era preciso existirem variáveis ocultas, que dessem conta da sincronização. Depois de EPR, foi David Bohm que foi maior defensor da Interpretação das Variáveis Ocultas.

Para manter o materialismo do século XIX, segundo o qual a matéria é feita de coisas palpáveis, independentes da observação e que não ficam em estado de probabilidade na maior parte do tempo, a grande maioria dos cientistas soviéticos defendeu a Interpretação das Variáveis Ocultas. Da mesma forma que defenderam até a década de 1970 a Teoria do Universo Estacionário, porque consideravam que a Teoria do Big Bang era uma concessão ao criacionismo (!), e que rejeitaram a genética como “ideologia burguesa” até 1956, porque diziam que os genes eram uma forma de dizer que o passado controla o futuro.

Porém, foram sendo desenvolvidas tentativas de calcular e fazer experiências que poderiam comprovar quem estava certo, se os defensores da Interpretação de Copenhagen ou se os das Variáveis Ocultas. Com o tempo, John Bell desenvolveu na década de 1960 o Teorema de Bell, que mostrava teoricamente que os resultados de uma futura experiência mostrariam que a sincronização acontece, e que é incompatível com a existência de variáveis ocultas.

E várias experiências, entre 1962 e 1982, provaram que Bell (e a Interpretação de Copenhagen) estavam certos, e que, no estado de potência, as partículas se comportam realmente de formas totalmente estranhas às leis da física clássica. Partículas se sincronizam automaticamente, os elétrons lançados contra barreiras com vários buracos se “dividem” igualmente entre os buracos (o que é chamado de franjas de interferência), entre outras “loucuras”.

Como sempre, nunca existe “a última palavra” sobre uma polêmica em física ou nas outras ciências. As equações de Bell ainda são discutidas, e a Interpretação de Copenhagen é dominante, mas não absoluta. Mas os pesquisadores que não aceitam que o colapso da função de onda realmente aconteça na realidade (ou seja, que acham que a partícula tem posição e velocidade fixas, e só não é possível determinar) precisam, depois das experiências, usar hipóteses cada vez mais complexas, para recuar das primeiras ideias de Einstein e Bohm.

Assim, a Interpretação de Copenhague se tornou dominante, porém não única. Para nós, não é errado ter uma interpretação diferente, a partir da análise das experiências e teorias, o que é errado é fazer isso em nome de preservar a filosofia da ciência no estado em que estava no século XIX, como alguns marxistas fizeram e fazem!

Atualmente, existem várias outras interpretações da física quântica, todas com bem menos aceitação que a de Copenhague. Mas todas elas usam modelos da realidade mais distantes ainda do materialismo do século XIX. Por exemplo, é o caso da Interpretação dos Muitos Mundos, de Richard Feynman, onde cada probabilidade de resolução da função de onda corresponde a um universo paralelo! Ou da interpretação estocástica, onde a Incerteza é causada porque o próprio espaço-tempo é formado por quanta descontínuos.

Outro tipo de interpretação é a dos Ensembles (Conjuntos), que tenta evitar a questão da Indeterminação ao propor que os resultados das experiências têm somente um valor prático, e que não devem ser usados para levar a conclusões filosóficas. Essa atitude tende ao positivismo, porque se propõe a simplesmente harmonizar os resultados da ciência, sem discutir filosoficamente as suas consequência para a questão do ser. Esse é o mesmo tipo de raciocínio usado pelas pessoas que dizem que a Teoria da Evolução não desmente a leitura literal da história bíblica de Adão e Eva, porque uma história serve para a pesquisa científica e a outra é uma questão de fé. Ou seja, eles dividem a realidade em pedaços, pra evitar conflitos!


O que isso tudo tem a ver com o materialismo dialético?

Não é muito difícil de ver que a Interpretação de Copenhague foi formulada usando um método muito mais materialista do que a das Variáveis Ocultas. Como disse Engels, no Anti-Duhring: “Finalmente, o problema, para mim, consistia, não em impor à natureza leis dialéticas predeterminadas, mas em descobri-las e desenvolvê-las, partindo da mesma natureza”.

Em vez de aceitar a posição e o movimento das partículas subatômicas como um dado, o Princípio de Incerteza poderia mostrar que eles também são produzidos em escalas maiores, pela matéria em estado de potência. Foi esse o caminho de Einstein, quando derrubou, com a sua Teoria da Relatividade, o espaço e o tempo homogêneos e vazios da física newtoniana.

Isso não é dialético? Até os dados mais fundamentais da realidade são criados num processo de diferenciação de qualidades.

O objetivo de uma filosofia da natureza materialista dialética não pode ser acompanhar cada descoberta científica e, quando encontrar um caso de transformação, dizer “isso é dialético”. Seria uma atitude inútil. Nem deve servir para “harmonizar” as ciências, à maneira do positivismo – o que é não servir para nada! Muito menos deve ser virar um “árbitro”, julgando antecipadamente o que é válido ou não na ciência, dependendo do acordo que tiver com o “materialismo”.

Muito menos deve servir como uma “filosofia interdisciplinar” usando os métodos de uma ciência na outra, o que quase sempre significa desrespeitar as características do objeto de cada ciência. Os tipos de causalidade na biologia e na história, por exemplo, não tem nada a ver com a causalidade na física quântica.

Como disse Mao Tse-tung: “O marxismo abarca o realismo na criação artística e literária, mas não pode substituí-lo, do mesmo modo que abarca as teorias atômica e eletrônica na física, mas não pode substituí-las”.

Não é o materialismo que deve ser usado para avançar as ciências, e sim as ciências que devem avançar o materialismo. O papel positivo de o materialismo dialético pode desempenhar, coo ontologia (teoria do ser) e epistemologia (teoria do conhecimento) é “limpar o terreno”, criticando o uso de conceitos fora do seu contexto (Althusser definiu a ideologia, em A Favor de Marx, como a interpretação imaginária de uma prática nos termos de outra) e mostrando quando eles são ideias impostas à realidade, em vez de expressão dela.


Pós-escrito: o abuso espiritualista da física quântica

Além da questão da mecânica probabilística, que desafiou o conceito de matéria herdado da física do século XIX, a outra grande polêmica da física quântica foi sobre o papel do observador nas experiências. O Princípio da Incerteza foi interpretado por muitos como se significasse que o observador gera a realidade que observa.

Essa interpretação foi aceita até mesmo por físicos como J. Robert Oppenheimer. E ela tem paralelos impressionantes com algumas religiões orientais, como o hinduísmo e o budismo, em que o mundo é visto como uma ilusão (maya) criada pela mente. Não por acaso, Oppenheimer (assim como muitos outros cientistas) se converteu ao hinduísmo. Ele participou do Projeto Manhattan, que produziu a bomba atômica. Quando ele soube da notícia do ataque nuclear em Hiroxima, ele escreveu em seu diário os versículos dos Vedas, o livro sagrado do hinduísmo: “Eu me tornei Shiva/ Destruidor de Mundos”.

Esse é um exemplo claro do fato explicado por Althusser em Filosofia e Filosofia Espontânea dos Cientistas: a filosofia espontânea dos cientistas, ao observarem a realidade, é espontaneamente materialista mas, como parte da sociedade de classes, eles geralmente subordinam as suas posições a filosofias idealistas, que as “enquadram” e exploram.

Isso ficou ainda mais evidente depois da década de 1960, com a explosão da New Age, da busca pelas religiões orientais e pela busca de novas experiências místicas. A partir dessa época, pilantras como Deeprak Chopra, Fritjof Capra e Rhonda Byrne começaram a dizer que a física quântica provava que o materialismo estava errado e que a mente pode influenciar a realidade.

Em primeiro lugar, é claro sinal de charlatanismo tentar usar uma teoria sobre micropartículas para fundamentar as superstições mais velhas sobre “pensamento positivo”. Mas, além disso, a versão espiritualista farofa da física quântica se baseia em uma incompreensão total da teoria:

Primeiro, porque o estado de potência, em que a causalidade é probabilística, só se aplica em escala atômica. Quanto maior a escala, mais as probabilidades se equilibram, passando a valer, pela média, a causalidade mecânica da física clássica. Ou seja, a física quântica não opera em objetos da escala que vemos no nosso dia a dia.

Segundo, quando se fala que o observador “gera” a realidade, se está aplicando à escala subatômica os conceitos da física clássica. Na verdade, as coisas não ficam “reais” por causa de um observador que colapsa a função de onda, ela são tão reais quanto no estado de virtualidade em que podem ser descritas através de uma matriz com probabilidades. O universo existiu durante bilhões de anos sem precisar de nenhum físico para torná-lo “real” colapsando a função de onda!

Resumindo: de forma nenhuma a física quântica prova que a mente tem capacidade de modificar a realidade através do pensamento, de “ondas”, “vibrações”, “energias”, ou qualquer conceito com o nome roubado da física mas definido de forma totalmente diferente.

Comentários

Maxy Maximo disse…
nenhum ser humano,esta fadado há contradizer esta teoria, haja vista ela ainda esta se iniciando; portanto as teorias nos ajudam a compreender melhor o que existe nas cabeças pensantes e que muito pode contribuir, par nós também expandirmos as nossas criatividades!
MAXY
Unknown disse…
Uns comentários:

- A interpretação de Copenhague é só uma, a do Everett (MWH) é apoiada por uma parcela razoável dos físicos e, ao contrário da primeira, é metafisicamente determinista (e epistemologicamente indeterminista). A quântica de fato ganhou mais vigor, no entanto isso não foi resolvido e é muito difícil de se resolver, no entanto, parece que um critério razoável é a parcimônia e nesse critério o MWH apresenta uma vantagem. Também é difícil dizer que a IC é a mais popular, há pesquisas que apontam para dados diferentes e, ainda assim, ciência não é uma democracia.

- É difícil falar de consciência e misturar isso com observador. O termo usado é medição exatamente porque mesmo se não tiver alguém (como um ser vivo) observando, se existir medição (por aparelhos) há o colapso da função de onda. E algo importante a se dizer é que em lugar algum diz que a existência da matéria depende da observação/medição. As propriedades da matéria, do sistema, é que dependem (ou podem depender) da observação/medição. A sobreposição não é sobre a existência. O gato de Schrödinger não está existente ou não existente, ele existe - o experimento pressupõe essa existência. O que é indeterminado é o estado, a propriedade. Se está vivo ou morto.

- A evidência da correção das equações de Bell leva a criticar somente um aspecto da causalidade local. Justamente o "local", não a "causalidade". Não se segue que por um efeito ser mais rápido que a luz, que a noção de causalidade deixa de existir. Somente que a parte de "nenhuma influência causal se move mais rápido do que a luz".

- Causalidade não depende da disciplina. Causalidade é uma propriedade do mundo material, proposto pela metafísica. Causal closure. São vários as espécies de causalidade, no entanto todas partem deste mesmo princípio. Inclusive, a noção de que cada ciência tem o seu objeto é uma noção kantiana que não procede mais desde que ocorreu o início da conciliação com a "união" da Química com a Física e, após o debate vitalismo x mecanicismo, da Biologia com os anteriores. Um mesmo objeto é estudado em diferentes níveis. As disciplinas correspondem a um nível de análise, não um campo separado do saber. Falta as humanidades perceberem isso...

- Muitos vão defender que não é sobre as probabilidades se equilibrarem, mas falar de uma propriedade emergente do sistema, na passagem do micro para o macro ou, como é melhor, a depender do tipo de estrutura que em que os elementos mais básicos se organizam (o que ainda permite conviver com a química quântica e com a descoberta de alguns eventos ou propriedades quânticas em moléculas). Acho inclusive mais razoável compreender como propriedade emergente, embora (como sou metafisicamente determinista) isso para mim signifique apenas o surgimento da propriedade de ser epistemologicamente determinável (e não determinado).
Ricardo Pinto disse…
Este assunto foi abordado de uma forma brilhante pelo astronomo da esquerda que se contrapunha a Lenin e aos bolcheviques em 1938 - Anton Pannekoek. O livro se chama Lenin Filósofo - Este livro critica as concepções do materialismo mecanicista ao matrialismo dialético com base nas teses da física quantica. https://www.google.com.br/url?sa=t&rct=j&q=&esrc=s&source=web&cd=5&cad=rja&uact=8&ved=0ahUKEwioqNi7x-3NAhVLIpAKHaIvCWYQFgg_MAQ&url=http%3A%2F%2Ffiles.afavordarua.webnode.com.br%2F200000011-497974a735%2FL%25C3%25AAnin%2520Fil%25C3%25B3sofo.PDF&usg=AFQjCNGHrK4pNJGPmRRastriYxjBVZD1SQ&sig2=0ls4z8lXo-BpFecjx2-Ejg&bvm=bv.126130881,d.Y2I
rodrigodoo disse…
O Pannekoek realmente é brilhante, o Marxismo e Darwinismo dele também é muito recomendável. Valeu pela dica, Ricardo!

Postagens mais visitadas deste blog

A teoria marginalista do valor e a economia política neoclássica (Ernest Mandel)

"Problemas de Gênero", da Judith Butler

Apropriação cultural e racismo culturalista