filosofia da física clássica

63
FLF0472 – Filosofia da Física (2 o sem. 2008) Filosofia da Física Clássica Osvaldo Pessoa Jr. Curso ministrado pelo Depto. de Filosofia, FFLCH, USP para o 3 o ano de Licenciatura de Física, IFUSP.

Upload: imscatman

Post on 02-Dec-2015

124 views

Category:

Documents


36 download

TRANSCRIPT

FLF0472 – Filosofia da Física (2o sem. 2008)

Filosofia da Física Clássica

Osvaldo Pessoa Jr.

Curso ministrado pelo Depto. de Filosofia, FFLCH, USP para o 3o ano de Licenciatura de Física, IFUSP.

FLF0472 Filosofia da Física (USP - 2008)

ii

Sumário

Cap. I. FILOSOFIA DA MATEMÁTICA Como explicar a importância da matemática nas ciências naturais? 1. A Desarrazoada Efetividade da Matemática 1 2. A Matemática na Grécia Antiga 1 3. Os Postulados de Euclides 2 4. Questão Ontológica: Existem Objetos Matemáticos? 3 5. Questão Epistemológica: Números Imaginários se aplicam à Realidade Física? 4 6. Noções de Continuidade 5 7. Existe o Infinito? 6 Cap. II. PARADOXOS DE ZENÃO O espaço e o tempo são contínuos ou discretos? 1. Pano de Fundo de Zenão 7 2. Paradoxos do Movimento 8 3. Paradoxos da Pluralidade 8 3. O Holismo Aristotélico 10 4. Visão Moderna dos Paradoxos 11 5. Espaço e Tempo Discretizado na Gravidade Quântica 12 Cap. III. FILOSOFIA MECÂNICA Como explicar a gravidade sem forças à distância? 1. Hilemorfismo e a Física Aristotélica 13 2. Atomismo Greco-Romano 14 3. Naturalismo Animista 15 4. A Filosofia Mecânica 16 5. A Física e Cosmologia de Descartes 16 6. Explicação da Gravidade segundo a Filosofia Mecânica 18 7. Teoria Cinética da Gravitação 19 Cap. IV. CONCEPÇÕES REALISTA E INSTRUMENTALISTA DE “FORÇA” A ciência deve apenas descrever o que é observável ou deve lançar

hipóteses sobre a realidade que estaria por trás dos fenômenos? 1. Mecanicismo com Forças à Distância 21 2. Definições e Leis no Principia 22 3. A Natureza da Força 24 4. Realismo, Instrumentalismo, Descritivismo 25 5. Realismo e Anti-Realismo em Newton 27 Cap. V. EXPERIMENTO DO BALDE E ESPAÇO ABSOLUTO O espaço e o tempo são absolutos ou relativos? 1. Há Juízos Sintéticos A Priori? 28 2. Referenciais Inerciais e Não-Inerciais 29 3. O Experimento do Balde 29 4. A Defesa do Espaço Relativo 31 5. Princípio de Mach e a Teoria da Relatividade Geral 32

FLF0472 Filosofia da Física (USP - 2008)

iii

Cap. VI. DETERMINISMO E PROBABILIDADE (versão preliminar) A natureza é determinista ou há eventos sem causa? 1. Determinismo e Previsibilidade 34 2. O Demônio de Laplace 34 3. Probabilidade 35 4. Definições de Aleatoricidade 36 5. Caos Determinístico e Sensibilidade a Condições Iniciais 37 Cap. VII. PRINCÍPIOS DE MÍNIMA AÇÃO Qual é o lugar das causas finais na física (e na ciência)? 1. Paradigmas e Programas de Pesquisa 39 2. Programas de Pesquisa Rivais na Mecânica Clássica 40 3. Princípios de Mínima Ação 42 4. Causas Finais na Física 44 Cap. VIII. AXIOMATIZAÇÃO DA MECÂNICA CLÁSSICA Por que e como axiomatizar as teorias físicas? 1. Contexto da Descoberta e Contexto da Justificação 45 2. Discussão dos Princípios Newtonianos no Séc. XIX 45 3. Críticas ao Método de Mach 47 4. Axiomatização das Teorias Matemáticas 48 5. Axiomatização Dedutivista da Mecânica Clássica 49 6. O Debate entre Axiomatizações Empiristas e Dedutivistas 51 Cap. IX. A ONTOLOGIA DO ELETROMAGNETISMO Quais conceitos do eletromagnetismo correspondem a entidades reais? 1. Critérios para estabelecer o que é Real 53

2. Ampère e o Magnetismo como Epifenômeno 54 3. Forças Magnéticas violam o Princípio de Ação e Reação? 56 4. Campos e a Ação por Contato, ou Localidade 57 5. O Potencial Vetor é um Campo? 58 6. Invariantes da Teoria da Relatividade 60 Cap. X. CONTEXTO DA DESCOBERTA DO ELETROMAGNETISMO Qual é o papel das imagens e das analogias na ciência? Cap. XI. TERMODINÂMICA E ENERGÉTICA A lei de conservação de energia é uma convenção? Cap. XII. MECÂNICA ESTATÍSTICA E IRREVERSIBILIDADE Qual a origem da irreversibilidade dos fenômenos macroscópicos? Cap. XIII. DEMÔNIO DE MAXWELL E FÍSICA DA COMPUTAÇÃO Um ser inteligente conseguiria violar a irreversibilidade?

Filosofia da Física Clássica Cap. I

1

Filosofia da Matemática

Questão: Como explicar a importância da matemática nas ciências naturais?

1. A Desarrazoada Efetividade da Matemática

Por que a matemática é tão importante na física? Essa é a questão que o importante físico húngaro Eugene Wigner (1902-95) discutiu em um artigo em que usou a curiosa expressão “desarrazoada (não razoável) efetividade (eficácia) da matemática”.1 A opinião de Wigner era que a gente não compreende porque a matemática é tão útil na física: seria uma espécie de “milagre”: “A lei da gravitação, que Newton relutantemente estabeleceu e que ele pôde verificar com uma acurácia de aproximadamente 4%, mostrou-se acurada numa porcentagem menor do que dez milésimos” (p. 231). Ou seja, usamos a matemática para descrever um domínio limitado da realidade, e às vezes essa descrição matemática se mostra eficaz em domínios muito mais amplos. Outro exemplo que Wigner cita é o sucesso da mecânica quântica (a partir de 1927) em explicar os níveis energéticos do átomo de hélio, um sistema bem mais complexo (por envolver dois elétrons interagentes) do que aqueles usados por Heisenberg para construir sua mecânica matricial. “Com certeza, neste caso, conseguimos ‘tirar algo’ das equações que não tínhamos colocado” (p. 232).

A tese de Wigner, de que a efetividade da matemática na física é desarrazoada, inexplicável, exprime um certo aspecto de seu pensamento filosófico no início dos anos 60, uma sensibilidade a problemas não resolvidos, como o mistério da consciência humana ou o problema do colapso na mecânica quântica. No entanto, muitas outras respostas foram dadas a este problema, desde a época de Pitágoras, que considerava que a essência da natureza são números. Curiosamente, uma resposta semelhante à de Pitágoras foi proposta recentemente pelo cosmólogo Max Tegmark, para quem “nosso mundo físico é uma estrutura matemática abstrata”!2

2. A Matemática na Grécia Antiga

A matemática grega, partindo de Tales de Mileto (c. 625-546 a.C.) e Pitágoras de Samos (c. 575-495 a.C.), se caracterizou pelo esforço de demonstrar de maneira rigorosa os seus resultados. Os pitagóricos, reunidos onde hoje é a Sicília, defendiam que todas as relações científicas eram expressas por meio de números naturais (1, 2, 3, ...) ou razões entre tais números, os chamados números racionais, ½, ¾, etc. Em conseqüência desta concepção, supunham que o espaço, o tempo e o movimento eram constituídos de elementos discretos.

Ao pitagórico Hipaso de Metaponto (nascido circa 500 a.C.) é atribuída a descoberta dos números irracionais, como 2 , que seria a medida da diagonal de um quadrado de lado 1. Esta descoberta era vista como um problema para a filosofia pitagórica, e conta a lenda que

1 WIGNER, E.P. (1960), “The Unreasonable Effectiveness of Mathematics in the Natural Sciences”, Communications in Pure and Applied Mathematics 13, 1-14. Disponível na internet. Tradução disponível no saite do curso. 2 TEGMARK, M. (2007), “The Mathematical Universe”, arXiv 0704.0646v1, 28 pp. Na internet, é fácil também encontrar sobre o assunto o artigo do matemático aplicado HAMMING, R.W. (1980), “The Unreasonable Effectiveness of Mathematics”, American Mathematical Monthly 87.

FLF0472 Filosofia da Física (USP - 2008) Cap. I: Filosofia da Matemática

2

Hipaso teria sido lançado ao mar por seus colegas, em represália.3 Veremos no cap. II outro problema para a concepção pitagórica: os paradoxos de Zenão, que punham em xeque a concepção de que o espaço e o tempo são divisíveis.

Os matemáticos gregos passaram a dividir a matemática na teoria dos números, que estuda entidades discretas ordenadas, e na geometria, que envolve o contínuo. Essa divisão transparece nos Elementos, obra escrita por Euclides de Alexandria em torno de 300 a.C. Ele reuniu os trabalhos de Eudoxo, Teeteto e outros matemáticos, sistematizou-os, melhorou as demonstrações, e coligiu sua obra de acordo com o método axiomático. Os Elementos partem de definições, axiomas (noções comuns, princípios auto-evidentes) e postulados (suposições geométricas). O número 1 foi tratado como a “unidade”, e os outros como “números” propriamente ditos. O número 0 não estava presente, e só foi introduzido na Índia, onde se usava o sistema numérico posicional, juntamente com os números negativos, pelo matemático Brahmagupta, em 628 d.C. 3. Os Postulados de Euclides

Euclides partiu de 23 definições, como a de ponto, que é “aquilo que não tem partes”, e reta, que é “um comprimento sem espessura [...] que repousa equilibradamente sobre seus próprios pontos”. Em 1899, o alemão David Hilbert reformularia a axiomatização da geometria plana sem partir de definições primitivas: “ponto” e “reta” seriam definidos implicitamente pelos postulados.

Os cinco axiomas usados por Euclides, em notação moderna, são: A1) Se A=B e B=C, então A=C. A2) Se A=B e C=D, então A+C = B+C. A3) Se A=B e C=D, então A–C = B–C. A4) Figuras coincidentes são iguais em todos os seus aspectos. A5) O todo é maior do que qualquer de suas partes.

Os cinco postulados da geometria plana são:

P1) Dois pontos determinam um segmento de reta. P2) Um segmento de reta pode ser estendido para

uma reta em qualquer direção. P3) Dado um ponto, há sempre um círculo em que

ele é centro, com qualquer raio. P4) Todos os ângulos retos são iguais. P5) Se a soma dos ângulos a e b for menor do que

dois ângulos retos, então os segmentos de reta A e B se encontram, se forem estendidos suficientemente (ver Fig. I.1).

Figura I.1: Quinto postulado de Euclides.

O postulado P5 é logicamente equivalente à proposição de que, dados uma reta A e um ponto P fora dela, passa apenas uma reta por P que seja paralela a A. Veremos mais à frente como a discussão do quinto postulado levou no séc. XIX às geometrias não-euclidianas.

3 Muitos detalhes da história da matemática podem ser obtidos de: EVES, H. (2004), Introdução à História da Matemática, trad. H.H. Domingues, Ed. Unicamp, Campinas (original em inglês: 1964). Sobre Hipaso, ver p. 107.

FLF0472 Filosofia da Física (USP - 2008) Cap. I: Filosofia da Matemática

3

Com esses axiomas e postulados, deduz-se boa parte da geometria plana, como o teorema de Pitágoras. No entanto, a base de postulados não é completa. Por exemplo, Euclides supõe tacitamente que uma reta que passa pelo centro de um círculo passa também por dois pontos do círculo, mas isso não é dedutível da base de postulados! Além disso, muitas verdades geométricas que dependem da noção de limite, algumas das quais formuladas por Arquimedes de Siracusa (287-212 a.C.), não são dedutíveis dos axiomas de Euclides.4

A geometria euclidiana foi o paradigma de conhecimento certo e verdadeiro, na ciência e filosofia, até o séc. XIX. 4. Questão Ontológica: Existem Objetos Matemáticos?

Os números existem? Há 27 alunos nesta classe, isso é um fato indubitável: mas o número 27 existe de maneira independente, no mundo, ou apenas em minha mente? Há duas respostas básicas a esta questão.

A tradição pitagórica, elaborada por Platão (428-348 a.C.), concebe que os números naturais são entidades reais, assim como outros objetos matemáticos, como o triângulo. Tais entidades, porém, não existiriam no mundo físico, mas em um mundo abstrato, ideal, para fora do espaço e do tempo. O filósofo Bertrand Russell, simpático a esta concepção no livro Problemas da Filosofia (1912), utilizou o verbo “subsistir” para designar este tipo de realidade, em oposição ao “existir” das coisas particulares. Essa noção de subsistência, em Platão e Russell, não se limitava apenas a entidades matemáticas, mas se estendia para quaisquer propriedades ou relações abstratas, ditas “universais”. Assim, para Platão, aquilo que haveria em comum entre um ato justo de um magistrado romano e um ato justo de um rei asteca seria a “justiça”, um universal que subsistiria num mundo à parte do material. Os diferentes triângulos que desenhamos num papirus seriam cópias imperfeitas de triângulos ideais, e o que todos os triângulos têm em comum seria a “triangularidade”, um universal distinto de qualquer triângulo desenhável, pois cada triângulo é ou isósceles (ao menos dois lados de mesmo comprimento) ou escaleno, ao passo que a triangularidade não teria nenhuma dessas duas propriedades.

A visão metafísica que defende a existência de universais, quer sejam números, quer sejam propriedades ou relações, pode ser chamada de realismo de universais. A visão antagônica é conhecida como nominalismo, e defende que no mundo físico há particulares concretos (coisas) com propriedades, mas tais propriedades não têm uma realidade autônoma, independente de cada particular. Ou seja, não se pode dizer que os universais subsistem. O que o realista chama de universais seriam apenas idéias em nossa mente (conceitualismo) ou nomes lingüísticos (nominalismo, em sentido estrito). A “querela dos universais” foi disputada intensamente na Idade Média, e Guilherme de Ockham (1285-1350) é o grande representante do nominalismo medieval, ao passo que o lógico Willard Quine (1908-2000) é um importante nominalista moderno.5

Em filosofia da matemática, a oposição entre realistas e nominalistas é um pouco diferente da querela metafísica. Os realistas afirmam que os números, conjuntos e outros objetos matemáticos existem ou subsistem de alguma maneira, independentes dos seres

4 O presente relato foi obtido de SKLAR, L. (1974), Space, Time, and Spacetime, U. California Press, Berkeley, pp. 13-6. O livro de Euclides está disponível na internet, ou como: EUCLID (1956), The Thirteen Books of Euclid’s Elements, tradução e comentários de T.L. Heath, 3 vols., Dover, Nova Iorque. 5 Uma excelente introdução ao debate metafísico entre realistas de universais e nominalistas é apresentada por LOUX, M.J. (2002), Metaphysics – A Contemporary Introduction, 2a ed, Routledge, Londres, caps. 1 e 2. Há um “resumão” em português na internet.

FLF0472 Filosofia da Física (USP - 2008) Cap. I: Filosofia da Matemática

4

humanos. Já os nominalistas defendem que os objetos matemáticos são construções mentais, de forma que não se pode afirmar que os números naturais existam no mundo.

Um dos argumentos dos realistas, em favor da existência dos objetos matemáticos, é justamente a sua grande utilidade nas ciências naturais. Segundo este “argumento da indispensabilidade”, formulado por Willard Quine (um nominalista metafísico, mas um realista matemático) e Hilary Putnam, como nossas melhores teorias científicas fazem referência a objetos matemáticos como números, conjuntos e funções, e tais entidades são indispensáveis para a ciência, então devemos nos comprometer com a existência real de objetos matemáticos, da mesma maneira que nos comprometemos com a existência de entidades físicas teóricas como quarks e partículas virtuais. Opondo-se a este argumento, o filósofo nominalista Hartry Field vem trabalhando num projeto para mostrar como é possível construir teorias científicas sem números e outros objetos matemáticos, numa certa linguagem relacional. Conseguiu aplicar seu método para a teoria da gravitação newtoniana, mas não para outras teorias mais contemporâneas. A matemática seria útil para a ciência pelo fato de ela simplificar muito os cálculos e a expressão de enunciados das ciências exatas, mas ela não seria indispensável.6 5. Questão Metodológica: Números Imaginários se aplicam à Realidade Física?

Na seção anterior, vimos que a questão sobre a existência do número natural 27 pode receber diferentes respostas. Mas a prática do físico não é afetada por esta questão filosófica: qualquer que seja a resposta a essa questão “ontológica” (ou seja, questão sobre o que é real), é seguro supor que o número inteiro 27 “se aplica” corretamente à descrição da realidade nessa sala de aula.

Podemos investigar esta questão “metodológica” em relação a números não positivos, como os inteiros negativos. Talvez não possamos dizer que há –5 maçãs na cesta, mas podemos dizer que a temperatura é –5˚C. Ou seja, pode-se dizer que os inteiros negativos se aplicam a certos domínios da realidade.

E quanto aos números que representam uma reta contínua? A estrutura do espaço físico é a estrutura dos números racionais ou dos números reais? Na seção seguinte deixaremos clara a distinção entre os dois, com base na distinção entre conjuntos ordenados densos e completos. A questão levantada é também uma questão ontológica, mas não em relação à natureza dos objetos matemáticos, e sim em relação a uma entidade física, o espaço. Sendo assim, para examinar esta questão devemos levar em conta também as evidências experimentais. Deixaremos o estudo desta questão para o Cap. II. Associada a esta questão há também uma constatação metodológica: é usual representar o espaço físico como um espaço matemático tridimensional contínuo, envolvendo números reais, e não apenas números racionais.

E os números imaginários? Tais números, múltiplos de i, ou 1− , surgiram com o matemático italiano Gerolamo Cardano, em 1545, como soluções de equações cúbicas. Em 1637, René Descartes os chamou de “imaginários”, indicando que não os levava à sério. No entanto, Abraham de Moivre (1730) e Leonhard Euler (1748) os estudaram, chegando à notável equação que tanto fascinou o jovem Richard Feynman: 1−=πie . Isso levaria à noção

6 Uma resumo sucinto da filosofia da matemática é: POSY, C.J. (1995), “Philosophy of Mathematics”, in AUDI, R. (org.), The Cambridge Dictionary of Philosophy, Cambridge U. Press, pp. 594-7. Sobre o argumento da indispensabilidade, ver: COLYVAN, M. (2004), “Indispensability Arguments in the Philosophy of Mathematics”, Stanford Encyclopedia of Philosophy, na internet. O filósofo brasileiro Otávio Bueno (U. Miami) tem trabalhado nesta e noutras questões da filosofia da ciência e da matemática; por exemplo: BUENO, O. (2005), “Dirac and the Dispensability of Mathematics”, Studies in History and Philosophy of Modern Physics 36, 465-90.

FLF0472 Filosofia da Física (USP - 2008) Cap. I: Filosofia da Matemática

5

de plano complexo, formulado por Caspar Wessel (1797), Carl Gauss (1799) e Jean Argand (1806), que representa os números complexos a + bi em um plano.

A questão ontológica, da realidade dos números imaginários, não parece ser diferente da questão ontológica de outros objetos matemáticos. A diferença está na questão metodológica, pois é costume afirmar-se que “nenhuma grandeza física observável é representada por um número imaginário”. Números imaginários aparecem na representação de movimentos oscilantes ou ondulatórios, mas na hora de exprimir valores de correntes (na engenharia elétrica) ou de probabilidades (na mecânica quântica), o resultado é sempre expresso por meio de números reais. Assim, num certo sentido, números imaginários não se aplicam à realidade observável. Mas e a realidade não-observável? Aqui recaímos na discussão sobre o estatuto da realidade não-observável (realismo x instrumentalismo), que veremos no cap. IV.

Alguns autores argumentam que os números imaginários não podem ser eliminados da mecânica quântica e das modernos teorias de campo, a não ser por procedimentos artificiais, e portanto eles têm aplicação essencial na física7. Por outro lado, a discussão não é que os números imaginários não podem ser aplicados à realidade observada, pois por convenção poderíamos multiplicar todos os números que representam grandezas observáveis por i, de tal maneira que seriam os reais não-imaginários que não teriam aplicação direta. O ponto da discussão é que os números reais seriam suficientes para descrever a realidade observável, sem necessidade de ampliar, com os números imaginários, o sistema numérico utilizado. 6. Noções de Continuidade

Consideremos o intervalo entre os números 0 e 1, e imaginemos o conjunto ordenado de todos os números racionais (frações) deste intervalo. Este conjunto é denso, pois entre quaisquer dois números racionais existe pelo menos um número racional. É fácil intuir que há um número infinito de racionais neste intervalo.

No entanto, sabemos que números como 22 e 8

π não são racionais, mas fazem parte do conjunto dos reais. Está claro que este conjunto é denso, mas ele também tem a propriedade de ser completo. Considere a seguinte seqüência crescente infinita de números

racionais,{ }...,,,, 4504516988

34651289

10538

31 , onde cada termo n=1,2,... é expresso por [ ]∑

=

−−−n

m

mm1

1)14)(34( .

Tal seqüência tem limites superiores racionais, como 52 , ou seja, há números racionais

maiores do que todos os termos da seqüência. O problema, porém, é que não há um racional que seja o menor limite superior, ou supremo. Se considerarmos agora esta seqüência como um subconjunto dos reais, mostra-se (a partir de fórmula derivada por Gregory e Leibniz no séc. XVII) que tal seqüência converge para 8

π , que é o supremo da seqüência. Assim, os reais são completos, no sentido que todas as seqüências com limite superior têm um supremo.

Na matemática, a noção de continuidade aplica-se a funções, como y = f(x) . Intuitivamente, diz-se que uma função é contínua se uma pequena variação no argumento x levar a uma pequena variação em y. Na disciplina de Cálculo I, aprendemos a definição rigorosa de continuidade de Cauchy para os reais, em termos de “εpsilons e δeltas”. Se uma função for definida para números racionais, parece ser possível aplicar essa noção de

7 WIGNER (1960), op. cit. (nota 1), pp. 225, 229. YANG, C.N. (1987), “Square Root of Minus One, Complex Phases and Erwin Schrödinger”, in Kilmister, C.W. (org.), Schrödinger: Centenary Celebration of a Polymath, Cambridge: Cambridge University Press, pp. 53-64.

FLF0472 Filosofia da Física (USP - 2008) Cap. I: Filosofia da Matemática

6

continuidade também para os racionais. Por outro lado, o conjunto dos números reais é às vezes chamado de “o contínuo”. 7. Existe o Infinito?

Há uma longa história da noção de infinito na matemática, na ciência e na filosofia. Hoje em dia aceita-se que o Universo tenha uma extensão espacial finita, mas a questão do infinitamente pequeno ainda está em aberto, como discutiremos no Cap. II.

Na matemática, um resultado importante foi obtido pelo russo-alemão Georg Cantor (1845-1918): podem se definir infinitos maiores do que o infinito contável! O tamanho de um conjunto é denominado sua “cardinalidade”. Cantor denotou a cardinalidade dos números naturais por ℵ0 (alef-zero), ou infinito contável. Para encontrar a cardinalidade de outro conjunto infinito, basta tentar mapear os elementos do conjunto nos números naturais. Por exemplo, mostra-se que a cardinalidade dos números racionais também é ℵ0, escrevendo todas as frações m/n em uma matriz na posição (m,n), e escolhendo uma seqüência de ordenamento, como o da Fig. I.2, que mapeia cada fração em um número natural (podem-se eliminar as frações de valores repetidos).

Qual seria a cardinalidade dos números reais, entre 0 e 1? Cantor apresentou o “argumento da diagonal”, que permite construir um número real que escapa da tentativa de mapear bijetoramente os inteiros nos números reais. Façamos uma lista dos números reais entre 0 e 1, com i = 1, 2, ..., escrevendo cada um da seguinte forma: pi = 0 , ai1, ai2, ai3, ..., onde os aij são dígitos entre 0 e 9 (Fig. I.3). Por exemplo, 8

π = 0,392... teria ai1=3, ai2=9, ai3=2, etc. Naturalmente, esta lista de números reais pi seria contavelmente infinita, mas há pelo menos um número real que não consta desta lista, o número q = 0 , b1, b2, b3, ..., construído da seguinte maneira. Consideremos os dígitos na diagonal i=j, ou seja, a11, a22, etc. Se o dígito aii = 5, então bi = 4; se aii ≠ 5, então bi = 5. Com isso, constrói-se um número real b que não consta da lista contavelmente infinita (que tem cardinalidade ℵ0). Isso mostra que a cardinalidade dos números reais, que Cantor mostrou ser igual a 2ℵ0, é maior do que a dos números racionais: 2ℵ0 > ℵ0 .

Figura I.2: Numeros racionais são contáveis. Figura I.3: Argumento da diagonal de Cantor.

Filosofia da Física Clássica Cap. II

7

Paradoxos de Zenão

Questão: O espaço e o tempo são contínuos ou discretos? 1. Pano de Fundo de Zenão

Zenão de Eléia (490-430 a.C.) é bem conhecido por causa de seus paradoxos, como aquele da corrida de Aquiles com a tartaruga. De fato, escreveu um livro com em torno de 40 paradoxos, mas este se perdeu. O que sabemos de Zenão nos foi transmitido por Platão, Aristóteles e pelo comentador Simplício do séc. VI d.C. 8

Figura II.1: Zenão de Eléia.

O que Zenão queria provar com seus paradoxos? Como eles foram encarados na Antigüidade? Como eles são resolvidos hoje em dia?

Zenão era discípulo do grande filósofo Parmênides (515-450 a.C.), da cidade de Eléia (atual Itália), que defendia que a pluralidade (o estado de haver muitas coisas distintas, ao invés de uma só) não existe e que qualquer mudança é impossível. O ponto de partida de Parmênides era a razão, o intelecto, em oposição à observação. É verdade que nossos sentidos vêem uma aparente mudança, mas isso seria pura ilusão, pois a realidade não poderia mudar. Afinal, “o que é não pode deixar de ser”: se alguma coisa tem uma essência, como é que essa essência pode desaparecer desta coisa? Por outro lado, “do não-ser não pode surgir o ser”: como é que algo pode surgir do nada? Assim, o Universo seria uno, e não mudaria (algo parecido com a idéia de um único Deus imutável).9

As teses de Parmênides tiveram um forte impacto na filosofia da natureza na Grécia. Elas estimularam soluções como a de Empédocles (490-435 a.C.), para quem haveria quatro elementos imutáveis (terra, água, ar e fogo) que se combinariam em diferentes proporções para gerar os diferentes objetos que conhecemos. A mudança seria uma recombinação dos quatro elementos fundamentais, como na queima de madeira (constituída de uma certa proporção de terra, água e fogo), que perde seu elemento água e fogo para se transformar em carvão, que seria terra pura.

Zenão buscava defender as idéias de seu mestre, atacando a idéia de pluralidade e de movimento. Sua estratégia era supor a tese que queria atacar, por exemplo a pluralidade de pontos em uma reta, e daí deduzir uma conseqüência que contradissesse sua suposição, levando assim a uma redução ao absurdo.

8 Uma excelente apresentação é dada por: HUGGETT, N. (2004), “Zeno’s Paradoxes”, The Stanford Encyclopedia of Philosophy, na internet Um livro clássico com textos de diversos autores é: SALMON, W.C. (org.), Zeno’s Paradoxes, Bobbs-Merrill, Indianápolis, 1970. A figura de Zenão foi retirada de http://www-history.mcs.st-andrews.ac.uk/history/ PictDisplay/Zeno_of_Elea.html. 9 Alguns cosmólogos modernos gostam de olhar para o Universo como uma entidade única, um “bloco” (block Universe) no qual o tempo é visto como uma quarta dimensão semelhante ao espaço, sem distinções ontológicas entre passado e futuro (também chamada de “doutrina das partes temporais”). Olhando este bloco de fora, um observador abstrato pode olhar para o futuro, para o passado, para onde quiser. O bloco não muda, então nesse sentido não há mudança, o que lembra o Uno parmenidiano (por outro lado, a concepção do universo em bloco não rejeita a pluralidade).

FLF0472 Filosofia da Física (USP - 2008) Cap. II: Paradoxos de Zenão

8

2. Paradoxos do Movimento

Concentremo-nos aqui em quatro paradoxos do movimento, que são apresentados por Aristóteles (384-322 a.C.) em sua Física.10 A Dicotomia e o Aquiles são semelhantes: Zenão parte da suposição de que uma certa distância tem infinitos pontos, e que um corredor teria que passar por todos eles antes de atingir a linha de chegada (ou uma tartaruga), para concluir que o corredor nunca atinge seu objetivo. Assim, a razão mostra que o movimento é impossível, e o que vemos é uma ilusão. A Flecha envolve a noção de que, em cada instante, uma flecha está parada, então como ela poderia estar em movimento? O quarto paradoxo, o Estádio, é apresentado de maneira provavelmente errônea por Aristóteles, então ele tem que ser reconstruído. 3. Paradoxos da Pluralidade

É interessante que os paradoxos do movimento também podem ser usados contra a tese de que o espaço e o tempo possuem partes atuais (reais), ou seja, contra a pluralidade do Universo (que mencionamos ser uma das teses de Parmênides). O filósofo galês G.E.L. Owen (1922-82) fez uma reconstrução de como poderia ter sido este argumento, resultando num grande argumento contra diferentes concepções de pluralidade11. Ou seja, apresentaremos os quatro paradoxos de Zenão não como argumentos contra a possibilidade de movimento – que iremos supor que ocorre realmente – , mas contra a divisibilidade do espaço e do tempo em partes reais. É provável que Zenão não tenha articulado seus argumentos dessa forma, mas como nosso interesse é mais filosófico do que histórico, seguiremos a reconstrução de Owen.

O argumento em questão é consistente com a conclusão de Aristóteles de que um todo não possui partes “atuais”, mas apenas partes “em potência”, cuja atualização só pode ocorrer posteriormente à existência do todo. Essa prioridade do todo sobre as partes exprime uma posição conhecida como holismo, que examinaremos na seção seguinte.

A questão a ser examinada, então, é se o espaço e o tempo são compostos de uma pluralidade de partes reais. Há, naturalmente, duas respostas possíveis: SIM, são compostos de partes reais; ou NÃO, são um todo sem partes reais, apenas partes imaginadas.

Vamos examinar a resposta positiva. Veremos que as diferentes possibilidades levam a paradoxos, de forma que seremos obrigados a concluir (segundo o argumento atribuído a Zenão) que o espaço e o tempo NÃO são compostos de partes reais.

Partamos então da tese de que o espaço e o tempo têm partes reais. A próxima questão a ser colocada é se o espaço e o tempo podem ser divididos sem limite ou se há limites para a divisão. Há duas respostas plausíveis: A) São divisíveis sem limite. B) Há limites para a divisão. Consideremos a primeira alternativa.

A) O espaço e o tempo são divisíveis sem limite. Zenão então teria apresentado dois paradoxos para refutar esta alternativa, o da Dicotomia e o de Aquiles.

1) Paradoxo da Dicotomia. Um corredor pretende cobrir uma certa extensão, digamos de 100 m. Antes de chegar ao final, ele terá que passar por um ponto localizado no meio do percurso, ½ da extensão total. Após isso, ele tem que passar pelo ponto que corresponde a ¾ do percurso. Depois disso, pelo ponto 8

7 , depois 1615 , depois 32

31 , etc. Como, pela hipótese A, o

10 ARISTOTLE (1996), Physics, trad. R. Waterfield, Oxford U. Press, 1996, orig. c. 350 a.C. Tradução para o português de trechos relativos aos paradoxos de Zenão está disponível no saite do curso. 11 OWEN, G.E.L. (1957), “Zeno and the Mathematicians”, Proceedings of the Aristotelian Society 58, 199-222, republicado em SALMON (1970), op. cit. (nota 8), pp. 139-63. Um resumo deste argumento é apresentado por TILES, MARY (1989), The Philosophy of Set Theory, Blackwell, Oxford (nova edição pela Dover), pp. 12-21.

FLF0472 Filosofia da Física (USP - 2008) Cap. II: Paradoxos de Zenão

9

espaço é divisível sem limite, há um número infinito de pontos que o corredor deve percorrer antes de chegar ao final de seu percurso. Assim, conclui Zenão, ele nunca chega ao final!

Este é o paradoxo da Dicotomia “progressivo”; há também a versão “regressiva”. Antes de chegar à metade do percurso, o corredor tem que atingir ¼ da extensão total; mas para chegar neste ponto, tem que antes atingir 8

1 do percurso; e antes disso, 161 , etc. Desta

maneira, o corredor nem conseguiria iniciar sua corrida! 2) Paradoxo de Aquiles. Nesta versão do argumento, o veloz Aquiles aposta uma

corrida contra uma lenta tartaruga, que começa dez metros à sua frente. Em pouco tempo, Aquiles atinge a marca dos 10 m, mas neste intervalo de tempo a tartaruga caminhou 1 m. Em seguida, Aquiles percorre esse metro adicional, mas a tartaruga não está mais lá, pois percorreu mais 10

1 de metro. Quando Aquiles cobre este 101 de metro adicional, a tartaruga está 100

1 m à frente. E depois, 1000

1 à frente, e depois 000.101 , etc. Como, pela hipótese A, o espaço é

infinitamente divisível, sempre haverá um ponto que Aquiles deve atingir antes de prosseguir em seu encalço à tartaruga. Conclui-se então que Aquiles nunca conseguirá alcançar a tartaruga!

Visto que a hipótese A levou a duas situações que vão contra o que constatamos na realidade, ela deve ser rejeitada. Assim, supondo-se que o espaço e o tempo são compostos de partes, não se poderia admitir que essas partes sejam infinitamente divisíveis. Para sermos mais precisos, o que esses argumentos sustentam é que o espaço não seria infinitamente divisível. Resta assim a hipótese alternativa.

B) Há limites para a divisão do espaço e do tempo. Neste caso, pergunta-se sobre o tamanho desses limites: eles têm tamanho? (a) Sim, têm tamanho. (b) Não, não têm tamanho. Consideremos cada caso em separado.

(a) Os limites para a divisão do espaço e do tempo têm tamanho. Ou seja, dentro de uma unidade indivisível de tempo, ocorreria um pequeno movimento (esta é uma situação difícil de imaginar, mas prossigamos com o argumento reconstruído por Owen). Neste caso, Zenão teria invocado o paradoxo do estádio.

(3) Paradoxo do Estádio. Imagine que durante a Olimpíada, em um estádio, dois dardos são atiradas em sentidos opostos. Estamos supondo que o espaço e o tempo são discretizados, ou seja, suas partes têm um tamanho ou duração mínimos (que chamaremos “unidades”). Supomos também que cada dardo percorre uma unidade espacial a cada unidade temporal. Consideremos um instante em que as pontas dos dardos ainda não se sobrepuseram, mas ocupam unidades espaciais adjacentes. Isso pode ser representado ao encostarmos o dedo indicador da mão esquerda no indicador da mão direita, com as unhas viradas para fora, de forma que possamos ver a divisão de nossos indicadores em três falanges (Fig. II.2a). Escolhendo

Figura II.2: Paradoxo do Estádio.

um ponto de referência em algum objeto à nossa frente, consideremos qual é a posição dos nossos dedos/dardos no instante discreto (unidade temporal) seguinte. Ora, o indicador direito se moveu uma unidade para a esquerda, e o dedo esquerdo uma para a direita. Assim, na nova posição relativa dos dois dedos/dardos, há duas unidades espaciais emparelhadas (Fig. II.2b). No entanto, para eles terem chegado nesta situação de emparelhamento de duas unidades, eles teriam que ter passado pela situação intermediária em que apenas uma unidade estivesse emparelhada. Isso teria que acontecer em um instante que é metade da unidade temporal tomada como mínima. Portanto, tal unidade não é mínima, mas é divisível! Além disso, nesta meia unidade,

FLF0472 Filosofia da Física (USP - 2008) Cap. II: Paradoxos de Zenão

10

temporal, cada dardo voou, em relação ao estádio, uma distância que é a metade da unidade espacial. Assim, a unidade espacial também seria divisível! Isso refutaria a hipótese (a).

Resta-nos a outra alternativa. (b) Há limites para a divisão do espaço e do tempo mas esses não têm extensão ou

duração, são pontuais ou instantâneos. Neste caso, segundo a reconstrução de Owen, Zenão invocaria o seguinte problema.

(4) Paradoxo da Flecha. Um arqueiro lança uma flecha. Em um certo instante, a flecha ocupa um espaço que é igual ao seu volume, portanto, segundo Zenão, ela estaria parada neste instante. Isso se aplica para todos os instantes, assim, a flecha está sempre parada e não poderia estar se movendo. Poder-se-ia argumentar que a flecha voa um pouquinho durante um instante, de forma que ela estaria em diferentes posições no início e no fim do instante; mas neste caso o instante seria divisível, indo contra a hipótese (b). Aristóteles criticou este paradoxo argumentando que o repouso no tempo é diferente do que ocorreria no “agora”, já que neste não se define o movimento, e portanto nem o repouso (Física, 234a24).

Com isso, rejeitando-se ambas as opções (a) e (b), refuta-se a alternativa B, segundo a qual haveria limites para a divisão do espaço e do tempo. Mas a alternativa A já tinha sido rejeitada. Assim, refuta-se a tese de que o espaço e o tempo sejam compostos de uma pluralidade de partes. A resposta para a questão inicial portanto é “NÃO”: o espaço e o tempo são um todo sem partes reais, apenas partes imaginadas.

4. O Holismo Aristotélico

Eis então como Aristóteles utiliza o argumento de Zenão para defender sua visão holista da matéria, de que o todo precede as partes. O espaço e o tempo não seriam compostos de um agregado de partes. É verdade que se pode dividir um objeto em partes. Quando um tijolo é dividido, temos uma divisão atual, em ato. Talvez se possa até dividir um tijolo o quanto queiramos ou possamos, mas antes de realizar essas divisões atuais, elas só existem em potência, como potencialidade. O fato de que podemos dividir um tijolo não significa que ele seja feito de partes, pois essa possibilidade de dividi-lo é apenas uma potencialidade, não uma atualização. O todo precede as partes.

Com esta conclusão, Aristóteles pôde resolver os paradoxos à sua maneira. Os paradoxos da Dicotomia e de Aquiles não procedem porque, para Aristóteles, o contínuo da pista de corrida é homogêneo. Pode-se dividi-lo sem limites, mas tal divisão não é natural, ela pode ser feita de diferentes maneiras. A divisão é imposta por nós, ela não existe de fato: o enunciado do problema concretiza de maneira indevida a potencialidade de divisão. Em primeiro lugar, o corredor percorre o todo. É por percorrer o todo que ele percorre as partes, e não o contrário, como os enunciado dos paradoxos parecem indicar.

Aristóteles defende que se possa potencialmente dividir o contínuo de maneira ilimitada. Com isso, rejeitam-se os paradoxos do Estádio e da Flecha, que pressupõem um limite para a divisão. Além disso, um ponto, para Aristóteles, não é formado por divisão, de maneira que um ponto não seria parte de uma reta. Para ele, um ponto pode ser concebido como uma fronteira entre duas regiões distintas adjacentes.

A visão holista de Aristóteles foi retomada no início do século XX por filósofos que defendem que o espaço e/ou o tempo não são compostos de pontos ou instantes. Para esta corrente, que inclui Henri Bergson, William James e Alfred Whitehead, esta seria a chave para se entender o vir-a-ser temporal, ou seja, como o presente desabrocha do passado.12

12 Este comentário é feito por HUGGETT (2004), op. cit. (nota 8), p. 14. Ele cita BERGSON, H. (1907), L’Évolution Créatice, Presses Universitaires de France, Paris; JAMES, W. (1911), Some Problems of Philosophy,

FLF0472 Filosofia da Física (USP - 2008) Cap. II: Paradoxos de Zenão

11

5. Visão Moderna dos Paradoxos

Os paradoxos de Zenão são ainda tema de discussão hoje em dia. Uma atitude muito natural, por exemplo em relação ao Aquiles, é dizer que a conclusão de Zenão é um absurdo, pois não corresponde à realidade, e que portanto o paradoxo deve ser rejeitado. Seguindo esta linha, Diógenes, o Cínico (413-323 a.C.), respondeu ao paradoxo simplesmente se levantando e andando! Mas essa constatação não resolve os paradoxos. (i) Para o paradoxo do movimento, o ponto de Zenão é que racionalmente não pode haver movimento, de forma que a vivência que temos deste movimento teria que ser uma ilusão dos sentidos. (ii) Para o paradoxo da pluralidade, conforme a reconstrução de Owen, concorda-se que o movimento ocorre, porém nenhuma hipótese sobre a pluralidade, usada para explicar racionalmente o movimento, é livre de problemas.

O problema por trás da Dicotomia, que é o mesmo que o do Aquiles, parece repousar na intuição de que o corredor demora um tempo finito mínimo para percorrer cada intervalo espacial sucessivo. Como há infinitos desses intervalos, o tempo de transcurso seria infinito. Porém, sabemos que essa intuição é errônea: o tempo de percurso por cada intervalo é proporcional ao comprimento do intervalo (supondo velocidade constante). Esse ponto foi apontado por Aristóteles (Física VI, 233a25), mas em outro trecho ele se confundiu com relação à presença de infinitos intervalos finitos de tempo (Física VIII, 263a15). Da mesma maneira que os intervalos espaciais somam 1 na série convergente ½ + 4

1 + 81 + ... , os

intervalos temporais também o fazem. O corredor acaba completando o percurso! A moderna análise matemática, inaugurada no séc. XIX com os trabalhos de Augustin

Cauchy, Karl Weierstrass e Richard Dedekind, esclareceu a natureza das séries convergentes e do cálculo diferencial e integral, banindo a noção de “infinitesimal”, utilizada a partir de Leibniz. Na seção I.7, vimos como Cantor mostrou que o infinito da seqüência de números inteiros (que é igual ao infinito dos números racionais), o chamado “infinito contável”, tem cardinalidade menor do que o “infinito não-contável” dos pontos da reta real entre 0 e 1. No entanto, não parece que seja necessário supor que o espaço seja isomórfico aos números reais para resolver os paradoxos da Dicotomia e do Aquiles: bastaria que o espaço tivesse a estrutura dos números racionais (ver seção I.6).

No século XX, avanços na teoria da medida e da dimensão esclareceram ainda mais a natureza do infinito na matemática. Em 1966, o matemático Abraham Robinson formulou a análise “não-standard”, que reintroduziu de maneira rigorosa os infinitesimais na matemática. A aplicação desta teoria para os paradoxos de Zenão foi feita por McLaughlin (1994).13

O paradoxo da Flecha levanta discussões a respeito da natureza do movimento e do conceito de velocidade instantânea. O movimento deve ser visto como a ocupação sucessiva de posições em diferentes instantes? Esta visão chegou a ser defendida por Bertrand Russell, e é conhecida como a “teoria em-em de movimento” (at-at theory of motion). Se for verdade que, em cada instante, a flecha estaria parada, não se segue que ela estaria parada ao considerarmos todo o intervalo.

Longmans, Green & Co., Nova Iorque, caps. 10-11; e WHITEHEAD, A.N. (1929), Process and Reality, Macmillan, Nova Iorque. Este ponto de vista tem sido retomado mais recentemente por Ilya Prigogine. 13 MCLAUGHLIN, W.I. (1994), “Resolving Zeno’s Paradoxes”, Scientific American 271 (5), pp. 84-9. Seguimos nesta seção as pp. 20-6 de: SALMON, W.C. (1970), “Introduction”, in Salmon (org.), op. cit. (nota 8), pp. 5-44, e alguns comentários de HUGGETT (2004), op. cit. (nota 8), pp. 15-6. Ver também: SALMON, W.C. (1980), “A Contemporary Look at Zeno’s Paradoxes”, in Salmon, Space, Time, and Motion: A Philosophical Introduction. 2a ed., U. of Minnesota Press, Minneapolis, pp. 31-67.

FLF0472 Filosofia da Física (USP - 2008) Cap. II: Paradoxos de Zenão

12

O esclarecimento matemático dos paradoxos da pluralidade e do movimento deixa ainda em aberto a questão da natureza microscópica do espaço e do tempo no mundo físico. Será que a continuidade do espaço e do tempo deve ser vista antes de tudo como uma propriedade holística? Ou será que eles podem ser decompostos em partes menores? Estas partes teriam a estrutura dos números reais? Dos números racionais? Haveria instantes infinitesimais? Faz sentido dizer que existem velocidades instantâneas? O espaço poderia ter uma estrutura fractal? A teoria quântica teria algo a acrescentar a esta problemática?

6. Espaço e Tempo Discretizado na Gravidade Quântica

Nesta seção, apresentaremos superficialmente uma visão recente proposta pelo físico Lee Smolin e colaboradores, que sugere que o espaço e o tempo seriam na verdade discretos. Esta teoria, a gravidade quântica em loop, é um dos programas de pesquisa que concorrem com a teoria das cordas, visando unificar as quatro interações conhecidas na física.14

A idéia de que o espaço e o tempo não seriam contínuos surgiu na metade da década de 1980 como resultado do fracasso de tentativas anteriores de juntar a teoria da relatividade geral com a mecânica quântica. Smolin, juntamente com Abhay Astekar, Ted Jacobson e Carlo Rovelli, perceberam que os problemas dessa tentativa de juntar as duas teorias poderiam ser resolvidos supondo que haveria um quantum mínimo de volume, da ordem de 10–99 cm3. Este seria um volume mínimo de espaço, e qualquer volume maior seria uma soma destas unidades discretas mínimas.

O espaço poderia ser concebido como consistindo de um número imenso de pequenos poliedros encostados uns aos outros. A teoria da gravidade quântica em loop (ou seja, em circuitos fechados) substitui essa representação de volume por outra na qual cada quantum de volume é representado por um nó ou ponto ligado aos pontos dos outros volumes adjacentes por segmentos de reta. A rede resultante é conhecida em matemática como um “grafo”, e os físicos e matemáticos que trabalham nesta área formularam uma maneira de exprimir estados quânticos em termos desses grafos. Tais grafos são também chamados de “redes de spin”, e o uso de tais redes para descrever a gravitação havia sido sugerida na década de 1960 por Roger Penrose.

“Tudo o que existe são as linhas e os nós; eles criam o espaço, e a forma como se conectam define a geometria do espaço” (p. 61). As partículas elementares estariam associadas a nós e os campos às linhas entre os nós; o movimento dessas partículas se daria em passos discretos, de nó em nó. O movimento da matéria e energia, por sua vez, alteraria o padrão de conectividade da rede, o que refletiria na estrutura do espaço. O espaço-tempo da teoria da relatividade geral se comportaria microscopicamente como uma “espuma” de spin. O tempo também é descrito como evoluindo de maneira discreta, a “tiques” quantizados que teriam a duração mínima de 10–43 segundos.

14 SMOLIN, L. (2004), “Átomos de Espaço e Tempo”, Scientific American Brasil, fev. 2004, 56-65. Sobre a teoria das cordas, ver: ABDALLA, E. & CASALI, A. (2003), “Cordas, Dimensões e Teoria M”, Scientific American Brasil, março 2003. Outro texto sobre os “tijolos” que comporiam o espaço e o tempo é: AMBJØRN, J.; JURKIEWICZ, J. & LOLL, R. (2008), “Universo Quântico Auto-Organizado”, Scientific American Brasil 75, ago. 2008, 28-35.

Filosofia da Física Clássica Cap. III

13

Filosofia Mecânica

Questão: Como explicar a gravidade sem forças à distância?

Você realmente entende o que está acontecendo quando solta uma pedra e vê ela cair? Por que ela cai? Porque ela é atraída. Mas por que ela é atraída? Porque todos os corpos se atraem. Mas por que eles se atraem, ou melhor, qual é o mecanismo que está por trás disso?

Podemos ficar perguntando porquês para sempre? Ou uma hora temos que parar e aceitar uma resposta dogmaticamente? E, mudando o foco da pergunta, por que queremos obter respostas? E por que às vezes nos satisfazemos com uma resposta, sentimos uma felicidade de termos compreendido uma questão, só para mais tarde descobrir que tínhamos deixado de perceber uma ambigüidade, e que o prazer da compreensão era só uma ilusão? Qual a diferença entre explicar e compreender?

As concepções tradicionais da matéria e da gravidade, antes do século XVII, eram basicamente três: o hilemorfismo aristotélico, o atomismo greco-romano e o naturalismo animista. 1. Hilemorfismo e a Física Aristotélica

O hilemorfismo é a filosofia desenvolvida por Aristóteles de que todas as coisas consistem de matéria (hile) e forma (morfe). Por “matéria” entende-se um substrato (matéria prima) que só existe potencialmente, e que só existe em ato junto com uma forma (sobre potência e ato, ver seção II.4). A mudança das coisas é explicada por quatro tipos de causas: o fator material, a forma, a causa eficiente e a causa final (ou propósito). Haveria quatro elementos básicos, terra, água, ar e fogo, cada qual tendo um par de qualidades distintivas: terra é fria e seca; água é fria e úmida; ar é quente e úmido; fogo é quente e seco. Os elementos tendem a se ordenar em torno do centro do mundo, cada qual em seu “lugar natural”. Se um elemento é removido de seu lugar natural, seu “movimento natural” é retornar de maneira retilínea: terra e água tendem a descer, ar e fogo tendem a subir. O “movimento violento” envolve a remoção de um corpo de seu lugar natural, ou é o resultado do exercício de uma força por um agente.

Para Aristóteles, todo movimento tem um agente (um motor) e um paciente (o movido). A fonte do movimento é uma força (dunamin ou ísquis). No movimento natural a força é interna, e no movimento violento ela é externa, tendo que haver contato contínuo entre o motor e o movido. Assim, para explicar porque uma pedra arremessada continua se movendo na horizontal, Aristóteles tinha que postular a “antiperistasis”, ou seja, o ar deslo-cado pela frente da pedra retornaria para a parte traseira da pedra e nela exerceria uma força!

O paradigma de movimento violento é uma pessoa empurrando um objeto, como um barco, em uma superfície, como na areia. A distância (S) percorrida em um intervalo de tempo (T) é proporcional à força exercida (F) dividida pelo peso do corpo (P), sendo que este peso inclui também a resistência do meio: F/P = S/T. Aristóteles tinha uma noção clara de que, abaixo de uma certa força exercida, o movimento pode cessar (devido ao atrito estático) (Física VII.5, 249b30-250a28).

O paradigma do movimento natural é a queda de um corpo na água. Neste caso (Física IV.8, 215a24-b10), a força é o peso do corpo (P), e a resistência (R) exprime a densidade do meio: P/R = S/T. Aristóteles também descreveu o movimento para cima de uma porção de

FLF0472 Filosofia da Física (USP - 2008) Cap. III: Filosofia Mecânica

14

fogo com a mesma lei, indicando que a velocidade seria proporcional ao volume do objeto (De Caelo, 309b11-15). O filósofo da ciência Stephen Toulmin (1961) salientou que esta lei é correta no domínio de observação restrito em que o corpo atinge uma velocidade terminal de queda, sendo uma versão simplificada da lei de Navier-Stokes. Há dois trechos em que Aristóteles indica ter noção de que, na queda dos corpos, há alteração de velocidade (Física, 230b24-28; De Caelo, 277b4-5).

Em sua Física (IV.8, 215b12-22), Aristóteles trata da possibilidade do vazio. Como este não oferece resistência, o movimento de queda seria infinitamente rápido, o que é inadmissível. Assim, o vazio não existiria. Porém, em outros trechos, menciona que a velocidade de queda dos corpos depende do peso. Na Física (VIII, 216-220), considera que se não houvesse um meio a ser vencido (ou seja, se a queda fosse no vazio), as velocidades seriam as mesmas!

Esse resumo indica que “Aristóteles não era um idiota”15, que fundou suas teorias em observações, e que tinha uma noção confusa de que a queda dos corpos poderia envolver variação de velocidade. O aristotélico Estráton de Lâmpsaco (c. 340-268 a.C.) argumentaria que a queda dos corpos graves no ar não se dá com velocidade uniforme, pois o barulho que um corpo faz ao cair de uma altura pequena é bem menor do que quando cai de uma altura maior. 2. Atomismo Greco-Romano

O atomismo grego surgiu com Leucipo de Mileto (início do séc. V a.C.) e foi

desenvolvido por seu discípulo Demócrito de Abdera (c. 460-370 a.C.). Posteriormente ele se estabeleceu como escola em Atenas no “Jardim” de Epicuro (341-270 a.C.), e foi difundido no mundo romano por Lucrécio (c. 99-55 a.C.), em seu famoso poema Da Natureza das Coisas.

Segundo esta visão, só teriam realidade os átomos e o espaço vazio. Cada átomo, imperceptível para os nossos sentidos, teria uma forma e um tamanho imutável, e seria indivisível. Haveria um número infinito de átomos espalhados no vazio infinito. Eles estariam em movimento contínuo, chocando-se freqüentemente uns com os outros. Nas colisões, os átomos poderiam rebater ou então se ligar através de ganchos ou formas complementares. As propriedades primárias dos átomos, para Demócrito, seriam três: a forma de cada átomo (o que inclui o tamanho), sua posição (o que inclui sua orientação em relação a outros átomos), e o arranjo de um conjunto de átomos. Epicuro adicionou o peso a esta lista.

Epicuro incumbiu-se da tarefa de responder às críticas de Aristóteles ao atomismo. Dentre essas, estava a crítica à concepção de como os mundos teriam se originado. Segundo Demócrito, os átomos originariamente estariam “caindo” no vazio, todos na mesma direção paralela. Átomos maiores cairiam com maior velocidade, se chocariam com os mais lentos e, assim, se iniciariam movimentos em todas as direções, que acabariam formando os mundos, num dos quais nós viveríamos (os outros mundos estariam espalhados pelo espaço infinito). Vimos que Aristóteles mencionou que, se houvesse o vazio, os átomos deveriam cair com a mesma velocidade, e assim não poderiam se chocar uns com os outros, para formar os mundos. Epicuro (ou Lucrécio, segundo alguns autores) resolveu o problema da formação dos mundos introduzindo um pequeno movimento aleatório lateral (“clinamen”), um movimento

15 Comentário de CASPER, B.M. (1977), “Galileo and the Fall of Aristotle: A Case of Historical Injustice?”, American Journal of Physics 45, 325-30. Ver também KATZ, J. (1943), “Aristotle on Velocity in the Void”, American Journal of Philology 64, 432-5, e TOULMIN, S. (1961), Foresight and Understanding, Harper & Row, Nova Iorque, p. 50.

FLF0472 Filosofia da Física (USP - 2008) Cap. III: Filosofia Mecânica

15

sem causa, para explicar a progressiva agregação dos átomos. Esse movimento sem causa de “átomos espirituais” seria também usado para explicar a liberdade da alma.

Os atomistas eram materialistas, pois consideravam que, na morte, os átomos espirituais se desagregariam, ou seja, a alma seria fruto da matéria. No séc. XVII, o atomismo seria discutido especialmente por Pierre Gassendi, dentro da visão de mundo do catolicismo.16 3. Naturalismo Animista

Outra corrente que foi importante nos primórdios da ciência pode ser chamada de naturalismo animista. Esta posição considera que a natureza tem uma espécie de alma ou vida. Na Antigüidade, ela pode ser associada aos pitagóricos, ao taoísmo na China e ao estoicismo, entre outros. No Renascimento, o naturalismo animista ressurgiu com vigor, e considerava que a natureza seria imbuída de uma espécie de alma, que fazia as partes separadas (como as de um imã) desejarem se unir novamente, regidos por forças de simpatia e antipatia. Para a escolástica aristotélica, havia uma ordem racional da natureza que o intelecto poderia penetrar. Por contraste, o naturalismo renascentista salientava o mistério de uma natureza opaca à razão, só cognoscível através da experiência.

Os representantes típicos desta corrente eram os alquimistas, como o suíço Paracelso (1493-1541) e o alemão Andreas Libavius (1560-1616). A finalidade da alquimia era conseguir a transmutação dos metais em ouro e descobrir um elixir da vida eterna e cura de todas as doenças. Introduziram a idéia de utilizar agentes químicos na medicina, além das ervas medicinais. A concepção alquímica da matéria baseava-se em três princípios: sal, enxofre e mercúrio. O naturalismo renascentista foi também influenciado pelo hermetismo, uma tradição semi-religiosa e mágica vinda da Antigüidade, que ensinava que o homem é capaz de descobrir elementos divinos dentro de si, defendendo uma afinidade mística entre o mundo e a humanidade, entre o macrocosmo e o microcosmo. Essa afinidade seria também a base teórica da astrologia.

Uma das mais importantes obras dentro da tradição do naturalismo renascentista foi o De Magnete, escrito em 1600 pelo inglês William Gilbert (1544-1603). O magnetismo seria uma “matéria telúrica”, seria a chave para se compreender a natureza. Ele seria um poder não-corpóreo, a “alma da Terra”, já que a intervenção de objetos entre dois imãs não afeta a atração. Contrastou eletricidade e magnetismo da seguinte maneira: a primeira envolveria uma ação da matéria, com força e coesão; a segunda seria uma ação da forma, com união e concordância. Johannes Kepler (1571-1630) foi influenciado por esta tradição, ao conceber que o Sol seria a anima motrix (alma motiva) que exerceria uma força nos planetas, fazendo-os orbitar em torno de si. Imaginou que essa atração seria de natureza magnética.17

Em suma, para o naturalismo animista a gravidade é explicada por uma atração entre os corpos, que possuem uma espécie de alma, e que é semelhante ao amor entre os seres vivos. Da mesma maneira que um filho separado da mãe é por ela atraído, e que um imã

16 Um relato detalhado dos atomistas está em LANGE, F.A. (1974), The History of Materialism, trad. E.C. Thomas, Arno Press, Nova Iorque (1a ed. em alemão: 1866; 2a ed.: 1875). E dele a hipótese discutível de que Epicuro teria introduzido o clinamen para responder a Aristóteles (p. 26). Uma boa fonte da história da ciência grega é: LLOYD, G.E.R. (1970), Early Greek Science: Thales to Aristotle, e LLOYD (1973), Greek Science after Aristotle, ambos da Norton, Nova Iorque. 17 Sobre o naturalismo renascentista, ver WESTFALL, R.S. (1971), The Construction of Modern Science, Cambridge U. Press, pp. 25-31, e também RONAN (1987), História Ilustrada da Ciência da Universidade de Cambridge, 4 vols., J. Zahar, Rio de Janeiro; Círculo do Livro, São Paulo (orig. em inglês: 1983), vol. III, pp. 11-15, 28-36.

FLF0472 Filosofia da Física (USP - 2008) Cap. III: Filosofia Mecânica

16

separado em dois deseja se unir novamente, assim também os princípios de simpatia e antipatia regeriam o comportamento dos corpos celestes.

4. A Filosofia Mecânica

Os trabalhos de Copérnico e Galileu abriram o caminho para o ressurgimento da antiga tradição “materialista”, representada pelos atomistas, resultando no que viria a ser chamado de filosofia mecânica (termo usado por Boyle), em que os princípios explicativos envolvem apenas matéria e movimento. Curiosamente, esta visão de mundo surgiu no seio do cristianismo, como uma reação contra o naturalismo animista, a partir do padre Marin Mersenne (1623)18. Para ele, a ameaça das doutrinas naturalistas estava na concepção de que a matéria seria “ativa”, o que retiraria de Deus e dos próprios seres humanos a responsabilidade pelas questões humanas. Se não houvesse atividade alguma na matéria, como queria Mersenne, Deus teria que ser invocado para explicar essa atividade.

Na filosofia mecânica, portanto, matéria e espírito estavam separados. A matéria seria regida apenas por causas eficientes externas, provenientes de choques, e seria “inerte”, sem atividade ou potência internas, o que seria expresso no “princípio de inércia” da mecânica clássica. Acabava-se com o “mistério do mundo” do naturalismo animista, e salientava-se a transparência do mundo à razão. Deus teria criado o Universo de uma só vez, pondo a matéria em movimento de uma vez por todas. Este movimento se conservaria, seria indestrutível. O mundo material mover-se-ia apenas em conseqüência dos choques entre os corpos, como o mecanismo de um relógio, seguindo a necessidade das leis da física.

Na física, a concepção mecanicista tornou-se hegemônica durante uns oitenta anos a partir de 1644, sendo compartilhada por cientistas (Descartes, Huygens, Hooke, Boyle, o jovem Newton) e filósofos (Gassendi, Mersenne, Hobbes). Esta visão de mundo seria lentamente destruída pela ascensão da física de Newton e da astronomia de Kepler no continente europeu, a partir de 1720. Com isso, a noção de força gravitacional passou a ser aceita sem que se postulasse um mecanismo subjacente. 5. A Física e Cosmologia de Descartes

René Descartes (1596-1650) ganhou fama com seu Discurso do Método (1637), que continha um apêndice, A Geometria, no qual mostrou como escrever curvas geométricas em termos de equações algébricas, e vice-versa (Pierre de Fermat também estava desenvolvendo isso, de maneira independente). Em 1644 publicou o Princípios de Filosofia, que buscou explicar todos os fenômenos físicos (incluindo químicos, geológicos e astronômicos) em termos de matéria em movimento.19

A matemática tinha um papel central na concepção cartesiana. A geometria, que lidava com formas no espaço, podia ser deduzida a partir das idéias claras e distintas do intelecto. A física tratava de matéria em movimento. Um engenhoso passo de Descartes foi identificar a matéria com a extensão, de tal maneira que a física passaria a ser uma geometria de figuras em movimento (“extensão” significa espaço, volume). Identificando matéria e extensão,

18 Ver GAUKROGER, S. (1999), Descartes – Uma Biografia Intelectual, Contraponto, Rio, pp. 191-8. 19 DESCARTES, R. (2005), Princípios de Filosofia, trad. Heloísa Burati, Rideel, São Paulo, pp. 189-93 (orig. em latim: 1644). As Figs. III.1 e 2 são retiradas deste livro. Sobre a filosofia mecânica em Descartes, pode-se também consultar DIJKSTERHUIS, E.J. (1986), The Mechanization of the World Picture, trad. C. Dikshoorn, Princeton U. Press, pp. 403-18 (orig. em holandês: 1950), e WESTFALL (1971), op. cit. (nota 17), pp. 30-42.

FLF0472 Filosofia da Física (USP - 2008) Cap. III: Filosofia Mecânica

17

quatro conseqüências eram imediatamente tiradas: i) Como o espaço é infinito, também o seria a matéria. ii) Como o espaço é homogêneo, haveria a mesma matéria por toda parte. iii) Como o espaço é infinitamente divisível, assim também seria a matéria, o que negava o atomismo. iv) Como não faria sentido pensar num espaço sem extensão, não haveria espaço sem matéria: o vácuo seria impossível.

Descartes partiu de um princípio a priori (anterior à experiência) para derivar as leis gerais da física, a perfeição de Deus, e sua conseqüente invariabilidade. Porém, observamos mudança no mundo, significando que Deus quis que o mundo estivesse em movimento. Há portanto variação, mas tal variabilidade deve ser a mais simples possível, a mais “invariável” possível. Isso equivaleria a um ato contínuo de conservação da quantidade de movimento (quantitas motus) total do Universo. Tal quantidade, segundo Descartes, seria medida pelo produto da quantidade de matéria (massa) do corpo pela velocidade do mesmo corpo: m·v. O princípio de conservação de quantidade de movimento diz então que a soma da quantidade de movimento (m·v) de todos os corpos do Universo é sempre a mesma. É um princípio que ainda se aceita hoje em dia, e quem o formulou pela primeira vez foi Descartes, a partir da idéia clara e distinta de Deus. Na verdade, o princípio hoje aceito tem uma diferença importante, que é que a velocidade precisa ser tomada como um “vetor” (com direção), e não simplesmente como um “escalar” (um número simples, sem direção).

Com isso, passa a enunciar três leis da natureza. A primeira é uma lei de inércia geral: cada coisa permanece no estado em que está, enquanto não encontra outras causas exteriores. Assim, um objeto tem a tendência natural de manter sua forma, por exemplo. A segunda lei é a da inércia linear: todo corpo que se move tende a continuar seu movimento em linha reta, com a mesma velocidade. Essa idéia surgiu com Galileu, mas para o cientista italiano o movimento inercial acabava sendo um movimento circular em torno da Terra. Para Descartes, em contrapartida, o movimento inercial (livre de causas) é sempre linear. Assim, um corpo que gira em uma corda (uma funda, Fig. III.1), se for liberado durante o movimento, escapará em linha reta. E essa tendência é permanente, conforme podemos sentir pela força com a qual a pedra girante puxa, tensiona, a corda. A terceira lei envolve um conjunto de sete regras para descrever o choque entre os corpos, mas os filósofos naturais da época mostrariam que essas leis estavam erradas, levando Huygens, Wallis e Wren a formularem independentemente as leis corretas, em torno da década de 1660.

A cosmologia de Descartes baseava-se na noção de que cada estrela tinha em torno de si um grande vórtice, que giraria da maneira como faz o nosso sistema solar (Fig. III.2). Ou seja, o Sol é uma dentre as várias estrelas, e os planetas orbitam à sua volta porque são carregados por uma espécie de redemoinho de matéria. Descartes fez observações de redemoinhos em tonéis de vinho, e pode-se observar que objetos flutuantes giram em torno de si mesmos no mesmo sentido que a rotação do líquido: ora, é exatamente isso que acontece com os planetas do Sistema Solar!

Haveria três tipos de matéria. O 1o elemento, chamado também de “matéria sutil”, seria constituído de lascas minúsculas que teriam se separado do choque entre a matéria dos outros tipos. Elas teriam um movimento muito rápido, seriam luminosas e formariam a matéria do Sol e das outras estrelas. Teriam migrado para o centro do vórtice por causa da tendência da matéria mais grossa de se afastar do centro. O 2o elemento seria constituído por partículas arredondadas que preencheriam os céus. Seria a matéria transparente que carregaria os planetas em órbita circular. O 3o elemento seria a matéria mais grossa que constitui a Terra, os planetas e os cometas. Ela seria opaca, apesar de o ar ser tão fino que aparece transparente. A “matéria celeste”, que a tudo permeia, seria constituída principalmente do 2o elemento, mas também conteria a matéria sutil e fragmentos do 3o elemento, incluindo ar (Princípios de Filosofia, IV, § 25).

FLF0472 Filosofia da Física (USP - 2008) Cap. III: Filosofia Mecânica

18

O 3o tipo de matéria, que nos cerca, é cheio de interstícios, como uma esponja, e essas fendas estão sempre preenchidas pela matéria celeste, já que o vácuo é impossível. Da mesma maneira que uma esponja aumenta de tamanho quando ela é embebida em água, a matéria terciária expande quando é aquecida e preenchida pela matéria celeste.

A quantidade de matéria (o que viria a ser chamada “massa”) é dada pelo volume ocupado pela matéria terciária. Sendo assim, por que dois objetos de igual volume (digamos 1 litro), um de chumbo e outro de cera, têm pesos diferentes? A explicação de Descartes é que o chumbo tem poucos interstícios, ao passo que a cera tem muitos. Assim, o volume efetivamente ocupado pela matéria celeste é bem maior na cera do que no chumbo.

Figura III.1. Pedra em movimento circular que é solta de uma funda segue a trajetória retilínea ACG.

Figura III.2. Vórtices associados a diferentes estrelas. O Sol (S) está cercado pelas trajetórias circulares de seus planetas. Vê-se também a trajetória de um cometa por entre as células de cada vórtice.

6. Explicação da Gravidade segundo a Filosofia Mecânica

Por que sentimos que o chumbo é mais pesado do que a cera? Qual a origem da gravidade? Descartes considerava que a Terra gira em torno de seu eixo movido pelo vórtice de matéria celeste. Na superfície da Terra, tal matéria se move mais rapidamente do que os corpos grossos, como se fosse um vento. Sua tendência para sair para fora (em movimento “centrífugo”, assim como a funda mencionada acima) seria maior do que os corpos de matéria terciária, mais lentos. Essa saída da matéria celeste (que se daria inclusive por entre os interstícios dos corpos mais grossos) tende a criar um vácuo em baixo da matéria terciária, de forma que esta tem uma tendência a preencher este (quase) vácuo, descendo verticalmente (a mesma explicação era também dada em termos de diferenças de pressão da matéria celeste). Assim, os corpos caem, devido à rotação da matéria celeste em torno da Terra, para preencher o espaço deixado por essa matéria celeste. A explicação para a órbita da Lua em torno da Terra é a mesma: matéria celeste se afasta da Terra, devido ao movimento do vórtice em torno de nosso planeta, e a Lua é obrigada a preencher o vácuo que se formaria, desviando assim de seu trajeto retilíneo natural.

Mas por que um corpo mais pesado que cai em nossa mão gera uma sensação mais intensa de força? Ora, os corpos caem com a mesma velocidade, como demonstrara Galileu (desprezando-se, é claro, o efeito retardador do ar). Pelas leis do choque, um corpo com mais matéria terciária (como o litro de chumbo) transmite mais quantidade de movimento

FLF0472 Filosofia da Física (USP - 2008) Cap. III: Filosofia Mecânica

19

(velocidade) para a nossa mão do que o corpo com menos matéria terciária (como o litro de cera). Assim, o chumbo que cai em nossa mão é mais difícil de segurar.

E se os dois corpos estiverem parados em nossa mão? Neste caso, por que o litro de chumbo é mais difícil de segurar do que o de cera? Aí eu não sei, pergunte ao René!

A teoria da gravitação de Descartes tinha um problema sério, que era o fato de que a tendência centrífuga da matéria celeste de se afastar do centro de rotação, digamos da Terra, se dava apenas no plano perpendicular ao eixo da Terra. Por que então os corpos caem em direção ao centro da Terra, mesmo fora do Equador?

Christiaan Huygens (1629-95) buscou resolver este problema em seu Discurso sobre a Causa do Peso, redigido em 1669 mas só publicado em 1690.20 Substituiu o vórtice cilíndrico de Descartes por um vórtice esférico, imaginando que as partículas da matéria etérea giram em torno da Terra em todas as direções. A velocidade v dessas partículas obedeceria à relação v2/r = g, onde r é o raio da Terra e g a aceleração dos corpos em queda livre. Uma pedra que fosse solta no ar seria atingida em sua parte superior por matéria celeste de velocidade maior, e assim, segundo ele, tenderia para o centro da Terra. Para sustentar sua teoria, Huygens realizou experimentos em uma mesa giratória com um recipiente cilíndrico de água, com seu centro no eixo de rotação da mesa. Pedaços de cera levemente mais pesados do que a água, que se encontravam no fundo do recipiente, tendiam para o centro do recipiente (isto é, para o eixo de rotação) a partir de uma certa velocidade de rotação, já que não conseguiam acompanhar o movimento da água (devido ao atrito com o fundo do recipiente).

A teoria mecânica dos vórtices planetários explicava bem o fato de os planetas se moverem no mesmo plano em torno do Sol, em movimento aparentemente circular, e de suas rotações e revoluções se darem no mesmo sentido. Nas palavras de Huygens (1686): “Os planetas nadam em matéria. Pois, se não o fizessem, o que impediria os planetas de se afastarem, o que os moveria? Kepler quer, erroneamente, que seja o Sol.”

A teoria da gravitação de Newton (1687) foi a primeira a explicar as leis de Kepler, e a evidência experimental a favor de órbitas elípticas levou tanto Huygens quanto Leibniz a tentar formular uma explicação mecânica para elas, em 1690 (até Newton tentou fazer isso, como aparece na Questão 21 de seu livro Opticks). O primeiro efeito da obra de Newton foi então o fortalecimento da teoria mecânica dos vórtices planetários. Mas a partir de 1720, a nova geração de físicos no Continente Europeu se convenceu da superioridade do programa newtoniano.21 7. Teoria Cinética da Gravitação

Em 1782, muito tempo depois da queda da filosofia mecânica, George Louis Le Sage, em Genebra, encontrou uma maneira elegante de explicar a lei da gravitação de Newton por meio de princípios mecânicos (ou seja, envolvendo apenas forças de contato). Sua teoria pode ser chamada uma “teoria cinética da gravitação”, inspirada na idéia formulada por Daniel Bernoulli para gases, em 1738. Na verdade, sua teoria é semelhante a uma proposta feita por um matemático suiço, amigo de Newton, Nicolas Fatio de Duillier, em torno de 1693.

A ontologia de Le Sage envolve “corpúsculos ultramundanos”, bastante leves, que bombardeariam todos os corpos pesados de todos os lados. Um corpo perdido no espaço receberia um número de impactos mais ou menos igual de todos os lados, permanecendo

20 DIJKSTERHUIS (1986), op. cit. (nota 19), pp. 461-3. Ver também MARTINS, R.A. (1989), “Huygens e a Gravitação Newtoniana”, Cadernos de História e Filosofia da Ciência (série 2) 1, 151-84. 21 BAIGREE, B.S. (1988), “The Vortex Theory of Motion, 1687-1713: Empirical Difficulties and Guiding Assumptions”, em Donovan, A.; Laudan, L. & Laudan, R. (orgs.), Scrutinizing Science, (Synthese Library 193). Kluwer, Dordrecht, pp. 85-102.

FLF0472 Filosofia da Física (USP - 2008) Cap. III: Filosofia Mecânica

20

assim em um estado inercial. Mas quando dois corpos estão próximos, como a Terra e a Lua, um deles bloquearia parte dos corpúsculos ultramundanos que atingiria o outro, como na formação de uma sombra. Desta forma, os corpos se atrairiam. Le Sage ajustou seus parâmetros de forma a obter a lei da gravitação de Newton. Para explicar porque corpos mais densos exercem maior força gravitacional, Le Sage teve que adotar a teoria cartesiana da matéria, e supor que um corpo menos denso tem mais espaço vazio em seu interior.

A teoria cinética da gravitação é uma idéia que periodicamente volta à cena, ora defendida por detratores da física “oficial”, ora incorporada em teorias cosmológicas sofisticadas.22

22 BRUSH, S.G. (1976): The Kind of Motion We Call Heat, North-Holland, Amsterdã, vol. 1, pp. 21-2. Este menciona alguns autores do século XX que retomam esta idéia. Ver também: GOUGH, J.B. (1970), “Lesage, George-Louis”, em Dictionary of Scientific Biography, Scribners, Nova Iorque, vol. 8, pp. 259-60.

Filosofia da Física Clássica Cap. IV

21

Concepções Realista e Instrumentalista de “Força” Questão: A ciência deve apenas descrever o que é observável ou deve lançar

hipóteses sobre a realidade que estaria por trás dos fenômenos? 1. Mecanicismo com Forças à Distância

O trabalho de Isaac Newton (1642-1727) pode ser visto, por um lado, como a culminação da tradição de pesquisa da filosofia mecânica, ao enunciar suas três leis da mecânica (princípio de inércia, definição de força e princípio de ação e reação). No entanto, especialmente em seu estudo da lei de atração gravitacional, introduziu a concepção de uma força que age à distância. Ao fazer isso, injetou no programa mecanicista um elemento da tradição do naturalismo animista (de Kepler), e foi bastante criticado por isso. No entanto, não seguiu explicitamente a concepção de realidade desse naturalismo renascentista, mas adotou uma postura “instrumentalista” de renunciar à busca de uma explicação mecânica para esta atração.

Em sua juventude, Newton era partidário da concepção mecânica de Descartes e Huygens, adotando a visão atomista divulgada principalmente por Pierre Gassendi. No período 1664-66, estudou a mecânica de Descartes e assimilou o princípio de inércia e as leis do choque entre corpos23. A noção de “força”, “a potência de uma causa”, era concebida como uma pressão de um corpo sobre outro, estando restrita a choques entre corpos. Desses autores, herdou a noção de que a força exercida por um corpo em outro, durante um choque, é igual à força recebida. Passou a estudar os movimentos circulares, imaginando uma bola que está presa em uma arena circular, e se move chocando-se constantemente com as paredes da arena. Derivou uma expressão para a força “centrífuga” (também estudada por Huygens), que descreve o movimento de fuga em relação ao centro (e não uma atração): F = mv2/r. Juntou este resultado com a 3a lei de Kepler (que relaciona os períodos e os raios médios das órbitas dos planetas: T 2/r3 = cte.), e encontrou uma força que decresce com a distância de acordo com 1/r2 (faça como exercício, lembrando que v=2πr/T). Ao aplicar esta fórmula para a “queda” da Lua (usando a lei de Galileu, d = ½ at2 ), encontrou uma discrepância de uns 15%, e deixou a questão de lado. Além disso, Newton não tinha ainda a noção de uma força de atração.

Ao finalizar esses estudos, em 1666, Newton abandonou a mecânica e foi trabalhar com matemática e com óptica. Em 1675, após realizar importantes pesquisas em óptica, esboçou uma visão de mundo que seguia Descartes em sua concepção de que a gravidade podia ser explicada a partir do movimento das partículas do éter, que ocupariam todo o espaço. No entanto, adotava um princípio secreto de “sociabilidade” para explicar algumas reações químicas. Neste ano, ficou sabendo de uma correção para o valor de um grau de latitude, medida pelo astrônomo francês Jean Picard em 69,1 milhas inglesas, ao invés do valor de 60 milhas que Newton usara em seu cálculo da queda da Lua em 1666. Com essa correção, a lei da força gravitacional que ele havia encontrado passou a explicar bem o movimento da Lua.

Em 1679, recebeu um convite de Robert Hooke (1635-1703) para reexaminar o problema dos movimentos planetários. Após algumas dificuldades iniciais, Hooke lhe sugeriu usar uma lei de atração com uma força proporcional a 1/r2. Deu alguns passos adiante, mas teve uma crise nervosa e acabou abandonando as pesquisas, recuperando-se ao longo de cinco anos. Finalmente, em 1684, o astrônomo Edmund Halley visitou Newton, perguntando ao exímio matemático qual seria a trajetória de um corpo orbitando com uma força de atração

23 Seguimos WESTFALL (1971), op. cit. (nota 17), pp. 120-59, e DIJKSTERHUIS (1986), op. cit. (nota 19), pp. 463-91.

FLF0472 Filosofia da Física (USP - 2008) Cap.IV: Concepções Realista e Instrumentalista de “Força”

22

proporcional a 1/r2, ao que Newton respondeu que seria uma elipse, conforme tinha calculado cinco anos antes para o problema de Hooke. As peças então se encaixaram, e Newton retomou seu trabalho em mecânica, recebendo estímulo e auxílio financeiro de Halley. Disso resultou a publicação da grandiosa obra Philosophiae naturalis principia mathematica (Princípios naturais da filosofia natural, 1687).

Outra obra importante de Newton foi seu Opticks (1704). Nesta, estendeu sua concepção – de que existem forças que atuam à distância entre todos os corpos – para todas as partículas, inclusive átomos e partículas de luz. Tais forças poderiam ser de atração, o que explica a coesão dos corpos e a capilaridade, e também de repulsão, como na expansão dos gases. O magnetismo seria outro exemplo importante de forças atuando à distância. Reações químicas também poderiam ser explicadas por meio da atração e repulsão no nível microscópico. Ao final do séc. XVIII, essa concepção tornar-se-ia o paradigma dominante (especialmente para o grupo que trabalhava em torno de Laplace), no que às vezes é chamado a visão “astronômica” da natureza: partículas imponderáveis (sem peso) sujeitas a forças de atração e repulsão. 2. Definições e Leis no Principia

O Livro I do Principia não falou em gravitação, mas apresentou os princípios gerais

da mecânica, com definições básicas e as suas três leis. Com estas leis e a noção de força centrípeta (força central), Newton derivou as três leis de Kepler. No Livro II, considerou sistemas com fluidos, e criticou a concepção cartesiana de vórtices para o sistema solar. No Livro III, aplicou sua teoria para a descrição detalhada do sistema solar, mostrando que a lei da gravitação é a mesma para as luas de Júpiter, para os planetas em torno do Sol e para um corpo caindo na superfície da Terra. Enunciou então a lei da gravitação universal.

É interessante enfocarmos os conceitos fundamentais apresentados por Newton24, buscando entender se esses fundamentos são extraídos da observação ou formulados teoricamente.

Seguindo o método axiomático de Euclides, como era costume no séc. XVII, Newton parte de oito definições. A primeira é do conceito de massa, que chamava “quantidade de matéria”, e define como o produto da densidade e do volume. Tal definição passou a ser considerada problemática, já que ele não define o que seria “densidade”. Com o desenvolvimento do texto, certas propriedades de “massa” deixaram claro que ela se distingue da noção de “peso”, conceitos esses que antes de Newton não eram distinguidos claramente (salvo em Kepler).25

A segunda definição é de “quantidade de movimento”, hoje em dia às vezes chamada de “momento linear”, que seria o produto da massa e da velocidade. As definições 3, 4 e 5 apresentam uma lista de três tipos de “força”. O que chama de “força inata da matéria” (vis insita) é o que chamamos de inércia, uma tendência do corpo de resistir à ação de forças externas, e de permanecer em seu “estado”, seja ele de repouso ou movimento retilíneo uniforme. A “força imprimida é uma ação exercida sobre um corpo para modificar seu estado”. É o nosso conceito atual de força, e é exemplificado pela percussão ou pela pressão (como era costume na filosofia mecânica) e também pela força centrípeta (o que era uma novidade). A força centrípeta, descrita na sexta definição, é aquela dirigida para um ponto, e

24 Trechos relevantes de Newton se encontram na excelente coletânea de COHEN, I.B. & WESTFALL, R.S. (orgs.) (2002), Newton: Textos, Antecedentes, Comentários, trad. Vera Ribeiro, Contraponto/Ed. UERJ, Rio de Janeiro, pp. 152-7, 278-91. (Original em inglês: 1995). 25 Ver JAMMER, M. (1964), Concepts of Mass in Classical and Modern Physics, Harper & Row, Nova Iorque.

FLF0472 Filosofia da Física (USP - 2008) Cap.IV: Concepções Realista e Instrumentalista de “Força”

23

exemplificada pela gravidade (atuando sobre projéteis e sobre a Lua), pelo magnetismo, pela força dos planetas (neste momento ainda não identificado com a gravidade) e pela força de uma funda (ou seja, a força elástica ou a tensão em uma corda).

Nas definições seguintes, caracteriza três tipos de “quantidades” de uma força centrípeta. A primeira é a “quantidade absoluta”, que no caso de uma força elétrica estaria relacionada com a carga de um corpo. Ele não apresenta este exemplo, mas sim o da força magnética, cuja “carga” estaria relacionada ao tamanho do imã e à sua intensidade. No caso de uma força gravitacional, a quantidade absoluta seria a massa do corpo que gera a força (o que poderíamos chamar a “carga gravitacional”).

A “quantidade aceleradora” de uma força centrípeta seria simplesmente sua aceleração, a “velocidade que ela gera em um determinado tempo”. Na superfície da Terra, a quantidade aceleradora é igual para dois corpos, “retirando ou descontando a resistência do ar”. Já em montanhas elevadas, ela é menor.

Na definição 8, apresenta a “força motriz”, que equivale à nossa noção atual de força, e é exemplificado pelo peso. O enunciado exprime claramente a noção de uma força contínua, que em um “determinado intervalo de tempo” gera um movimento, ou seja, gera uma variação na quantidade de movimento. Esta definição se aproxima bem da nossa concepção atual da expressão F = ma, ao contrário da 2a lei, como veremos a seguir.

Newton pôde assim afirmar (p. 282) que “a força de aceleração está para a força motriz assim como está a celeridade para o movimento”, ou seja, a/F = v/p, já que a quantidade de movimento é p = mv e a força motriz é F = ma.

No escólio que se segue, diz que não irá definir tempo, espaço, lugar e movimento, pois esse conceitos “são bem conhecidos de todos”. Com referência ao tempo, distingue entre o tempo absoluto, real, matemático, que “flui uniformemente, sem relação com qualquer coisa externa”, e o tempo relativo, que seria “uma medida sensível e externa”. Analogamente, haveria o espaço absoluto, sem relação com coisas externas, e o espaço relativo, que seria uma medida do espaço absoluto. Analogamente, haveria um “lugar” (volume) absoluto e um relativo, e também um movimento absoluto e um movimento relativo. No Cap. V discutiremos mais a fundo esta distinção.

Mais adiante no Livro 1, Newton apresenta suas famosas três leis. A 1a lei é o princípio de inércia, que afirma que um corpo permanece em seu estado de movimento uniforme (velocidade constante) “a menos que seja compelido a modificar esse estado por forças imprimidas sobre ele”.

A 2a lei afirma que “a variação do movimento é proporcional à força motriz imprimida, e ocorre na direção da linha reta em que essa força é imprimida”. Por “movimento” entende-se a quantidade de movimento p = mv (introduzimos o negrito para designar grandezas vetoriais). A interpretação mais natural para o leitor moderno é supor que Newton está afirmando que a força motriz é a derivada temporal do momento linear, ou seja, F = d/dt (mv), que seria equivalente a F = ma.

Dijksterhuis (1986, pp. 470-4), porém, observa que a noção de força usada por Newton em seus cálculos é de uma força impulsiva I, como em um choque entre corpos, que resulta em uma variação finita de momento: I = ∆(mv). Para sustentar esta interpretação, o historiador holandês refere-se ao Corolário 1 que se segue às leis, cujo enunciado é o seguinte:

“Um corpo que sofre a ação de duas forças simultâneas descreve a diagonal de um paralelogramo no mesmo tempo em que descreveria os lados do paralelogramo por essas forças, separadamente” (ver Fig. IV. 1).

FLF0472 Filosofia da Física (USP - 2008) Cap.IV: Concepções Realista e Instrumentalista de “Força”

24

Figura IV.1: Paralelogramo descrevendo os movimentos resultantes de forças impulsivas exercidas em A.

Newton salienta que o movimento de A para B, etc., é uniforme, de forma que está

claro, neste caso, que a força exercida em A é impulsiva. A 2a lei garante que as duas forças agindo em A agem de maneira independente, resultando no movimento de A para D. Este é um bom exemplo de uma soma linear de causas.

É verdade que Newton parecia ter a noção de uma força que age de maneira contínua, como exprimiu em sua Definição 8 (e também em seu Corolário 2, que não mencionamos), mas a utilização da 2a lei em seus cálculos envolve sempre uma força impulsiva. Quem consolidou a concepção moderna de F = ma, para forças de todos os tipos, foi Leonhard Euler (1707-83), em 175026.

A 3ª lei de Newton é a lei de ação e reação: “para cada ação existe sempre uma reação igual e contrária”. Se um corpo A exerce uma força FAB sobre um corpo B, então necessariamente haverá uma força –FAB sendo exercida em A.

O Corolário 3 mostra como o princípio de conservação da quantidade de movimento segue das 2a e 3a leis. O Corolário 4 mostra que o “centro de gravidade” de corpos interagentes permanece em seu estado de movimento inercial.

3. A Natureza da Força

Qual é a natureza da “força”? Seria ela uma vera causa, um processo real que resulta nos movimentos observados? Ou seria ela apenas uma construção matemática obtida a partir dos movimentos observados?27 Newton oscila entre essas duas concepções.

Em seu famoso “Escólio Geral”, escrito em 1713, na 2a edição do Principia, Newton afirma: “Até hoje, entretanto, não pude descobrir a causa dessas propriedades da gravidade dos fenômenos, e não invento hipóteses; pois o que quer que não seja deduzido dos fenômenos deve ser chamado de hipótese, e as hipóteses, sejam elas metafísicas ou físicas, de qualidades ocultas ou mecânicas, não têm lugar na filosofia experimental” (in COHEN & WESTFALL, 2002, pp. 154-5).

Para entender o que Newton quis dizer com isso, é preciso distinguir duas acepções do termo “hipótese”. (i) No sentido mais usual hoje em dia, uma hipótese é qualquer tese que conjeturamos sem que ela ainda tenha sido submetida a teste. (ii) No sentido usado por Newton, é uma conjectura a respeito da natureza não-observável que estaria por trás dos fenômenos observáveis.

Na verdade, antes de escrever o Principia, Newton trabalhou em uma teoria “mecanicista” da gravitação (ou seja, só com forças de contato, como em Descartes, ver cap. II). Isso aparece em uma carta a Boyle em 1678, e reaparece na Questão 21 do Opticks. Tendo fracassado em sua tentativa, declarou então que “não invento hipóteses” (hypotheses non 26 TRUESDELL, C. ([1960] 1968), “A Program toward Rediscovering the Rational Mechanics of the Age of Reason”, in Essays in the History of Mechanics, Springer, Berlim, pp. 84-137. Ver pp. 112-7. 27 Essa maneira de apresentar a distinção é feita na seguinte interessante bibliografia sobre os problemas filosóficos da mecânica clássica: HESSE, MARY (1964), “Resource Letter PhM-1 on Philosophical Foundations of Classical Mechanics”, American Journal of Physics 32, 905-11.

FLF0472 Filosofia da Física (USP - 2008) Cap.IV: Concepções Realista e Instrumentalista de “Força”

25

fingo), ou seja, que não há necessidade de estipular causas ou mecanismos ocultos, já que a expressão matemática da lei de atração universal é suficiente para que se explique o movimento dos corpos celestes. Tal atitude pode ser chamada “instrumentalista”, em oposição ao “realismo” da filosofia mecânica.

4. Realismo, Instrumentalismo, Descritivismo A discussão envolvendo o realismo científico e seus opositores é conhecida como a

questão do “estatuto cognitivo das teorias científicas”.28 Segundo o realismo, uma teoria bem confirmada deve ser considerada literalmente

verdadeira ou falsa, no mesmo sentido em que um enunciado particular é considerado verdadeiro ou falso. Assim, (i) as entidades postuladas pela teoria teriam realidade, no mesmo sentido em que objetos cotidianos são reais, mesmo que elas não sejam observáveis (como “quarks” ou “partículas virtuais”); (ii) as leis teóricas e princípios gerais seriam verdadeiros ou falsos, exprimindo a estrutura da realidade. Porém, como as teorias científicas geralmente envolvem aproximações ou simplificações, deve-se entender a verdade através da noção de “verdade aproximada” ou do conceito de “verossemelhança”.

Na Antigüidade, a física era vista como uma ciência que buscava explicações verdadeiras sobre o mundo, lançando hipóteses sobre as verdadeiras causas dos fenômenos. Na astronomia, porém, com o desenvolvimento da técnica de epiciclos para prever as posições dos astros, passou-se a considerar que a tarefa da astronomia seria apenas “salvar os fenômenos”, ou seja, descrever com precisão as observações, fazendo previsões precisas, sem se preocupar com a verdade. Segundo esta versão forte do instrumentalismo, uma teoria científica seria apenas um instrumento para se fazerem previsões, e não havia a pretensão de que os epiciclos correspondessem à realidade por detrás dos fenômenos astronômicos. Um exemplo clássico de discurso instrumentalista foi o prefácio escrito por Andréas Osiander29 ao livro de Nicolau Copérnico, salientando que não seu sistema astronômico não tinha a prestensão de ser verdadeiro, salvar os fenômenos, fornecendo “um cálculo coerente com as observações”, e não um retrato real do Universo.

O descritivismo é uma forma de anti-realismo que busca traduzir ou reduzir os enunciados teóricos de uma teoria em termos dos enunciados de observação. Uma teoria é vista como uma formulação “econômica” (ou seja, a mais simples possível) das relações de dependência entre eventos ou entre propriedades observáveis. Termos teóricos como “partículas virtuais” seriam uma descrição abreviada de um complexo de eventos e de propriedades observáveis, e não faria sentido dizer que se referem a uma realidade física inacessível para a observação (Fig. IV.2). Mesmo assim, o descritivismo aceita que um enunciado teórico seja considerado verdadeiro ou falso, na medida em que for tradutível em enunciados de observação verdadeiros.

A distinção entre instrumentalismo e descritivismo é sutil, e hoje em dia há uma tendência de englobar ambos sob o nome “instrumentalismo” (em sentido lato) ou simplesmente “anti-realismo”. O primeiro autor a quem se costuma atribuir o termo “descritivista” é Ernst Mach (por exemplo, em Niiniluoto, 1999, p. 110), com sua preocupação em reduzir a linguagem teórica à linguagem de observação (como veremos na

28 Uma apresentação clássica, mas um pouco desatualizada, é feita por NAGEL, E. (1961), The Structure of Science, Harcourt, Brace & World, Nova Iorque, pp. 117-52. Uma discussão mais completa e atualizada é dada por NIINILUOTO, I. (1999), Critical Scientific Realism, Oxford U. Press, cap. 5. 29 OSIANDER, A. ([1543] 1980), “Prefácio ao De Revolutionibus Orbium Coelestium, de Copérnico”, trad. e notas de Z. Loparić, Cadernos de História e Filosofia da Ciência 1, pp. 44-61.

FLF0472 Filosofia da Física (USP - 2008) Cap.IV: Concepções Realista e Instrumentalista de “Força”

26

seção VII.2), mas foram os positivistas lógicos (Carnap, Schlick, Reichenbach, etc., entre as décadas de 1920 e 60) que mais trabalharam nesta concepção, com sua preocupação com a linguagem da ciência. Pode-se talvez associar o positivismo a uma visão descritivista, apesar de se também poder associá-lo ao instrumentalismo. Além do descritivismo, outras teses que comporiam o positivismo seriam o nominalismo (seção I.4), o critério de demarcação entre ciência e metafísica, a separação entre fato e valor, e a tese da unidade da ciência.30

Ao contrário do descritivismo, que está ligado a uma preocupação com a linguagem da ciência e na redução do significado dos enunciados teóricos ao significado dos enunciados de observação, o instrumentalismo não vê uma teoria científica necessariamente como uma linguagem, mas sim como um instrumento lógico ou matemático para organizar as observações e as leis experimentais. Uma teoria é vista não como um conjunto de enunciados que tenham valor de verdade, mas sim regras de acordo com as quais as observações são analisadas e inferências (previsões) são obtidas. Seria incorreto dizer que a teoria é “uma descrição abreviada de observações” (como no descritivismo), da mesma maneira que um martelo não é uma descrição abreviada de seus produtos. O instrumentalismo tem facilidade em lidar com idealizações e modelos simplificados em uma teoria científica, não tendo necessidade de definir uma noção de “verdade aproximada”.

Uma idealização, ou seja, uma teoria simplificada, fornece um bom exemplo de como uma teoria pode funcionar como instrumento, sem ter referência (sem ser verdadeira ou falsa). Além disso, o instrumentalismo não vê problemas em se utilizar, em diferentes momentos, teorias contraditórias.

Figura IV.2: Esquema da relação entre teoria e realidade, segundo a “visão recebida”.31

30 Para um estudo das teses que compõem o positivismo, ver o cap. I de: KOLAKOWSKI, L. (1981), La Filosofía Positivista, trad. G. Ruiz-Ramón, Ediciones Cátedra, Madri (original em alemão publicado em Varsóvia em 1966). 31 A “visão recebida” foi desenvolvida entre 1920 e 1960, e caracteriza uma teoria como sendo uma linguagem logicamente estruturada. Uma boa referência, na qual a figura se baseia, é: FEIGL, H. ([1970] 2004) “A Visão

FLF0472 Filosofia da Física (USP - 2008) Cap.IV: Concepções Realista e Instrumentalista de “Força”

27

A distinção entre realismo e anti-realismo leva a uma distinção entre dois tipos de teorias científicas (seguindo nomenclatura de Rankine, 1855, citado por Nagel, 1961). Teorias hipotéticas (transcendentes, microscópicas) enunciam relações entre entidades hipotéticas que não são observáveis, como os mecanismos ocultos da filosofia mecânica ou os átomos da teoria cinética dos gases. Já as teorias abstrativas (fenomenológicas, macroscópicas) formulam apenas relações entre propriedades observáveis, como foi feito por Fourier, em sua teoria do calor, e pela termodinâmica. A afirmação de Newton de que não inventaria hipóteses a respeito da natureza da lei da gravitação é própria de uma teoria abstrativa. 5. Realismo e Anti-Realismo em Newton

Newton era realista, instrumentalista ou descritivista? A tradição mecanicista de Descartes e Huygens era realista (assim como o atomismo

grego), já que concebiam mecanismos envolvendo partículas invisíveis que dariam conta dos fenômenos macroscópicos observados. Newton foi formado nesta tradição (recebendo influências também do naturalismo animista, uma visão também realista), e assim ele tinha uma atitude basicamente realista. Um exemplo claro de uma tese realista é sua defesa do espaço absoluto, que veremos no próximo capítulo. Outro exemplo é sua tese de que a luz consiste de partículas emitidas com diferentes velocidades.

No entanto, ao anunciar que não se preocuparia em inventar hipóteses a respeito das causas da força gravitacional, adotou uma postura anti-realista. Seria esta uma postura descritivista ou instrumentalista? Não se costuma chamar sua atitude de “descritivista” porque ele não tinha preocupação em reduzir o significado de enunciados teóricos a enunciados de observação, como Mach faria mais tarde. Por outro lado, ele não seria um “instrumentalista” no sentido forte da tradição astronômica, conforme expresso no prefácio de Osiander, que mencionamos na seção anterior.

Uma solução é dizer que adotou um “instrumentalismo metodológico”, ou seja, já que não conseguiu imaginar um mecanismo para a gravitação, absteve-se de postular uma hipótese, não por um princípio filosófico, mas apenas pelas circunstâncias do problema.

No entanto, a partir do séc. XIX, sua afirmação seria interpretada por muitos como a afirmação de que a Física não precisa se preocupar com mecanismos ocultos, que basta conhecer o estado inicial e as condições de contorno observáveis, para daí fazer previsões utilizando as leis de movimento da Física. No séc. XIX, o trabalho que lançaria esse projeto anti-realista seria a Teoria Analítica do Calor (1822), de Joseph Fourier, que descrevia situações de equilíbrio e condução térmica de maneira matemática, sem se comprometer com a natureza última do calor, com o debate de se o calor era uma forma de movimento de partículas ou uma substância, um fluido sem peso (“calórico”). Este trabalho foi uma das fontes de inspiração para o positivismo do séc. XIX, que se inicia com Auguste Comte (Kolakowski, porém, cita Hume como o primeiro positivista completo).

Apesar de sua atitude metodologicamente instrumentalista com relação às causas da força gravitacional, Newton considerava que as forças existiam de fato, ou seja, era um realista com relação à entidade “força”. No séc. XIX, Mach desenvolveria um positivismo radical no qual o próprio conceito de força seria visto como uma mera construção mental, um termo teórico (não observável), que buscaria definir em termos de grandezas observáveis, como posições e acelerações (ver adiante). ‘Ortodoxa’ de Teorias: Comentários para Defesa assim como para Crítica”, Scientiae Studia 2(2), pp. 265-77. Devido a dificuldades de incorporar modelos e analogias, essa visão “sintática” tem sido hoje preterida em favor da chamada “visão semântica de teorias”.

Filosofia da Física Clássica Cap. V

28

Experimento do Balde e Espaço Absoluto Questão: O espaço e o tempo são absolutos ou relativos? 1. Há Juízos Sintéticos A Priori?

Será que apenas através do raciocínio (antes da observação) a gente consegue chegar a alguma verdade sobre o mundo real? Vimos que Descartes considerou que sim (seção III.5): partiu de princípios a priori, atingíveis pela razão pura (sem experiência ou observação), de que o “eu” existe, de que Deus existe, de que ele é perfeito e invariável, e teria deduzido a lei de conservação da quantidade do movimento. Como esta lei descreve o movimento dos corpos do mundo, diz-se que é um enunciado sintético ou factual.

Os empiristas britânicos rejeitaram essa pretensão dos metafísicos (como Descartes e Leibniz) de que se pudesse conhecer o mundo apenas através da razão, sem observação. David Hume (1711-76) foi o mais importante crítico desta concepção, salientando que existem “verdades analíticas a priori”, mas não sintéticas a priori. Uma verdade analítica é ou uma verdade lógica, como ‘Dentro de uma hora choverá aqui ou não choverá aqui’, ou uma verdade por definição, como ‘Nenhum casado é solteiro’. A negação de uma verdade analítica é uma contradição lógica, mas a negação de uma verdade sintética é uma possibilidade lógica (por exemplo, que a grandeza m·e–v se conserva, ao invés de mv).

Em suma, para o empirismo não há verdades sintéticas a priori. No entanto, influenciado por Hume, o alemão Immanuel Kant (1724-1804) buscou fazer uma síntese do racionalismo dos metafísicos e do empirismo britânico (que ganhara adeptos na França), salientando que o nosso conhecimento do mundo envolve uma construção mental, e que a estrutura comum a tudo o que observamos (como o espaço euclidiano, a relação de causalidade, etc.) é algo que nosso intelecto constrói, e não algo que possamos dizer que existe na realidade. Para Kant, a geometria euclidiana exprime como o mundo é de fato, mas tal geometria pode ser conhecida de maneira a priori! Assim, para Kant, haveria verdades sintéticas a priori. A diferença com Descartes é que tais verdades não se refeririam a algo “lá fora”, no mundo real, pois para Kant tal mundo das coisas-em-si é inatingível pela razão pura, pela a ciência. Para o filósofo de Königsburg, as verdades mais gerais de nosso conhecimento exprimem a maneira como nós (ou qualquer ser inteligente que tenha experiência do mundo) inevitavelmente organizamos nossa experiência. E estas verdades podem, para Kant, serem conhecidas de maneira a priori.

No final de sua vida, Kant procurou mostrar que as próprias três leis da mecânica newtoniana são sintéticas a priori, ou seja, deriváveis teoricamente, sem necessidade de observar o mundo. Esse projeto deixa claro a certeza que se tinha da veracidade da mecânica clássica, a noção de que a ciência atinge verdades definitivas.

No séc. XX, o positivismo lógico herdou a concepção empirista de que não há verdades sintéticas a priori, mas a partir da década de 1950, críticos como Quine argumentaram que a própria distinção entre enunciados analíticos e sintéticos é mal formulada.

Hoje em dia, a questão se coloca em um contexto “naturalizado”, ou seja, levando em conta que nossa mente é fruto de um cérebro que evoluiu biologicamente, de maneira a se adaptar de forma muito fina com o ambiente. Será que o fato de termos evoluído por seleção natural, dentro de um mundo físico-químico-biológico, permite que possamos conhecer verdades a respeito de nós mesmos e do mundo (do qual fazemos parte) sem termos que observar o mundo exterior?

FLF0472 Filosofia da Física (USP- 2008) Cap. V: Experimento do Balde e Espaço Absoluto

29

2. Referenciais Inerciais e Não-Inerciais

Um dos conceitos que surgem da mecânica de Newton é o de referencial inercial. Trata-se de um referencial (sistema de referência) em movimento retilíneo uniforme (i.e., com velocidade constante) em relação ao referencial do espaço absoluto. As leis da mecânica clássica são invariantes ante mudanças de referenciais inerciais: eis o princípio de relatividade “galileano”.

Se o referencial não for inercial, a sua aceleração gerará forças “fictícias” nos objetos do sistema. Por exemplo, quando um carro faz uma curva para a esquerda, o passageiro “cai” para a direita, não porque exista uma força real atraindo ele para a direita, mas porque, por inércia, sua tendência natural é permanecer em movimento retilíneo uniforme, e quando o carro vira para a esquerda, o passageiro tende a permanecer em linha reta, o que resulta num movimento aparente para a direita, aparente em relação ao carro. No referencial do carro, a força para a direita é fictícia, pois não há fontes que ocasionam esta força, e porque há um referencial inercial externo que explica esta força fictícia a partir da aceleração do carro.

Mas como podemos descobrir se um certo referencial é ou não inercial? Uma proposta inicial seria a seguinte. Analisam-se todas as acelerações dos corpos que compõem o sistema de estudo, e buscam-se as forças responsáveis por essas acelerações, ou seja, as fontes das forças, como massas (que geram forças gravitacionais), cargas elétricas, imãs, molas, mesas (fonte da força “normal”), pressões, atritos, etc. Se ao final deste estudo, houver alguma aceleração que não pode ser atribuída a uma interação física, então o referencial é considerado não inercial. Ao se soltar uma pedra para o fundo de um poço, observa-se uma pequena aceleração para leste. Como essa aceleração não pode ser atribuída à força gravitacional ou a um movimento do ar, conclui-se que vivemos num referencial não inercial. De fato, a aceleração para leste é devida à força fictícia de Coriolis, que se origina da rotação da Terra.

Tal receita apresenta alguns problemas, pois ela depende de quais interações (que geram as forças) a teoria física aceita. Poder-se-ia talvez, a princípio, postular uma nova interação para explicar a origem da força considerada fictícia. Como saber com certeza? 3. O Experimento do Balde

Newton apresentou o seguinte argumento em favor da existência de um referencial inercial absoluto, que constituiria um “espaço absoluto”. Não seguiremos à risca seu argumento, mas o ampliaremos a partir das análises feitas por outros autores.32

Considere um balde parcialmente cheio de água, que repousa a mil quilômetros acima do pólo Sul. Consideremos quatros estágios do experimento-de-pensamento, ilustrados pela Fig. V.1. (a) Inicialmente o balde está em repouso, e a água também. (b) A seguir, o balde é girado a uma velocidade angular constante, mas neste primeiro instante a água permanece parada, no seu estado inicial (apenas a camada em contato com a parede do balde se movimenta, mas esse movimento é desprezado). (c) Após algum tempo, a água passa a girar com a mesma velocidade angular que o balde, e sua superfície deixa de ser plana, e passa a ter a forma de um parabolóide de revolução. (d) Por fim, o balde é parado, mas a água, num primeiro instante, continua girando, com sua superfície em forma de parabolóide.

32 NEWTON, I. (1990), Princípios Matemáticos de Filosofia Natural, v. 1, trad. T.S.F. Ricci, L.G. Brunet, S.T. Gherin & M.H.C. Celia, Nova Stella/Edusp, São Paulo, pp. 11-12 (orig. em latim: 1687). MACH, E. (1960), The Science of Mechanics, Open Court, La Salle (EUA), pp. 271-97, 336-41 (orig. em alemão: 1883). Ver também o relato geral de NAGEL (1961), op. cit. (nota 28), pp. 203-14, e o relato mais pungente de ASSIS, A.K.T. (1998), Mecânica Relacional, Coleção CLE 22, CLE-Unicamp, pp. 45-54, 68-9, 134-43.

FLF0472 Filosofia da Física (USP- 2008) Cap. V: Experimento do Balde e Espaço Absoluto

30

Figura V.1: (a) Balde e água parados. (b) Balde girando e água ainda parada. (c) Balde girando e

água girando junto. (d) Balde é parado, mas água continua girando.

A tendência da água de subir as paredes do balde é um fenômeno real, conseqüência de uma aceleração radial da água. Haveria uma força (com fonte bem definida) associada a esta aceleração, ou ela seria o efeito de uma força fictícia (ver seção V.2)? Claramente trata-se de um efeito que surge do movimento do balde (nenhum outro corpo do Universo foi alterado, ou seja, assume-se uma cláusula de “ceteris paribus”). Assim, o efeito é resultante de uma força fictícia no referencial girante do balde; ou seja, da perspectiva de um referencial inercial, o efeito é resultado de uma aceleração.

A questão agora é: em relação a que referencial (inercial) se dá esta aceleração? Pois para medirmos uma aceleração (constituindo uma aceleração “relativa”, segundo as definições de espaço e tempo relativos de Newton, ver seção IV.2), devemos fazê-lo em relação a algum sistema de referência. Podemos imaginar diferentes candidatos: o balde, a Terra, as estrelas, um espaço absoluto.

Será que o movimento da água em relação ao balde é o responsável pela forma parabolóide de sua superfície? Não, argumentou Newton, pois na Fig. IV.1 temos duas situações em que o movimento relativo de ambos é diferente (c e d), mas a forma da água é idêntica; ou uma situação em que o movimento relativo é igual (a e c), mas a forma é diferente.

Talvez então o responsável pela água subir a parede seja o movimento da água em relação à Terra. Mas segundo a teoria da gravitação de Newton, se a Terra subitamente parasse de girar, isso não teria efeito algum sobre a água. Portanto, não é a aceleração em relação à Terra que seria responsável pela aceleração da água.

Será talvez que o referencial em questão seria fixado pelas estrelas, que formam aproximadamente uma casca esférica de matéria, no centro da qual se encontraria o balde? Não, pois se pudéssemos girar a casca das estrelas, nenhum efeito surgiria no seu interior, segundo a teoria de Newton.

Portanto, nenhum corpo material pode fixar o referencial em relação ao qual o efeito na água é medido. Assim, Newton concluiu que haveria um referencial espacial imaterial, absoluto, em relação ao qual se dão todas as acelerações. Seria um referencial inercial, mas não poderíamos determinar sua velocidade em relação a outros referenciais inerciais. De uma perspectiva anti-realista, não teria sentido estipular uma velocidade para este referencial.

Newton completa sua discussão com outro experimento-de-pensamento, a de dois globos ligados por uma corda. Quando o sistema gira, surge uma tensão na corda. No entanto, se as estrelas fixas girassem em torno dos globos e estes ficassem parados, não haveria tensão na corda, segundo a física de Newton. Assim, a tensão na corda só poderia ser explicada pela rotação dos globos em relação ao espaço absoluto.

FLF0472 Filosofia da Física (USP- 2008) Cap. V: Experimento do Balde e Espaço Absoluto

31

4. A Defesa do Espaço Relativo

A primeira defesa do espaço relativo, após o trabalho de Newton, foi feita por Gottfried Wilhelm von Leibniz (1646-1716). Ela apareceu em uma troca de cartas com o teólogo inglês Samuel Clarke, amigo de Newton, em 1715-6. O ponto de vista do alemão se baseia no princípio de razão suficiente, que em sua segunda carta é expresso da seguinte maneira: “nada acontece sem uma razão pela qual ela deva ser de uma maneira ao invés de outra”. Em sua terceira carta, Leibniz argumenta que um espaço absoluto violaria o princípio de razão suficiente. Pois o espaço é uniforme, e se ele não contiver coisas materiais, um ponto do espaço não irá diferir de outro ponto. Ora, se houver um espaço absoluto, quando Deus resolveu colocar as coisas no espaço, ele não teria razão nenhuma para colocar as coisas aqui ou acolá, ou orientadas num sentido e não em outro (mesmo mantendo a situação relativa entre elas). Não haveria razão suficiente para a criação das coisas no mundo, mas elas de fato foram criadas. Assim, o espaço absoluto não poderia existir. O espaço seria a ordem das coexistências, ou seja, seria a própria relação entre as coisas materiais.33

O problema do balde não foi satisfatoriamente resolvido por Leibniz. Na verdade, foi Clarke quem vislumbrou a possibilidade de que “se um corpo existisse sozinho, seria incapaz de movimento, ou [...] as partes de um corpo que circula (ao redor do Sol, p. ex.) perderiam a força centrífuga que nasce de seu movimento circular, se toda a matéria exterior que as cerca fosse aniquilada” (in ASSIS, p. 113). Note-se também que Leibniz não percebeu que sua teoria relacional do espaço e tempo deveria entrar em contradição com sua noção de que a energia cinética (vis viva) teria um valor absoluto.

Outro filósofo que defendeu o espaço relativo foi o bispo irlandês George Berkeley (1685-1753), que na sua obra De Motu (1721) afirmou que “seria suficiente, para determinar o movimento e o repouso verdadeiros [...], considerar o espaço relativo, ao invés do espaço absoluto, enquanto confinado pelo céu das estrelas fixas, que se considera estar em repouso”.34 No entanto, ao analisar o experimento do balde girante, não invocou de maneira clara esta possibilidade.

Essas questões foram discutidas nas décadas seguintes, mas foi só com Ernst Mach (1838-1916) que as teses relacionais receberam uma sustentação mais forte, em sua obra A Ciência da Mecânica (1883). Sua idéia básica foi considerar que “todo o universo” ou “as estrelas fixas” é que estabelecem o referencial a partir do qual as velocidades têm significado, assim como a lei de inércia. De fato, havia um estudo experimental do astrônomo Hugo von Seeliger que indicava que o sistema inercial que se estabelece na Terra coincide com o sistema empírico obtido a partir da observação das estrelas. Em termos newtonianos, o conjunto das galáxias não gira em relação ao espaço absoluto.

Para Mach, “todas as massas e todas as velocidades e, conseqüentemente, todas as forças, são relativas [...] a visão ptolomaica [ou melhor, a de Tycho Brahe] ou copernicana é nossa interpretação, mas ambas são igualmente verdadeiras. Tente fixar o balde de Newton e girar o céu das estrelas fixas e então prove a ausência de forças centrífugas. [...] Os princípios da mecânica podem, de fato, ser concebidos tal que mesmo para rotações relativas surgem as forças centrífugas” (in ASSIS, 1998, pp. 132-3).

33 A correspondência Leibniz-Clarke aparece em: ALEXANDER, H.G. (org.) (1956), The Leibniz-Clarke Correspondence, Manchester U. Press. Seguimos aqui o relato e análise de ASSIS (1998), op. cit. (nota 32), pp. 105-43, que contém várias citações. 34 BERKELEY, G. (2006), “De Motu (Sobre o movimento ou sobre o princípio, a natureza e a causa da comunicação dos movimentos)”, trad. Marcos R. da Silva, Scientiae Studia 4(1), 115-37, disponível na internet.

FLF0472 Filosofia da Física (USP- 2008) Cap. V: Experimento do Balde e Espaço Absoluto

32

A tese de que o espaço, tempo e velocidades são relativos passou a ser conhecido como “princípio de Mach”. Em outros termos, é a tese de que as forças fictícias são reais e geradas pelo movimento em relação à matéria.

Uma conseqüência do princípio de Mach, incorporado na abordagem conhecida como “mecânica relacional”, é a tese de que a massa inercial de um corpo é devido à interação gravitacional com os outros corpos do Universo. Ou seja, se quase toda a matéria do Universo, fora da Terra, desaparecesse, você poderia parar um caminhão que estivesse se movendo em ponto morto na horizontal com suas próprias mãos (desde que seus pés estivessem em contato com o chão, sofrendo atrito estático)! Isso ocorreria porque a massa inercial do caminhão ficaria reduzida, já que a quantidade de matéria no Universo se reduziu.

A “mecânica relacional” redescoberta por André Assis, da Unicamp, pode ser considerada uma teoria mais completa que a mecânica newtoniana, e implementa o princípio de Mach utilizando-se de uma expressão para o potencial gravitacional que depende não só das posições relativas mas também da velocidade relativa entre os corpos. Tal expressão para a força foi derivada pela primeira vez por Wilhelm Weber em 1848, no contexto do eletromagnetismo. Na gravitação, foi introduzida na década de 1870. A idéia de que a massa inercial surge da interação com a matéria do resto do Universo apareceu no final do séc. XIX. Essa idéia também se aplica para a origem da energia cinética dos corpos em movimento. Em 1925, Erwin Schrödinger desenvolveu a mecânica relacional de forma independente, considerado-a “como sendo pelo menos um estágio intermediário permissível e útil [em direção à teoria da relatividade geral], que torna possível compreender, de maneira simples mas ao mesmo tempo sensata, uma situação empírica simples através de concepções que são familiares a todos.”35

5. Princípio de Mach e a Teoria da Relatividade Geral

Albert Einstein formulou sua teoria da relatividade geral de 1916 tendo sido

influenciado pelas idéias relacionais de Mach. Desde 1912 Einstein utilizava o princípio, quando calculou o aumento da massa inercial de um corpo no interior de uma casca esférica e sua aceleração induzida pela rotação da casca.

Com a teoria da relatividade geral, Einstein generalizou sua teoria da relatividade restrita impondo que “as leis da física devem ter uma estrutura tal que a sua validade permaneça em sistemas de referência animados de qualquer movimento”, e não apenas para referenciais inerciais. Ou seja, ele impôs a igualdade na forma das equações em todos os sistemas de referência. Esta invariância na forma das equações não tinha sido sugerida por Mach.

Einstein36 considerava que quatro conseqüências têm de ser obtidas em qualquer teoria que implemente o princípio de Mach:

1) A inércia de um corpo deve aumentar se se acumulam na sua vizinhança massas ponderáveis.

2) Um corpo deve sofrer uma força aceleradora quando massas vizinhas são aceleradas; a força estaria no mesmo sentido que a aceleração.

35 ASSIS, A.K.T. & PESSOA JR., O. (2001), “Erwin Schrödinger e o Princípio de Mach”, Cadernos de História e Filosofia da Ciência (série 3) 11, 131-52. Ver p. 145. Sobra a história da mecânica relacional, ver ASSIS (1998), op. cit. (nota 32), pp. 297-319. 36 EINSTEIN, A. (1958), O Significado da Relatividade, trad. de M. Silva, Arménio Amado, Coimbra, p. 123 (orig. em alemão: 1922).

FLF0472 Filosofia da Física (USP- 2008) Cap. V: Experimento do Balde e Espaço Absoluto

33

3) Um corpo oco animado de um movimento de rotação deve produzir no seu interior um “campo de Coriolis” que faz com que corpos em movimento sejam desviados no sentido da rotação; deve ainda produzir um campo de forças centrífugas radial.

4) Um corpo em um universo vazio não deve ter inércia; ou, toda inércia de qualquer corpo tem que vir de sua interação com outras massas no universo.

Inicialmente, em 1916-18, Einstein pensava que estas quatro conseqüências estavam contidas na relatividade geral, e que portanto seria possível implementar o princípio de Mach em sua teoria. Em meados de 1918, porém, foi obrigado a abandonar a quarta conseqüência, e assim, aos poucos, foi abandonando o princípio de Mach. O que ocorreu foi o seguinte. As primeiras soluções obtidas para sua equação de campo gravitacional (como a de Schwarzschild) supunham como condição de contorno que a métrica no infinito era “minkowskiana”, ou seja, idêntica à da relatividade restrita. Isso ia contra o princípio de Mach, pois (i) a métrica local não seria determinada apenas pela distribuição de matéria, mas também por uma condição de contorno, e (ii) se o universo fosse vazio, sua métrica seria toda minkowskiana, mas com isso ter-se-ia um espaço absoluto no qual um corpo de prova teria inércia (mesmo na ausência de outras massas). Para manter o princípio de Mach, Einstein propôs em 1917 o seu famoso modelo cosmológico no qual o universo é fechado (como a superfície de uma esfera), de forma que não há contorno: a métrica (que descreve as propriedades inerciais dos corpos) seria determinada apenas pela distribuição de matéria, e não por condições de contorno. Nota-se que, para conseguir um universo fechado estático (a expansão do universo não era ainda conhecida), Einstein teve que modificar suas equações, introduzindo uma constante cosmológica. Concluiu assim ter conseguido implementar o princípio de Mach. No entanto, ainda em 1917 o astrônomo holandês Willem de Sitter mostrou que as equações modificadas admitiam uma solução para um universo vazio, que correspondia a um universo em expansão! Após passar um ano tentando mostrar que a solução de de Sitter era fisicamente inaceitável (devido a alguma singularidade), Einstein abandonou suas tentativas de implementar rigorosamente o princípio de Mach. Em 1951, A.H. Taub mostrou também que as equações de Einstein sem a constante cosmológica podem gerar um espaço curvo na ausência de matéria.37

O fato de a Teoria da Relatividade Geral permitir soluções que violem o princípio de Mach não significa que o princípio não seja verdadeiro. Com efeito, há propostas como a de John Wheeler (1964) de se utilizar o princípio de Mach na Relatividade Geral para selecionar condições iniciais, de contorno ou de simetria apropriadas para o Universo. Mesmo aceitando a validade da Relatividade Geral, é um problema em aberto a questão da validade do princípio de Mach. Ou seja, a questão de se o espaço é absoluto ou relativo ainda está aberta!

37 ASSIS & PESSOA (2001), op. cit. (nota 35), pp. 135-9. Uma referência não citada neste artigo é: GRÜNBAUM, A. (1964), “The Philosophical Retention of Absolute Space in Einstein’s General Theory of Relativity”, in Smart, J.C.C. (org.), Problems of Space and Time, Macmillan, Nova Iorque, pp. 313-7.

Filosofia da Física Clássica Cap. VI

34

Determinismo e Probabilidade (versão preliminar) Questão: A natureza é determinista ou há eventos sem causa? 1. Determinismo e Previsibilidade

O determinismo estrito é a tese de que o estado presente do Universo fixa de maneira unívoca o estado do Universo em qualquer instante do futuro. Esta tese é sugerida pela mecânica clássica, para a qual, dados as condições iniciais e de contorno de um sistema, e dadas as equações diferenciais que regem a evolução do sistema, o estado em qualquer instante futuro poderia em princípio ser calculado.

Segundo a mecânica clássica, o determinismo estrito vale também para um sistema completamente isolado do resto do Universo, ou para um sistema cuja evolução não é afetada de maneira significativa pelo ambiente. Se a evolução de um sistema for previsível para todos os estado iniciais, isso indica que o sistema é determinista, mas o contrário não é válido. Ou seja, se constatarmos que um sistema é imprevisível, isso não implica que ele seja indeterminista, pois pode acontecer que não tenhamos acesso a todas as variáveis que influenciam a evolução do sistema. Esta situação em que há um determinismo escondido é às vezes chamada de “criptodeterminismo”. Notemos que o termo “determinismo” é uma designação ontológica, pois se refere à natureza do mundo, ao passo que “previsibilidade” é um termo epistemológico, relativo à capacidade que temos de conhecer o futuro.

Um exemplo de sistema imprevisível é fornecido pela Física Quântica, teoria desenvolvida em 1926. Após a consolidação desta teoria, achava-se que ela tinha mostrado que o mundo é essencialmente indeterminista, mas em 1951 David Bohm forneceu uma interpretação determinista da Física Quântica. Como resultado disso, a questão de se a natureza é determinista ou não permanece como um problema aberto.

Apesar da imprevisibilidade para resultados de medições individuais, a Física Quântica permite que se façam previsões precisas sobre as freqüências estatísticas com as quais diferentes resultados ocorrem. Pode-se assim falar de um determinismo estatístico.

Se o Universo não for estritamente determinista, tem-se uma situação de indeterminismo, probabilismo ou “tiquismo” (termo usado pelo filósofo norte-americano Charles Peirce, a partir do termo grego tyche, que é acaso). Pode-se também falar em “estocasticidade”, mas geralmente um sistema estocástico (como um grão de pólen em movimento browniano) é consistente com um determinismo em uma escala inferior (por exemplo, entre os átomos que fazem o grão de pólen flutuar). Outros termos usados são “aleatório” ou “caótico”, que são mencionados nas seções VI.4 e 5.

Outra maneira de caracterizar um sistema indeterminista é falar em “perda de causalidade”, ou afirmar que ocorrem eventos sem causa, que ocorrem espontaneamente. Isso iria contra o “princípio de razão suficiente” de Leibniz, para o qual tudo tem que ter uma razão (uma causa) para acontecer. 2. O Demônio de Laplace Ao definirmos um sistema determinista, escrevemos que seria “em princípio” possível prever com exatidão o futuro desse sistema. Uma maneira de exprimir isso de maneira um pouco diferente foi feita por Pierre-Simon Laplace (1749-1827), em sua famosa defesa do determinismo:

FLF0472 Filosofia da Física (USP- 2008) Cap. VI: Determinismo e Caos

35

Podemos considerar o estado atual do universo como o efeito de seu passado e a causa de seu futuro. Uma inteligência que, em um instante determinado, deveria conhecer todas as forças que põem em movimento a natureza, e todas as posições de todos os objetos dos quais a natureza é composta, se esta inteligência fosse ampla o suficiente para submeter esses dados à análise, ela englobaria em uma única fórmula os movimentos dos maiores corpos do universo e dos menores átomos; para tal inteligência nada seria incerto e o próprio futuro, assim como o passado, estariam evidentes a seus olhos.38

Essa “inteligência” imaginada por Laplace foi posteriormente chamada de “demônio

de Laplace”, onde “demônio” deve ser entendido no sentido original grego, como um semi-deus (daimon) ou super-herói, sem ser necessariamente do mal.

O demônio de Laplace teria que ter pelo menos quatro propriedades para funcionar: (i) Onisciência instantânea: Conheceria o estado de todo o Universo em um instante do tempo, com resolução e acurácia perfeitas. (ii) Erudição nomológica: Conheceria com exatidão todas as leis que regem o Universo. (iii) Super-computação: Seria capaz de realizar o cálculo mais complicado em um intervalo de tempo insignificante. (iv) Não distúrbio: A atuação do demônio não afetaria em nada o funcionamento do Universo.

Com essas quatro propriedades, pode-se definir o determinismo estrito da seguinte maneira. Se o demônio de Laplace partir do conhecimento do estado atual do Universo, e fizer uma previsão sobre qual será o estado exato do Universo depois de um certo tempo t, então se ele acertar 100% de suas previsões, o Universo será determinista, se não, será indeterminista.

3. Probabilidade

A discussão sobre se a física quântica é (cripto-)determinista ou indeterminista pode ser reformulada com relação a se a noção de “probabilidade” é epistêmica ou ontológica. Se afirmo que a probabilidade de obter um resultado em um experimento quântico é ½, isso é uma expressão da minha ignorância a respeito de todos os fatores causais envolvidos – situação típica da mecânica estatística clássica – ou exprime uma indefinição essencial da realidade? No primeiro caso, quando atribuímos uma probabilidade apenas por falta de informação, fala-se em uma noção epistêmica de probabilidade, ao passo que em um Universo tiquista ou indeterminista tem-se uma probabilidade ontológica (neste caso, nem o demônio de Laplace conseguiria prever com certeza).

Um exemplo disso pode ser tirado da biologia. Uma mulher grávida pode perguntar ao médico qual é a probabilidade de seu filho ter olhos claros, e ele poderá responder que é ½. Esta é uma probabilidade epistêmica, pois a cor dos olhos já está definida no cromossomo do feto, e a probabilidade é atribuída devido à ignorância que se tem a respeito do gene, que na realidade já está definido. Por outro lado, esta mesma mulher poderia perguntar qual é a probabilidade de um segundo filho, ainda não concebido, ter olhos claros. Se supusermos que o futuro é “aberto” (ou seja, a evolução do Universo é indeterminista), então a resposta do médico, de que tal chance é ½, seria uma probabilidade ontológica. E se o Universo segue o determinismo estrito?

38 LAPLACE, P.-S. (1814), Essai philosophique sur les probabilités, introdução. Traduzido de citação em francês obtida na internet.

FLF0472 Filosofia da Física (USP- 2008) Cap. VI: Determinismo e Caos

36

A noção de probabilidade é fundamental na ciência, mas é curioso que haja diferentes interpretações a respeito do que seja probabilidade. Vejamos algumas delas39:

1) Interpretação clássica. Esta é a visão tradicional, defendida por Laplace (1814), que define a probabilidade como a razão entre os casos favoráveis e o total de casos igualmente possíveis. O que define os casos igualmente possíveis é um “princípio de indiferença”, que afirma que dois casos são igualmente prováveis se não há razão para preferir um em relação ao outro. Assim, um dado simétrico teria seis casos equiprováveis. Porém, como caracterizar as probabilidades em um dado enviesado?

2) Interpretação freqüentista. No caso de um dado enviesado, a abordagem freqüentista sugere jogá-lo um grande número de vezes e anotar as freqüências relativas em que cada lado cai. No limite para um número infinito de jogadas, ter-se-iam as probabilidades de cada caso. Este é o procedimento costumeiramente usado nas ciências empíricas, mas em termos rigorosos há um problema envolvendo a passagem de uma seqüência finita de observações para um seqüência infinita. Desenvolvida primeiramente por John Venn (1866), foi aprofundada por Richard von Mises (1928) e Hans Reichenbach (1935).

3) Interpretação das propensões. Um problema com a interpretação freqüentista é que a probabilidade parece não se aplicar para um evento único, mas para uma classe (seqüência) de eventos (uma abordagem instrumentalista). Karl Popper (1957) buscou corrigir isso, introduzindo a noção de “propensão”, que seria a probabilidade de um evento único (uma visão realista). A obtenção da freqüência relativa seria um procedimento para medirmos a propensão, cujo valor seria pré-existente às medições.

4) Interpretação logicista. Segundo esta visão, a probabilidade de uma crença mede o grau de confiança que se pode racionalmente ter a respeito dela com base na evidência disponível. A probabilidade p(h/e) seria assim uma relação lógica entre proposições: entre uma hipótese h e as evidências disponíveis e. Em outras palavras, a probabilidade mede o grau com que e implica logicamente h (se a probabilidade for 1, tem-se uma dedução lógica). Essa visão foi desenvolvida por John Maynard Keynes (1921) e Rudolf Carnap (1950), entre outros. Seu maior problema é a dificuldade de ser aplicado, já que não estipula critérios para determinar probabilidades iniciais.

5) Interpretação subjetivista. Para contornar este último problema, a interpretação desenvolvida por Frank Ramsey (1926), Bruno de Finetti (1937) e Leonard Savage (1954) parte da admissão de que as probabilidades iniciais, com as quais abordamos problemas reais, são sempre subjetivas ou “chutadas”. Mesmo admitindo isso, porém, é possível ir melhorando nossa avaliação subjetiva com base em novas evidências, e da aplicação do teorema de Bayes: p(h/e) = p(h)·p(e/h)/p(e). A avaliação do grau inicial de crença que uma pessoa possui é geralmente traduzida em termos das apostas (com dinheiro) que tal pessoa faria.

6) Interpretação bayesiana objetivista. Inspirado na abordagem subjetivista, o físico Edwin Jaynes (1957) iniciou uma abordagem que procura atribuir o grau inicial de crença com base em critérios objetivos, relacionados com a noção de entropia. Deixaremos para discutir esta abordagem mais para frente.

4. Definições de Aleatoricidade

Como caracterizar o que é genuinamente aleatório? A definição tradicional, provinda da

física, atribui este termo a processos: por exemplo, lançar uma moeda seria um processo

39 SALMON, W.C. (1966), The Foundations of Scientific Inference, U. Pittsburgh Press, pp. 65-96. Uma versão mais resumida aparece em HOME, D. & WHITAKER, M.A.B. (1992), “Ensemble Interpretation of Quantum Mechanics: A Modern Perspecive”, Physics Reports 210, 223-317, ver pp. 233-41.

FLF0472 Filosofia da Física (USP- 2008) Cap. VI: Determinismo e Caos

37

aleatório, independentemente do resultado da seqüência (ou seja, mesmo que o resultado fosse “0101010101”).

Na década de 1960, alguns matemáticos40 passaram a buscar um critério que caracterizasse uma seqüência aleatória, independentemente de como ela tenha sido gerada na prática (ou seja, um critério que distinguisse “0100101101” de “1111111111”). Isso foi conseguido com a noção de complexidade algorítmica, que é o tamanho do menor programa de computador que gera a seqüência. Para uniformizar este critério, este programa deve ser escrito na linguagem de um computador abstrato conhecido como “máquina de Turing”. Uma seqüência não aleatória, como “1111111111”, seria programada da seguinte maneira: “repita o digito ‘1’ até o final da seqüência”, o que tem um tamanho fixo, qualquer que seja o tamanho da seqüência. Por outro lado, não há um programa simples para gerar a seqüência de dígitos do número π: o menor programa é simplesmente aquele que escreve os dígitos da própria seqüência. Em outras palavras, o valor máximo da complexidade algorítmica de uma seqüência binária gira em torno do seu próprio tamanho. E é esta a definição de uma seqüência binária aleatória: aquela cuja complexidade algorítmica não é menor do que seu comprimento.

Outra questão é a de gerar seqüências aleatórias para serem usadas em métodos estatísticos de modelagem computacional, métodos esses que são conhecidos genericamente como simulações de “Monte Carlo”, em alusão ao famoso cassino. Geralmente, tais seqüências são geradas a partir de uma computação determinística, e por isso são chamadas “pseudo-aleatórias”. Uma maneira simples de efetuar uma computação genuinamente aleatória (no sentido físico, mencionado no início desta seção) é introduzir no cálculo o horário exato (por exemplo, em milissegundos) em que a computação está sendo realizada. 5. Caos Determinístico e Sensibilidade a Condições Iniciais

No início da década de 1970, com o uso disseminado de computadores na ciência, tornou-se claro uma grande classe de comportamentos que foram denominados “caos determinístico”, pois envolvem a não-previsibilidade em sistemas deterministas. Esta situação surge para sistemas regidos por equações não-lineares, como as da atração gravitacional entre planetas. Henri Poincaré mostrou, em 1890, que o problema gravitacional dos três corpos apresenta soluções não-periódicas que apresentam extrema sensibilidade às condições iniciais. Em suas palavras:

Uma causa muito pequena que escapa de nossa observação determina um efeito considerável que não podemos deixar de ver; dizemos então que o efeito é devido ao acaso. Se soubéssemos exatamente as leis da natureza e a situação do universo no instante inicial, poderíamos prever exatamente a situação do mesmo universo em um momento posterior. Mas, mesmo que fosse o caso de as leis da natureza não serem segredo para nós, poderíamos ainda conhecer as condições iniciais somente “aproximadamente”. Se isto nos permitisse prever a situação posterior “com a mesma aproximação”, isso seria tudo o que queríamos e diríamos que o fenômeno foi previsto, isto é, é governado por leis. Mas não é sempre assim: pode acontecer que pequenas diferenças nas condições iniciais venham a produzir um erro enorme nos acontecimentos posteriores. A previsão se torna impossível e temos um fenômeno fortuito.

40 Estes matemáticos foram Ray Solomonoff (1964), Andrey Kolmogorov (1965), Gregory Chaitin (1966) e Per Martin-Löf (1966). Algumas referências são: CHAITIN, G.J. (1975), “Randomness and Mthematical Proof”, Scientific American 232(5), pp. 47-52; FORD, J. (1983), “How Random is a Coin Toss?”, Physics Today 36(4), abril, pp. 40-7. Sobre a comparação com métodos práticos de geração de números pseudo-aleatórios, ver COMPAGNER, A. (1991), “Definitions of Randomness”, American Journal of Physics 59, 700-5.

FLF0472 Filosofia da Física (USP- 2008) Cap. VI: Determinismo e Caos

38

Essa sensibilidade às condições iniciais for redescoberta em 1963 pelo meteorologista norte-americano Edward Lorenz, ao utilizar um computador para gerar trajetórias para o sistema de equações não-lineares que propôs para descrever o movimento da atmosfera. O termo “efeito borboleta” foi cunhado para esta sensibilidade, a partir do título de uma palestra sua: “O bater de asas de uma borboleta no Brasil pode provocar um tornado no Texas?”.

(Texto ainda em construção)

Filosofia da Física Clássica Cap. VII

39

Princípios de Mínima Ação Questão: Qual é o lugar das causas finais na física (e na ciência)?

(Nota: Esta aula não foi ministrada em 2008) 1. Paradigmas e Programas de Pesquisa

Os princípios da mecânica de Newton, e sua teoria gravitacional, foram aos poucos sendo aceitos pela grande maioria dos físicos e passou a constituir o que Thomas Kuhn chamou de paradigma. Um paradigma – ou “matriz disciplinar”, como Kuhn passaria a nomeá-lo – é constituído não só das leis gerais da teoria, mas também de estratégias heurísticas (ou seja, de resolução de problemas), métodos de justificação, “exemplares” (ou seja, modelos ou exercícios prototípicos, ensinados na formação do cientista), valores cognitivos (ou seja, quais as características desejáveis de uma boa teoria científica), teses metafísicas e mesmo conhecimento tácito (aquele que não conseguimos exprimir lingüisticamente). Dentro de um paradigma, desenvolve-se uma ciência “normal” de resolução de charadas, sem que haja, segundo Kuhn, uma busca por novos princípios. Ele estudou como um paradigma é substituído por outro – por exemplo, como a física de Newton foi substituída pelas teorias da relatividade –, ao que ele denominou revolução científica. Esta seria uma transição entre duas maneiras diferentes de ver o mundo, o que faz com que os cientistas da velha geração não consigam entender o novo paradigma, fato este que refletiria a “incomensurabilidade” entre paradigmas diferentes (Kuhn, Feyerabend). A transição entre paradigmas, segundo Kuhn, seria precedida por uma “crise”, em que inúmeras “anomalias” (isto é, discrepâncias entre fatos observados e previsões teóricas) não seriam resolvidas pelo paradigma anterior.41

A “metateoria” de Kuhn (ou seja, sua teoria de como teorias científicas se transformam) não deu ênfase adequada ao fato de que, mesmo em ciências maduras, paradigmas diferentes podem coexistir e competir. Este aspecto foi levado em conta por Imre Lakatos42, em sua metodologia dos programas de pesquisa científica. Para ele, a unidade do desenvolvimento científico não seria uma teoria científica isolada, mas sim uma seqüência de teorias, formando um programa de pesquisa. As teorias que se sucedem em um programa manteriam, sem modificação, um conjunto de teses centrais que Lakatos chamou de “núcleo duro”. Sempre que alguma nova previsão teórica é falseada pela experiência, modificações são introduzidas em teses periféricas, que constituem o “cinto de proteção” do núcleo. A maneira de empreender esses ajustes ao cinto de proteção, e de fazer novas previsões, é ditada pela “heurística” do programa. Um programa de pesquisa pode ser progressivo, caso em que é racional para o cientista continuar trabalhando nele. Para ser progressivo, segundo Lakatos, o programa tem que fazer novas previsões, mas essas previsões não precisam ser sempre corroboradas (confirmadas) pela experiência – basta que o sejam apenas de vez em quando, de maneira “intermitente”. No calor da hora, nunca podemos ter certeza que um programa de pesquisa foi refutado; só podemos dizer que houve um “experimento crucial” muito tempo depois: a racionalidade científica não é instantânea.

41 KUHN, T. (1975), A Estrutura das Revoluções Científicas, trad. B.V. Boeira & N. Boeira, Perspectiva, São Paulo (orig. 1962). FEYERABEND, P. (1977), Contra o Método, Francisco Alves, São Paulo (orig. 1975). 42 LAKATOS, I. (1979), “O Falseamento e a Metodologia dos Programas de Pesquisa Científica”, in LAKATOS, I. & MUSGRAVE, A. (orgs.), A Crítica e o Desenvolvimento do Conhecimento, Cultrix, São Paulo, pp. 109-243 (orig. 1970).

FLF0472 Filosofia da Física (USP-2008) Cap.VII: Princípios de Mínima Ação

40

Larry Laudan levou adiante a noção de programa de pesquisa, mas salientou que teses do núcleo duro podem ser abandonadas sem que se abandone a tradição do programa. Preferiu o termo “tradição de pesquisa”, que envolve uma seqüência de teorias que se assemelham e se sucedem, de tal forma que os cientistas participantes tenham um compromisso com pelo menos uma parte das teses centrais de um subconjunto das teorias anteriores de sua tradição. Um exemplo seriam as tradições de pesquisa sobre a natureza da luz: os programas corpuscular e o ondulatório competiram desde a época de Huygens e Newton até meados do séc. XIX, quando o ondulatório se viu vencedor, mas depois, com a física quântica, houve uma espécie de síntese entre os dois.

A relação multifacetada entre teoria, métodos e valores foi analisada por Laudan em seu “modelo reticulado” de racionalidade científica. Segundo esta abordagem, cada um desses três aspectos da pesquisa científica pode afetar a evolução histórica do outro, dentro de uma tradição de pesquisa.43 2. Programas de Pesquisa Rivais na Mecânica Clássica

Em 1687, Isaac Newton formulou a abordagem à mecânica baseado em suas três leis (inércia, força e ação & reação) e, supondo sua lei da gravitação universal, a aplicou com muito sucesso para a descrição dos movimentos dos planetas do sistema solar.

A partir dessa mesma época, e culminando com seu Specimen dynamicum (1695), Gottfried Leibniz estava definido a “força viva” (energia cinética, mv2) e a “força morta” (energia potencial, na queda livre proporcional à altura da queda). Em processos mecânicos em que se despreza a resistência do meio e não há obstáculos inelásticos, como um pêndulo, haveria uma conservação da soma das forças viva e morta (esta noção já fora enunciada por Huygens, em 1673). Num choque inelástico, vislumbrou que a força viva se transforma em uma força morta ligada à deformação dos corpos.

Leibniz argumentou que o princípio de conservação de quantidade de movimento, de Descartes, era errôneo. Depois da morte de Leibniz, seguiu-se um longo debate a respeito da sua teoria das forças vivas. Em 1728, Jean-Jacques de Mairan corrigiu o enunciado do princípio cartesiano, levando em conta as direções das velocidades (ou seja, o caráter vetorial da velocidade). A aceitação geral do princípio de força viva só viria a partir de 1743, com o Traité de Dynamique do francês Jean d’Alembert, mas já antes disso os suiços Johann Bernoulli e seu filho Daniel estavam resolvendo diversos problemas de mecânica utilizando os dois princípios de conservação.44

Quanto à abordagem newtoniana, sua sistematização foi empreendida pelo grande matemático suiço Leonhard Euler, a partir de 1726. Em 1736, com sua Mechanica, introduz massas pontuais, acelerações contínuas e considerações vetoriais, demonstrando de maneira rigorosa vários resultados e resolvendo diversos problemas.

Configurava-se, a esta altura, o ramo da matemática aplicada conhecido como mecânica racional, vista como uma geometria de corpos em movimento. Posteriormente, discutir-se-ia se as leis da mecânica seriam necessárias ou “contingentes” (ou seja, não-necessárias). Euler e d’Alembert defenderiam sua necessidade, ao passo que Lazare Carnot (1783) defenderia seu caráter empírico (portanto contingente).

43 LAUDAN, L. (1977), Progress and its Problems, Berkeley U. Press (tradução em preparação pela Discurso Editorial, São Paulo). O modelo reticulado está exposto em: LAUDAN, L. (1984), Science and Values, U. California Press, Berkeley. 44 Seguimos TRUESDELL (1968), op. cit. (nota 26), e DUGAS, R. (1988), A History of Mechanics, Dover, Nova Iorque (orig. em francês, 1955), pp. 219-53.

FLF0472 Filosofia da Física (USP-2008) Cap.VII: Princípios de Mínima Ação

41

Paralelamente a essas linhas de pesquisa, há o desenvolvimento da dinâmica dos corpos rígidos. Em seu Horologium oscillatorium (1673), Christiaan Huygens havia mostrado como calcular o “centro de oscilação” de um pêndulo físico, ou seja, o pêndulo simples com o mesmo período de oscilação. Houve muita discussão sobre esse trabalho, o que levou Jakob Bernoulli, irmão mais velho de Johann, a publicar em 1703 um trabalho em que refaz a demonstração de Huygens a partir das propriedades da alavanca. Isso seria uma antecipação do princípio de trabalho virtual, de d’Alembert.

Jakob Bernoulli também inaugurou a teoria dos corpos elásticos (1705). A teoria das vibrações se inicia com Taylor (1713) e é desenvolvida por Euler, Johann e Daniel Bernoulli. Este último desenvolve também a hidrodinâmica (1733-38).

O Traité de Dynamique (1743) de d’Alembert trata do problema dos corpos rígidos sem utilizar o conceito de força newtoniano, mas sim o “princípio de trabalho virtual”, que é uma lei de equilíbrio. Tal princípio está intimamente relacionado com o de conservação de força viva, mas d’Alembert toma o princípio de trabalho virtual como fundamental (não o de força viva), juntamente com o princípio de inércia e o princípio de composição de movimentos (que permite decompor um movimento de maneira conveniente para a aplicação do trabalho virtual).

Para entender o princípio de trabalho virtual, pode-se consultar a exposição didática de Feynman45. Considere a situação de equilíbrio de dois corpos ligados, como o da Fig. VII.1a. Numa situação de reversibilidade (sem atrito), o equilíbrio pode ser estabelecido como na Fig. VII.1b. Nesta transição, o corpo B subiu uma altura de ∆hB = 3 m, ao passo que a descida de A é expressa pela variação ∆hA = – 5 m. Assim, a massa desconhecida mA pode ser calculada pela conservação de energia potencial gravitacional (a energia cinética não se altera), o que corresponde a uma igualdade nos trabalhos realizados (a menos do sinal): mA·∆hA + mB·∆hB = 0. Numa situação mais complicada, como a da Fig. VII.2, o valor do peso W que equilibra o conjunto pode ser calculado considerando-se um pequeno deslocamento vertical neste peso, o que alterará as alturas das outras massas para valores facilmente calculáveis. Aplica-se então a conservação dos trabalhos e encontra-se o valor de W. Como esse trabalho não ocorre de fato, mas é apenas um artifício para o cálculo, recebe o nome de “trabalho virtual”.

Figura VII.1: Pesos em equilíbrio, sem atrito, em um plano inclinado.

Figura VII.2: Situação de equilíbrio para aplicação do princípio de trabalho virtual.

D’Alembert fez questão de não exprimir as “causas motivas” dos movimentos, ou seja, as forças, que considerava “obscuras e metafísicas” (ver DUGAS, p. 247). A partir de seu princípio, aplicado a sistemas com restrições entre as partes, derivou a conservação de força viva. Esta estratégia foi posteriormente generalizada com sucesso pelo italiano de

45 FEYNMAN, R.P.; LEIGHTON, R.B. & SANDS, M. (1963), The Feynman Lectures on Physics, vol. I, Addison-Wesley, Reading, pp. 4-1 a 4-5. As Figs. VII.1 e VII.2 são retiradas desta referência.

FLF0472 Filosofia da Física (USP-2008) Cap.VII: Princípios de Mínima Ação

42

descendência francesa Louis de Lagrange, em sua Mécanique Analytique (1788), onde também não se fala em forças (no sentido de Newton e especialmente Euler).

Euler, por seu turno, foi bem sucedido na extensão dos princípios newtonianos para diversos sistemas, inclusive corpos rígidos, que envolve um princípio adicional, a lei do torque, derivada em 1776. Argumenta-se que este princípio é independente das três leis de Newton, para casos gerais.

Delineam-se, assim, diferentes programas de pesquisa na mecânica no séc. XVIII, e uma tendência de unificação entre eles. O programa cartesiano acabou sendo mesclado com o leibniziano, e ambos foram incorporados ao programa d’alembertiano, que resultou na mecânica lagrangiana. Paralelamente a isso, o programa de Newton e Euler acabou se firmando como mais geral, aplicável em maior número de casos, fundamentado na noção de força. A controvérsia a respeito do estatuto do conceito de força adentraria o séc. XIX, como veremos no próximo capítulo, mas as abordagens rivais de Euler e d’Alembert acabaram sendo vistas como duas abordagens diferentes para uma mesma ciência da mecânica. 3. Princípio de Mínima Ação

No esboço histórico da mecânica apresentada acima, deixamos de lado uma abordagem adicional, inaugurada por Pierre de Maupertuis em 1744, o princípio de mínima ação, e que seria posteriormente assimilado na mecânica analítica de Lagrange. Este princípio é de interesse pois ele pretende implementar a tese filosófica de que a natureza age de maneira a minimizar uma certa grandeza, como se ela tivesse um objetivo ou uma meta – um telos, em grego. Nas palavras de Maupertuis: “a Natureza, na produção de seus efeitos, sempre age das maneiras mais simples”.46 Tal tese levou a uma grande discussão porque ela sugere que a física pode ser construída de maneira “teleológica”, ou seja, envolvendo causas finais (que estariam no futuro ou estariam indicando um estado no futuro), e não apenas causas eficientes (que vêm sempre antes dos efeitos).

A física de Aristóteles é um exemplo de teleologia. Para ele, os corpos graves têm um “lugar natural”, que é o centro do Universo, e por isso eles caem quando soltos (ver seção III.1). É como se eles tivessem uma meta (telos), um propósito. As explicações do naturalismo animista (seção III.3) também são teleológicas.

A idéia de que a natureza segue caminhos simples tem vários precursores, mas na física o primeiro exemplo mais detalhado é dado por Héron de Alexandria, em 125 a.C. Ele argumentou que na reflexão da luz por um espelho, o caminho percorrido é o de menor comprimento. Considere a Fig. VII.3, no qual a luz sai de uma vela em A, reflete no espelho em C, e ruma para o olho em B. Este é o caminho mais curto saindo de A, refletindo no espelho e incidindo em B. Para mostrar isso, considere um outro ponto de reflexão, D. Ligando o ponto E, que é a imagem de A, aos pontos C e D, temos que os seguintes segmentos têm o mesmo comprimento: AC = EC, e AD = ED. Ora, mas está claro que a linha reta ECB é mais curta do que o caminho EDB (desigualdade do triângulo). Portanto, o caminho ACB é mais curto do que qualquer outro caminho ADB.

Em 1662, Pierre de Fermat adaptou a estratégia de Héron para o caso da refração da luz, só que agora considerando que a luz toma o caminho que leva menos tempo. Ele queria mostrar que a fórmula da refração (lei de Snell) derivada por Descartes era falsa, e para isso supôs que a luz se propaga com uma velocidade menor em meios mais densos (o que é verdade, mas ia contra ao que achavam Descartes e Newton). Ao fazer suas contas, descobriu que o caminho de menor tempo era justamente aquele que satisfazia a lei de Snell-Descartes! 46 DUGAS (1988), op. cit. (nota 44), pp. 254-75. Ver também YOURGRAU, W. & MANDELSTAM, S. (1968), Variational Principles in Dynamics and Quantum Theory, Dover, Nova Iorque.

FLF0472 Filosofia da Física (USP-2008) Cap.VII: Princípios de Mínima Ação

43

Obteve assim uma “lei de mínimo” para a propagação da luz, mas seu resultado só seria aceito após a metade do séc. XIX.

Figura VII.3. Diagrama ilustrando a demonstração de Héron de que a luz, na reflexão, percorre o caminho de menor distância.

Em 1744, Maupertuis buscou corrigir o trabalho de Fermat, e chegou à conclusão que o que seria minimizado na propagação da luz não seria o tempo, mas a ação S, que é o produto da distância r percorrida e do momento linear mv: S = ∫ m v(r) dr . Já em 1740 Maupertuis havia usado um princípio de máximo ou de mínimo para uma situação de equilíbrio

Em 1747, mostrou que é possível aplicar este resultado para o choque de dois corpos, quer no caso de colisões elásticas quanto inelásticas, o que tornaria o princípio mais geral do que a conservação de força viva (que só valeria no caso de choques elásticos). A partir daí, generalizou o princípio de mínima ação para toda a mecânica: “Quando alguma mudança ocorre na natureza, a quantidade de ação necessária para essa mudança é a menor possível” (DUGAS, p. 265). Maupertuis via em seu princípio uma expressão da perfeição de Deus, que agiria por meio de leis simples e com um gasto mínimo de ação.

Em 1751, o holandês Samuel Koenig apresentou uma carta em que Leibniz teria anunciado em 1707 que “nas variações dos movimentos, [a ação] usualmente se torna mínima ou máxima”. Ele usou o termo “ação”, definindo-o também como o produto do tempo e da força viva (energia cinética). Iniciou-se então uma grande polêmica sobre a prioridade e os méritos de Maupertuis, mas a tal carta de Leibniz nunca foi encontrada (DUGAS, pp. 270-3).

Independentemente de Maupertuis, seu amigo Euler publicou em 1744 uma versão mais particular, porém matematicamente mais precisa, do princípio de mínima ação. Segundo seu teorema, quando uma partícula viaja entre dois pontos fixos, ela toma o caminho para o qual ∫ v(r) dr é mínimo. Seu resultado é baseado no cálculo de variações, e na verdade o que ele demonstra é que a integral da ação é um mínimo, um máximo ou mesmo um ponto intermediário de derivada nula. A rigor, então, o princípio de Euler é um enunciado relativo às trajetórias “virtuais” (que não satisfazem as leis de Newton) que são vizinhas à trajetória real da partícula. “A diferença entre as integrais ∫ v dr tomadas ao longo da trajetória real e dos caminhos virtuais vizinhos, entre os dois pontos, é uma grandeza infinitesimal de segunda ordem; os caminhos virtuais considerados são aqueles com velocidades que resultem na mesma energia que aquela suposta para a partícula” (YOURGRAU & MANDELSTAM, p. 25).

O princípio variacional foi derivado de maneira mais geral por Lagrange, em 1760, para n partículas, mostrando que as leis de Newton são equivalentes ao princípio de mínima ação em conjunção com a lei de conservação de energia. A conservação de energia entra ao se considerarem caminhos virtuais de mesma energia.

Com o princípio de trabalhos virtuais, Lagrange abriu caminho para sua Mécanique Analytique (1788), que forneceu um método prático para calcular os movimentos de corpos rígidos sujeitos a vínculos, problema cuja resolução pelos métodos de Newton e Euler em geral se torna onerosa. Ele introduziu coordenadas generalizadas e obteve equações cuja forma é invariante ante troca de coordenadas. Definindo a “lagrangiana” como a diferença

FLF0472 Filosofia da Física (USP-2008) Cap.VII: Princípios de Mínima Ação

44

entre a energia cinética T e potencial V, escrita em função das coordenadas generalizadas qi e q& := dqi/dt, sua equação é:

0=∂∂

∂∂

ii qL

qL

dtd

& .

As formulações do princípio variacional de Euler e Lagrange estão restringidas a

caminhos virtuais de mesma energia. Essa restrição foi removida em 1834 pelo irlandês William Hamilton, que considerou, porém, caminhos virtuais que terminam no mesmo ponto e no mesmo tempo. Chegou assim ao chamado “princípio de Hamilton”: δ ∫ L dt = 0. “Um sistema muda de uma configuração para outra de tal maneira que a variação da integral ∫ Ldt entre o caminho real e um vizinho, terminando no mesmo ponto do espaço e do tempo, é nula” (YOURGRAU & MANDELSTAM, p. 47). A partir deste princípio variacional, obtêm-se as equações de Lagrange.

Uma formulação em que o tempo é eliminando, resultando em uma “geometrização” do princípio de extremo, foi feita pelo alemão Carl Jacobi em 1843. Anunciou então que “em sua forma verdadeira [é difícil] atribuir uma causa metafísica a este princípio” (DUGAS, pp. 407-8).

Princípios variacionais foram usados na velha teoria quântica e na derivação da equação de Schrödinger, da mecânica quântica, e nos trabalhos de Schwinger e Feynman47 na teoria quântica de campos relativísticos. 4. Causas Finais na Física

O princípio de mínima ação foi visto, por Maupertuis e Euler, como um princípio metafísico exprimindo a perfeição de Deus ou uma tendência da natureza de escolher caminhos mais simples. Essa noção teleológica passou a ser atacada posteriormente, por exemplo por d’Alembert (1758), que criticou “o princípio das causas finais” (DUGAS, p. 269), e foi abandonada pela maioria dos físicos, que costuma não interpretar os princípios de extremo de maneira teleológica.

Mesmo assim, a linguagem teleológica está presente em algumas explicações físicas corriqueiras. Um sistema tende para o estado que minimiza sua energia, ou para um que maximiza sua entropia. Explicações mecânicas buscam dar conta desses enunciados teleológicos por meio apenas de causas eficientes, como será exemplificado mais à frente com relação à entropia.

A questão da teleologia na biologia é bem mais controversa. Pode-se interpretar o mecanismo da seleção natural como uma explicação causal-eficiente para evolução dos seres vivos, mas autores como Ernst Mayr defendem que uma “teleonomia” estaria associada ao código genético.

Na cosmologia, o “princípio antrópico” pode ser interpretado como uma tese finalista, ao afirmar que o nosso Universo contém as condições ideais para o surgimento da vida. No entanto, em sua versão mais fraca, tal princípio é perfeitamente consistente com a causação eficiente.

47 Uma discussão interessante sobre o princípio de Fermat é feito por FEYNMAN et al. (1962), op. cit. (nota 45), pp. 26-7 a 26-8, em que ele apresenta de maneira didática sua visão conhecida como “soma sobre histórias”.

Filosofia da Física Clássica Cap. VIII

45

Axiomatização da Mecânica Clássica Questão: Por que e como axiomatizar as teorias físicas ?

(Nota: Esta aula não foi ministrada em 2008) 1. Contexto da Descoberta e Contexto da Justificação

Ao se discutir a metodologia da ciência, é importante traçar uma distinção entre dois contextos: o da descoberta e o da justificação.48 A maneira como uma descoberta científica é feita envolve diversos fatores, incluindo aspectos psicológicos, sociais e culturais. O químico alemão August Kekulé (1865), por exemplo, chegou à idéia de que o benzeno é um anel de átomos de carbono após ter sonhado com uma cobra mordendo o rabo. No entanto, ele não incluiria esta informação ao escrever seu artigo para publicação. No contexto da justificação de uma teoria, procura-se partir de bases firmes e deduzir conseqüências de maneira rigorosa e de acordo com os cânones da metodologia científica. No contexto da descoberta, por outro lado, os caminhos para se adquirir conhecimento são os mais variados.

Ao se discutir uma questão de filosofia da ciência, é preciso especificar em qual contexto se está trabalhando. Por exemplo, qual a importância da indução na ciência? A “indução por enumeração” consiste de se observar uma regularidade em um número finito de casos, e daí generalizar para todos os casos, em uma “lei empírica”. No contexto da descoberta, tal método é muitas vezes usado, especialmente nos estágios iniciais de uma área científica. Os positivistas tendem a considerar que a indução também é uma maneira de justificar a aceitação de uma lei empírica. No entanto, autores como Karl Popper discordam que a indução possa servir de justificação, sem negar, porém, que ela possa ter um papel na geração de hipóteses (contexto da descoberta). Para Popper, o método privilegiado para se justificar uma teoria é o método hipotético-dedutivo, que consiste em formular uma hipótese e deduzir suas conseqüências empíricas (observacionais): se houver concordância entre a previsão e o que é de fato observado, a hipótese é “corroborada” (verificada); se não, ela é “falseada” (ou seja, a hipótese ou alguma outra suposição usada na dedução deve ser abandonada).

Neste capítulo, examinaremos as tentativas de fundamentar teorias científicas em bases rigorosas, por meio de sua axiomatização. Tais tentativas estão claramente no contexto da justificação. No cap. X, estudaremos o contexto da descoberta da teoria do eletromagnetismo por Maxwell, onde as analogias desempenham papel importante.

2. Discussão dos Princípios Newtonianos no Séc. XIX

Em meados do séc. XIX, concomitantemente com a ascensão da Termodinâmica e do princípio de conservação de energia, vários físicos começaram a questionar os fundamentos da mecânica newtoniana. Na França, Barré de Saint-Vernant (1797-1886), em 1851, adotou uma perspectiva atomista para fundar a mecânica apenas nas velocidades e acelerações entre pontos, derivando definições de “massa” e “força”. Considerava que as forças eram “agências de uma natureza oculta ou metafísica”, e não as relacionou com as causas eficientes dos 48 Os termos “contexto da descoberta” e “contexto da justificação” foram cunhados por Hans Reichenbach (1938), mas a distinção é mais antiga. Immanuel Kant (1781), por exemplo, se referia a “questões de fato” (quid facti) e “questões de direito” (quid juris). John Herschel (1830) também é citado como um autor que distinguiu claramente entre “como alcançamos conhecimento” e “a verificação das induções”.

FLF0472 Filosofia da Física (USP-2008) Cap.VIII: Axiomatização da Mecânica Clássica

46

movimentos.49 Por contraste, outro francês, Frédéric Reech (1852), seguiu a abordagem de Euler ao colocar a força como ponto de partida da mecânica. Comparou uma força a um fio tensionado que estaria ligado à partícula sofrendo a ação da força. A força poderia ser avaliada cortando-se o fio e observando o movimento subseqüente da partícula. Trabalhando com diferenças de acelerações, buscou eliminar a descrição em termos de um referencial privilegiado. Sua “escola do fio” foi levada adiante por Jules Andrade (1898).

Um quarto de século após essas primeiras formulações, em 1876, o alemão Gustav Kirchhoff (1824-87) se propôs a construir a mecânica de maneira lógica, a partir das noções de espaço, tempo e matéria, e derivando destas os conceitos de força e massa. Uma abordagem semelhante foi publicada independentemente, em 1883, pelo austríaco Ernst Mach (de quem já falamos na seção V.4), em seu livro A Ciência da Mecânica. Mach considerou que os princípios da mecânica precisariam ser fundados na experiência, e não na especulação teórica: seu livro seria “um trabalho de explicação crítica animado por um espírito anti-metafísico”.

Fez uso de um “princípio de simetria” para definir operacionalmente (por meio de operações experimentais) o conceito de massa (inercial). Para isso, considerou que dois corpos idênticos A e B comunicam acelerações iguais e contrárias, aA, aB, ao longo da linha que os une (por exemplo, por meio de uma mola). Tomando A como tendo massa unitária mA=1, a massa de B seria tal que mB·aB = –mA·aA. Eliminou assim o apelo de Newton à noção intuitiva de “quantidade de matéria” (ver seção IV.2), e declarou que “nesta concepção de massa não há teoria”. Tendo assim definido “massa” em termos operacionais, pôde caracterizar a 2a lei de Newton como sendo uma definição50 de força: F := ma , derivada a partir de termos observacionais. Sua estratégia foi apoiada por positivistas como Karl Pearson (1892).

Heinrich Hertz (1857-1894) também se dedicou ao problema, logo antes de sua morte prematura, publicando Os Princípios da Mecânica apresentados em uma Nova Forma (1894). Seguindo seu professor Kirchhoff, buscou construir a Mecânica a partir dos conceitos de tempo, espaço e massa. Comentou a abordagem tradicional, baseada nos conceitos de espaço, massa, força e movimento, que estão ligadas às leis de Newton e ao princípio de d’Alembert (seção VII.2), argumentando que ela teria imprecisões lógicas. Uma dessas imprecisões seria que a noção de força em geral é tomada como a causa do movimento, mas, no caso de forças fictícias como a força centrífuga, ela surge como efeito do movimento. Criticou também a profusão do uso do conceito de força, por exemplo na Mecânica Celeste, sem que isso correspondesse a algo observável: só observamos as posições dos astros em diferentes instantes (comparou o uso de forças ao uso de epiciclos na Astronomia antiga).

Parte então da abordagem de Kirchhoff, mas faz a seguinte constatação, característica de uma atitude realista. “Se quisermos obter um quadro do mundo que é fechado em si mesmo, no que tange a leis, devemos conjeturar a existência de outros seres invisíveis por trás das coisas que vemos, e buscar os atores escondidos por detrás das barreiras de nossos sentidos”. Os conceitos de força e de energia seriam idealizações desse tipo, mas Hertz preferiu postular a existência de “variáveis ocultas” que nada mais seriam do que massas em movimento, que se chocariam com os corpos visíveis de maneira a dar conta do que observamos. Teríamos assim um retrato mecanicista, semelhante ao de Descartes ou Le Sage (seções III.6 e 7). Hertz, porém, não estava preocupado em fornecer modelos particulares para diferentes fenômenos, como a gravitação, mas em formular uma descrição geral que fosse consistente com os princípios da Mecânica Clássica. A lei fundamental da Mecânica seria uma lei de mínimo (seção VII.3): para sistemas isolados, o sistema segue a trajetória de curvatura mínima, com uma velocidade 49 Nesta seção, seguimos DUGAS (1988), op. cit. (nota 44), pp. 436-51. 50 Adotamos a convenção de “dois-pontos-igualdade”, adotada por alguns lógicos, para exprimir uma definição: “:=”. Outras signos usados para “definição” são: “≡” ou “=df.”.

FLF0472 Filosofia da Física (USP-2008) Cap.VIII: Axiomatização da Mecânica Clássica

47

constante. Tal lei se reduziria para as leis conhecidas da Mecânica, como o princípio de mínima restrição de Gauss, que era uma formulação alternativa do princípio de d’Alembert.

O último autor que consideraremos neste resumo é o francês Henri Poincaré (1854-1912), que em sua Ciência e Hipótese (1902) levou adiante o projeto de mostrar em que medida as teorias físicas envolvem convenções. Uma convenção seria uma tese, a respeito do mundo, que poderia ser diferente, mas que é adotada porque permite a construção de uma teoria econômica (simples) e eficiente em suas previsões. Nossa tendência é supor que o princípio de inércia (1a lei de Newton), por exemplo, reflete um fato fundamental do mundo ou espelha diretamente a uma realidade. No entanto, argumenta Poincaré, não é possível verificar experimentalmente este princípio. Podemos tentar fazê-lo lançando um corpo em uma região na qual não há forças resultantes, mas, neste caso, como sabemos que não há forças atuando? Um critério é verificar se um corpo de prova não sofre acelerações, mas neste caso estaríamos usando implicitamente o princípio de inércia para constatar que numa região não há forças, de modo a testar o próprio princípio de inércia! Seria um círculo vicioso!51

Poincaré considerava que vários outros princípios seriam convencionais: a simultaneidade do tempo, o espaço absoluto, a suposição que o espaço seria euclidiano, a lei de ação e reação, e o princípio de conservação de energia. (Em um capítulo posterior examinaremos o argumento de Poincaré a respeito deste último princípio.) A 2a lei de Newton seria uma convenção, mas mesmo assim Poincaré associava ao conceito de força um conteúdo intuitivo (associado à noção de esforço), ao contrário do que fizera Kirchhoff. Considerava assim que a abordagem de Kirchhoff era apenas uma convenção possível, assim como a adotada pela “escola do fio” que mencionamos anteriormente. Quanto ao papel da experimentação, considerava que ela poderia verificar a teoria física de maneira apenas aproximada (dado que não existiria um sistema perfeitamente isolado); ou seja, as convenções da física seriam parcialmente justificadas pela experimentação. 3. Críticas ao Método de Mach

Críticas à proposta de Mach começaram a surgir de maneira mais detalhada a partir do trabalho de dois matemáticos ingleses, L.N.G. Filon e C.G. Pendse, na década de 1930. Filon publicou em 1926 um estudo sobre as bases da mecânica racional em que tinha simpatia pela abordagem de Mach. Em torno de 1932, porém, passou a questionar a abordagem machiana por razões semelhantes às consideradas por Poincaré (a quem não cita): nunca podemos ter certeza que um corpo não está sob o efeito de uma força externa, nem que dois corpos interagentes (segundo a receita de Mach) também não estejam. As três leis de Newton não seriam leis experimentais, pois não podem ser provadas nem refutadas experimentalmente. Filon concluiu que a única maneira correta de definir a massa de um corpo seria através de seu peso, método este proposto pelo próprio Newton.52

Em 1937, C.G. Pendse53 mostrou que o método operacional de Mach, de observar as acelerações entre dois corpos para inferir os valores das massas, falhava para muitos corpos. Sem levar em conta a 3a lei de Newton, se as acelerações fossem medidas apenas uma vez, o 51 Esta e outras discussões são tratadas em CHIBENI, S.S. (1999), “A Fundamentação Empírica das Leis Dinâmicas de Newton”, Revista Brasileira de Ensino de Física 21, 1-13. 52 FILON, L.N.G. (1938), “Mass and Force in Newtonian Mechanics”, Mathematical Gazette 22, 9-16. 53 PENDSE, C.G. (1937), “A Note on the Definition and Determination of Mass in Newtonian Physics”, Philosophical Magazine 24, 1012-22. PENDSE, C.G. (1939), “A Further Note on the Definition and Determination of Mass in Newtonian Mechanics”, Philosophical Magazine 27, 51-61. PENDSE, C.G. (1940), “On Mass and Force in Newtonian Mechanics”, Philosophical Magazine 29, 477-84.

FLF0472 Filosofia da Física (USP-2008) Cap.VIII: Axiomatização da Mecânica Clássica

48

método falhava para mais do que 4 corpos, pois o número de incógnitas (forças entre pares de partículas, mais as massas) tornava-se maior do que o número de equações. Mesmo levando em conta a 3a lei de Newton, uma única observação de aceleração, para corpos não coplanares, não consegue determinar as massas relativas, de maneira exata, para mais do que 5 corpos.

Pendse calculou também o que aconteceria se se pudesse medir as acelerações em vários instantes diferentes. Inicialmente, concluiu que para acima de 7 corpos o método falharia, mas em um artigo posterior concluiu que seria possível derivar as massas relativas em alguns casos, com um número suficientemente grande de medições, mas não as forças!

O método de Mach funcionaria, naturalmente, se se pudesse pegar cada corpo individualmente, e comparar sua aceleração com a de um corpo de referência, e pô-lo de volta no sistema, supondo que sua massa não varia neste procedimento.

Na prática, é claro, tal procedimento não é necessário para corpos de nosso cotidiano, pois confiamos em balanças. Para se determinar as massas dos planetas, não podemos retirar os corpos para pesagem, mas o fato de o Sol ser muito mais massivo do que os planetas facilita os cálculos a partir das acelerações. Já no caso de partículas elementares, as massas são medidas por diversos procedimentos, muitos dos quais dependem da aceitação de uma teoria física.

Concluindo esta seção, podemos dizer que métodos operacionais parecem viáveis na física, mas na prática científica utilizam-se de bom grado métodos nos quais conceitos teóricos são introduzidos de maneira primitiva. 4. Axiomatização de Teorias Matemáticas

Uma axiomatização consiste em uma formulação de uma teoria que se inspira na

sistematização que Euclides deu para a geometria (ver seção I.3). Partem-se de axiomas, demonstram-se teoremas e resolvem-se problemas de construção.

No séc. XIX, o quinto postulado de Euclides – que diz que dados uma reta e um ponto fora dela, em um plano, então pelo ponto passa apenas uma paralela à reta – passou a ser modificado, resultando nas geometrias não-euclidianas. Com isso, começou a ficar claro que o importante em uma axiomatização na matemática não é nossa opinião sobre a veracidade dos axiomas, mas a consistência interna do sistema axiomático. Essa concepção foi bastante divulgada no começo do séc. XX pelo alemão David Hilbert, que sublinhou que uma axiomatização deve deixar claro quais são as noções primitivas (não-definidas) do sistema. No caso da Geometria Euclidiana, as noções de “ponto” e “reta” são primitivas: não devem ser definidas a partir de outros conceitos e nem precisam satisfazer nossa intuição a seu respeito. O significado dessas noções é parcialmente estabelecido pelos cinco axiomas de Euclides. No entanto, diferentes “interpretações” podem satisfazer o sistema axiomático, sendo chamadas de “modelos”. Por exemplo, o modelo representado pictoricamente na Fig. VIII.1 satisfaz o seguinte conjunto de axiomas, usados por Hilbert54:

A1: Para quaisquer duas retas, há no máximo um ponto pertencente às duas. A2: Para quaisquer dois pontos, há exatamente uma reta que as contém. A3: Em cada reta há pelo menos dois pontos. A figura pode causar estranheza, porque a reta BDF não se parece com as outras.

Mesmo assim, representa um modelo do sistema de axiomas {A1,A2,A3}. 54 Exemplo apresentado por VAN FRAASSEN, B. (2007), A Imagem Científica, trad. L.H.A. Dutra, Ed. Unesp/ Discurso, São Paulo, pp. 84-6 (orig. em inglês: 1980).

FLF0472 Filosofia da Física (USP-2008) Cap.VIII: Axiomatização da Mecânica Clássica

49

Figura VIII.1: Geometria dos sete pontos e sete retas, que é um modelo dos axiomas A1, A2 e A3. 5. Axiomatização Dedutivista da Mecânica Clássica

A formulação que Newton deu para a Mecânica pode ser considerada uma

“axiomatização informal”, pois partiu de algumas definições e das três leis fundamentais da Mecânica, além da lei de atração gravitacional, e deduziu diversos teoremas. No entanto, a sua axiomatização não satisfaz os critérios de rigor da lógica moderna, sendo por isso considerada “informal”.

Em 1953, J.C.C. McKinsey, A.C. Sugar & Patrick Suppes publicaram uma axiomatização da mecânica clássica de partículas que se propunha a cumprir os padrões de rigor estipulados por Hilbert. Em especial, tomaram cuidado em deixar claro quais são as noções primitivas da teoria mecânica. Escolheram não introduzir um axioma de impenetrabilidade entre partículas, e pressupuseram também diversos resultados da matemática clássica.

As noções primitivas introduzidas foram P, T, m, s e f. O que seria P? Não diretamente uma entidade física, mas um conjunto! P e T são conjuntos, m uma função unária, s uma função binária e f uma função ternária. A axiomatização de McKinsey et al. é uma teoria matemática, baseada em conjuntos e em funções, que por sua vez são redutíveis a conjuntos. Assim, Suppes cunhou o slogan que “axiomatizar uma teoria é definir um predicado conjuntista”.55 Essa abordagem não foi bem recebida pelos físicos, como pode ser visto pelo comentário de Clifford Truesdell, em nota na primeira página do artigo de McKinsey et al., que se inicia assim: “O comunicador está em completo desacordo com a visão da mecânica clássica expressa neste artigo”.

Naturalmente, McKinsey et al. tinham em mente uma interpretação física para esses conceitos matemáticos. P poderia ser interpretado como um conjunto de partículas p, mas também poderia ser interpretado de maneira não física, como um conjunto de números, por exemplo. T é interpretado como um conjunto de números reais que medem o tempo transcorrido. A função m(p) interpreta-se fisicamente como a massa da partícula p, s(p,t) é seu vetor posição num instante de tempo t, e f(p,t,i) é o vetor de força i atuando em p no instante t. Apresentam então seis axiomas, de tal forma que o conjunto ordenado ⟨P,T,m,s,f⟩ define um sistema de mecânica de partículas. Os axiomas P1 e P2 apenas estipulam que P não é vazio e 55 MCKINSEY, J.C.C.; SUGAR, A.C. & SUPPES, P. (1953), “Axiomatic Foundations of Classical Particle Mechanics”, Journal of Classical Mechanics and Analysis 2, 253-72. O slogan de Suppes aparece em um texto não publicado de 1967, e é citado na revisão feita por SANT’ANNA, A.S. & GARCIA, C. (1998), “É Possível Eliminar o Conceito de Força da Mecânica Clássica”, Revista Brasileira de Ensino de Física 20, 346-53, que axiomatiza a mecânica de Hertz.

FLF0472 Filosofia da Física (USP-2008) Cap.VIII: Axiomatização da Mecânica Clássica

50

que T é um intervalo de números reais. O terceiro axioma cinemático determina que o vetor s(p,t) é duplamente diferenciável em t. O axioma P4 apenas estipula que m(p) é um número real positivo, e P5 que a soma em i das forças f(p,t,i) converge em uma força resultante de valor finito. O último dos três axiomas dinâmicos, P6, corresponde à 2a lei de Newton. Notamos a importância que os autores atribuem à especificação matemática precisa dos conceitos envolvidos.

A 1a lei de Newton é derivada de P3, P4 e P6, como o teorema de que se a força resultante sobre um corpo é nula, o vetor velocidade é constante. Quanto à 3a lei de Newton (ação e reação), McKinsey et al. preferem não impô-la como axioma, para permitir aplicações em que ela não é usada, como no disparo de uma bala de canhão (em que a força de reação na Terra é desprezada). Vemos assim uma característica pragmática de sua axiomatização, próxima de um instrumentalismo (seção IV.4), pois na formulação dos axiomas não importa tanto qual é a “verdade”, mas sim o quão prático é a aplicação do formalismo. De fato, no início do artigo eles advertem:

Deve-se notar que a mecânica de partículas, como quase qualquer outra ciência em forma dedutiva, envolve uma idealização do conhecimento empírico factual [actual empirical knowledge] – e é assim melhor concebida como um instrumento para lidar com o mundo [a tool for dealing with the world], do que como um retrato que o representa. (MCKINSEY et al., 1953, p. 254.)

Apesar de não adotarem a 3a lei de Newton, provam um teorema segundo o qual qualquer modelo de seu sistema axiomático pode ser inserido como parte de um modelo mais amplo que satisfaz a 3a lei.

Um resultado bastante citado do trabalho de McKinsey et al. é a demonstração de que m, s e f são noções primitivas independentes, sendo que P e T, por seu turno, poderiam ser definidos em termos dos outros primitivos. Utilizam para isso um método lógico devido a Alessandro Padoa (1900), que consiste essencialmente em fixar os valores dos outros primitivos, e mostrar que o primitivo em questão pode assumir diferentes valores (ou seja, seu valor não é fixado univocamente pelos valores dos outros primitivos). No caso da força, mostram, em um exemplo simples, que as acelerações de um conjunto de corpos colineares podem ser devidas a distintos conjuntos de forças (ver Fig. VIII.2).

O exemplo é trivial porque os dois conjuntos de forças, α={ f 0}, β={ f 1, f 2}, fornecem as mesmas forças resultantes em cada corpo. Isso revela a diferença entre a abordagem de McKinsey et al. e os de Kirchhoff e Mach (seção VIII.2). Kirchhoff define a força a partir da massa e da aceleração. Assim, no exemplo da Fig. VIII.2, as duas situações correspondem à mesma força em cada partícula, que no caso é a força resultante. Na abordagem descritivista de Kirchhoff, não faria sentido nesse exemplo distinguir os casos (α) e (β), a não ser que houvesse alguma outra maneira empírica de distinguir essas situações. Já McKinsey et al. partem do princípio que existem os dois conjuntos distintos de forças, e que cada uma das forças indicadas é real, mesmo que empiricamente os conjuntos de forças sejam indistinguíveis. Apesar de termos citado um parágrafo em que apresentam um discurso instrumentalista, neste momento eles adotam uma postura mais realista que a de Kirchhoff, com relação ao conceito de força.

Com relação a Mach, consideram plausível que se pegue cada partícula, e que cada uma seja submetida (individualmente) ao procedimento operacional para se determinar sua massa, em relação a uma massa de referência. No entanto, tal procedimento envolve um cientista experimental, e McKinsey et al. não vêem como seria possível incorporar tal cientista em um sistema clássico de mecânica de partículas!

FLF0472 Filosofia da Física (USP-2008) Cap.VIII: Axiomatização da Mecânica Clássica

51

Figura VIII.2: Exemplo de McKinsey et al. de dois conjuntos de forças (indicadas por flechas) que geram as mesmas acelerações.

6. O Debate entre Axiomatizações Empiristas e Dedutivistas Vimos até aqui duas estratégias para se fundar a mecânica clássica de partículas. Na

axiomatização informal de Newton, cada axioma pretende exprimir uma lei fundamental do Universo, ou seja, pretende ter um importante conteúdo físico, mesmo que haja redundâncias (a 1a lei é um caso particular da 2a). A maioria das revisões formuladas no séc. XIX (que vimos na seção VIII.2) envolviam a questão de se os postulados de Newton exprimiam diretamente fatos observados na natureza, ou se eles envolviam conceitos teóricos (não diretamente observáveis), como “força”. A tentativa de axiomatizar uma teoria física com base em postulados próximos à observação pode ser chamada de abordagem empirista ou operacional (ou mesmo “indutivista”) à axiomatização de teorias científicas.

Já a abordagem de McKinsey, Sugar & Suppes encara o conceito de força de maneira realista (mesmo adotando um tom geral instrumentalista), aceitando que se possa definir esse conceito de modo independente das observações. Tal abordagem pode ser chamada de dedutivista ou realista.

Outros autores propuseram axiomatizações mais empiristas do que as de McKinsey et al. Herbert Simon, pensador multifacetado, expoente da inteligência artificial e ganhador do Prêmio Nobel de Economia, escreveu vários trabalhos formulando uma axiomatização de sabor mais empirista56. Ele contorna as dificuldades que o método de Mach enfrenta para definir operacionalmente massa, ao incluir a lei da atração gravitacional como um axioma. Dentre as conclusões que obteve, está a de que se se quiser definir força a partir da 2a lei de Newton, então a lei da gravitação se torna uma lei empírica. Mas se, de maneira alternativa, se quiser definir força a partir do axioma correspondente à lei da gravitação, então F=ma se

56 SIMON, H.A. (1946), “The Axioms of Newtonian Mechanics”, Philosophical Magazine (series 7) 38, 888-905. SIMON, H.A. (1954), “The Axiomatization of Classical Mechanics”, Philosophy of Science 21, 340-3. SIMON, H.A. (1970), “The Axiomatization of Physical Theories”, Philosophy of Science 37, 16-26.

FLF0472 Filosofia da Física (USP-2008) Cap.VIII: Axiomatização da Mecânica Clássica

52

torna uma lei empírica da Física. Ou seja, a questão de qual é a convenção (definição) e qual é a lei empírica depende da perspectiva que se adota.

Um interessante balanço geral deste debate é fornecido pelo filósofo da física inglês Jon Dorling57:

Este resultado [de Suppes e colegas] é normalmente tomado como mostrando que, ao contrário das visões positivistas de Mach, massas e forças são termos teóricos que não podem ser eliminados em favor de termos de observação. À primeira vista, essa conclusão parece também fornecer um forte apoio para o hipotético-dedutivismo, contra o indutivismo. Porém, é difícil aceitar os resultados facilmente provados de Suppes da maneira em que são vendidos filosoficamente. Por um lado (ao contrário do que a maioria dos filósofos parece supor), os físicos matemáticos parecem, em geral, ter tido sucesso em eliminar termos teóricos em favor de termos mais diretamente observáveis [...] (DORLING, 1977, p. 55.)

Dorling cita as axiomatizações operacionais da Termodinâmica e da Mecânica

Quântica feitas por Robin Giles, e se detém numa axiomatização da Mecânica Clássica feita por G.W. Mackey (1963), que fornece uma generalização do método de Mach para se determinarem operacionalmente as massas. Conclui que o resultado de independência de McKinsey et al. é decorrente da “escolha idiossincrática” de primitivos feita por eles, e que seu resultado não é geral, não afetando a plausibilidade de axiomatizações operacionais ou positivistas.

57 DORLING, J. (1977), “The Eliminability of Masses and Forces in Newtonian Particle Mechanics: Suppes Reconsidered”, British Journal for the Philosophy of Science 28, 55-7.

Filosofia da Física Clássica Cap. IX

53

A Ontologia do Eletromagnetismo Questão: Quais conceitos do eletromagnetismo correspondem a entidades

reais ? 1. Critérios para estabelecer o que é Real

A teoria do eletromagnetismo de Maxwell postulou a existência de diversos “campos” (definiremos este conceito na seção IX.4), como o elétrico E, o de indução magnética B, o potencial φ e o potencial vetor A. Quais deles correspondem a entidades reais? Em nosso ensino de física, E e B são considerados reais, e a luz é costumeiramente representada como ondas E e B. Já o potencial vetor é considerado irreal, apenas uma representação matemática. Qual o critério usado para se estabelecer que um termo teórico corresponde ou não a uma entidade real? Iniciaremos este capítulo examinando esta questão filosófica, e depois discutiremos visões alternativas, uma que defende que o campo magnético não é real, e outra que o potencial vetor também é real.

O que é real? O protótipo de um objeto real é uma pedra. Ela é dura, colorida, tem até gosto, continua igual mesmo que eu a jogue, tem uma forma tridimensional que é consistente com todas as imagens formadas de diferentes perspectivas, é facilmente concebida e representada pela minha mente, posso lhe dar um nome, se alguém a atirar em mim eu sentirei dor, e se eu jogá-la contra uma vidraça terei o poder de causar a quebra desta.

Podemos extrair desta caracterização quatro critérios para decidir se um objeto é real ou não. Tais critérios não são necessariamente exaustivos, e podem não ser independentes, mas servirão como um ponto de partida para discutir se determinado objeto, como um arco-íris, uma sombra, um quark ou uma partícula virtual, é real. Quando consideramos um objeto real, ele costuma ser:53

1) Observável. Se observamos algo, temos boa confiança de que ele existe. Há porém ilusões, como lampejos de luz quando batemos a cabeça, e há objetos visíveis que interpretamos como sendo distintos do que são, como as aparições de discos voadores nos céus. O sentido do tato parece ter mais importância na determinação de que algo é real. Vemos um arco-íris mas não conseguimos pegá-lo: será que ele é real? Quando todo mundo observa o mesmo objeto, há mais razões para considerarmos que o objeto é real, mas mesmo observações privadas, como o lampejo ilusório ou uma dor no calcanhar, são indício de um evento real em nosso corpo.

2) Invariante. Ao tratar de entidades inobserváveis, o critério de invariância adquire muita importância. Aquilo que permanece constante ante transformações de coordenadas ou de perspectivas costuma ser considerado real. Na teoria da relatividade restrita, comprimentos e durações temporais variam com o referencial, mas há um “intervalo espaço-temporal” que permanece invariante, sugerindo que seja mais real do que o espaço e o tempo separados, apesar de estes serem observados. Na teoria quântica, a função de onda ψ(r) é invariante ante mudanças no aparelho de medição, ou seja, ante mudanças no observável sendo medido. Isso faz alguns autores admitirem que a “onda de probabilidade” ψ(r) seja real, mas os críticos desta opinião argumentam que ela não é diretamente observável e nem satisfaz o critério seguinte, não sendo por isso real.

3) Concebível. Outro critério importante para aceitarmos que um conceito corresponda a algo real é que ele possa ser representado de maneira não-problemática em uma teoria. A

53 Uma discussão semelhante, sobre o que é “fisicamente real”, é apresentada em NAGEL (1961), op. cit. (nota 28), pp. 146 ff.

FLF0472 Filosofia da Física (USP-2008) Cap.IX: A Ontologia do Eletromagnetismo

54

função de onda mencionada no parágrafo anterior estaria sujeita a “colapsos não-locais” (falaremos sobre a localidade na seção VIII.4), e para duas partículas correlacionadas ψ(r1,r2) seria definida em seis dimensões, o que é problemática teoricamente. A maioria dos cientistas não acredita em fantasmas porque (entre outras razões) estes não são explicáveis pela teoria física atual. Na física, podemos aceitar que a energia cinética de uma bala seja real porque esse termo teórico está presente em leis científicas bem confirmadas e aceitas. NAGEL salienta também que se um termo teórico aparecer em diferentes leis experimentais, aumenta nossa confiança em sua realidade.

4) Causalmente potente. Se um objeto apresenta “poderes causais”, isso aumenta nossa crença em sua realidade. Se uma bruxa consegue lançar um encantamento e quebrar uma vidraça, passamos a levar seriamente que seu encantamento é real. Em discussões sobre a realidade do mental (como sendo distinto do corporal ou cerebral), às vezes utiliza-se o argumento de que seriam os estados mentais (e não prioritariamente os correspondentes estados cerebrais) que causariam nossas ações, de forma que tais estados seriam reais (e não meros “epifenômenos” do cerebral). Em filosofia da biologia, discute-se qual é o “nível de seleção” que tem realidade (o gene, o indivíduo ou o grupo) a partir de seu poder causal.

Na presente discussão, enfocamos objetos individuais, mas há também uma longa discussão sobre a realidade de entidades envolvendo mais de um indivíduo, como conjuntos de indivíduos (um conjunto existe ou é apenas uma representação), ou propriedades universais e entidades matemáticas, que examinamos na seção I.4.

2. Ampère e o Magnetismo como Epifenômeno

Em julho de 1820, o dinamarquês Hans Christian Ørsted descobriu que, ao colocar um fio de platina, condutor de corrente galvânica, próximo e paralelamente a uma bússola, esta tendia a girar para uma posição quase perpendicular ao fio (o efeito não era completo devido ao campo magnético da Terra). Com isso, enunciou sua lei fundamental do eletromagnetismo: “o efeito magnético da corrente elétrica tem um movimento circular em torno dela”.54

Figura IX.1: Forças entre imãs e entre espiras de corrente equivalentes.

54 MARTINS, R.A. (1986), “Ørsted e a Descoberta do Eletromagnetismo”, Cadernos de História e Filosofia da Ciência 10, pp. 89-114. Este artigo é seguido pela tradução do texto original de Ørsted”.

FLF0472 Filosofia da Física (USP-2008) Cap.IX: A Ontologia do Eletromagnetismo

55

Em Paris, em setembro, André-Marie Ampère construiu o primeiro galvanômetro e mostrou que dois fios paralelos, carregando corrente no mesmo sentido, se atraem. Em outubro, François Arago construiu os primeiros solenóides e Jean Baptiste Biot & Félix Savart anunciaram a lei de força entre uma corrente e um imã. Em 1821, em Londres, Michael Faraday conseguiu produzir um movimento circular constante de um imã em torno de uma corrente (e vice-versa).

A maioria dos cientistas dava igual importância aos efeitos elétricos, de um lado, e aos efeitos magnéticos, de outro. Podemos dizer que eletricidade e magnetismo tinham o mesmo “estatuto ontológico”, ou seja, considerava-se que ambos existiam na realidade. Ampère, porém, impressionou-se com a equivalência da ação de um imã e de uma espira de corrente elétrica. A Fig. IX.1 apresenta as forças que surgem entre dois imãs, em diferentes disposi-ções, e as análogas forças entre duas espiras de corrente. Ampère, então, lançou a hipótese de que a ação magnética nada mais é do que a ação de espiras elétricas de dimensões atômicas! Em outras palavras, os efeitos magnéticos seriam apenas “epifenômenos” dos elétricos, ou seja, no fundo nada mais seriam do que conseqüências de correntes elétricas fechadas.

Como explicar, porém, o fato de que uma agulha de ferro pode não estar imantada, mas que ao entrar em contato com um imã, torna-se magnética? Ampère postulou que cada átomo de ferro, nas condições normais em que não está magnetizado, teria correntes dispostas de acordo com a superfície de uma maçã (Fig. IX.2a). O resultando desta disposição seria um campo magnético interno ao átomo (na forma de um círculo passando por dentro das espiras), mas um campo nulo no exterior do átomo. No entanto, se o ferro fosse aproximado de um imã e se magnetizasse, o que ocorreria, segundo Ampère, seria uma deformação como a da Fig. IX.2b, gerando um campo magnético fora do átomo, perpendicular ao plano do desenho.55

Figura IX.2: Modelo pictórico de um átomo de ferro, segundo Ampère. As linhas referem-se a correntes elétricas nos átomos. O caso (a) representa a situação sem magnetização, e o caso (b) o átomo magnetizado. Neste último caso o campo magnético é perpendicular ao plano do desenho.

Hoje em dia, a tese de que o magnetismo dos materiais é devido a correntes atômicas pode ser sustentada, mas a explicação é estatística. A circulação de elétrons em um átomo de ferro pode ser visto como gerando um campo magnético, mas se tais átomos estiverem orientados ao acaso, o efeito magnético global será nulo. Com a aproximação de um imã, o que ocorre é um alinhamento dos átomos, de tal forma que seus campos magnéticos apontam mais ou menos na mesma direção e sentido, gerando uma magnetização do material como um todo.

Um problema para a tese de Ampère é o fenômeno do momento magnético intrínseco de elétrons, chamado de “spin”. É como se um elétron fosse um minúsculo imã. Para tentar 55 As Figs. IX.2 e IX.3 foram adaptadas de TRICKER, R.A.R. (1965), Early Electrodynamics, Pergamon, Oxford, pp. 29-30 e 43.

FLF0472 Filosofia da Física (USP-2008) Cap.IX: A Ontologia do Eletromagnetismo

56

explicar esse magnetismo a partir do movimento de cargas elétricas, pensou-se no elétron como uma esfera elétrica em rotação, mas os cálculos mostraram que a velocidade de rotação necessária para gerar o spin do elétron violaria a teoria da relatividade restrita. É possível, porém, elaborar outros modelos para o spin do elétron56, de maneira a salvar a tese de Ampère do primado ontológico da eletricidade.

Recentemente, André Assis apresentou um argumento contra a realidade do campo magnético57, baseado no princípio de razão suficiente de Leibniz (ver seção V.4). Se considerarmos uma espira circular em um plano, qualquer força gerada por este sistema em alguma carga localizada no plano estará direcionada paralela ao plano (nunca para fora do plano). Que razão teríamos, então, para postular a existência de um vetor de indução magnética apontada para fora do plano? Que razão teríamos para estipular que este vetor está apontado “para cima” do plano e não “para baixo”? Não haveria razão para quebrar essa simetria. Logo, o campo magnético não existiria.

3. Forças Magnéticas violam o Princípio de Ação e Reação?

Ampère buscou construir uma teoria eletromagnética que satisfizesse os princípios da mecânica de Newton, concebendo que os elementos infinitesimais de corrente se atrairiam ou se repeliriam segundo uma força central, satisfazendo o princípio de ação e reação (3a lei de Newton). Para exprimir a ação entre uma espira elétrica e um imã (ou entre dois imãs), Ampère substituía o imã pela espira equivalente, aplicava sua lei de força para cada par de elementos de corrente, fazia a integração ao longo de cada circuito fechado, e obtinha a força resultante entre os dois sistemas.

Este, porém, era um método diferente daquele introduzido por Biot & Savart, que em outubro de 1820 obtiveram uma lei de força entre um elemento de corrente e um imã. Para este tipo de interação, a lei de Biot-Savart, ou sua reformulação por Grassmann (1845), foi adotada pela maioria dos físicos, mas ela tinha a característica peculiar de nem sempre satisfazer o princípio de ação e reação. A Fig. IX.3 ilustra esta violação para dois elementos de corrente. Usando a regra da mão direita, vemos que o elemento 1 gera um campo magnético 21B

r no elemento 2, o que resulta na força 21F

r indicada, que não é central. Por outro

lado, o campo magnético exercido por 2 em 1 é nulo, de forma que não haveria força resultante em 2. Temos assim uma clara violação do princípio de ação e reação!

Figura IX.3: Forças entre elementos de corrente segundo Biot & Savart. 56 Ver referências em PESSOA JR., O. (2003), Conceitos de Física Quântica, vol. 1, Livraria da Física, São Paulo, pp. 145-6. 57 ASSIS, A.K.T. (1999), “Arguments in favour of Action at a Distance”, in Chubykalo, A.E.; Pope, V. & Smirnov-Rueda, R. (orgs.), Instantaneous Action at a Distance in Modern Physics – “Pro” and “Contra”, Nova Science, Commack (Nova Iorque), pp. 45-56; ver p. 54.

FLF0472 Filosofia da Física (USP-2008) Cap.IX: A Ontologia do Eletromagnetismo

57

O curioso é que os dois métodos, o de Ampère e o de Biot-Savart, quando aplicados para circuitos inteiros fechados (o que envolve a integração da contribuição de todos os elementos), resultam sempre no mesmo resultado!

Após a descoberta da indução eletromagnética por Faraday e Joseph Henry, em 1831, tornou-se necessário formular uma teoria mais abrangente para o eletromagnetismo. Isso foi feito por Franz Neumann, em 1845, por Wilhelm Weber, a partir de 1846, e por James Maxwell, a partir de 1856. Nesse período, a oposição entre as estratégias de Biot-Savart e Ampère se manteve. Biot-Savart e Grassmann influenciaram a abordagem de Lorentz, de 1892, que é apresentada na maioria dos textos didáticos, juntamente com a teoria de Maxwell. Já a abordagem de Ampère foi retomada por Weber, que manteve a 3a lei de Newton, e acabou formulando uma teoria empiricamente equivalente à de Maxwell. Uma comparação da lei de força de Lorentz, segundo a expansão aproximativa de Liénard-Schwarzschild, e a de Weber, é apresentada por André Assis (que mencionamos na seção anterior), um seguidor contemporâneo da tradição de Ampère e Weber. Ambas as leis de força fornecem os mesmos resultados, quando integradas ao longo de circuitos, a menos de um termo proporcional ao quadrado da velocidade. Tentativas para testar esta diferença não têm levado a resultados conclusivos.58

4. Campos e a Ação por Contato, ou Localidade

Quando falamos em um “campo” na física, como o campo elétrico ou o campo gravitacional, pensamos em uma função matemática geralmente definida em todos os pontos do espaço e do tempo, como E(r,t). Atribuímos realidade para esse campo porque se no instante t colocarmos uma carga q de massa m no ponto r, concebemos que este campo causa uma aceleração a, cujo valor medido será tal que F = ma = q E(r,t). Notamos que a descrição do movimento da carga depende só de uma entidade postulada (o campo) presente localmente em torno do ponto r, no instante t. É verdade que tal campo é gerado por cargas presentes em outras regiões, mas a “causa próxima” do movimento da carga seria o campo, e não as entidades localizadas à distância.

Para testar esta última afirmação, pode-se imaginar o que aconteceria se um “demônio” (ver seção VI.2) arrancasse o Sol de sua posição com a maior aceleração possível. Segundo a teoria da relatividade geral, demoraria 8 minutos (mais 19 ± 8 s) para que a Terra sentisse o baque. A ação ocorrida no Sol não afeta instantaneamente a Terra, mas se propaga a uma velocidade finita igual à da luz. Vemos assim que a noção de campo está intimamente ligada à noção de ação por contato (ou por contigüidade): os efeitos causais não se propagam instantaneamente à distância, mas se propagam de vizinho em vizinho, a uma velocidade finita. Se o arranque do Sol afetasse a Terra instantaneamente, poderíamos dizer que a causa próxima do baque na Terra seria o afastamento do Sol. Neste caso, poderíamos trabalhar com uma função potencial gravitacional definida em todo espaço, U(r,t), como fez Poisson em 1813, mas isso não seria um “campo”, no sentido estrito, pois envolve ação à distância.

Um campo (no sentido estrito) teria então três características: (i) Seria definida em todos (ou quase todos) os pontos do espaço e do tempo de uma

determinada região, correspondendo assim a uma entidade “espalhada”, podendo ser associada a uma energia.

(ii) Em geral, tem um caráter meio abstrato ou fantasmagórico, pois não é diretamente observável (sua existência é inferida dos efeitos que causa), podendo ser caracterizado como

58 ASSIS, A.K.T. (1995), Eletrodinâmica de Weber, Unicamp, Campinas.

FLF0472 Filosofia da Física (USP-2008) Cap.IX: A Ontologia do Eletromagnetismo

58

uma “potencialidade” no sentido aristotélico (seção II.3), o que justifica o uso do termo “potencial” na física matemática.

(iii) Os efeitos se propagam a uma velocidade finita, numa ação por contato. Isso é também expresso pelo termo localidade.

Esta última noção de ação por contato ou localidade estava presente na filosofia mecânica de Descartes e Huygens (seção III.4), e retornou à física a partir dos trabalhos de Faraday no eletromagnetismo. A teoria da relatividade geral de Einstein é uma teoria da gravitação com ação por contato. Assim, podemos dizer que em 1922 toda a física hegemônica era local. Isso é razoável: como é que algo que acontece no Sol poderia chegar até nós instantaneamente?

No entanto, com a teoria quântica, especialmente a partir do teorema de Bell (1964), a não-localidade voltou a figurar nas discussões de física. É costume dizer que “Einstein estava errado” (no seu trabalho com Podolsky e Rosen, de 1935) e que a não-localidade se manifesta em pares de partículas “emaranhadas”. No entanto, a situação é mais sutil do que parece. A questão envolve uma escolha entre uma postura instrumentalista (positivista) e uma realista (seção IV.4). O teorema de Bell diz que se alguém adotar uma postura realista com relação à teoria quântica, ele é obrigado a aceitar a não-localidade (ação à distância). Por exemplo, se alguém atribui realidade à função de onda ψ(r) (que mencionamos na seção IX.1), então terá que aceitar a existência de colapsos não-locais. Porém, numa visão instrumentalista (para a qual ψ(r) é apenas um objeto matemático), o mundo se comporta de maneira local. Isso se reflete na impossibilidade de transmitir “informação” (algo macroscópico e observável) a uma velocidade maior do que a luz. 5. O Potencial Vetor é um Campo Real?

Em seu estudo das propriedades eletromagnéticas de um meio, Faraday concluiu que os efeitos eletromagnéticos se propagam por contato a partir de deformações do “estado eletrotônico” do meio. Maxwell matematizou esta noção (ver cap. X), levando ao conceito de potencial vetor A. Este campo possui as seguintes propriedades:

(i) O rotacional de A é o campo magnético: ∇ × A = B. (ii) Ele é um potencial para o campo elétrico, juntamente com o potencial escalar φ:

E = –∂A/∂t – ∇φ. (iii) A seguinte transformação de calibre altera A e φ, mas mantém os valores de E e

B, para qualquer função escalar ψ : A → A + ∇ψ ; φ → φ – (1/c)∂ψ/∂t . Assim, tais transformações não alteram as medições experimentais.

(iv) Fixando-se ∇·A = 0, pode-se calcular o valor de A a partir da densidade de corrente j: ∇2·A = –j/(ε0 c2), de forma que A seja paralelo a j.

(v) A pode ser interpretado como um “momento reduzido”. Assim, em analogia com a 2a lei de Newton, F = ma = ∂p/∂t, onde p é o momento linear, tem-se para a força elétrica: F = qE = ∂(–qA)/∂t, de forma que –qA age como um momento.

(vi) Do potencial vetor pode-se derivar a energia do campo: U = ∫ j·A dV. (vii) Em alguns problemas complicados, as integrais envolvendo A são mais fáceis de

trabalhar do que aquelas envolvendo B. (viii) Por fim, o potencial vetor reaparece da mecânica quântica, na teoria da

relatividade e no princípio de mínima ação.

FLF0472 Filosofia da Física (USP-2008) Cap.IX: A Ontologia do Eletromagnetismo

59

Richard Feynman59 escreveu uma instrutiva apresentação ao conceito de campo, em que discute a questão de se o potencial vetor A do eletromagnetismo é um campo real ou não.

Na verdade, seu conceito de “real” é um tanto instrumentalista. Ele escreve: “devemos dizer que a frase ‘um campo real’ não tem muito significado”, mas ele diz isso basicamente por causa do critério de observação (da seção IX.1): “você não pode pôr sua mão e sentir o campo magnético”. Para Feynman, “um campo ‘real’ é portanto um conjunto de números que especificamos de tal maneira que o que acontece num ponto depende apenas dos números naquele ponto.” A discussão do físico norte-americano é pertinente mesmo que adotemos uma concepção mais realista de “real”.

O principal argumento utilizado contra a realidade do potencial vetor A é que seu valor não é único (item iii acima), mas se levarmos em conta a teoria da relatividade (seção seguinte), o mesmo se aplicaria para os campos elétricos e magnéticos usuais. Outro argumento contra a realidade é que A não aparece explicitamente em expressões de força, como F = q(E + v × B); se tivermos uma região em que B = 0, não haverá força magnética mesmo se A ≠ 0.

No entanto, com a física quântica, descobriu-se um efeito que só pode ser explicado, em termos locais, a partir do campo A! Este é o chamado efeito Aharonov-Bohm, formulado explicitamente por esses dois autores em 1959, mas já previsto em trabalho anterior de Ehrenberg & Siday (1949). Um feixe de elétrons passa em torno de um solenóide praticamente infinito (em outro arranjo possível, o solenóide tem forma toroidal), tendo-se o cuidado de blindar o solenóide para impedir a penetração de elétrons (Fig. IX.4). A física quântica prevê que neste experimento os elétrons se comportam como ondas, formando-se um padrão de interferência na tela, mesmo quando o solenóide está desligado. Neste arranjo, o campo magnético externo ao solenóide é nulo, e classicamente não se esperaria nenhum efeito sobre os elétrons propagando à volta do solenóide. Mas ao se ligar o solenóide, o que se observa é um deslocamento uniforme da franja de interferência, explicado por uma variação na fase relativa das amplitudes de onda que passam por um lado e por outro do solenóide. Como se dá esta alteração na fase relativa?

Figura IX.4: Arranjo do experimento de Aharonov-Bohm. Quando o solenóide é ligado, as franjas sofrem um deslocamento.

59 FEYNMAN, LEIGHTON & SANDS (1963), op. cit. (nota 40), vol. II, p. 15-7. Sobre o potencial vetor, ver também p. 14-10.

FLF0472 Filosofia da Física (USP-2008) Cap.IX: A Ontologia do Eletromagnetismo

60

Ora, esta fase é teoricamente expressa como [ ]∫ ⋅drA)(exp hie/ . Assim, a teoria nos diz que ela depende de uma integral em termos do valor do potencial vetor na região externa ao solenóide, por onde passa a onda eletrônica. O efeito assim é “local”. Isso então sugere que A tenha realidade, no sentindo usual atribuído a campos.

No entanto, nem todos os físicos estão dispostos a atribuir realidade ao potencial vetor. Assim, alguns preferem considerar que há um efeito não-local (ação à distância) do campo magnético dentro do solenóide em uma região distante, fora do solenóide. No entanto, tal ação não poderia ser instantânea.60

6. Invariantes da Teoria da Relatividade

Não cabe aqui fazer uma exposição da teoria da relatividade restrita, mas vale a pena salientar uma discussão filosófica que surge com esta teoria, a respeito da realidade do espaço e do tempo. O que ocorre, segundo esta teoria desenvolvida por Einstein em 1905, é que as medições de comprimento ∆l que são realizadas em um certo objeto, ou as medições de tempo ∆t entre dois eventos, terão valores diferentes conforme o referencial inercial R ou R’ em que se encontra o observador. No entanto, há uma grandeza conhecida como “intervalo espaço-temporal” ∆I, que pode ser definido a partir de ∆I 2 := c2 ∆t 2 – ∆l 2, onde c é uma constante que equivale à velocidade da luz. Este intervalo ∆I é invariante com relação ao referencial do observador, o que, segundo os critérios de realidade propostos na seção VIII.1, sugere que ele tenha realidade. O comprimento de um determinado objeto seria medido de maneiras diferentes (conforme o referencial) porque cada referencial observa o objeto numa perspectiva diferente (o mesmo valeria para medições temporais). Segundo os livros didáticos, o espaço-tempo é absoluto (tem o mesmo valor quando calculado por diferentes observadores inerciais, é um “invariante de Lorentz”), ao passo que o espaço e o tempo (tomados individualmente) são relativos.61

A tese filosófica de que o que tem realidade é o intervalo espaço-temporal, e que espaço e tempo são apenas visões em perspectiva do intervalo, não é aceita por todos, e há uma discussão na literatura a este respeito.

Nossa intenção aqui, porém, é estender a “interpretação perpectivista” para as entidades eletromagnéticas. O campo magnético B, gerado por um elétron em movimento uniforme, terá valor nulo em um referencial que se move juntamente com o elétron. O campo elétrico E medido também variará conforme o referencial do observador. O que se mostra na teoria da relatividade é que há dois invariantes de Lorentz, que nomearemos I1 e I2 (não confundir com o intervalo espaço-temporal I): I1 := E2 – c2B2 , e I2 := (E·B)2 . Seriam apenas essas grandezas que teriam realidade, segundo a interpretação perspectivista.

60 Um relato do experimento de Aharonov-Bohm encontra-se em TONOMURA, A. (1993), Electron Holography, Springer, Berlim, pp. 57-67. Ver também OLARIU, S. & POPESCU, I.I. (1985), “Quantum Effects of Electromagnetic Fluxes”, Reviews of Modern Physics 57, 339. 61 Ver, por exemplo: GAZZINELLI, R. (2005), Teoria da Relatividade Especial, Blücher, São Paulo, p. 83. Sobre os invariantes do eletromagnetismo, ver p. 113.