blaise pascal - ricardosheley.files.wordpress.com · em 1666 escreveu de arte combinatória, no...

27
Blaise Pascal Blaise Pascal (Clermont-Ferrand, 19 de Junho de 1623 Paris, 19 de Agosto de 1662) foi um físico, matemático, filósofo moralista e teólogo francês. Blaise Pascal era filho de Étienne Pascal e Antoniette Bejon. Perdeu a sua mãe com três anos de idade. Seu Pai tratou da sua educação por ele ser o único filho do sexo masculino. A educação que lhe foi dada por seu pai tinha em vista o desenvolvimento correto da sua razão e do seu juízo. O recurso aos jogos didáticos era parte integrante do seu ensino em disciplinas tão variadas como a História, a Geografia ou a Filosofia. Blaise Pascal contribuiu decisivamente para a criação de dois novos ramos da matemática: a Geometria Projetiva e a Teoria das probabilidades. Em Física, estudou a mecânica dos fluidos, e esclareceu os conceitos de pressão e vácuo ampliando o trabalho de Evangelista Torricelli. É ainda o autor da primeira máquina de calcular mecânica, a Pascaline, e de estudos sobre o método científico. Seguindo o programa de Galileu e Torricelli, refutou o conceito de "horror ao vazio". Os seus resultados geraram numerosas controvérsias entre os aristotélicos tradicionais. Tinha um filho chamado Nycolas Guttemberg, também era filho de um professor de matemática, Etienne Pascal, teve uma educação muito religiosa tendo-se recolhido numa vida ascética após a crise de 1654, período em que escreve várias obras de teor religioso. O talento precoce para as ciências físicas levou a família para Paris, onde ele se consagra ao estudo da matemática. Acompanhou o pai quando este foi transferido para Rouen e lá realizou as primeiras pesquisas no campo da Física. Realizou experiências sobre sons que resultaram em um pequeno tratado (1634) e no ano seguinte chegou à dedução de 32 proposições de geometria estabelecidas por Euclides. Publicou Essay pour les coniques (1640), contendo o célebre Pascal. Como matemático, interessou-se pelo cálculo infinitesimal, pelas sequências, tendo enunciado o princípio da recorrência matemática. Criou um tipo de máquina de calcular que chamou de La pascaline (1642), a primeira calculadora mecânica que se conhece, conservada no Conservatório de Artes e Medidas de Paris. Em 1646 a família converte-se ao Jansenismo. De volta a Paris (1647), influenciado pelas experiências de Torricelli, enunciou os primeiros trabalhos sobre o vácuo e demonstrou as variações da pressão atmosférica. A partir de então, desenvolveu extensivas pesquisas utilizando sifões, seringas, foles e tubos de vários tamanhos e formas e com líquidos como água, mercúrio, óleo, vinho, ar, etc., no vácuo e sob pressão atmosférica. Seu pai morrera em 1651. Na sequência de uma experiência mística em finais 1654, ele fizera a sua "segunda conversão", abandonou o seu trabalho científico, e se dedicou à filosofia e teologia. Suas duas obram mais famosas datam dessa época: Les Provinciales e as Pensées, tempo este durante o conflito entre jansenistas e jesuítas. Neste ano, também escreveu um importante tratado sobre a aritmética dos triângulos. Aperfeiçoou o barômetro de Torricelli e, na matemática, publicou o Traité du triangle arithmétique (1654). Juntamente com Pierre de Fermat, estabelecendo as bases da teoria das probabilidades e da análise combinatória (1654), que o holandês Huygens ampliou posteriormente (1657). Entre 1658 e 1659, escreveu sobre o cicloide e a sua utilização no cálculo do volume de sólidos. Neste mesmo ano, após uma "visão divina", abandonou as ciências para se dedicar exclusivamente à teologia, e no ano seguinte recolheu-se à abadia de Port-Royal des Champs, centro do jansenismo, só voltando às ciências após "novo milagre" (1658). Neste período publicou seus principais livros filosófico-religiosos: Les Provinciales (1656-1657), conjunto de 18 cartas escritas para defender o jansenista Antoine Arnauld, oponente dos jesuítas, que estava em julgamento pelos teólogos de Paris, e Pensées (1670), um tratado sobre a espiritualidade, em que fez a defesa do cristianismo. É em sua obra "Pensées" (Pensamentos) que está a sua

Upload: dangnhan

Post on 07-Nov-2018

217 views

Category:

Documents


0 download

TRANSCRIPT

Blaise Pascal

Blaise Pascal (Clermont-Ferrand, 19 de Junho de 1623 — Paris, 19 de Agosto de 1662) foi

um físico, matemático, filósofo moralista e teólogo francês.

Blaise Pascal era filho de Étienne Pascal e Antoniette Bejon. Perdeu a sua mãe com três anos

de idade. Seu Pai tratou da sua educação por ele ser o único filho do sexo masculino. A

educação que lhe foi dada por seu pai tinha em vista o desenvolvimento correto da sua razão e

do seu juízo. O recurso aos jogos didáticos era parte integrante do seu ensino em disciplinas

tão variadas como a História, a Geografia ou a Filosofia. Blaise Pascal contribuiu

decisivamente para a criação de dois novos ramos da matemática: a Geometria Projetiva e

a Teoria das probabilidades. Em Física, estudou a mecânica dos fluidos, e esclareceu os

conceitos de pressão e vácuo ampliando o trabalho de Evangelista Torricelli. É ainda o autor da

primeira máquina de calcular mecânica, a Pascaline, e de estudos sobre o método científico.

Seguindo o programa de Galileu e Torricelli, refutou o conceito de "horror ao vazio". Os seus

resultados geraram numerosas controvérsias entre os aristotélicos tradicionais. Tinha um filho

chamado Nycolas Guttemberg, também era filho de um professor de matemática, Etienne

Pascal, teve uma educação muito religiosa tendo-se recolhido numa vida ascética após a crise

de 1654, período em que escreve várias obras de teor religioso. O talento precoce para as

ciências físicas levou a família para Paris, onde ele se consagra ao estudo da matemática.

Acompanhou o pai quando este foi transferido para Rouen e lá realizou as primeiras pesquisas

no campo da Física. Realizou experiências sobre sons que resultaram em um pequeno tratado

(1634) e no ano seguinte chegou à dedução de 32 proposições de geometria estabelecidas

por Euclides. Publicou Essay pour les coniques (1640), contendo o célebre Pascal. Como

matemático, interessou-se pelo cálculo infinitesimal, pelas sequências, tendo enunciado o

princípio da recorrência matemática. Criou um tipo de máquina de calcular que chamou de La

pascaline (1642), a primeira calculadora mecânica que se conhece, conservada no

Conservatório de Artes e Medidas de Paris. Em 1646 a família converte-se ao Jansenismo. De

volta a Paris (1647), influenciado pelas experiências de Torricelli, enunciou os primeiros

trabalhos sobre o vácuo e demonstrou as variações da pressão atmosférica. A partir de então,

desenvolveu extensivas pesquisas utilizando sifões, seringas, foles e tubos de vários tamanhos

e formas e com líquidos como água, mercúrio, óleo, vinho, ar, etc., no vácuo e sob pressão

atmosférica. Seu pai morrera em 1651. Na sequência de uma experiência mística em finais

1654, ele fizera a sua "segunda conversão", abandonou o seu trabalho científico, e se dedicou

à filosofia e teologia. Suas duas obram mais famosas datam dessa época: Les Provinciales e

as Pensées, tempo este durante o conflito entre jansenistas e jesuítas. Neste ano, também

escreveu um importante tratado sobre a aritmética dos triângulos. Aperfeiçoou o barômetro de

Torricelli e, na matemática, publicou o Traité du triangle arithmétique (1654). Juntamente

com Pierre de Fermat, estabelecendo as bases da teoria das probabilidades e da análise

combinatória (1654), que o holandês Huygens ampliou posteriormente (1657). Entre 1658 e

1659, escreveu sobre o cicloide e a sua utilização no cálculo do volume de sólidos. Neste

mesmo ano, após uma "visão divina", abandonou as ciências para se dedicar exclusivamente

à teologia, e no ano seguinte recolheu-se à abadia de Port-Royal des Champs, centro

do jansenismo, só voltando às ciências após "novo milagre" (1658). Neste período publicou

seus principais livros filosófico-religiosos: Les Provinciales (1656-1657), conjunto de 18 cartas

escritas para defender o jansenista Antoine Arnauld, oponente dos jesuítas, que estava em

julgamento pelos teólogos de Paris, e Pensées (1670), um tratado sobre a espiritualidade, em

que fez a defesa do cristianismo. É em sua obra "Pensées" (Pensamentos) que está a sua

frase mais citada: "O coração tem suas razões, que a própria razão desconhece”. Como

teólogo e escritor destacou-se como um dos mestres do racionalismo e irracionalismo

modernos e sua obra influenciaram os ingleses Charlese John Wesley, fundadores

da Metodista. Um dos seus tratados sobre hidrostática, Traité de l'équilibre des liqueurs, só foi

publicado postumamente, um ano após sua morte (1663). Esclareceu finalmente os princípios

barométricos, da prensa hidráulica e da transmissibilidade de pressões. Estabeleceu o princípio

de Pascalque diz: em um líquido em repouso ou equilíbrio as variações de pressão transmitem-

se igualmente e sem perdas para todos os pontos da massa líquida. É o princípio de

funcionamento do macaco hidráulico. Na Mecânica é homenageado com a unidade de tensão

mecânica (ou pressão)Pascal (1Pa = 1 N/m²; 105 N/m² = 1 bar).

Pascal, que sempre teve uma saúde frágil, adoece gravemente em 1659, e morre em 19 de

Agosto de 1662, dois meses após completar 39 anos. Encontra-se sepultado na Igreja de

Saint-Étienne-du-Mont, Ilha de França, Paris na França.

Gottfried Leibniz

Gottfried Wilhelm von Leibniz (Leipzig, 1 de julho de 1646 — Hanôver, 14 de

novembro de 1716) foi um filósofo, cientista,matemático, diplomata e bibliotecário alemão.

A ele é atribuída à criação do termo "função" (1694), que usou para descrever

uma quantidade relacionada a uma curva, como, por exemplo, a inclinação ou um ponto

qualquer situado nela. É creditada a Leibniz e a Newton o desenvolvimento

do cálculo moderno, em particular o desenvolvimento da Integral e da Regra do Produto.

Demonstrou genialidade também nos campos

da lei, religião, política,história, literatura, lógica, metafísica e filosofia.

O pai era professor de filosofia moral em Leipzig e morreu em 1652, quando Leibniz tinha

apenas seis anos. Em 1663 ingressa na Universidade de Leipzig, como estudante de Direito.

Em 1666 obtém o grau de doutor em direito, em Nuremberg, pelo ensaio prenunciando uma

das mais importantes doutrinas da posterior filosofia. Nessa época afilia-se à

Sociedade Rosacruz, da qual seria secretário durante dois anos.

Foi o primeiro a perceber que a anatomia da lógica - “as leis do pensamento”- são assunto

de análise combinatória. Em 1666 escreveu De Arte Combinatória, no qual formulou

um modelo que é o precursor teórico de computação moderna: todo raciocínio, toda

descoberta, verbal ou não, é redutível a uma combinação ordenada de elementos tais como

números, palavras, sons ou cores.

Na visão que teve da existência de uma “característica universal”, Leibniz encontrava-se dois

séculos à frente da época, no que concerne à matemática e à lógica.

Aos 22 anos, foi-lhe recusado o grau de doutor, alegando-se juventude. Tinha vinte e seis

anos, quando passou a ter aulas com Christiaan Huygens, cujos melhores trabalhos tratam

da teoria ondulatória da luz. A maior parte dos papéis em que rascunhava suas ideias, nunca

revisando, muito menos publicando, encontra-se na Biblioteca Real de Hanôver aguardando o

paciente trabalho de estudantes. Leibniz criou uma máquina de calcular, superior à que fora

criada por Pascal, fazendo as quatro operações.

Em Londres, compareceu a encontros da Royal Society, em que exibiu a máquina de calcular,

sendo eleito membro estrangeiro da Sociedade antes de sua volta a Paris em março de 1673.

Em 1676, já tinha desenvolvido algumas fórmulas elementares do cálculo e tinha descoberto

o teorema fundamental do cálculo, que só foi publicado em 11 de julho de 1677, onze anos

depois da descoberta não publicada de Newton. No período entre 1677 e 1704, o cálculo

leibniziano foi desenvolvido como instrumento de real força e fácil aplicabilidade no continente,

enquanto na Inglaterra, devido à relutância de Newton em dividir as descobertas matemáticas,

o cálculo continuava uma curiosidade relativamente não procurada.

Durante toda a vida, paralelamente à Matemática, Leibniz trabalhou para aristocratas,

buscando nas genealogias provas legais do direito ao título, tendo passado os últimos quarenta

anos trabalhando exclusivamente para a família Brunswick, chegando a confirmar para os

empregadores o direito a metade de todos os tronos da Europa. As pesquisas levaram-no

pela Alemanha, Áustria e Itália de1687 a 1690. Em 1700, Leibniz organizou a Academia de

Ciências da Prússia, da qual foi o primeiro presidente. Esta Academia permaneceu como uma

das três ou quatro principais do mundo até que os nazistas a eliminaram.

Morreu solitário e esquecido. O funeral foi acompanhado pelo secretário, única testemunha dos

últimos dias.

O pensamento filosófico de Leibniz parece fragmentado, porque seus escritos filosóficos

consistem principalmente de uma infinidade de escritos curtos: artigos de periódicos,

manuscritos publicados muito tempo depois de sua morte, e muitas cartas a muitos

correspondentes. Ele escreveu apenas dois tratados filosóficos, dos quais apenas "Téodiceia"

de 1710 foi publicado em sua vida.

Leibniz data o seu começo na historia da filosofia com seu "Discurso sobre metafísica", que ele

compôs em 1686 como um comentário sobre uma contínua disputa entre Malebranche e

Antoine Arnauld. Isto levou a uma extensa e valiosa correspondência com Arnauld;o Discurso

sobre metafisica não foi publicado até o século 19. Em 1695, Leibniz fez sua entrada pública na

filosofia europeia, com um artigo de jornal intitulado "Novo Sistema da Natureza e da

comunicação das substâncias”. Entre 1695 e 1705, compôs os seus “Novos ensaios sobre o

entendimento humano", um longo comentário sobre John Locke em seus “Ensaios sobre o

entendimento humano", mas ao saber da morte de Locke, 1704, perdeu o desejo de publicá-lo,

Isto aconteceu até que os novos ensaios foram publicados em 1765. "A Monadologia",

composta em 1714 e publicada postumamente, é constituída por 90 aforismos.

Leibniz conheceu Espinoza, em 1676, leu alguns de seus escritos inéditos, e desde então tem

sido suspeito de apropriar-se de algumas das ideias de Espinosa. Embora Leibniz admirasse o

poderoso intelecto de Espinosa, ele ficou francamente desanimado com as conclusões de

Spinoza, especialmente por estas serem incompatíveis com a ortodoxia cristã.

Ao contrário de Descartes e Espinoza, Leibniz tinha uma formação universitária completa na

área de filosofia. Sua carreira começou, ao longo de uma influência escolar e aristotélica

traindo a forte influência de um de seus professores de Leipzig, Jakob Thomasius, que também

supervisionou a sua tese de Licenciatura em Filosofia. Leibniz leu ansiosamente Francisco,

jesuíta espanhol respeitado, mesmo em universidades Luteranas. Leibniz estava

profundamente interessado em novos métodos e nas conclusões de Descartes,

Huygens, Newton e Boyle, mas viu estes trabalhos através de uma lente fortemente matizada

por noções escolásticas. No entanto, a verdade é que os métodos de Leibniz e suas

preocupações, muitas vezes anteciparam a lógica e a analítica, assim como a filosofia da

linguagem do século 20

Liberdade x determinação: Leibniz admitia uma série de causas eficientes a determinar o agir

humano dentro da cadeia causal do mundo natural. Essa série de causas eficientes diz

respeito ao corpo e seus atos. Contudo, paralela a essa série de causas eficientes, há uma

segunda série, a das causas finais. As causas finais poderiam ser consideradas como uma

infinidade de pequenas inclinações e disposições da alma, presentes e passadas, que

conduzem o agir presente. Há, como em Nietzsche, uma infinidade imensurável de motivos

para explicar um desejo singular. Nesse sentido, todas as escolhas feitas tornam-se

determinantes da ação. Cai por terra a noção de arbitrariedade ou de ação isolada do contexto.

Parece também cair por terra à noção de ação livre, mas não é o que ocorre. Leibniz acredita

na ação livre, se ela for ao mesmo tempo 'contingente, espontânea e refletida'.

A Contingência: A contingência opõe-se à noção de necessidade, não à de determinação.

A ação é sempre contingente, porque seu oposto é sempre possível.

A Espontaneidade: A ação é espontânea, quando o princípio de determinação está no agente,

não no exterior deste. Toda ação é espontânea e tudo o que o indivíduo faz depende, em

última instância, dele próprio.

A Reflexão: Qualquer animal pode agir de forma contingente e espontânea. O que diferencia o

animal humano dos demais é a capacidade de reflexão que, quando operada, caracteriza uma

ação como livre. Os homens têm a capacidade de pensar a ação e saber por que agem.

As Mônadas: A contribuição mais importante de Leibniz para a metafísica é a sua teoria sobre

as mônodas, expostas em sua obra Mônadologia. As mônadas equivalem para a realidade

metafisica, o que os átomos equivalem para os fenômenos físicos. As mônadas são os

elementos máximos do universo. As mônadas são “formas substancias do ser com” as

seguintes propriedades: elas são eternas, decompostas, individual sujeita as suas próprias leis,

sem interação mútua, e cada uma refletindo o próprio universo dentro de uma harmonia pré-

estabelecida (historicamente um exemplo importante de pampsiquismo). Mônadas são centros

de forças; substância é força, enquanto o espaço, extensão e movimento são meros

fenômenos.

A essência ontológica das mônadas é sua simplicidade irredutível. Assim como os átomos, as

mônadas não possuem nenhuma matéria ou caráter espacial. Elas ainda se diferenciam dos

átomos por sua completa mútua independência, assim as interações entre as mônadas são só

aparentes. Em vez disso por força do principio da harmonia pré-estabelecida, cada mônada,

segue uma instrução pré-programada, peculiar para si, assim uma mônada sabe o que fazer

em cada situação. (Essas "instruções" podem ser análogas à lei cientifica que governam as

partículas subatômicas).Pelo principio dessas instruções intrínsecas, cada monada é como um

pequeno espelho do universo. Mônadas não são necessariamente "diminutas"; e.g., cada ser

humano é constituído por uma mônada, na qual o tema do livre-arbítrio é problematizado.

Deus, também, é uma Mônoda, e a existência de Deus pode ser inferida através da harmonia

que se prevalece diante de todas as mônadas; Deus através de sua razão e vontade se afigura

o universo através da harmonia pré-estabelecida.

As mônadas são referidas e problematizadas por outras correntes filosóficas por:

- Problematização das interações entre a mente e a extensão, como abordado no sistema de

Descartes.

- Falta de individualização inerente no sistema de Espinoza, da qual representa as criaturas

individuais como meros acidentes.

- A mônodalogia parece arbitraria, até mesmo excêntrica.

Os escritos de Leibniz estão a ser discutidos até os dias de hoje, não apenas por suas

antecipações e possíveis descobertas ainda não reconhecidas, mas como formas de avanço

do conhecimento atual. Grande parte de seus escritos sobre a física está incluído na Escritos

Matemáticos de Gerhardt.

Física: Leibniz teve grandes contribuições para a estática e a dinâmica emergentes sobre ele,

muitas vezes em desacordo com Descartes e Newton. Ele desenvolveu uma nova teoria do

movimento (dinâmicas) com base na energia cinética e energia potencial, que postulava o

espaço como relativo, enquanto Newton sentira fortemente o espaço como algo absoluto. Um

exemplo importante do pensamento maduro de Leibniz na questão da física é seu Specimen

Dynamicum de 1695.

Até a descoberta das partículas subatômicas e da mecânica quântica que os regem, muitas

das ideias especulativas de Leibniz sobre aspectos da natureza não redutível a estática e

dinâmica faziam pouco sentido. Por exemplo, ele antecipou Albert Einstein, argumentando,

contra Newton, que o espaço, tempo e movimento são relativos, não absolutos. As regras de

Leibniz são importantes, se muitas vezes esquecidas, provas em diversos campos da física. O

princípio da razão suficiente tem sido invocado na cosmologia recente, e sua identidade dos

indiscerníveis na mecânica quântica, um campo de algum crédito, mesmo com ele tendo

antecipado em algum sentido. Aqueles que defendem a filosofia digital, uma direcção recente

em cosmologia, alegam Leibniz como precursor.

Charles Babbage

Charles Babbage (Londres, 26 de Dezembro de 1791 — Londres, 18 de Outubro de 1871) foi

um cientista, matemático e inventor inglês nascido em Teignmouth, Devon.

Charles Babbage é mais conhecido e, de certa forma, reverenciado como o inventor que

projetou o primeiro computador de uso geral, utilizando apenas partes mecânicas, a máquina

analítica. Ele é considerado o pioneiro da computação. Seu invento, porém, exigia técnicas

bastante avançadas e caras na época, e nunca foi construído. Sua invenção também não era

conhecida dos criadores do computador moderno.

Mais recentemente, entre 1985 e 1991, o Museu de Ciência de Londres construiu outra de

suas invenções inacabadas, a máquina diferencial 2, usando apenas técnicas disponíveis na

época de Babbage.

Segundo outras fontes, Charles Babbage nasceu na Inglaterra, mais precisamente no

endereço 44 Crosby Row, Walworth Road, em Londres. Há uma pequena discrepância,

provinda de três fontes, sobre a data de nascimento de Babbage. A primeira, publicada no

obituário do The Times aponta 26 de Dezembro de 1792. Entretanto, dias mais tarde, um

sobrinho de Babbage escreveu dizendo que seu tio havia nascido precisamente um ano antes,

em 1791. Mais tarde, indícios do 'St. Mary's Newington', de Londres, provaram que Babbage

havia nascido no dia 06 de Janeiro de 1792. A confiabilidade de todas as três fontes é

questionável.

O pai de Babbage, Benjamin Babbage, foi um banqueiro, sócio do Praeds, de 'Bitton Estate',

em Teignmouth. Sua mãe era Betsy Plumleigh Babbage. Em 1808, a família Babbage mudou-

se para a antiga 'Rowdens house', a leste de Teignmouth, e Benjamin Babbage tornou-se

administrador das proximidades da igreja de St. Michael.

Charles Babbage estudou em Cambridge, onde depois lecionou matemática. Foi um dos

fundadores, juntamente com Herschel e Peacock, da Analitical Society (1811) do Trinity

College, em Cambridge. Eleito membro da Royal Society of London (1816), recebeu uma bolsa

do governo para projetar uma calculadora com capacidade para até a vigésima casa decimal

(1823).

Enquanto desenvolvia sua máquina era professor de matemática na University of Cambridge

(1828-1839). Apresentou sua máquina analítica em 1833, tendo sido considerada o ponto de

partida para os modernos computadores eletrônicos.

Publicou diversos artigos sobre matemática, estatística, física e geologia. Também colaborou

para a modernização do sistema de código postal inglês, além de ser o primeiro matemático

que conseguiu colocar em desuso a cifra de Vigenère, utilizando métodos de cripto-

análise (análise de frequência).

Alan Mathison Turing

Alan Mathison Turing (OBE; 23 de Junho de 1912 — 7 de Junho de 1954) foi

um matemático, lógico, criptoanalista e cientista da computação britânico. Foi influente no

desenvolvimento da ciência da computação e proporcionou uma formalização do conceito de

algoritmo e computação com a máquina de Turing, desempenhando um papel importante na

criação do moderno computador.[1]

Durante a Segunda Guerra Mundial, Turing trabalhou para a inteligência britânica em Bletchley

Park, num centro especializado em quebra de códigos. Por um tempo ele foi chefe de Hut 8, a

seção responsável pela criptoanálise da frota naval alemã. Planejou uma série de técnicas para

quebrar os códigos alemães, incluindo o método da bombe, uma máquina eletromecânica que

poderia encontrar definições para a máquina Enigma. Após a guerra, trabalhou no Laboratório

Nacional de Física do Reino Unido, onde criou um dos primeiros projetos para um computador

de programa armazenado, o ACE.

Mais para o fim de sua vida, Turing tornou-se interessado em química. Escreveu um artigo

sobre a base química da morfogênese,[2]

e previu as reações químicas oscilantes como

a reação Belousov-Zhabotinsky, que foram observadas pela primeira vez na década de 1960.

A homossexualidade de Turing resultou em um processo criminal em 1952 - os atos

homossexuais eram ilegais no Reino Unido na época, e ele aceitou o tratamento com

hormônios femininos, castração química, como alternativa à prisão. Morreu em 1954, algumas

semanas antes de seu aniversário de 42 anos, devido a um aparente auto administrado

envenenamento por cianeto, apesar de sua mãe (e alguns outros) ter considerado a sua morte

acidental. Em 10 de setembro de 2009, após uma campanha de internet, o primeiro-

ministro britânico Gordon Brown fez um pedido oficial de desculpas público, em nome do

governo britânico, devido à maneira pela qual Turing foi tratado após a guerra.[3]

A maior parte de seu trabalho foi desenvolvida na área de espionagem e, por isso, somente

em 1975 veio a ser considerado o Pai da informática.

Dedicava-se a teoremas que podiam ser comprovados, e à Teoria da Contabilidade. A sua

preocupação depois de formado era o que se poderia fazer através da computação. Suas

respostas iniciais vieram sob a forma teórica.

Aos 24 anos de idade, consagrou-se com a projeção de uma máquina que, de acordo com um

sistema formal, pudesse fazer operações computacionais. Mostrou como um simples sistema

automático poderia manipular símbolos de um sistema de regras próprias. A máquina teórica

de Turing pode indicar que sistemas poderosos poderiam ser construídos. Tornou possível o

processamento de símbolos, ligando a abstração de sistemas cognitivos e a realidade concreta

dos números. Isto é buscado até hoje por pesquisadores de sistemas com Inteligência

Artificial (IA). Para comprovar a inteligência artificial ou não de um computador, Turing

desenvolveu um teste que consistia em um operador não poder diferenciar se as respostas a

perguntas elaboradas pelo operador eram vindas ou não de um computador. Caso afirmativo, o

computador poderia ser considerado como dotado de inteligência artificial. Sua máquina pode

ser programada de tal modo que pode imitar qualquer sistema formal. A ideia

de contabilidade começou a ser delineada.

Devido a todos esses feitos, Alan Turing é tido como o Pai da ciência da computação.

Em 1943, sob sua liderança foi projetado o Colossus, computador inglês que foi utilizado

na Segunda Guerra Mundial. Utilizava símbolos perfurados em fitas de papel que processava a

uma velocidade de 25 mil caracteres por segundo. O Colossus tinha a missão de quebrar

códigos alemães ultrassecretos produzidos por um tipo de máquina de codificação

chamada Enigma. Os códigos mudavam frequentemente, obrigando a que o projeto do

Colossus devesse tornar a decifração bastante rápida. Turing foi depois até os EUA para um

projeto de transmissão de dados transatlânticos de forma segura.

Como homossexual declarado, no início dos anos 1950 foi humilhado em público, impedido de

acompanhar estudos sobre computadores, julgado por "vícios impróprios" e condenado a

terapias à base de estrogénio, um hormônio (hormona) feminino o que, de fato, equivalia

a castração química e que teve o humilhante efeito secundário de lhe fazer crescer seios.

Em 8 de junho de 1954, um criado de Turing encontrou-o morto, o que tinha ocorrido no dia

anterior, em sua residência em Wilmslow, Cheshire. Um exame post-mortem estabeleceu que a

causa da morte fosse envenenamento por cianeto. Quando seu corpo foi descoberto, uma

maçã estava meio comida ao lado de sua cama, e embora a maçã não tenha sido testada

quanto ao cianeto, especula-se que este foi o meio pelo qual uma dose fatal foi ingerida.

Um inquérito determinou que ele tivesse cometido suicídio, tendo sido então cremado no

crematório de Woking em 12 de junho de 1954.

A mãe de Turing argumentou com veemência que a ingestão fora acidental, causada pelo

armazenamento descuidado de seu filho de produtos químicos de laboratório. O biógrafo

Andrew sugere que Turing pode ter se matado deliberadamente de forma bastante ambígua

para dar à sua mãe alguma negação plausível. Outros sugerem que Turing estava encenando

uma cena do filme Branca de Neve, de 1937, seu conto de fadas favorito, salientando que ele

tinha "um prazer especialmente mordaz na cena em que a bruxa malvada mergulha a maçã na

poção venenosa."

Em 11 de setembro de 2009, 55 anos após sua morte, o primeiro-ministro do Reino

Unido, Gordon Brown, pediu desculpas formais em nome do governo britânico pelo tratamento

preconceituoso e desumano dado a Turing, que o levou ao suicídio.[9][10]

Parte de sua vida foi retratada no telefilme Breaking the Code de 1996 com o ator Derek

Jacobi no papel principal.

John Von Neumann

John von Neumann, nascido Margittai Neumann János Lajos (Budapeste, 28 de

dezembro de 1903 — Washington, D.C., 8 de fevereiro de 1957) foi um matemático húngaro de

etnia judaica, naturalizado estadunidense.

Contribuiu na teoria dos conjuntos, análise funcional, teoria ergódica, mecânica

quântica, ciência da computação, economia, teoria dos jogos, análise

numérica, hidrodinâmica das explosões, estatística e muitas outras as áreas da Matemática.

De fato é considerado um dos mais importantes matemáticos do século XX.[1]

Foi membro do Instituto de Estudos Avançados em Princeton, New Jersey, do qual também

faziam parte Albert Einstein e Erwin Panofsky, quando emigraram para os Estados Unidos,

além de Kurt Gödel, Robert Oppenheimer, George F. Kennan e Hermann Weyl.

Com Edward Teller e Stanislaw Ulam, von Neumann trabalhou em desenvolvimentos chave

da Física Nuclear, relacionados com reações termonucleares e com a bomba de hidrogênio.

Participou também do Projeto Manhattan, responsável pelo desenvolvimento das

primeiras bombas atômicas.

Foi professor na Universidade de Princeton e um dos construtores do ENIAC. Entre os anos

de 1946 e 1953, von Neumann integrou o grupo reunido sob o nome de Macy Conferences,

contribuindo para a consolidação da teoria cibernética junto com outros cientistas

renomados: Gregory Bateson, Heinz von Foerster, Kurt Lewin, Margaret Mead, Norbert

Wiener, Paul Lazarsfeld, William Ross Ashby,Claude Shannon, Erik Erikson e Max Delbrück,

entre outros. Von Neumann faleceu pouco depois, aos 53 anos, vítima de um tumor cerebral.

Neumann János Lajos (ou John von Neumann, depois de anglicanizar o seu nome) foi um

matemático nascido em Budapeste, no império, a vinte e oito de Dezembro de 1903, no seio de

uma rica família judaica, filho de Kann Margit (Margaret Kann) e de Neumann Miksa (Max

Neumann), um advogado que trabalhava num banco. Budapeste era uma capital intelectual em

expansão, e diz-se que a cidade “Estava quase a produzir uma das suas mais brilhantes

gerações de cientistas, escritores, artistas, músicos e úteis milionários expatriados a virem de

uma pequena comunidade desde as cidades-estado da Renascença Italiana.[2]

O pequeno Jancsi (diminutivo para János) teve uma educação elitista e cedo se notou que era

um prodígio:

“Aos seis anos, conseguia trocar piadas com o pai em grego clássico. A família Neumann por

vezes entretinha os seus convidados com demonstrações da habilidade do Johnny para

memorizar agendas telefónicas. Um convidado escolheria uma página e coluna aleatórias da

agenda. O pequeno Johnny lia a coluna algumas vezes e devolvia a agenda ao convidado.

Podia então responder a qualquer questão que lhe colocassem (quem era o número tal e tal?)

ou recitar nomes, endereços e números por ordem.[3]

Conseguia dividir de cabeça algarismos de oito dígitos, aos oito anos tinha lido os quarenta e

quatro volumes da História Universal e trivializado o cálculo e aos 12 tinha lido e entendido o

livro Théorie des Fonctions, de Borel. A distinção de von (Margittai, em Húngaro) entra na

família em 1913, quando o seu pai foi recompensado pelo seu serviço ao império Austro-

Húngaro, tendo Neumann János mudado o seu nome para János von Neumann e

posteriormente para o correspondente alemão Johann von Neumann.

Em 1911, com oito anos, entrou no Lutheran Gymnasium, uma das três melhores instituições

de Budapeste na altura. Em 1921 os pais mandam-no para a Universidade de Berlim, para

estudar engenharia química, e dois anos depois, vai para Zurique. Apesar de von Neumann ter

pouco interesse em engenharia química, esta era uma carreira popular que garantia um bom

nível de vida (ao qual von Neumann estava habituado), um pouco devido ao sucesso dos

químicos alemães entre 1914 e 1918, pelo que o seu pai o encorajou a segui-la. Esteve assim

dois anos em Berlim num programa de química, onde assiste também a um curso de física

(que incluía física estatística), dado por Albert Einstein; posteriormente fez o exame para entrar

no segundo ano de engenharia química no prestigiado Eidgennossische Technische

Hochschule (ETH) em Zurique - no qual Einstein não tinha conseguido entrar numa primeira

tentativa, em 1895, mas sim no ano seguinte.

Durante este tempo de estudo, von Neumann tinha traçado outro plano que estava mais de

acordo com os seus interesses. Entre o fim dos seus estudos em Berlim e antes da ida para

Zurique, entrou na Universidade de Budapeste como candidato para um doutoramento em

matemática. A sua tese de doutoramento foi uma tentativa de axiomatizar a teoria dos

conjuntos, desenvolvida por Georg Cantor, que era um assunto em voga na altura, já tendo

sido estudado por vários professores, causando algumas dores de cabeça à maioria. Von

Neumann fez assim o curso de engenharia química no ETH e, simultaneamente, o seu

doutoramento em matemática em Budapeste, tendo obtido notas máximas mesmo em

disciplinas às quais quase nunca assistia. Depois de acabar a sua tese, logo após obter a

licenciatura pelo ETH, passou nos exames finais com distinção.

Por essa altura, conhece David Hilbert, um matemático que viria a ter grande influência no seu

trabalho. G. Polya admitiu, a propósito da velocidade de raciocínio de von Neumann, que ele

era “O único aluno de quem alguma vez teve medo. Se no decorrer de uma aula falasse de um

problema por resolver, o mais provável era que ele viesse ter comigo no final, com a solução

completa escrita em alguns rabiscos num bocado de papel.[4]

Em 1926 tornou-se então no mais novo Privatdozent na história da Universidade de Berlim,

tendo aí leccionado até 1929, e depois em Hamburgo de 1929 a 1930, altura em que emigrou

para os Estados Unidos com a sua mãe e irmãos. Por esta altura, von Neumann tinha atingido

o estatuto de celebridade, como Poundstone constata em:[3]

“Aos vinte e poucos anos, a fama de von Neumann tinha-se espalhado mundialmente na

comunidade matemática. Em conferências académicas, ele ver-se-ia apontado como um jovem

génio”.

Uma vez nos EUA, mudou Johann para John mas manteve o apelido aristocrático austríaco

von Neumann, ao passo que os seus irmãos adoptaram os apelidos Vonneumann e Neumann

(usando apenas o título de von para certas cerimónias). Também por essa altura se converte

ao Catolicismo de modo a poder casar com Marriette Kövesi. Tinha uma memória prodigiosa,

lembrando-se de tudo quanto tinha aprendido, sendo, por exemplo, um perito em história

Bizantina, e sabendo detalhes do julgamento de Joana d’Arc ou de batalhas da guerra civil

americana. Sobre a lista telefónica de Manhattan, disse uma vez que sabia todos os números

de lá, mas que para poder dispensar a lista, só precisava saber a que nome é que cada

número correspondia. Era profundamente hedonista, gostava de comer e beber bem, levava

um estilo de vida extravagante, promovendo grandes festas que terminavam muito tarde:

“Festas e vida noturna produziam um apelo especial para von Neumann. Enquanto ensinava

na Alemanha, von Neumann tinha sido um frequentador do circuito de vida noturna de Berlim

na era do Cabaret."

“As festas em casa de von Neumann eram frequentes, famosas, e longas.[4]

"

Conduzia de maneira perigosa (a ler um livro, por exemplo) o que frequentemente resultava em

acidente. Certo dia relatou o acidente da seguinte maneira: “As árvores à direita estavam a

passar por mim de uma maneira ordenada, a 60 milhas por hora. De repente, uma delas

atravessou-se no meu caminho!”

Também não se inibia de contar piadas insensíveis nem de olhar persistentemente para as

pernas de mulheres jovens, tendo as secretárias em Los Alamos chegado ao ponto de tapar os

lados das suas mesas com cartolinas.

Ainda em 1930, von Neumann foi convidado para Princeton e em 1933 foi, juntamente

com Albert Einstein, Kurt Gödel, J.W. Alexander, M. Morse, O. Veblen e H. Weyl, selecionado

para a primeira faculdade de matemática do Institute for Advanced Study, onde foi professor

até à data da sua morte, tendo-se-lhes juntado outros notáveis cientistas e matemáticos

como Enrico Fermi e Wigner.

Como Ulam constata, o ensino não era o seu ponto forte: “A sua linha de raciocínio fluida era

difícil de seguir para aqueles menos dotados. Ele destacava-se por escrevinhar equações num

pequeno espaço livre do quadro e por apagar expressões antes que os alunos as pudessem

copiar.[3]

" Apesar disto, era-lhe fácil explicar ideias complexas: “Para um homem para quem

matemáticas complicadas não apresentavam dificuldade, ele podia explicar as suas conclusões

aos não-iniciados com lucidez surpreendente. Depois de uma conversa com ele, uma pessoa

tinha sempre a sensação que o problema era simples e transparente.[5]

Em 1937 divorciou-se de Marriette Kövesi, para, no ano seguinte, se casar com Klara Dan.

Esta, sobre os seus hábitos de trabalho disse que “ele escrevia sempre em casa, durante a

noite ou ao amanhecer. A sua capacidade de trabalho era praticamente ilimitada.” Segundo

Halmos em [1], von Neumann era um trabalhador incansável, chegando cedo ao seu gabinete,

saindo tarde e nunca perdendo tempo. Era também muito sistemático e meticuloso. Por

exemplo, ao ler um manuscrito, ele anotaria na primeira página os números das páginas em

que encontrara erros, e depois o número de erros de cada página. Ainda sobre o método de

trabalho de von Neumann, Halmos salienta a coragem matemática: “…enquanto que alguns

matemáticos, se na procura de um contraexemplo encontrassem uma série infinita com muitas

exponenciais de expoentes quadráticos, prefeririam recomeçar e procurar outro contraexemplo,

von Neumann diria “ah, sim… uma função teta…” e mergulharia nas contas. Não tinha medo

de nada.”

Em 1956 foi-lhe diagnosticado cancro ósseo ou pancreático, possivelmente contraído devido à

exposição à radioatividade enquanto observava os testes da bomba atómica no Oceano

Pacífico ou num trabalho posterior sobre armas nucleares em Los Alamos. O cancro evoluiu

para o cérebro, impedindo qualquer atividade mental.

“Quando von Neumann percebeu que estava incuravelmente doente, a sua lógica forçou-o a

perceber que ia cessar de existir, e por conseguinte, de ter pensamentos… Destroçava o

coração ver a frustração da sua mente, quando toda a esperança se foi, na sua luta contra o

destino que parecia ser inevitável mas inaceitável. O sentido de invulnerabilidade de von

Neumann, ou simplesmente o desejo de viver, estava a debater-se contra factos inalteráveis.

Ele parecia ter um grande medo da morte até ao fim… Nenhum sucesso e nenhuma

quantidade de influência o podiam salvar agora, como sempre tinham feito no passado. Johnny

von Neumann, que tinha sabido como viver intensamente, não sabia como morrer.[4]

“… a sua mente, o amuleto no qual sempre tinha podido confiar, estava-se a tornar menos

confiante. Então veio a quebra psicológica completa; pânico, gritos de terror incontrolável todas

as noites. O seu amigo Edward Teller disse, “Acho que von Neumann sofreu mais quando a

sua mente deixou de funcionar do que alguma vez vi um ser humano sofrer.[6]

Morreu sob segurança militar (uma maneira de impedir que revelasse quaisquer segredos

militares enquanto estava fortemente medicado), a 8 de Fevereiro de 1957.

No início do século XX, a teoria dos conjuntos ainda não tinha sido formalizada e estava em

crise devido ao paradoxo de Bertrand Russell, e a axiomatização da matemática, sobre o

modelo dos Elementos de Euclides, estava a atingir novos níveis de rigor, particularmente na

aritmética e na geometria. Ernst Zermelo e Abraham Fraenkel resolveram parcialmente este

problema, formulando princípios que permitiam a construção de todos os conjuntos usados na

matemática, mas não excluíam a possibilidade de existirem conjuntos que pertencessem a eles

mesmos.

Na sua tese de doutoramento, apresentada em 1925, von Neumann demonstrou como era

possível excluir esta possibilidade de duas maneiras complementares: a noção de classe e

oaxioma da fundação (um dos axiomas da teoria dos conjuntos de Zermelo-Frankel).

Uma aproximação ao problema foi pelo uso da noção de classe: define-se como conjunto uma

classe que pertence a outras classes, enquanto que uma classe própria é uma classe que não

pertence a nenhuma outra classe. De acordo com os axiomas da teoria de Zermelo-Frankel,

não é possível a construção de um conjunto que contenha todos os conjuntos que não

pertencem a si mesmos. Pelo contrário, usando a noção de classe, a classe de todos os

conjuntos que não pertencem a si mesmos pode ser construída, não sendo, no entanto, um

conjunto, mas sim uma classe própria.

A outra aproximação ao problema é conseguida pelo axioma da fundação, que diz que todo o

conjunto pode ser construído a partir da base, numa sucessão ordenada de passos, de tal

modo que se um conjunto pertence a outro, então o primeiro tem necessariamente de vir antes

do segundo na sucessão (o que exclui a possibilidade de um conjunto pertencer a si mesmo).

Para demonstrar que este axioma não estava em contradição com os outros, von Neumann

criou um novo método de demonstração que se tornou numa ferramenta fundamental na teoria

dos conjuntos, o método dos modelos interiores.

Aplicações destas ideias de von Neumann podem ser vistas na definição do Universo de von

Neumann (uma classe V de todos os conjuntos, que é a união de conjuntos Vx, em

que xpercorre todos os números ordinais) e na definição de número ordinal, como um conjunto

que satisfaz determinadas propriedades bem simples.

Desta maneira, o sistema axiomático da teoria dos conjuntos tornou-se completamente

satisfatório, e a pergunta que pairava era se esta axiomática era ou não definitiva, e se estava

ou não sujeita a melhoria. A resposta a esta questão surgiu em Setembro de 1930, no

Congresso de Matemática de Köningsberg, no qual Gödel anunciou o seu primeiro teorema da

incompletude (os sistemas axiomáticos usuais são incompletos, uma vez que não podem

provar todas as verdades que sejam expressas na sua linguagem). Menos de um mês depois,

von Neumann informou Gödel de uma consequência do seu teorema: os sistemas axiomáticos

usuais são incapazes de demonstrar a sua própria consistência. Contudo, Gödel já o tinha

concluído de modo independente, pelo que este resultado é o chamado segundo teorema de

Gödel, sem referência à von Neumann.

Von Neumann tinha uma grande admiração por Gödel, e era frequente elogiá-lo de maneira

entusiástica: “O feito de Kurt Gödel na lógica moderna é singular e monumental – na verdade é

mais do que um monumento, é um marco que se manterá visível longe no espaço e no tempo.

[…] O tema da lógica tem certamente mudado por completo a sua natureza e possibilidades

com o feito de Gödel.[7]

” E quando lhe perguntaram por que não se referia ao trabalho

de Ramsey, que seria conhecido para alguém que se interessasse pelo campo da lógica,

respondeu que depois de Gödel ter publicado os seus artigos sobre a indecidibilidade e

incompletude da lógica, não tinha lido mais nenhum artigo sobre lógica simbólica. Noutra

altura, numa entrevista intitulada “The Mathematician”, disse, a respeito do trabalho de Gödel:

“Isto aconteceu durante a nossa vida, e eu sei como os meus valores sobre a verdade

matemática absoluta mudaram, de maneira humilhantemente fácil, durante este acontecimento,

e como eles mudaram três vezes em sucessão!”

Devido a este fascínio por Gödel e pelo seu trabalho, afigura-se bastante natural que tenha

escolhido a lógica para tese de doutoramento. Tal como Ulam diz:

“No seu trabalho de juventude, estava preocupado não só com a lógica matemática e a

axiomatização da teoria dos conjuntos, mas, simultaneamente, com a substância da teoria dos

conjuntos, obtendo resultados na teoria da medida e na teoria das variáveis reais.[8]

A mecânica quântica trata da natureza das partículas atómicas e das leis que regem as suas

ações. Várias teorias da mecânica quântica começaram a aparecer para justificar as

discrepâncias observadas quando se usava apenas a física Newtoniana para descrever as

observações das partículas atómicas.

Uma destas observações diz respeito ao comprimento de onda da luz que os átomos podem

absorver e emitir. Por exemplo, os átomos de hidrogénio absorvem energia para comprimentos

de onda de 656.3 nm, 486.1 nm, 434 nm ou 410.2 nm, mas não para comprimentos de onda

intermédios. Isto contrariava os princípios da física do fim do século XIX, segundo os quais um

eléctron que orbita um núcleo num átomo deve irradiar em todos os comprimentos de onda de

luz, perdendo energia e rapidamente caindo no núcleo. Como tal facto não foi observado, Max

Planck introduziu uma nova teoria que dizia que a energia só podia ser emitida em quantidades

definidas. Isto levou a duas teorias descritivas da natureza do átomo (este apenas poderia

emitir e absorver energia em quantos específicos), que competiam entre si.

Uma delas, desenvolvida por Erwin Schrödinger sugeria que o eléctron no hidrogénio é

semelhante a uma corda num instrumento musical. Tal como uma corda, que emite um tom

específico juntamente com harmónicas, assim um eléctron deveria ter certo “tom” no qual

emitiria energia. Usando esta teoria, Schrödinger desenvolveu uma equação de onda que

predizia corretamente os comprimentos de onda nos quais o hidrogénio emitiria.

A outra teoria foi desenvolvida por físicos em Göttingen, incluindo Werner Heisenberg, Max

Born e Pascual Jordan, centrava-se na posição e momento de um eléctron num átomo. Eles

diziam que estes valores não eram diretamente observáveis (apenas a luz emitida pelo átomo

podia ser observada) e assim podiam comportar-se de maneira muito diferente do movimento

de uma partícula na física Newtoniana. Teorizavam que os valores da posição e momento

deviam ser descritos por construções matemáticas que não os números usuais.

No final da década de 20, rapidamente se descobriu que estas duas aproximações,

aparentemente muito diferentes, não eram mais do que duas formulações do mesmo princípio.

Em 1900, no Congresso Internacional de Matemáticos, David Hilbert tinha apresentado a sua

famosa lista de 23 problemas que considerava fulcrais para o desenvolvimento da matemática

no século XX. O sexto problema era a axiomatização de teorias físicas. No final da década de

20, a única área da física que ainda não tinha sido axiomatizada era a mecânica quântica, que

se encontrava numa situação semelhante à da teoria dos conjuntos no início do século XX,

enfrentando problemas se ordem filosófica e técnica: se por um lado o seu aparente não-

determinismo ainda não tinha sido explicado de maneira determinística, por outro existiam as

duas teorias heurísticas independentes referidas acima (a matriz mechanical de Heisenberg

e wave mechanical de Schrödinger) mas não havia uma formulação teórica unificada que fosse

satisfatória.

Von Neumann queria descobrir o que estas duas teorias tinham em comum, e através de uma

aproximação matemática mais rigorosa, queria encontrar uma nova teoria mais poderosa e

fundamental que as outras duas.

Assim, depois de terminar a axiomatização da teoria dos conjuntos, von Neumann dedicou-se à

axiomatização da mecânica quântica. Em 1926, percebeu que um sistema podia ser

considerado um ponto num espaço hilberteano, análogo à dimensão 6N do espaço de fase da

mecânica clássica (N é o número de partículas, com 3 coordenadas gerais e 3 momentos

canónicos para cada), mas com infinitas dimensões, correspondentes aos infinitos estados

possíveis do sistema. A física tradicional podia assim ser representada por operadores lineares

nestes espaços, e a física da mecânica quântica foi reduzida a matemática de operadores

hermiteanos em espaços de Hilbert.

Tomemos como exemplo o princípio de incerteza de Heisenberg. De acordo com ele, a

determinação da posição de uma partícula impede a determinação do seu momento e vice-

versa. Sob a aproximação matemática proposta por von Neumann, que culminou na publicação

em 1932 de The Mathematical Foundations of Quantum Mechanics, esta situação é traduzida

na não-comutatividade de dois operadores correspondentes e inclui os casos especiais das

formulações de Heisenberg e Schrödinger. Nesse livro está demonstrado um teorema segundo

o qual a mecânica quântica não pode ser deduzida a partir de uma teoria determinística como

era usual na mecânica clássica. Apesar de tal demonstração conter um erro conceptual, serviu

para lançar uma nova linha de pesquisa que levou à demonstração de que a física quântica

requer uma noção da realidade substancialmente diferente da física clássica. Num trabalho

complementar juntamente com Garrett Birkhoff, von Neumann provou também que para além

de uma noção de realidade diferente, a mecânica quântica precisa também de uma lógica

diferente da clássica, a lógica quântica, que é geralmente apresentada como uma versão

modificada da lógica proposicional.

Um exemplo disso é o caso dos fotões que atravessam filtros. Um fotão não pode passar

através de dois filtros consecutivos que estejam polarizados perpendicularmente, e,

consequentemente, se se acrescentar outro filtro (antes ou depois) polarizado diagonalmente,

o fotão não o atravessará. No entanto, se o filtro for acrescentado entre os outros dois,

o fotão passará. Também foi demonstrado que as leis distributivas da lógica clássica, e , não

são válidas para a mecânica quântica, pois, a disjunção quântica, ao contrário da disjunção

clássica, pode ser verdadeira mesmo quando os dois elementos são falsos, e isto, por sua vez,

deve-se ao facto de frequentemente um par de alternativas ser determinado semanticamente,

ao passo que cada um dos elementos (na mecânica quântica, posição ou momento de uma

partícula) é necessariamente indeterminado.

Para se perceber melhor esta última propriedade apresentam-se dois exemplos, sendo o

primeiro substancialmente mais simples.

Seja X uma partícula que se move em linha reta, p a afirmação “X está a mover-se para a

direita”, q a afirmação “X está para a esquerda da origem” e r a afirmação “X está para a direita

da origem”. Sabemos que é verdadeira, pelo que também é verdadeira. Por outro lado, de

acordo com certas interpretações do princípio de incerteza, quer são falsas. Então, é falsa.

Falha assim a lei distributiva.

Suponha-se, numa outra situação, que se está a lidar com partículas de momento angular

semi-integral, como os eletros, para os quais há apenas dois valores possíveis: positivo ou

negativo. Então, o princípio de indeterminação diz que o spin relativo a duas direções distintas

resulta num par de quantidades incompatíveis. Suponha-se que o estado Φ de um dado

eléctron verifica a proposição “O spin na direcção x é positivo” (A). Pelo princípio de

indeterminação, o valor do spin na direcção y será totalmente indeterminado para Φ, visto que

a direcção segundo x do spin está determinada. Assim sendo, Φ não pode verificar a

proposição “O spin na direcção y é positivo” (B) nem “O spin na direcção y é negativo” (C), pois

não se sabe qual destas é válida. No entanto, a disjunção das proposições “O spin na direcção

y é positivo ou o spin na direcção y é negativo” () tem de ser verdadeira para Φ, uma vez que

existe spin nessa direcção.

A propósito do contributo de von Neumann para a mecânica quântica, van Hove escreve

em:[9]

“A mecânica quântica foi, de facto, muito sortuda por atrair, nos primeiros anos após a

sua descoberta em 1925, o interesse de um génio matemática da estatura de von Neumann.

Como resultado, o enquadramento matemático da teoria foi desenvolvido e os aspectos

formais das suas completamente novas regras de interpretação foram analisados uma a uma

por apenas um homem em dois anos (1927-1929)”

John von Neumann formalizou o projeto lógico de um computador. Em sua proposta, von

Neumann sugeriu que as instruções fossem armazenadas na memória do computador. Até

então elas eram lidas de cartões perfurados e executadas, uma a uma. Armazená-las na

memória, para então executá-las, tornaria o computador mais rápido, já que, no momento da

execução, as instruções seriam obtidas com rapidez eletrônica, uma vez que os cartões

perfurados já estariam inseridos na máquina (computador). A maioria dos computadores de

hoje em dia segue ainda o modelo proposto por von Neumann. Esse modelo define um

computador sequencial digital em que o processamento das informações é feito passo a passo,

caracterizando um comportamento determinístico (ou seja, os mesmos dados de entrada

produzem sempre a mesma resposta).

Entre os seus muitos interesses, von Neumann gostava de matemática aplicada e desenvolveu

um particular interesse por explosivos. Tal interesse levou-o a ser consultado várias vezes em

assuntos militares, principalmente para a marinha. Em 1943 o governo dos Estados

Unidos continuava a recrutar génios, para produzirem o que muitos viam como um mal

necessário (independentemente das convicções mais ou menos pacifistas e do respeito que a

vida humana pudesse merecer, havia, na altura, uma grande ameaça a esses mesmos valores

- nazismo - que era necessário combater, e, se possível, erradicar. Daí a colaboração de tantos

cérebros em programas de armamento, incluindo o da bomba atómica). Como tal, von

Neumann foi contratado. As suas duas maiores contribuições foram a matematizarão do

desenvolvimento do projeto e a ajuda no desenvolvimento da bomba de implosão. Os cientistas

que trabalhavam em Los Alamos estavam habituados a fazer experiências científicas, mas não

se podem fazer muitas experiências quando se desenvolvem armas de destruição em massa.

Precisavam, portanto, de uma maneira de predizer o que ia acontecer naquelas reações sem

as realizar. Von Neumann fez então parte da equipa que inventou a modelação matemática

moderna, e aplicou as suas capacidades em todos os níveis, quer a ajudar os oficiais

superiores a tomar decisões lógicas quer a resolver os cálculos complicados dos escalões mais

baixos.

As bombas atómicas lançadas eram de dois tipos distintos: uma usava urânio-235 como

material de fissão, a outra, o plutónio. Uma reação em cadeia atómica ocorre quando o material

de fissão presente na bomba atinge a massa ou densidade críticas. Na bomba de urânio-235,

uma grande massa de urânio-235, ainda abaixo da massa crítica, seria bombardeada com

outra massa de urânio-235. A combinação das massas chegaria à massa crítica, onde

uma fissão nuclear descontrolada ocorreria. Sabia-se que este processo funcionava e o

procedimento era relativamente simples, sendo a parte mais difícil à obtenção do urânio-235,

que tinha de ser separado de outros isótopos de urânio, quimicamente semelhantes. Por seu

lado, o plutónio pode ser separado usando meios químicos, pelo que a produção de bombas

baseadas em plutónio progrediu mais rapidamente. Contudo, o plutónio não podia atingir a

massa crítica da mesma maneira, tinha de ser através da implosão. Neste método, uma massa

de plutónio é totalmente cercada por explosivos potentes que são detonados simultaneamente,

fazendo com que a massa seja comprimida até níveis supercríticos e exploda.

Exemplos de bombas de plutónio são Trinity Test Device (detonada como teste a 16 de Julho

de 1945, perto de Alamogordo) ou a Fat Man, lançada sobre Nagasaki a 9 de Agosto do

mesmo ano. Uma bomba de urânio é a Little Boy, lançada a 6 de Agosto sobre Hiroshima.

Uma das suas descobertas neste campo foi que bombas grandes são mais devastadoras

quando detonadas acima do solo, devido à força das ondas de choque. Bons exemplos desta

descoberta foram às bombas detonadas sobre Hiroshima e Nagasaki, à altitude que von

Neumann calculou que produziria o maior dano. Após a guerra, Robert Oppenheimer fez notar

que os físicos envolvidos no Projeto Manhattan tinham “conhecido o pecado”, ao que von

Neumann respondeu que “às vezes uma pessoa confessa um pecado de modo a obter algum

crédito por ele”. Posto isto, von Neumann continuou imperturbável o seu trabalho e foi,

juntamente com Edward Teller, um dos apoiantes do projeto sobre a bomba de hidrogénio.

Colaborou também com o espião Klaus Fuchs e juntos desenvolveram uma patente secreta

sobre Improvement in Methods and Means for Utilizing Nuclear Energy a qual delineava um

esquema para usar uma bomba de fissão para comprimir combustível de fusão que por sua

vez iniciaria uma reação termonuclear. Apesar de não ser a chave para a bomba de hidrogénio,

pensava-se que seria um passo na direcção certa.

John von Neumann propôs que as instruções, lidas na época por cartões perfurados, fossem

gravadas na memória do computador; o que faria sua execução e leitura mais rápidas, uma vez

que se davam eletronicamente.

Neumann contribuiu para a construção dos computadores de forma grandiosa, pois, ainda hoje

a maioria destas máquinas seguem o modelo inventado pelo mesmo.

“Em meados da década de 30, Johnny estava fascinado pelo problema

da turbulência hidrodinâmica. Foi então que tomou consciência dos mistérios subjacentes ao

tema das equações diferenciais parciais não lineares. O seu trabalho, desde o início da

Segunda Guerra Mundial, foca o estudo das equações da hidrodinâmica e da teoria dos

choques. Os fenómenos descritos por estas equações não lineares são analiticamente

estranhos e desafiam mesmo a visão qualitativa dos métodos presentes. O trabalho numérico

parecia-lhe o caminho mais promissor para obter uma ideia do comportamento destes

sistemas. Isto o impeliu a estudar as novas possibilidades da computação em máquinas

electrónicas.[2]

"

O projeto da bomba de hidrogénio teve, portanto, uma grande importância no desenvolvimento

da computação, uma vez que von Neumann e Stanislaw Ulam desenvolveram simulações no

computador digital de von Neumann, usado para computações hidrodinâmicas. Durante esse

período, contribuiu para o desenvolvimento do método de Monte Carlo, que permitia a

aproximação de problemas complexos através de números aleatórios. Uma vez que usar listas

de números aleatórios verdadeiros tornava o ENIAC extremamente lento, von Neumann

desenvolveu uma maneira de criar números pseudoaleatórios, usando o middle square

method (na verdade, este não é um método muito eficaz, pois o seu período é muito curto e

tem defeitos graves. Von Neumann estava consciente destes defeitos do método, mas para os

seus objetivos o método era rápido e os seus erros fáceis de detectar.) Logo após von

Neumann ter se interessado pelo ENIAC, a escola Moore solicitou e recebeu um contrato para

o desenvolvimento de um computador mais potente, denominado EDVAC[10]

. Enquanto era

consultor da Moore School of Electrical Engineering sobre o EDVAC (Electronic Discrete

Variable Automatic Calculador), um dos primeiros computadores electrónicos binários e

sucessor do ENIAC, von Neumann escreveu um artigo intitulado First Draft of a Report on the

EDVAC, no qual propunha um computador composto por uma estrutura simples mas fixa com

um controlo programado, que seria capaz de executar qualquer comando sem haver

necessidade de se alterar o hardware (a sua ideia era a técnica do programa-guardado).

O relatório sobre o EDVAC se tornou um dos primeiros documentos a descrever a disposição

interna e os princípios de funcionamento dos computadores modernos. Ao assinar tal relatório

com o seu nome de matemático prestigiado, von Neumann conferiu-lhe uma audiência e uma

legitimidade inesperadas, muito úteis para obter os créditos militares, mas, ao mesmo tempo,

atribuiu a si próprio toda a glória da invenção do computador. Ainda que tenha sido um

personagem importante na história da computação, a atribuição desse mérito a von Neumann

ignora o trabalho de seus colaboradores, contemporâneos e até predecessores, que

igualmente trabalharam no desenvolvimento do computador”.

Sugeria a existência de uma instrução máquina, chamada conditional control transfer, que

permitia a interrupção e reinício do programa em qualquer ponto da computação. Sugeria

igualmente guardar programas na mesma unidade de memória que os dados, o que permitiria

que as instruções fossem aritmeticamente modificadas do mesmo modo que os dados. Uma

unidade central de processamento, composta pela unidade de controlo e por uma ou mais

unidades de execução, extrairia quer dados quer instruções da memória, operando sobre elas

e devolvendo-as de novo à memória. O resultado era muito mais rápido, a programação e

computação mais eficientes, pois permitiam que as instruções fossem escritas como sub-

rotinas que não requeriam uma nova programação para cada novo problema (as rotinas mais

longas podiam ser alteradas por partes, sendo os resultados intermédios guardados na

memória e sendo usados para o resultado final).

Quer a implementação das componentes físicas independentes, quer as interações entre

elementos, têm variado ao longo do tempo, dependendo das tecnologias de fabrico, mas a sua

arquitetura mantém-se. Tal arquitetura de memória única tornou-se conhecida como arquitetura

de von Neumann, apesar de a sua concepção ter envolvido J. Presper Eckert ou John William

Mauchly, inventores do ENIAC, e é utilizada em quase todos os minicomputadores,

microcomputadores e computadores domésticos. Para além da criação de uma nova

arquitetura de computadores, von Neumann também criou os autómatos celulares sem a ajuda

de computadores: nos anos 1940, estudava sistemas autoexplicativos e enfrentava algumas

dificuldades em explicitar o modelo inicial de um robô que fosse capaz de se copiar sozinho a

partir de um conjunto de peças separadas. Stanislaw Ulam, colega de von Neumann que na

altura modelava o crescimento de cristais usando uma grelha, sugeriu-lhe que se inspirasse

nos seus trabalhos para ultrapassar o problema. Baseando-se numa grelha bidimensional na

qual cada célula podia estar num de 29 estados distintos, von Neumann criou um modelo

matemático abstrato para o seu problema, um “copiador e construtor universal”, que se tornou

no primeiro autómato celular auto replicante. Uma vez mais se comprova que von Neumann ia

inventando a matemática à medida das suas necessidades e dá crédito ao que diziam sobre

ele: “Matemáticos em geral, provam o que são capazes de provar. Von Neumann prova o que

quer.”

Aplicando esta descoberta ao seu gosto por explosivos, von Neumann provou que a maneira

mais eficaz de realizar operações mineiras como minar uma lua inteira ou uma cintura de

asteroides seria usar máquinas autoexplicativas, aproveitando o seu crescimento exponencial.

Von Neumann foi um dos pioneiros da computação, tendo feito grandes contribuições para o

desenvolvimento do design lógico, que Shannon resume do seguinte modo:

“Von Neumann passou parte considerável dos seus últimos anos de vida a trabalhar na teoria

dos autómatos. Representava para ele uma síntese do seu interesse inicial em lógica e teoria

das demonstrações, e do seu posterior trabalho, durante e após a Segunda Guerra Mundial,

em computadores electrónicos em larga escala. Envolvendo uma mistura de matemática pura e

aplicada bem como outras ciências, a teoria dos autómatos era um campo ideal para o

intelecto abrangente de von Neumann. Ele trouxe-lhe várias perspectivas novas e abriu pelo

menos duas novas direções de pesquisa.[12]

Ainda no campo da ciência da computação, Donald Knuth cita von Neumann como o inventor

do algoritmo Mergesort, em 1945, cujo objetivo é criar uma sequência ordenada a partir de

outras duas já ordenadas. Para tal, divide-se a sequência original em pares de dados, e

ordena-se. Depois, agrupa-se em sequências de quatro elementos, e assim por diante até a

sequência original estar separada em apenas duas partes. Este é um exemplo de algoritmo de

ordenação do tipo “dividir-para conquista-la-”, cujos passos do algoritmo são: 1- A sequência a

ordenar é dividida em duas; 2- Conquistar: cada uma das metades é ordenada

independentemente; 3- Combinar: as duas metades são juntas numa sequência ordenada. O

seu algoritmo para simular uma moeda equilibrada usando uma moeda viciada é usado na

etapa de Software Whitening de alguns geradores de números aleatórios.

Também se aventurou na resolução de problemas na hidrodinâmica numérica e com R.D.

Richtmyer desenvolveu um algoritmo sobre viscosidade artificial que contribuiu para a

compreensão das ondas de choque. Sem esse trabalho, provavelmente não

compreenderíamos muita da astrofísica atual e não teríamos desenvolvido os motores

de jacto e de foguete. A viscosidade artificial foi um truque matemático usado para atenuar

ligeiramente a transição de choque, uma vez que os computadores, ao resolverem problemas

de hidrodinâmica ou aerodinâmica, têm tendência para por demasiados pontos na grelha em

regiões de descontinuidade acentuada (ondas de choque).

A teoria dos jogos é um ramo da matemática que estuda situações de conflito de diversos tipos

(sociais, econômicos, políticos, militares, éticos, filosóficos, jornalísticos, etc.) de acordo com

um modelo escolhido, cujas regras são mais ou menos rígidas, e mais ou menos conhecidas

pelos jogadores. Assim, estes escolhem diferentes ações para tentarem melhorar o seu

retorno. Von Neumann tinha uma “impressionante consciência dos resultados obtidos por

outros matemáticos e as possibilidades inerentes que ofereciam. Cedo no seu trabalho, um

artigo de Borel sobre a propriedade mínima levou-o a desenvolver … ideias que culminaram

numa das suas mais originais criações, a teoria de jogos.[13]

Em 1940, von Neumann escreveu o seu primeiro artigo relevante sobre jogos, intitulado Theory

of Games I, general foundations, cujo objetivo era, segundo os autores, “mostrar

adequadamente que os problemas típicos do comportamento económico são rigorosamente

idênticos às soluções matemáticas de certos jogos de estratégia”, que foi rapidamente seguido

por um segundo artigo, Theory of Games II, decomposition theory, tentando sintetizar o seu

trabalho sobre teoria de jogos. Já anteriormente tinha escrito Zur Theorie der

Gesellschaftsspiele, em 1928 e em 1937 A Model of General Economic Equilibrium.

Em 1944, com a publicação por John von Neumann e Oskar Morgenstern de Theory of games

and Economic Behavior, este ramo da matemática ganhou uma maior proeminência. É muito

usado em economia, para procurar estratégias em situações em que o resultado não depende

apenas da estratégia própria de um agente e das condições de mercado, mas também das

estratégias escolhidas por outros agentes (que tendem a maximizar o seu próprio retorno) ou

para examinar a concorrência e cooperação dentro de pequenos grupos de empresas. Assim,

um jogo pode ser definido como um conflito envolvendo ganhos e perdas entre dois ou mais

oponentes que seguem regras formais. O primeiro capítulo deste livro fornece um contexto

económico para a teoria de jogos, e os autores, baseando-se na análise de Bernoulli,

estabelecem um sistema de axiomas para uma ferramenta numérica, conhecida como a função

de utilidade de von Neumann–Morgenstern, o que representa um grande avanço na construção

da teoria geral, particularmente sob risco e situações de incerteza, uma vez que conseguiram

estruturar matematicamente a noção de que cada indivíduo escolhe uma alternativa de acordo

com certa probabilidade, de modo a maximizar a utilidade. Outra importante contribuição desta

publicação é o conceito de equilíbrio económico estático, pois, apesar da sua aplicação

depender do modelo, não exige “regras do jogo” particulares (as ideias de Borel estavam

limitadas a exemplos isolados, ou, na melhor das hipóteses, a jogos de soma nula, de dois

jogadores, com matrizes de playoff simétricas). Assim, a solução de equilíbrio de von Neumann

e Morgenstern, ao contrário de tratamentos anteriores, não depende da competição perfeita ou

até mesmo dos contextos do mercado, que limitavam a interação.

A solução de von Neumann e Morgenstern depende do conceito de “domínio”; isto significa que

os jogadores excluem estratégias que serão desvantajosas para eles. A aplicação deste

conceito depende dos objetivos dos jogadores e das “regras do jogo” definidas. Este conceito

de solução aplica-se a problemas de optimização individual, jogos cooperativos e jogos da

política; neste contexto, a solução não é apenas uma única imputação, mas um conjunto de

imputações, sendo cada um estável, no sentido em que nenhuma das imputações que o

compõem domina as outras, e cada uma fora de um conjunto é dominada por pelo menos uma

imputação dentro. O conceito de solução proposto por ambos os autores não era nem óptimo

nem, em geral, exclusivo.

Tem-se observado que, ao contrário de vários teorizadores de jogos atuais, von Neumann e

Morgenstern se sentiam atraídos pela multiplicidade de soluções de equilíbrio, em vez de

perturbados. A sua teoria não prediz que solução irá ser observada ou que imputação será

obtida dentro de cada solução. Uma solução pode estar correlacionada com um

comportamento standard ou instituições que governam uma organização social num momento

particular. Deste modo, contrariamente a outras aproximações, há um vasto leque de

indeterminismo, e, citando Philip Wolfe:

“Von Neumann realçou que a enorme variedade de soluções que podem ser observadas para

jogos de n-jogadores não era surpreendente devido à correspondente enorme variedade de

estruturas sociais estáveis observadas; muitas convenções diferentes podem perdurar,

existindo hoje por nenhuma razão melhor de que elas estavam cá ontem.”

Apesar de todas as contribuições de Theory of Games and Economic Behavior, a sua

contribuição mais significativa para a economia foi, provavelmente, a sistematização da teoria

de jogos como um ramo da teoria da escolha. O primeiro passo no desenvolvimento da teoria

de jogos envolve a construção de uma descrição formal e matemática do jogo. Von Neumann e

Morgenstern foram os primeiros a descrever os jogos como uma classe, a delimitar a estrutura

de informação de um jogo, a desenhar uma árvore do jogo e a definir a solução de um jogo.

Houve autores como Cournot que já tinham analisado problemas que seriam mais tarde

reconhecidos como parte da teoria de jogos, mas foram von Neumann e Morgenstern que

estabeleceram a teoria de jogos como um campo autónomo e distinto. Devido à sua aversão à

matemática, os economistas deram uma resposta bastante negativa ao trabalho de von

Neumann e Morgenstern, bem como à sua visão crítica de trabalhos proeminentes sobre teoria

económica mais convencional. A melhor resposta ao seu trabalho veio da comunidade

académica de matemáticos aplicados de Princeton, que se mostraram especialmente

receptivos à importância da teoria da decisão estatística, e de estratégias da corporação RAND

e do departamento de pesquisa naval. Ainda que tenha sido negligenciado à partida, em longo

prazo Theory of Games and Economic Behavior exerceu uma enorme influência na economia,

pois libertou a economia do cálculo diferencial, e levou o estudo económico para novas

direções tais como a conexão entre o núcleo e o equilíbrio competitivo geral.

O exemplo mais clássico de um jogo é o dilema do prisioneiro, criado por Albert Tucker em

1950, geralmente explicado através de uma história, apesar de não se limitar a esta situação,

pois a dinâmica subjacente pode ser usado para descrever qualquer tipo de fenómenos. A

história do jogo é então a seguinte:

Dois homens, A e B, são presos depois de um assalto armado. A polícia tem provas suficientes

para acusar os dois do roubo do carro de fuga, mas não as suficientes para acusá-los do

assalto propriamente dito. Contudo, se a polícia conseguir uma confissão de algum dos dois

assaltantes, poderá condenar ambos por assalto à mão armada. Assim, a polícia fecha os

homens em celas separadas e faz a mesma oferta a ambos:

Se A confessar e B não disser nada, então A irá em liberdade e B será acusado de roubo e

condenado a 10 anos de prisão. Claro que a mesma proposta também foi apresentada a B: se

este confessar e A não disser nada, é A que será condenado a 10 anos de prisão. Se ambos

confessarem, recebem ambos 7 anos de prisão. Se nenhum deles confessar, então recebem

ambos 2 anos de prisão pelo roubo do carro. Os dois prisioneiros são deixados a pensar na

decisão a tomar, sem terem contato um com o outro. A questão que se coloca é: o que é que

cada assaltante escolherá? Assumindo que cada um age de acordo com o seu interesse

pessoal, a solução que ocorre cada vez que este jogo ocorre, é que quer A quer B escolhem

confessar, resultando numa sentença de 7 anos para cada um. Pode parecer um bocado

contra intuitivo… por que razão iriam os jogadores escolher confessar, uma escolha claramente

pior a ambos estarem calados e serem condenados a apenas 2 anos de prisão cada? Não é

apenas isto, em termos do número total de anos em prisão, este é o pior resultado possível!

O playoff esperado para o jogo, isto é, a quantidade média de benefícios que a estratégia trará,

é melhor caso A confesse: 3.5 anos de prisão por confessar versus 6 anos por ficar em

silêncio. Então, duma perspectiva racional, é preferível que A confesse em vez de ficar calado.

Para mais, A fica sempre melhor se confessar, independentemente do que quer que B faça. Se

B confessar, A tanto pode ter 7 anos de prisão se também confessar, ou 10 anos se ficar em

silêncio; se B ficar calado, A tanto pode ter 0 anos de prisão se confessar ou 2 anos por ficar

calado. Infelizmente para A, o mesmo é válido para B, que também ficará melhor se confessar.

Isto quer dizer que se ambos fizerem o que é melhor para os seus interesses, ficarão 7 anos na

prisão! Este exemplo demonstra que, em muitos jogos, a “melhor” solução (aquela na qual o

resultado é mais elevado) não é aquela que vai acontecer no final.

O mínima é um método usado em teoria da decisão para minimizar a perda máxima possível,

ou, alternativamente, pode ser pensado como a maximização do ganho mínimo.

Primeiramente, começou por se aplicar um jogo de soma zero em teoria de jogos, abrangendo

as situações nas quais os jogadores fazem jogadas alternadas e simultâneas, tendo sido

depois expandido a jogos mais complexos e à tomada de decisões na presença de incerteza.

Uma versão simples deste algoritmo lida com jogos como o jogo da pedra, nos quais um

jogador pode perder, empatar ou ganhar. Se o jogador A pode ganhar numa jogada apenas, a

sua melhor jogada é essa. Se o jogador B sabe que uma determinada jogada levará a que o

jogador A possa ganhar numa jogada, enquanto que outra levará a que o jogador A possa no

máximo, empatar, a sua melhor jogada será essa. Com o avanço do jogo, torna-se fácil ver

qual é a melhor jogada. O algoritmo minimax ajuda a encontrar a melhor jogada, começando

do fim para o início do jogo; em cada passo assume-se que o jogador A está a tentar

maximizar as suas chances de ganhar (Max), enquanto que por seu lado o jogador B está a

tentar minimizar as chances de ganhá-la (Min).

Von Neumann é considerado o pai da teoria de jogos em parte devido à demonstração

do teorema minimax, em 1926. Este teorema constata que todo o jogo de duas pessoas, de

soma nula e finito, tem estratégias mistas óptimas e estabelece uma solução racional para um

conflito (jogo) definido com exatidão, no qual ambas as partes estão convictas de que não

podem escolher nenhuma estratégia melhor para alcançar o seu objetivo, devido à própria

natureza do conflito. Este teorema aplica-se a vários jogos de entretenimento, desde os mais

triviais, como o “par ou ímpar” ou quatro em linha, até aos mais complexos, como o xadrez.

Von Neumann demonstrou que para este tipo de jogos há sempre uma forma “correta” ou

“óptima” de jogá-los. Para qualquer jogo de duas pessoas com soma zero, o valor minimax é

sempre maior ou igual ao valor maximin. Quando esses valores são iguais, as estratégias

escolhidas são chamadas estratégias óptimas, e nenhum jogador mudará a sua estratégia,

pois isso implicaria um resultado pior, caso o outro jogada mantenha a sua estratégia.

Apesar de a teoria de jogos ter sido estudada por von Neumann por um longo período de

tempo, há uma diferença na maneira como o tema é abordado no seu artigo de 1928 e no

trabalho realizado com Morgenstern. Tendo em conta o seu primeiro artigo, nota-se que o seu

principal objetivo era o teorema Minimax. Contudo, sabe-se que, ainda antes de 1927, sugeriu

a D. König a aplicação de um resultado teórico-gráfico de modo a provar que um jogo com uma

regra de paragem era finito, e, a partir desse mesmo artigo de König,[14]

sabe-se que corrigiu

um erro na prova de Zermelo de que o xadrez era um jogo de estratégia pura. Um artigo

de Kalmar[15]

também nos informa que, na mesma altura, von Neumann formulou e provou a

solução minimax para estratégias puras em jogos de informação perfeita. A classe de jogos

normalizada no artigo de 1928 restringe-se aos jogos finitos em que um jogador, quando tem

de fazer uma escolha, ou sabe tudo ou não sabe nada sobre as escolhas anteriores. Sob a

influência de Morgenstern, a classe particular atrás referida foi alargada através de uma nova

formulação em termos da partição das jogadas, passando a incluir jogos que poderiam apenas

ter uma informação parcial sobre as escolhas anteriormente feitas. Neste seu trabalho,

conseguiram encontrar uma teoria exacta para o “bluff” praticado no poker, que reduzia o “bluff”

a uma atividade racional, e estabelecia, no geral, probabilidades de acordo com as quais o

“bluff” deveria ser utilizado em cada oportunidade. Uma característica técnica importante no

trabalho de von Neumann sobre o poker foi à determinação de soluções minimax através do

uso de estratégias agora conhecidas como estratégias comportamentais.

Com o teorema minimax, von Neumann conseguiu provar que é possível encontrar a melhor

estratégia que maximiza potenciais ganhos ou que minimiza potenciais perdas. Contudo, a

solução encontrada por von Neumann está limitada a jogos de soma zero, que não

correspondem à maior parte dos conflitos de interesse em situações económicas e sociais, tal

como observou a mente brilhante de John Nash. Nash provou que, desde que possam existir

estratégias mistas, num jogo com um número arbitrário de jogadores existe pelo menos um

ponto de equilíbrio, generalizando a aplicação da teoria de jogos proposta por von Neumann.

Von Neumann estava interessado em mostrar que a matemática podia ser uma ferramenta

com diversas aplicações, mesmo em campos que não eram fáceis de formalizar

matematicamente. Tal pode explicar as importantes contribuições dele para a economia, uma

vez que o seu trabalho reflete mais uma crença de que a matemática podia ter um papel

importante na ciência e sociedade do que um interesse por assuntos económicos. As suas

duas maiores contribuições nesta área foram o Modelo Geral de Equilíbrio Económico, mais

comumente referido como modelo de uma economia em expansão (MEE), e a teoria de jogos e

comportamento económico (na qual trabalhou juntamente com Oskar Morgenstern).

Ainda jovem, na década de 20, von Neumann demonstrou interesse em estudar economia num

seminário em Berlim e a Nicholas Kaldor . Os seus primeiros trabalhos escritos em economia

teórica surgiram nos anos 30, e em 1932, enquanto dividia o seu tempo entre Berlim e a

América, apresentou um modelo económico num seminário de matemática em Princeton. O

texto, intitulado Sobre certas equações da economia e uma generalização do teorema do ponto

fixo de Brouwer foi publicado em 1937 como parte dos trabalhos do colóquio de Karl

Menger em Viena; dois anos depois, von Neumann enviou uma cópia do seu artigo a Kaldor,

então presidente do comité editorial da Review of Economic Studies, que decidiu que o artigo

merecia uma audiência mais vasta, pelo que o publicou em Outubro de 1945 (a Segunda

Guerra Mundial provocou um atraso na publicação) sob o título Um modelo Geral do Equilíbrio

Económico.

O modelo de crescimento de von Neumann trabalha com n bens e m processos de produção,

com retornos constantes a equilíbrios. A taxa de salários real corresponde às necessidades da

vida e todo o excesso de receita é reinvestido. A taxa de salários real é dada e as receitas têm

natureza residual. Neste contexto, von Neumann determina como o processo decorre, taxas de

juro e preços, e a taxa de crescimento do sistema económico (determinada endogenamente).

Para além de provar que uma solução geral de equilíbrio era possível, o maior feito de von

Neumann foi à harmonia entre as assumpções do modelo e as diferentes faces da solução.

Mais concretamente, ele demonstrou que a taxa de juro é a mesma em toda economia e todo o

lucro se expande à mesma taxa.

O modelo de von Neumann dá particular atenção aos aspectos circulares do processo de

produção, e uma das suas inovações foi à eliminação da distinção entre fatores primários e

outputs, o que significa que não há fatores “originais” (como o trabalho) como na teoria

tradicional. O “trabalho” deixa de ser um fator primário, e é agora um fator de produção, uma

vez que os trabalhadores usam produtos para poderem produzir outros produtos.

Na procura da solução de equilíbrio, a matemática provou ser essencial: o uso do teorema do

ponto fixo de Brouwer ajudou von Neumann a provar a existência de um equilíbrio na taxa de

crescimento dinâmica. A solução do problema económico é arranjada de modo a que todos os

bens sejam produzidos ao mínimo custo possível, na maior quantidade possível. De acordo

com o modelo de von Neumann, o máximo crescimento implica a existência de um equilíbrio

dinâmico, nomeadamente a existência de um ponto de sela de uma função que relacione o

input e o output.

Quando foi apresentado, o MEE provocou grande agitação entre os economistas, e várias

objecções foram levantadas (a maioria devido a interpretações incorretas): alguns diziam que

ele favorecia uma economia esclavagista, outros criticavam a premissa de que uma atividade

acaba quando não ganha a taxa de lucro do mercado. Críticas à parte, a maior limitação do

MEE era o seu carácter não-monetário, pois não era possível determinar os efeitos das ações

dos principais banqueiros em superexpandir ou super-restringir o dinheiro. Apesar destes

problemas, o MEE teve um enorme impacto na economia: aumentou as ferramentas

matemáticas dos economistas, acrescentando coisas como a teoria de conjuntos convexos ou

a programação matemática; permitiu uma melhor compreensão das diferenças entre

planeamento económico e os efeitos do mercado livre e ajudou o desenvolvimento de modelos

dinâmicos sobre o crescimento económico.

A base do trabalho de von Neumann ainda não está totalmente esclarecida. Parece haver uma

ligação entre o seu trabalho e o de economistas vienenses nos anos 30, sugerida pela própria

história, uma vez que o seu trabalho é visto como parte do grupo de equilíbrio geral associado

ao Menger Colloquium, cujos membros trabalhavam no problema de existência de uma solução

de equilíbrio para o modelo de Walras-Cassel (modelo de equilíbrio geral no qual os indivíduos

pedem bens e oferecem elementos, e as empresas pedem elementos e produzem bens de

maneira constante. O equilíbrio geral define-se como um conjunto de preços de fatores e

outputs tais que as quantidades pedidas e oferecidas em cada mercado são iguais, garantindo

a competição que o preço iguale o custo de produção em cada processo de produção e curso).

O modelo de MEE de von Neumann também inclui várias vertentes consideradas importantes

pelos economistas vienenses: o uso de desigualdades em vez que equações, preço zero para

bens em excesso de oferta e a ênfase no equilíbrio em longo prazo sem lucro. Alguns

economistas defendem que o modelo de von Neumann se baseia na tradição clássica de

pensamento económico: para eles, tal é evidente atendendo a aspectos tais como as ideias de

que a natureza do processo de produção é circular e de uma economia que se expande

uniformemente, sendo a taxa de expansão determinada endogenamente; a dualidade das

variáveis monetárias e técnicas ou a maneira como a regra dos bens livres foi aplicada aos

fatores primários de produção e aos bens.

Numa primeira abordagem, a “interpretação clássica” do modelo de crescimento de von

Neumann representava uma perspectiva totalmente diferente do dominante ponto de vista

neoclássico. Contudo, rapidamente surgiram argumentos a favor, por parte de economistas

como David Gawen Champernowne, Richard Goodwin ou Nicholas Kaldor.

A título de curiosidade, e para demonstrar a facilidade de von Neumann com números,

apresento agora histórias que se contam sobre a sua rapidez na resolução de problemas, tal

como apresentadas por P.R. Halmos em:[4]

Quando o seu computador electrónico ficou pronto, alguém sugeriu um teste relativamente

simples envolvendo potências de 2, um problema do género: qual é a menor potência de 2, tal

que o seu quarto dígito a contar da direita seja 7? O computador e von Neumann começaram

ao mesmo tempo, e von Neumann acabou primeiro!

Noutra ocasião, um jovem cientista de Aberdeen Proving Ground precisava calcular o valor de

uma expressão complicada. Passou 10 minutos no primeiro caso especial; o segundo cálculo

demorou uma hora; para o terceiro, teve de recorrer a uma calculadora, e mesmo assim

demorou meio dia. Quando von Neumann apareceu na cidade, o jovem cientista aproveitou

para lhe perguntar se sabia como havia de resolver tal problema, o que von Neumann aceitou

prontamente. Então começou a ver o que acontecia para o caso n=1. Fixou um ponto no

horizonte, murmurou umas contas por um minuto, e, sabendo a resposta, o jovem lançou um

“2.31?” Neumann olhou para ele, e continuou. “Para n=2, …” O interrogador estava preparado

e conseguia seguir alguns dos cálculos que von Neumann murmurava. Assim, uns segundos

antes de dar a resposta, interrompeu von Neumann de novo, perguntando, hesitante: “7.49?”

Desta vez, von Neumann franziu o sobrolho e apressou-se a continuar, mas o mesmo

aconteceu… mesmo antes de ele chegar ao resultado, o jovem cientista exclamou “11.06!” Isto

foi demais para von Neumann! Um principiante desconhecido estava a ser melhor que ele!

Ficou aborrecido e amuou até o jovem confessar a brincadeira.

Temos também a pergunta da mosca e dos ciclistas: Dois ciclistas começam afastados 20

milhas, e andam em direções opostas a uma velocidade constante de 10 mph. Ao mesmo

tempo, uma mosca que viaja a 15 mph, começa na roda dianteira do ciclista do norte, voa até à

roda dianteira do sul, regressa ao do norte e assim por diante, até ficar esmagada entre as

duas rodas. Qual é a distância percorrida pela mosca? Há duas maneiras de resolver este

problema: a maneira mais lenta é calcular a distância que a mosca percorre na primeira

viagem, depois na segunda, etc., e depois somar as séries infinitas que se obtêm; a maneira

mais rápida é observar que as bicicletas se encontram uma hora depois de partirem, portanto a

mosca só tem uma hora para as viagens, donde a resposta é 15milhas. Quando fizeram esta

pergunta à von Neumann, este a resolveu num instante, o que decepcionou bastante quem fez

a pergunta, que disse “Oh, devia ter ouvido o truque antes!”, ao que von Neumann respondeu

“Truque? Apenas somei as séries infinitas!”

coisas. Apenas nos habituamos a elas. (in G. Zukav The dancing Wu Li masters)

O facto mais característico acerca da matemática é, em minha opinião, a sua relação peculiar

com as ciências naturais, ou mais geralmente, com qualquer ciência que interprete

experiências a um nível superior ao meramente descritivo.

De uma maneira geral é uniformemente verdade que na matemática há um lapso de tempo

entre a descoberta matemática e o momento em que se torna útil; e que esse lapso pode ser

qualquer entre 30 e 100 anos, em alguns casos ainda mais; e que todo o sistema parece

funcionar sem qualquer direcção, sem qualquer referência à utilidade e sem qualquer desejo de

fazer coisas que sejam úteis.

Quem quer que seja que considere métodos aritméticos para produzir números aleatórios está,

claro, num estado de pecado. (in D. MacHale, Comic Sections (Dublin, 1993))

Existe um conjunto infinito A que não é demasiado grande.

Todos os processos estáveis conseguiremos prever. Todos os processos instáveis

conseguiremos controlar!

As ciências não tentam explicar, elas dificilmente tentam interpretar, elas fazem principalmente

modelos. Por um modelo entende-se uma construção matemática que, juntamente com certas

interpretações verbais, descreve um fenómeno observado. A justificação de tal construção

matemática é só e precisamente que se espera que funcione.

Podia parecer que chegámos ao limite do que era possível alcançar com a tecnologia dos

computadores, contudo, uma pessoa deveria ser cuidadosa com tais afirmações, pois tendem

a soar muito tontas em 5 anos. (dito em 1949)

Não há sentido em ser preciso quando não se sabe de que se está a falar.

George Boole

George Boole (2 de Novembro de 1815 — 8 de Dezembro de 1864) foi

um matemático e filósofo britânico, criador da Álgebra Booleana, fundamental para o

desenvolvimento da computação moderna.[1]

Seu pai tinha uma pequena loja de sapatos. O que se esperava das crianças desta classe era

que aprendessem o mínimo de catecismo para que não ultrapassassem o limite de obediência

aos que se encontravam em boa situação financeira. Os filhos destes aprendiam um pouco

de Latim, e não Grego, passando a ser considerados senhores. Na escola por ele frequentada,

o latim não era ensinado. Resolveu aprender esta língua por acreditar ser este o caminho para

uma posição superior.

A única orientação que pôde obter foi a do dono de uma livraria que lhe deu algumas noções

de gramática. Continuou sozinho e, aos doze anos, traduziu os versos de Horácio para

o Inglês. Seu pai, orgulhoso, levou o trabalho para o jornal local que o publicou, deflagrando

duas correntes: uma elogiando e outra humilhando Boole. Um professor de línguas clássicas

duvidou de que um menino de doze anos pudesse realizar tal tradução. Desafiado, decidiu

melhorar o domínio de Latim, acrescentando o Grego. O aprendizado inicial de Matemática lhe

foi dado por seu pai. Tendo terminado a escola pública fez um curso comercial, tornando-se

mais realista relativamente ao seu futuro. Aos dezesseis anos começou a dar aulas a fim de

ajudar seus pais, embora o que ganhasse fosse muito pouco. Por quatro anos ensinou em

escolas elementares. A partir de então buscou avaliar as profissões que lhe ofereceriam boas

perspectivas: a carreira militar estava fora do seu alcance, por sua penúria financeira;

a advocacia exigiria cursos acima de sua disponibilidade orçamentária. Restava-lhe a Igreja.

Resolveu, pois, tornar-se padre. Embora não tenha se concretizado a ideia, os quatro anos em

que se preparou para a carreira eclesiástica não foram perdidos.

Aprendeu Francês, Alemão e Italiano, que lhe seriam indispensáveis em seu futuro.

Finalmente, ele encontrou seu caminho, a partir daquelas primeiras aulas recebidas de seu pai.

Aos vinte anos abriu uma escola, onde teria que ensinar a matemática que se esperava fosse

ensinada em boas escolas. Buscou livros que o orientassem. Os livros comuns, daquela época,

deram-lhe grande interesse; a seguir foram considerados desprezíveis. Buscou os grandes

mestres da matemática. Seu primeiro trabalho foi ignorado pela maioria dos matemáticos,

exceto por alguns raros que reconheceram ali o germe de algo de supremo interesse para a

matemática. O desenvolvimento natural do que Boole começou, transformou-se em uma das

mais importantes divisões da matemática pura. Disse Bertrand Russell: “a matemática pura foi

descoberta por Boole em seu trabalho “Leis do Pensamento”, publicado em 1850.

Por si mesmo, aos vinte anos, dispôs-se a dominar a “Mécanique Céleste” de Laplace, obra

dificílima, pouco esclarecedora pela falta de interesse do autor em elucidar o caminho

percorrido para suas conclusões. A seguir tentou acompanhar a abstrata “mecânica analítica”

de Lagrange, na qual não é colocado um único diagrama do começo ao fim para ilustrar sua

análise. Ainda assim pôde fazer sua primeira contribuição à matemática (um artigo sobre

“cálculo de variações”). Ainda em seu estudo solitário descobriu as “invariantes”, cuja

importância pode ser reconhecida ao conscientizarmos que sem a teoria matemática das

invariantes (que cresceu a partir dos primeiros trabalhos algébricos) a Teoria da

Relatividade teria sido impossível.

Então, no limiar de sua carreira científica, notou algo que outros poderiam ter percebido antes.

Viu o que outros tinham negligenciado devido ao seu forte sentimento de simetria e beleza das

relações algébricas. Outros olharam aquele achado, considerando-o simplesmente bonito,

enquanto Boole reconheceu que ali estava algo de uma ordem mais elevada. Boole enviou seu

trabalho para o Jornal Matemático de Cambridge, que havia sido fundado em 1837 e que se

encontrava sob a hábil editoração do matemático escocês D. F. Gregory. A originalidade e

estilo impressionaram Gregory, iniciando-se uma amizade que perdurou pelo resto da vida. Foi

nesta época que surgiu a moderna concepção de álgebra que levou à compreensão da álgebra

como álgebra, ou seja, como o desenvolvimento abstrato das consequências de um grupo de

postulados sem necessariamente a interpretação ou aplicação de números. Sem esta

compreensão de que a álgebra em si mesma nada mais é do que um sistema abstrato, ela

poderia ainda encontrar-se inserida no bolo aritmético do século XVIII, incapaz de avançar para

as variantes sob a direção de Hamilton. Por iniciativa própria ele separou os símbolos das

operações matemáticas das coisas sobre as quais elas operavam, buscando compreendê-las.

Seu trabalho nesta direção é extremamente interessante, porém obscurecido pelo seu principal

interesse - a criação de um simples e manejável sistema simbólico, ou seja, a lógica

matemática.

Continuava leccionando, mas agora conhecia e se correspondia com muitos dos principais

matemáticos britânicos. Em 1838 publicou o pequeno livro A Análise Matemática da Lógica,

sua primeira contribuição para o vasto assunto, que o tornaria famoso pela ousadia e

perspicácia de sua visão. De Morgan apercebeu-se de que ali estava um mestre e apressou-se

em reconhecê-lo. Ele tinha aberto um novo e importante patamar. Por se encontrarem seus

pais totalmente sob sua dependência, continuava dando aulas. Em 1810 foi designado

Professor de Matemática no recém criado “Queen’s College” na cidade de Cork, Irlanda.

Realizou os mais variados trabalhos matemáticos, mas seu esforço principal continuou sendo o

de aperfeiçoar e dar forma final à sua obra-prima, publicada em 1857, Uma Investigação das

Leis do Pensamento, em que se fundamentam as Teorias Matemáticas da Lógica e

Probabilidades.[2]

Em 1857 foi eleito membro da Royal Society. É incomum que um matemático

nesta idade ainda venha a produzir um trabalho tão profundamente original. O parágrafo inicial

de um de seus textos nos dá uma ideia do seu estilo e extensão do seu trabalho. “O motivo do

presente tratado é investigar as leis fundamentais do funcionamento do cérebro através das

quais o raciocínio se realiza; expressá-las através da linguagem do Cálculo e, sobre este

fundamento, estruturar a ciência da Lógica e construir o seu método; fazer deste método a

base de todos os métodos para aplicação da doutrina matemática de probabilidades; e,

finalmente, recolher dos vários elementos verdadeiros trazidos para serem examinados no

curso destas investigações alguma provável sugestão a respeito da natureza e constituição da

mente humana”. Ele convertera a lógica em um tipo de álgebra fácil e simples. Desde o

trabalho pioneiro de Boole, sua grande criação tem sido melhorada. Mas a lógica simbólica foi

negligenciada por muitos anos depois de sua invenção. Até 1910 ainda existiam eminentes

matemáticos desdenhando-a como uma curiosidade filosófica sem qualquer significância

matemática. O trabalho de Whitehead e Russel em Principia Mathematica (1910-1913) foi o

primeiro a convencer um grupo de matemáticos que a lógica simbólica devia receber sua séria

atenção.

Boole não sobreviveu muito tempo à produção de sua obra-prima. Um ano após a sua

publicação casou-se com Mary Everest, sobrinha do coronel George Everest. Sua mulher

tornou-se sua devotada discípula. Depois da morte do marido, Mary Boole aplicou algumas

ideias que ela havia adquirido dele para racionalização e humanização da educação de

crianças, através do folheto Psicologia de Boole.

Boole morreu de pneumonia, honrado e com crescente fama, em 1864.

Algumas linguagens de programação tem um tipo lógico chamado bool como referência ao seu

nome.

Bibliografia

http://pt.wikipedia.org/wiki/Blaise_Pascal

http://pt.wikipedia.org/wiki/Gottfried_Leibniz

http://pt.wikipedia.org/wiki/Charles_Babbage

http://pt.wikipedia.org/wiki/Alan_Turing

http://pt.wikipedia.org/wiki/John_von_Neumann

http://pt.wikipedia.org/wiki/George_Boole