proposição instrucional - uma proposta de inserção de...
TRANSCRIPT
volume 5, 2010 2
Proposição Instrucional - Uma Proposta de Inserção de Conteúdos de Mecânica Quântica no Ensino Médio, por Meio de um Curso de Capacitação para Professores em Atividade
Glauson Francisco Chaves e Célia Maria Soares Gomes de Sousa
anexos disponíveisclique aqui para baixar
UNIVERSIDADE DE BRASÍLIA Decanato de Pesquisa e Pós-Graduação
Instituto de Ciências Biológicas Instituto de Física
Instituto de Química Programa de Pós-Graduação em Ensino de Ciências
Mestrado Profissional em Ensino de Ciências
Uma proposta de inserção de conteúdos de Mecânica
Quântica no Ensino Médio, por meio de um Curso de
Capacitação para Professores em atividade
Apresentação da proposição instrucional
Glauson Francisco Chaves
Brasília, DF
Março de 2010
2
Apresentação
Este material é uma compilação de trabalhos de pesquisadores em Ensino de
Ciências, e diz respeito à introdução de Física Moderna e Contemporânea no Ensino
Médio.
A compilação foi pautada na expectativa de reunir em um mesmo material, os
trabalhos aplicados em diversas atividades de pesquisa, com alterações de abordagens e,
em alguns casos, dos textos, onde fundamentadamente procuramos criar um material
potencialmente significativo, para o professor-aluno, tendo a Teoria da Aprendizagem
Significativa como referencial para a estruturação deste material.
Numa proposta pautada na idéia de uma ciência baseada em pessoas, como todo
empreendimento humano, como afirmava Richard Feynman. Este trabalho vem como
intuito de preencher lacunas na atividade docente voltada a capacitação de professores
em atividade no ensino médio apresentado uma obra completa a respeito do ensino de
conceitos de Mecânica Quântica no Ensino Médio. Em termos de interpretação
filosófica, científica e de pequeno ferramental matemático da Mecânica Quântica.
A posição adotada é a da Interpretação de Copenhagen, pois na concepção deste
trabalho acreditamos que é uma interpretação que se mantém – apesar de existirem
outras, com distintas bases filosóficas – desde os tempos de Niels Bohr, e não tem sido
colocada em dúvida por resultados experimentais, fazendo dela uma interpretação forte
e balizadora de conceitos, de tal forma que levará o estudante a buscar conhecimentos
prévios, que funcionarão como ancoradores do novo conhecimento à adquirir.
Outra contribuição importante deste material é a sua capacidade de estimular o
professor a gerar uma troca de saber, como em temas interdisciplinares tais como o
fenômeno da fotossíntese, que é visto como um efeito fotoelétrico natural, em que os
fótons da freqüência verde são rejeitados pelas plantas, enquanto os demais são
absorvidos. Dessa forma, neste exemplo interdisciplinar, exigi-se dos docentes em
Biologia, Química e Física que apresentem conhecimento da Física Moderna, com isso
convergindo para um ensino de Ciências plural em suas bases científicas.
Por outro lado, este material visa ampliar discussões no ambiente escolar e até
mesmo de propostas curriculares, pois queremos propor, com este material que sejam
ministrados cursos com os professores das áreas de Ciências da Natureza, onde
3
certamente esse material deve servir de estímulo aos professores, destas áreas, para
gerar uma interdisciplinaridade, bem como fazendo com que o estudante adquira
significados a respeito de novos conhecimentos que serão apresentados e fortalecidos
em sua estrutura cognitiva.
O texto de apoio vem com o intuito de ser um material que forneça subsídios aos
participantes do curso em acompanhar cada aula apresentada, bem como de ser utilizado
pelos professores como fonte de pesquisa para a preparação de suas aulas, com os
alunos do Ensino Médio.
Finalizamos esta proposição com a incorporação, do ponto de vista das teorias
de aprendizagem, a proposta da aprendizagem significativa de Ausubel. Onde
buscamos, pelo intermédio de um CD-ROM – que acompanha esta proposição - que
contém apresentações de slides, filmes, simuladores, applets e textos, estimulando o
professor a criar um ambiente de discussão entre os estudantes e entre estes e o próprio
professor, a partir de concepções e do uso da fundamentação teórica. Com isso o
professor deverá conduzir o estudante a uma aprendizagem significativa, onde o
conhecimento prévio, como subsídios para a aprendizagem, é por nós considerado, nesta
proposição como a variável mais importante para a aprendizagem de novos
conhecimentos.
UNIVERSIDADE DE BRASÍLIA Decanato de Pesquisa e Pós-Graduação
Instituto de Ciências Biológicas Instituto de Física
Instituto de Química Programa de Pós-Graduação em Ensino de Ciências
Mestrado Profissional em Ensino de Ciências
Uma proposta de inserção de conteúdos de Mecânica Quântica no Ensino Médio, por meio de um Curso de Capacitação para
Professores em atividade
Teoria da Aprendizagem Significativa Fundamentos
Glauson Francisco Chaves
Brasília, DF
Março de 2010
O conhecimento é significativo por definição. É o produto
significativo de um processo psicológico cognitivo
(“saber”) que envolve a interação entre idéias
“logicamente” (culturalmente) significativas, idéias
anteriores (“ancoradas”) relevantes da estrutura cognitiva
particular do aprendiz (ou estrutura dos conhecimentos
deste) e o “mecanismo” mental do mesmo para aprender
de forma significativa ou para adquirir e reter
conhecimentos.
David P. Ausubel
Índice
Teoria da Aprendizagem Significativa ....................................................................................... 4
1. A abordagem cognitivista de Ausubel ............................................................................... 4
2. Aprendizagem verbal, significativa e receptiva................................................................. 5
3. Tipos de aprendizagem significativa ................................................................................. 7
4. O processo de assimilação .............................................................................................. 10
5. Organização da estrutura cognitiva ................................................................................ 12
6. Princípios organizacionais para a apresentação de material instrucional ...................... 14
7. Dimensões do processo educacional .............................................................................. 18
Referencias Bibliográficas ....................................................................................................... 20
Teoria da Aprendizagem Significativa
A aprendizagem por recepção significativa envolve, principalmente, a aquisição
de novos significados a partir de material de aprendizagem apresentado. Exige quer um
mecanismo de aprendizagem significativa, quer a apresentação de material
potencialmente significativo para o aprendiz. Por sua vez, a última condição pressupõe
que o próprio material de aprendizagem possa estar relacionado de forma não arbitrária
(plausível, sensível e não aleatória) e não literal com qualquer estrutura cognitiva
apropriada e relevante (i.e., que possui significado ‘lógico’) e que a estrutura cognitiva
particular do aprendiz contenha idéias ancoradas relevantes, com as quais se possa
relacionar o novo material. A interação entre novos significados potenciais e idéias
relevantes na estrutura cognitiva do aprendiz dá origem a significados verdadeiros ou
psicológicos. Devido à estrutura cognitiva de cada aprendiz ser única, todos os novos
significados adquiridos são, também eles, obrigatoriamente únicos. (AUSUBEL, 2000,
P. 1)
1. A abordagem cognitivista de Ausubel
Dentre as perspectivas existentes para o estudo das questões de ensino e
aprendizagem, encontra-se a abordagem cognitivista, fundamentada na Psicologia
Cognitiva, que “trata do modo como as pessoas percebem, aprendem, recordam e
pensam sobre a informação” (STERNBERG, 2000, p. 22).
O cognitivismo apóia-se na idéia de que é possível compreender vários aspectos
do comportamento humano partindo-se do entendimento da maneira pela qual as
pessoas pensam. A ênfase desse enfoque é o processo da cognição, pelo qual o
indivíduo atribui significados às situações com que se depara no mundo. Devido a essas
características , as pesquisas educacionais situadas dentro desse quadro teórico
consideram essencial o conhecimento das idéias que os estudantes apresentam.
Essa preocupação é central para Ausubel (1976), para quem o fator mais
importante influenciando a aprendizagem é aquilo que o aluno já sabe, devendo o
professor averiguar isso e ensinar de acordo.
O enfoque de Ausubel pode ser relacionado à visão de ensino e aprendizagem
denominada construtivista, que, segundo Mortimer (1995, p. 57), parece apresentar ao
menos dois traços principais: “1) a aprendizagem se dá através do ativo envolvimento
do aprendiz na construção do conhecimento; 2) as idéias prévias dos estudantes
desempenham um papel importante no processo de aprendizagem”.
Neste capítulo, serão examinados os fundamentos da Teoria da Aprendizagem
Significativa de Ausubel, cujos conceitos e princípios foram referência para o
desenvolvimento e a avaliação da proposta educacional descrita neste trabalho, em
conjunto com as idéias originadas das pesquisas da área de Educação para a Ciência.
2. Aprendizagem verbal, significativa e receptiva
A teoria da aprendizagem de Ausubel está focada na aprendizagem verbal,
significativa e por recepção. O caráter verbal é salientado porque, para Ausubel, a
linguagem é importante facilitador da aprendizagem, pois os signos lingüísticos, com
suas propriedades representacionais, ampliam a capacidade de se manipular conceitos e
proposições. Mediante a linguagem, os significados podem ser clarificados, tornando-se
mais precisos e transferíveis.
O significado surge quando um objeto e o signo verbal que o representa são
relacionados (MOREIRA e MASINI, 2002). Os aspectos significativo e receptivo estão
associados aos processos considerados mais efetivos por Ausubel (1976), para a
construção do conhecimento pelos estudantes: a aprendizagem por recepção e a
aprendizagem significativa.
Sabemos que a aprendizagem significativa caracteriza-se pela interação entre o
novo conhecimento e o conhecimento prévio. Nesse processo, que é não- literal e não-
arbitrário, o novo conhecimento adquire significados para o aprendiz e o conhecimento
prévio fica mais rico, mais diferenciado, mais elaborado em termos de significados, e
adquire mais estabilidade. (MOREIRA e MASINI, 1982; MOREIRA, 1999, 2000).
Sabemos, também, que o conhecimento prévio é, isoladamente, a variável que mais
influencia a aprendizagem. Em última análise, só podemos aprender a partir daquilo que
já conhecemos. David Ausubel já nos chamava atenção para isso em 1963. Hoje,
reconhecemos que nossa mente é conservadora, aprendemos a partir do que já temos em
nossa estrutura cognitiva. Como dizia ele, já nessa época, se queremos promover a
aprendizagem significativa é preciso averiguar esse conhecimento e ensinar de acordo.
Podemos enfatizar que um aspecto fundamental da aprendizagem significativa é
que o aprendiz deve apresentar uma pré-disposição para aprender. Ou seja, para
aprender significativamente, o aluno tem que manifestar uma disposição para relacionar,
de maneira não arbitrária e não literal, à sua estrutura cognitiva, os significados que
capta dos materiais educativos, potencialmente significativos, do currículo (GOWIN,
1981).
A aprendizagem por recepção é aquela em que os estudantes adquirem suas
noções por meio do contato com materiais apresentados em sua forma final, sem que
precisem descobrir conhecimentos por si mesmos. Esse tipo de aprendizagem distingue-
se da aprendizagem por descoberta, na qual o estudante descobre os conteúdos antes de
incorporá-los em sua estrutura cognitiva. Segundo Ausubel (1976), a maior parte dos
conceitos aprendidos pelos alunos, tanto em sala de aula quanto fora dela, ocorrem de
forma receptiva.
Na visão de Ausubel, essa seria a maneira mais simples e eficaz de se adquirir o
conteúdo de uma disciplina acadêmica, que passa a predominar quando o indivíduo
começa a apresentar maior maturidade intelectual, tornando-se capaz de compreender
conceitos e proposições expostos verbalmente, sem necessidade de experiência empírica
ou concreta adicional.
Os tipos de aprendizagem descritos podem ocorrer tanto de modo mecânico, por
repetição, quanto de maneira significativa (AUSUBEL, 1976). A aprendizagem
significativa processa-se quando o aluno relaciona o conteúdo em estudo àquilo que já
conhece, de modo não-arbitrário e substantivo (não-literal). Isso envolve a conexão de
uma nova idéia expressa simbolicamente a algum aspecto essencial de sua estrutura
cognitiva – o conjunto organizado de suas idéias –, seja uma imagem, um símbolo que
já possui significado, um contexto ou uma proposição.
A aprendizagem por recepção envolve, principalmente, a aquisição de novos
significados a partir de material de aprendizagem apresentado. Exige quer um
mecanismo de aprendizagem significativa, quer a apresentação de material
potencialmente significativo para o aprendiz. Por sua vez, a última condição pressupõe
(1) que o próprio material de aprendizagem possa estar relacionado de forma não
arbitrária e não literal com qualquer estrutura cognitiva apropriada e relevante e (2) que
a estrutura cognitiva particular do aprendiz contenha idéias relevantes, com as quais se
possa relacionar o novo material. A interação entre novos significados potenciais e
idéias relevantes na estrutura cognitiva do aprendiz dá origem a significados
verdadeiros ou psicológicos. Devido à estrutura cognitiva de cada aprendiz ser única,
todos os novos significados adquiridos são, também eles, obrigatoriamente únicos.
(AUSUBEL, 2003.)
A aprendizagem mecânica ou por repetição surge em situações nas quais o ato
de aprender envolve apenas associações arbitrárias, como por exemplo, na memorização
dos símbolos das letras do alfabeto. Ocorre também quando o aluno não dispõe de
conhecimentos prévios suficientes para tornar a tarefa de aprendizagem significativa, ou
nos casos em que este resolve internalizar o conhecimento de modo arbitrário e literal,
ou seja, na forma de uma série de palavras armazenadas sem critério. Segundo Ausubel
1976, para ocorrer a aprendizagem significativa é necessário que o estudante apresente
disposição para estabelecer relações não-arbitrárias e substantivas do novo material com
a sua estrutura cognitiva. Também é preciso que o material a ser aprendido seja
potencialmente significativo para o aluno, isto é, possa ser especialmente associado à
sua estrutura de conhecimento, de modo intencional e não-literal.
O potencial significativo de um material depende de sua organização lógica, que
o permita ser relacionado de modo intencional e substancial a idéias que seres humanos
em geral possam exibir. Demanda ainda a existência de idéias apropriadas na estrutura
cognitiva de um aluno particular, que possam entrar em correspondência não-arbitrária e
não-literal com o conteúdo a ser aprendido.
O resultado da aprendizagem significativa é a produção do significado, o qual
poderá ser evocado quando a expressão simbólica que o originou estiver presente. Nesse
processo, o significado potencial existente inicialmente é convertido em significado
novo, diferenciado e idiossincrático, ao ser introjetado por um estudante específico.
3. Tipos de aprendizagem significativa
Ausubel, 1976, distingue três tipos essenciais de aprendizagem significativa:
representacional, de conceitos e de proposicional. Na aprendizagem representacional,
atribui-se significado a símbolos isolados, geralmente palavras, cada uma representando
objeto, acontecimento, situação ou conceito individuais. Nessa modalidade, cada
palavra nova passa a representar o objeto ou idéia a que se refere.
Desta maneira este tipo de aprendizagem aproxima-se da aprendizagem por
memorização. Ocorre sempre que o significado dos símbolos arbitrários se equipara aos
referentes (objetos, acontecimentos, conceitos) e tem para o aprendiz o significado, seja
ele qual for, que os referentes possuem. A aprendizagem representacional é
significativa, porque tais proposições de equivalência representacional podem
relacionar-se de forma não arbitrária, como exemplares, a uma generalização existente
na estrutura cognitiva de quase todas as pessoas, quase desde o primeiro ano de vida –
de que tudo tem um nome e que este significa aquilo que o próprio referente significa
para determinado aprendiz.(AUSUBEL, 2003)
Para Moreira (2006) a aprendizagem de conceitos, é de certa forma, uma
aprendizagem representacional, pois conceitos são, também representados por símbolos
particulares. Aprender um conceito demanda a identificação e a compreensão do
significado de seus atributos, ou seja, das propriedades que possibilitam distingui-lo ou
identificá-lo. Além desse significado, denotativo, surge também o conotativo, o qual
inclui as reações afetivas e atitudinais, de caráter idiossincrático, que o termo produz em
cada pessoa.
Na aprendizagem proposicional, confere-se significado as idéias expressa por
meio de conjuntos de palavras combinadas em proposições ou orações. Essa tarefa
transcende a ação de aprender proposições de equivalência representativa, pois envolve
a captação do significado de nova idéia composta, gerada pela combinação de várias
palavras individuais, cada qual representando um referente unitário. Isso resulta em
idéia diferente da simples soma dos significados das palavras componentes da
proposição. Exceto em estudantes muito jovens, as proposições aprendidas são, em
geral, constituídas por palavras-conceito, ao invés de objetos ou acontecimentos.
Conforme expõe Ausubel (1976), a aprendizagem de representações é condição
sine qua non1 para a aprendizagem de proposições, pois é preciso conhecer o
significado de cada palavra para se poder compreender uma sentença expressa
verbalmente.
Ausubel (1976), considera que a relação entre um conceito ou o conteúdo de
uma proposição e as idéias pertinentes já existentes na estrutura cognitiva, na
aprendizagem significativa, pode ser de três tipos: subordinada, superordenada ou uma
combinação de ambas. A aprendizagem subordinada, por sua vez, pode ser classificada
em derivativa e correlativa.
Na aprendizagem subordinada, conceitos ou proposições potencialmente
significativos são subsumidos ou incluídos em idéias mais amplas e gerais da estrutura
cognitiva do indivíduo. Para Ausubel, essa relação de subordinação é comum devido à
organização hierárquica da estrutura cognitiva com respeito ao nível de abstração,
generalidade e inclusividade. As idéias mais gerais e inclusivas pré-existentes na
estrutura cognitiva, que servem de ponto de ancoragem para a conexão de novas
informações específicas, Ausubel (em MOREIRA e MASINI, 2002) denomina
subsunçores.
A aprendizagem subordinada derivativa ou subsunção derivativa ocorre quando
o novo material incorporado corresponde a exemplo específico de conceito existente na
estrutura cognitiva ou quando apóia ou ilustra proposição geral aprendida
anteriormente. Nesse caso, a nova idéia a ser conhecida está implícita em conceito ou
proposição já estabelecido e mais inclusivo da estrutura cognitiva, do qual pode ser
derivado de modo evidente e direto.
A aprendizagem subordinada correlativa ou subsunção correlativa processa-se
quando o novo material a ser aprendido corresponde a uma extensão, elaboração,
modificação ou limitação de conceitos ou proposições aprendidos previamente. Apesar
de esse material incorporado interagir com as idéias pertinentes e mais inclusivas
estabelecidas anteriormente na estrutura cognitiva, seu sentido não está subentendido e
não pode ser representado adequadamente por esses subsunçores.
1A tradução literal de sine qua non é "sem a qual não", e indica que uma condição, fator, cláusula ou
circunstância é essencial, indispensável para a realização de determinado ato, evento ou circunstância.
Na aprendizagem superordenada, uma nova idéia inclusiva é aprendida e passa a
abarcar conceitos ou proposições mais específicos existentes na estrutura cognitiva.
Para Ausubel, isso é mais comum durante a aprendizagem de conceitos do que a de
proposições, ocorrendo, por exemplo, quando um estudante passa a saber que as noções
por ele conhecidas de quark, elétron e neutrino estão subsumidas na nova palavra
férmion. Essa modalidade de aprendizagem ocorre no raciocínio indutivo ou no caso em
que o material exposto está organizado indutivamente ou implica a síntese das idéias
componentes.
Segundo Ausubel, diversos novos conceitos ou novas proposições são
adquiridos dessa forma. Um exemplo é a aprendizagem das relações entre massa e
energia, dentre outras generalizações novas, inclusivas e de grande poder explicativo
estudadas na Ciência.
4. O processo de assimilação
Para interpretar a aquisição, retenção e organização de significados na estrutura
cognitiva, Ausubel (1976) introduz a idéia de assimilação. O princípio da assimilação
possibilita compreender mais profundamente de que modo um significado subordinado
é gerado e armazenado. Na aprendizagem subordinada, um conceito ou proposição a,
potencialmente significativo, é subsumido em uma idéia mais ampla A da estrutura
cognitiva, como extensão, elaboração, modificação ou limitação desse subsunçor. Nesse
processo, tanto a nova idéia a, quanto a idéia estabelecida A, que entram em associação,
são modificadas, passando a ser designadas a’ e A’, respectivamente. Os produtos a’ e
A’ dessa interação permanecem relacionados, formando um novo complexo unificado
de idéias A’a’. Isso pode ser representado pelo esquema A + a → A’a’.
O termo assimilação é utilizado porque, após o surgimento do novo significado,
este continua em relação articulada com a forma, levemente modificada, da idéia já
existente na estrutura cognitiva, constituindo o membro menos estável da nova unidade
ideativa formada. Além disso, o novo significado tende a reduzir-se ao significado da
idéia estabelecida de modo mais consolidado. Ausubel supõe que o significado recém-
assimilado a’ é dissociável de seu subsunçor A’, podendo ser reproduzido como
elemento identificável e isolado. Essa hipótese permite explicar a possibilidade de se
dispor dos novos conceitos no período de retenção.
Concomitante à fase de retenção, inicia-se um processo – chamado obliteração –
em que a’ acaba perdendo identidade, restando apenas A’. Trata-se da assimilação
obliteradora, em que à nova informação (a) resta o papel de modificar, enriquecer,
reelaborar, o conceito subsunçor (A), não ficando incorporada, com identidade, na
estrutura cognitiva. Pode-se dizer, nesse caso, que, apesar de desempenhar um papel
importante no processo de assimilação, a informação a é “esquecida”. Contudo, não se
trata de esquecimento no sentido usual do termo, pois, de alguma maneira, a nova
informação “está dentro do subsunçor”. (MOREIRA e MASINI, 1982 em PAULO,
2006).
Segundo Ausubel (1978, p.58) apud Moreira (2006, p.33), como a estrutura
cognitiva, em si, tende a uma organização hierárquica em relação ao nível de abstração
generalidade e inclusividade das idéias, a emergência de novos significados conceituais
ou proposicionais reflete, mais tipicamente, uma subordinação do novo conhecimento à
estrutura cognitiva, que é chamada de aprendizagem significativa subordinada.
A aprendizagem superordenada se dá quando um conceito ou proposição
potencialmente significativo A, mais geral e inclusivo que idéias ou conceitos já
estabelecidos na estrutura cognitiva a1, a2, a3 é adquirido a partir destes e passa a
assimilá-los (idem). Embora as idéias aprendidas sejam mais gerais e inclusivas que os
significados mais específicos e estáveis da estrutura cognitiva aos quais se relacionam,
estas também são esquecidas.
No processo de aquisição, retenção e obliteração durante a aprendizagem
significativa, um conceito ou proposição a não precisa se restringir a formar um produto
interativo com apenas uma idéia mais inclusiva A’. Conforme considera Ausubel,
podem ser formados também produtos com diversas idéias gerais B, C, D e outras.
Apesar de os conceitos ou as proposições de maior estabilidade e melhor estabelecidos
serem mais funcionais em outras aprendizagens ou operações de resolução de
problemas ao se desligarem dos significados menos estáveis que assimilaram, o
processo de redução ocasiona a perda de informações e detalhes dos conteúdos mais
específicos.
Segundo Ausubel (1976), opor-se a esse processo de assimilação obliteradora,
próprio da aprendizagem significativa, é o problema principal na aquisição de um
conteúdo acadêmico. Para ele, apesar da etapa de obliteração, a aprendizagem
significativa melhora a retenção do conhecimento. Para explicar de que modo as novas
informações assimiladas podem ser mantidas na memória por longo prazo, Ausubel
considera três fatores, relacionados ao processo de assimilação. Primeiramente, o novo
significado passa a compartilhar da estabilidade própria das idéias mais estáveis da
estrutura cognitiva a qual se liga. Além disso, a relação intencional e original mantida
entre o novo conceito ou proposição e as informações já existentes preserva o
significado formado recentemente da influência de outras idéias aprendidas ou que
serão adquiridas no futuro. E ainda, a articulação entre a nova idéia significativa e uma
noção particular mais pertinente da estrutura cognitiva favorece sua recuperação mais
sistemáticamente.
5. Organização da estrutura cognitiva
A hipótese da assimilação contribui, segundo Ausubel, para o entendimento do
modo como o conhecimento é organizado na estrutura cognitiva. Considerando-se que
uma nova idéia se relaciona com alguma noção existente na estrutura cognitiva e, em
geral, um dos componentes desse par é mais inclusivo e estável, enquanto o outro é
dotado de maior especificidade e menor estabilidade, verifica-se a existência de uma
hierarquia conceitual.
A organização dos conteúdos na mente de um indivíduo configuraria, então, uma
pirâmide, seguindo o princípio da diferenciação progressiva, com as idéias mais amplas
e inclusivas no ápice, assimilando aquelas menos amplas ou mais diferenciadas situadas
no escalão seguinte que, por sua vez, fariam a subsunção das idéias mais específicas do
próximo nível da escala hierárquica, e assim sucessivamente. Considerando a natureza
do processo pelo qual a estrutura de conhecimento de um indivíduo aumenta, segundo o
mecanismo de assimilação, Ausubel depreende que a estrutura cognitiva existente,
incluindo tanto conteúdo como organização, é o fator principal que influi na
aprendizagem e retenção significativas em certa área de estudo.
Diversas variáveis da estrutura cognitiva afetam a aprendizagem e a retenção de
um novo material potencialmente significativo. Dentre essas, Ausubel (1976) atribui
grande importância à disponibilidade de idéias inclusivas pertinentes que possam servir
de ponto de sustentação e possibilitar o estabelecimento de relações otimizadas entre
conceitos e proposições. Sem a existência de subsunçores adequados, pode ocorrer
aprendizagem mecânica ou, o que é mais comum, algum tipo de aprendizagem
combinatória ou uma inclusão correlativa menos pertinentes. Os significados formados
desse modo são relativamente sem estabilidade, ambíguos e de pouca longevidade.
Uma segunda variável considerada relevante é o grau em que uma idéia a ser
assimilada pode ser discriminada dos sistemas de idéias estabelecidos na estrutura
cognitiva. Quando um novo material de aprendizagem é semelhante a outro já
conhecido pelo estudante, tende a ser interpretado como idêntico a este, resultando em
significados que não correspondem adequadamente ao conteúdo a ser aprendido. Por
outro lado, mesmo se um aluno souber da existência de algumas diferenças entre as
idéias em estudo e aquelas que possui, talvez não consiga discriminá-las, originando
significados ambíguos, confusos, sobre os quais persistem dúvidas, e significados
opcionais ou em competição. Nesses casos, a força de dissociabilidade dos significados
recém-aprendidos é relativamente pequena, sendo em geral esquecidos mais
rapidamente do que conceitos ou proposições de maior discriminabilidade, pelo fato de
poderem ser representados convenientemente pelas idéias semelhantes mais estáveis já
existentes.
Outras variáveis reconhecidas por terem influência apreciável na aprendizagem
significativa e na permanência na memória do material em estudo, são a estabilidade e a
clareza dos subsunçores existentes. Caso essas propriedades não sejam verificadas, os
novos materiais serão relacionados às idéias da estrutura cognitiva de modo pouco
apropriado, sendo fracamente sustentados e não podendo ser discriminados destas com
facilidade. A clareza e estabilidade das idéias que o aluno apresenta relacionam-se
diretamente à discriminabilidade de novos conceitos em relação à sua estrutura
cognitiva.
Verifica-se que quanto maior o grau de conhecimento sobre um assunto, melhor
a capacidade para aprender novos conteúdos dessa área de interesse, pois existem mais
subsunçores pertinentes disponíveis e é possível discriminar, de modo mais eficaz, as
idéias existentes das análogas que se busca aprender.
Desse modo, conclui-se que, para poderem surgir significados precisos e sem
ambigüidade, os quais tendem a reter sua força de dissociabilidade e disponibilidade, a
estrutura cognitiva deve possuir conceitos e proposições claros, estáveis e organizados
adequadamente.
6. Princípios organizacionais para a apresentação de material instrucional
Com o intuito de maximizar a aprendizagem e retenção significativas, e facilitar
experiências de aprendizagem subseqüentes, Ausubel (1976) assume ser possível atuar
de forma planejada sobre os atributos pertinentes da estrutura cognitiva, tanto
substancialmente quanto programaticamente. Para influir substancialmente, empregam-
se conceitos e proposições unificadores de uma determinada disciplina que sejam mais
explicativos, inclusivos e gerais, e apresentem maior possibilidade de serem
relacionados com o conteúdo da matéria em estudo. Esse tipo de procedimento tem o
propósito de organizar e integrar os elementos constituintes da estrutura cognitiva.
Para agir programaticamente, aplicam-se princípios que facultem ordenar a
seqüência de tópicos de um campo de conhecimentos a serem aprendidos, estruturar o
assunto de forma lógica e com organização interna, e preparar atividades práticas. São
cinco as estratégias pedagógicas enfatizadas por Ausubel (1976) para facilitar a
aprendizagem significativa: o uso de organizadores prévios, a diferenciação progressiva,
a reconciliação integrativa, a organização seqüencial e a consolidação.
O recurso principal para a manipulação deliberada da estrutura cognitiva tendo
em vista a melhoria da aprendizagem, segundo Ausubel, são os organizadores prévios,
materiais introdutórios dotados de alto nível de abstração, generalidade e inclusividade,
que empregam idéias com o máximo de clareza e estabilidade. Um organizador prévio
tem a função de mobilizar subsunçores relevantes existentes na estrutura cognitiva do
aluno e possibilitar que estes atuem na inclusão da matéria a ser aprendida, tornando-a
mais familiar e potencialmente significativa. Busca fornecer ao estudante um arcabouço
de idéias pertinentes e adequadas para permitir a incorporação e a retenção otimizadas
do material mais detalhado e diferenciado a ser apresentado na seqüência de
aprendizagem. Tem por objetivo também aumentar a capacidade de discriminar o novo
material das idéias parecidas, porém distintas, conhecidas pelo estudante.
Além disso, pode contribuir para a reconciliação e integração de noções que
estejam em contradição real ou aparente com idéias da estrutura cognitiva. Conforme
sintetiza Ausubel (1976, p. 179), “(...) a função principal do organizador é salvar o
abismo que existe entre o que o aluno já sabe e o que necessita saber, antes de
aprender com bons resultados a tarefa imediata”. São distinguidos dois tipos de
organizador prévio: o expositivo e o comparativo. O primeiro é elaborado para
proporcionar o desenvolvimento de subsunçores pertinentes e próximos, em relação
subordinada com o conteúdo a ser aprendido, privilegiando a ancoragem de idéias a
partir do que é mais familiar para o aluno. O segundo é construído para favorecer a
identificação das semelhanças entre as novas idéias e as da estrutura cognitiva, e a
ampliação do grau com que os novos conteúdos são discriminados das noções diferentes
em essência, porém bastante parecidas, já existentes.
Para a utilização das estratégias pedagógicas propostas por Ausubel, é
fundamental verificar inicialmente de que modo a disciplina a ser ensinada está
organizada e encontrar seus princípios explicativos com propriedades mais gerais e de
maior poder integrativo. Ao se estruturar o assunto tendo em vista a aprendizagem
significativa, é importante também levar em consideração o nível de desenvolvimento
cognitivo do aluno e seu grau de domínio da matéria. A identificação de conceitos
básicos procura atender ao problema da organização substancial do assunto. Após essa
etapa, resta a questão da organização programática, relativa ao arranjo e à apresentação
em seqüência das unidades componentes da disciplina em estudo.
Ao se utilizar o princípio da diferenciação progressiva, são expostos
primeiramente conceitos e proposições mais gerais e inclusivos, seguidos das idéias
mais específicas do assunto, progressivamente pormenorizado. Justifica-se o emprego
desse recurso devido:
a) à maior facilidade manifestada pelo ser humano em aprender aspectos diferenciados
de um todo mais amplo já sabido do que apreendê-lo a partir do conhecimento de suas
partes componentes mais específicas;
b) à organização hierárquica do conteúdo existente na mente dos indivíduos, com idéias
mais inclusivas no extremo superior, as quais subsumem informações progressivamente
menos inclusivas e mais diferenciadas.
A introdução das idéias mais inclusivas e pertinentes em primeiro lugar
possibilita o desenvolvimento de subsunçores adequados que poderão servir de
ancoradouro para idéias mais específicas apresentadas posteriormente, contribuindo,
desse modo, para a sua aprendizagem e retenção mais eficazes. Segundo Ausubel, é
conveniente organizar não só o material relativo a um tema segundo esse princípio, mas
todo o conjunto de temas e subtemas que compõem um curso.
Pelo princípio da reconciliação integrativa, busca-se explorar relações entre as
idéias de um assunto, indicar semelhanças e diferenças importantes, e reconciliar
inconsistências reais ou aparentes. Desse modo, evita-se compartimentar e isolar idéias
ou temas particulares em capítulos ou subcapítulos específicos, sem que sejam
comparadas idéias relacionadas.
A programação de atividades de ensino e aprendizagem considerando-se a
reconciliação integrativa permite aumentar a capacidade de se discriminar as novas
idéias a serem aprendidas, daquelas conhecidas e bem estabelecidas. Dessa maneira,
contribui para evitar o surgimento de ambigüidades, falsas concepções e confusões, as
quais dificultam a clara distinção entre idéias familiares e desconhecidas, e acentuam a
tendência de que estas se reduzam àquelas. Esse princípio possibilita também eliminar
contradições aparentes entre os novos conceitos e proposições e as idéias existentes na
estrutura cognitiva, de modo a impedir o estudante de descartar as novas idéias ou,
então, de memorizá-las arbitrariamente como se fossem entidades isoladas, distintas do
que se aprendeu anteriormente, gerando conhecimento pouco durável.
Para se alcançar a reconciliação integrativa com maior eficácia, Novak (1986)
considera que é preciso organizar a instrução de modo a se “subir e descer” ao longo da
hierarquia conceitual segundo a qual está estruturada uma disciplina, na medida que a
nova informação vai sendo apresentada. De acordo com Novak, pode-se iniciar o ensino
de um tópico a partir dos conceitos mais gerais, logo a seguir ilustrar de que modo
conceitos subordinados estão a estes relacionados e, então, por meio de exemplos, voltar
a novos significados de conceitos de ordem superior na hierarquia. Os organizadores
prévios podem ser elaborados de acordo com o princípio da reconciliação integrativa, ao
explicitarem pontos comuns e aspectos distintos na comparação entre informações
novas e já aprendidas, mobilizando subsunçores adequados para favorecer a
aprendizagem subseqüente.
Segundo Ausubel, esse procedimento faculta reduzir o esforço na aprendizagem,
evitar o isolamento de conceitos essencialmente iguais em áreas diferentes e sem
comunicação, e desestimular a proliferação desorientadora de uma diversidade de
termos para representar idéias aparentemente diferentes, porém, na verdade,
equivalentes. Além disso, melhora a habilidade de o aluno discriminar diferenças
genuínas entre novos materiais parecidos porém, na realidade, de significados opostos
aos que se encontram em sua estrutura cognitiva, favorecendo sua retenção posterior.
A aprendizagem de novos conceitos e proposições inclusivos claramente
diferenciáveis dos existentes, conforme assume Ausubel, implica desempenho superior
na aprendizagem posterior de material mais detalhado. Isso ocorre porque esse material
pormenorizado é aprendido com maior clareza, estabilidade e discriminabilidade, pelo
fato de as idéias que o subsumem serem mais discrimináveis e, portanto, mais estáveis,
estando, conseqüentemente, mais aptas a proporcionar subsunção contínua e segura.
Ao se aplicar o princípio da consolidação, procura-se assegurar que os assuntos
já estudados de uma seqüência sejam dominados pelo estudante antes da introdução de
um novo material de aprendizagem. Como expõe Ausubel, para se obter a consolidação
são necessárias repetições e revisões da matéria em estudo, em quantidade suficiente e
com espaçamento adequado, com oportunidade para a realização de práticas diferenciais
dos componentes mais difíceis da tarefa de aprendizagem. É preciso também promover
atividades para confirmar, esclarecer e corrigir as aprendizagens prévias.
A consolidação contribui para que os conteúdos prévios se configurem com
clareza, estabilidade e boa organização na estrutura cognitiva do aluno, com efeitos
positivos sobre a profundidade da ancoragem proporcionada a novos conteúdos e a
discriminabilidade destes, melhorando a aprendizagem e a retenção dos significados
formados. O arranjo hierárquico da estrutura cognitiva parece favorecer a aprendizagem
de conceitos e proposições que nela podem ser subsumidos. Por isso, Ausubel sugere
optar-se, sempre que possível, pela aprendizagem subordinada, pois essa modalidade
permitiria aprender conceitos e proposições mais rapidamente, propiciando sua retenção
por mais tempo.
Os princípios organizacionais para a apresentação de material didático propostos
por Ausubel destinam-se a favorecer esse tipo de aprendizagem, a fim de otimizar a
aquisição e retenção significativas de informações.
7. Dimensões do processo educacional
A ênfase da abordagem ausubeliana na aprendizagem de conceitos e proposições
não significa que outros aspectos da educação possam ser deixados de lado. Conforme
se infere da teoria de Ausubel, o fator motivacional é um importante elemento da
aprendizagem significativa, pois não basta um material ser potencialmente significativo;
é preciso que o estudante tenha iniciativa para estabelecer relações não-arbitrárias e
substantivas em sua estrutura cognitiva.
Desse modo, temas e atividades inovadoras, que possam estimular os estudantes
e incentivar a aprendizagem, devem ser buscadas. Isso pode envolver, por exemplo, a
abordagem de assuntos atuais, pelos quais os estudantes têm um interesse natural, por
estarem em contato em seu dia-a-dia, seja em função da interação com novas
tecnologias que repercutem no dia-a-dia ou devido ao acesso a informações pela mídia.
Outro fator com potencial para motivar os estudantes é a informática, que permite
empregar recursos multimídia para despertar o interesse e auxiliar na compreensão dos
assuntos.
Como observa Novak (1986), a aprendizagem cognitiva é acompanhada de
experiência emocional e, por isso, o desenvolvimento afetivo necessariamente ocorre de
modo concomitante à aprendizagem cognitiva. Para Novak, a experiência emocional
tende a ser boa quando o ensino é planejado para otimizar a aprendizagem cognitiva e,
portanto, o desenvolvimento afetivo positivo é maximizado quando estão presentes
condições favoráveis ao crescimento intelectual.
Além disso, Novak reconhece a existência de outros fatores que influem na
resposta emocional. Os momentos de interação entre as pessoas constituem fontes ricas
de experiência emocional e, quando equilibradas, podem fortalecer a autoconfiança e
proporcionar suporte para se enfrentar outros desafios. Por esse motivo, a criação de
oportunidades para a comunicação e a expressão de idéias, incluindo o trabalho
cooperativo envolvendo duas pessoas ou um pequeno grupo, pode favorecer a
aprendizagem. A promoção de debates e a discussão aberta dos temas em estudo
fomentam a participação dos estudantes e tendem a contribuir para melhorar relações
em sala de aula, permitindo valorizar suas idéias e os conhecimentos que já trazem de
suas experiências cotidianas.
Os conteúdos de aprendizagem abrangem mais do que capacidades cognitivas,
envolvendo conceitos, procedimentos e atitudes relacionados, respectivamente, ao que é
preciso saber, saber fazer e ser (COLL, 1986 apud ZABALA, 1998). Conforme expõe
Zabala (1998), cada um desses conteúdos é caracterizado por um conjunto de aspectos a
serem aprendidos:
a) A aprendizagem de conteúdos conceituais abrange o conhecimento e a compreensão
de fatos, conceitos e princípios, com a capacidade de utilizá-los para interpretar
situações e construir novas idéias. São conteúdos dessa natureza: nomes,
acontecimentos, fenômenos concretos e singulares, termos abstratos, símbolos, relações,
leis e outros.
b) A aprendizagem de conteúdos procedimentais abarca a realização de ações seguindo-
se procedimentos e aplicando-se técnicas e métodos, demandando exercício, reflexão
sobre os próprios atos e habilidade para empregar tal conhecimento em contextos
diferenciados. São conteúdos dessa natureza: ler, observar, calcular, classificar, inferir,
debater e outros.
c) A aprendizagem de conteúdos atitudinais engloba o cultivo de valores, atitudes e
normas, necessários para a vida equilibrada em Sociedade. São conteúdos dessa
natureza valores como a solidariedade, o respeito aos outros e a responsabilidade, e
atitudes tais quais cooperar com o grupo, ajudar os colegas e respeitar o ambiente.
Referencias Bibliográficas
AUSUBEL, D. P. Psicología educativa: un punto de vista cognoscitivo. México:
Editorial
Trillas, 1976. 768 p.
AUSUBEL, D. P.. Aquisição e retenção de conhecimentos: Uma perspectiva
cognitiva. Plátano, Lisboa, Portugal, 2000. 226pp.
GOWIN, D. B. (1981). Educating. Ithaca, N.Y.: Cornell University Press. 210 p.
MOREIRA, M. A. (1999). Aprendizagem significativa. Brasília: Editora da UnB.
129 p.
MOREIRA, M. A. Versão revisada e estendida de conferência proferida no III
Encontro Internacional sobre Aprendizagem Significativa, Lisboa (Peniche), 11 a
15 de setembro de 2000. Publicada nas Atas deste Encontro, p.p. 33-45, com o
título original de Aprendizagem significativa subversiva.
MOREIRA, M. A. – A teoria da aprendizagem significativa e sua implementação
em sala de aula – Editora Universidade de Brasília, Brasília, 2006. 186p.
MOREIRA, M. A.; MASINI, E. F. S. Aprendizagem significativa: a teoria de
David Ausubel. 2. ed. São Paulo: Centauro, 2002. 112 p.
MOREIRA, M. A.; PAULO, I. J.C. Abordando conceitos fundamentais da
mecânica quântica no nível Médio. Trabalho apresentado no II Encontro
Iberoamericano sobre Investigação Básica em Educação em Ciências, Burgos,
Espanha, setembro de 2004. Aceito para publicação na Revista Brasileira de
Pesquisa em Educação em Ciências..
MORTIMER, E. F. Construtivismo, mudança conceitual e ensino de ciências:
para onde vamos? In: ESCOLA DE VERÃO PARA PROFESSORES DE
PRÁTICA DE ENSINO DE FÍSICA, QUÍMICA E BIOLOGIA, 3., 1994, Serra
Negra. Coletânea... São Paulo: FEUSP, 1995. p. 56-74.
NOVAK, J. D. A theory of education. Ithaca: Cornell University Press, 1986. 296
NOVAK, J. & GOWIN, D. B. (1996). Aprendendo a aprender. Lisboa: Plátano
Edições Técnicas. Tradução para o português do original Learning how to learn.
212p.
PAULO, I. J. C. ; MOREIRA, M. A. (2004a) - Abordando Conceitos
Fundamentais de Mecânica Quântica no nível médio. Revista Brasileira de
Pesquisa em Educação em Ciências, Bauru - São Paulo, v. 4, p. 63 - 73.
STERNBERG, R. J. Psicologia cognitiva. Porto Alegre: Artmed, 2000. 494 p.
ZABALA, A. A prática educativa: como ensinar. Porto Alegre: Artmed, 1998.
224 p.
1
APENDICE B – MANUAL DE APLICAÇÃO DA
PROPOSIÇÃO INSTRUCIONAL
UNIVERSIDADE DE BRASÍLIA Decanato de Pesquisa e Pós-Graduação
Instituto de Física Instituto de Química
PROGRAMA DE PÓS-GRADUAÇÃO EM ENSINO DE CIÊNCIAS MESTRADO PROFISSIONALIZANTE EM ENSINO DE CIÊNCIAS
Uma proposta de inserção de conteúdos de Mecânica Quântica no
ensino médio, por meio de um curso de capacitação para
professores em atividade
Manual de Aplicação da Proposição Instrucional
Glauson F. Chaves
Brasília, DF
2
Apresentação
O presente Manual tem por objetivo sintetiza a forma de utilização da
proposição instrucional, visando facilitar a aplicação e a validação do instrumento de
trabalho por intermédio do uso do texto de apoio, das apresentações de slides, vídeos,
applets e demais recursos propostos neste trabalho.
3
MÓDULO I
FICHA DE APLICAÇÃO Encontro – 1 – 02h/a
� Apresentação do texto de apoio – Debate e discussão a respeito do
curso.
� Utilização do recurso apresentação de slide - introdução a mecânica
quântica - visão geral do produto – professor.
FICHA DE APLICAÇÃO Encontro – 2 – 02h/a
� Utilização do recurso apresentação de slide - Introdução a mecânica
quântica - visão geral do produto – Debate e discussões prévias
FICHA DE APLICAÇÃO Encontro – 3 – 02h/a
� Apresentação do texto de apoio pág. 5 – Limitações da Física
Clássica
� Utilização do recurso apresentação de slide - introdução a mecânica
quântica - visão geral do produto – professor.
� Vídeo 1 - Motivacional - Uma reflexão a respeito dos tempos
modernos - Interdisciplinar
4
MÓDULO II
FICHA DE APLICAÇÃO Encontro – 4 – 02h/a
� Apresentação do texto de apoio pág. 5 – A discussão científica
(nuvens de Kelvin)
� Utilização do recurso apresentação de slide - introdução a mecânica
quântica - visão geral do produto – professor.
FICHA DE APLICAÇÃO Encontro – 5 – 02h/a
� Apresentação do texto de apoio pág. 5 – Uma nova forma de ver o
mundo.
� Utilização do recurso apresentação de slide - introdução a mecânica
quântica - visão geral do produto – professor.
� Vídeo Lampf. – discussão do modelo luminoso.
5
FICHA DE APLICAÇÃO Encontro – 6 – 02h/a
� Apresentação do texto de apoio – Óptica Ondulatória
� Utilização do recurso apresentação de slide - Tópicos de história da
física - desenvolvimento significativo.
FICHA DE APLICAÇÃO Encontro – 7 – 02h/a
� Apresentação do texto de apoio – Óptica Ondulatória
� Utilização do recurso apresentação de slide - Tópicos de história da
física - desenvolvimento significativo.
� Simulador - Lamp, halogen e Lampf. – discussão do modelo luminoso.
FICHA DE APLICAÇÃO Encontro – 8 – 02h/a
� Apresentação do texto de apoio – Óptica Ondulatória
� Discussão por intermédio da leitura do texto a respeito do modelo
ondulatório das luz.
6
FICHA DE APLICAÇÃO Encontro – 9 – 02h/a
� Apresentação do texto de apoio – Difração da Luz
� Vídeo 2 - Explorando limites Dr. Quantum demonstra o Exp. fenda
dupla, com desdobramentos que podem ser utilizados pelo vídeo 2B e
2C.
� Debate a respeito do vídeo
FICHA DE APLICAÇÃO Encontro – 10 – 02h/a
� Apresentação do texto de apoio – Difração da Luz
� Continuação do debate anterior e análise do vídeo a respeito do
experimento da fenda dupla.
7
FICHA DE APLICAÇÃO Encontro – 11 – 04h/a
� Apresentação do texto de apoio – Interferência, e Experimentos de
Dupla Fenda.
� Os vídeos apresentados módulo anterior devem ser utilizados como
organizadores prévios para esta parte do módulo.
� Apresentação do experimento virtual - Interferômetro de Mach-
Zehnder.
� Apresentação do texto de apoio – Lei de Bragg
� Vídeo 3 - Dualidade onda partícula a idéia do Quantum - Organizador
prévio – Professor
MÓDULO III
FICHA DE APLICAÇÃO Encontro – 12 – 01h/a
� Apresentação do texto de apoio – Comportamento Corpuscular da
Luz. – Debate a respeito do tema e buscar subsunçores, conflitar com
a estrutura anteriormente estudada.
8
FICHA DE APLICAÇÃO Encontro – 13 – 05h/a
� Apresentação do texto de apoio – Efeito Fotoelétrico e Efeito
Compton.
� Vídeo 4 - velocidade da luz – que leva a uma construção de conceitos
que se interelacionam, com áreas do conhecimento diversos. Focado
no tema de comunicação, conduz-se pelo desenvolvimento científico e
tecnológico tão importante para a abordagem do professor de ensino
médio.
� Apresentação de slides: Aula efeito fotoelétrico - erro conceitual.
MÓDULO IV
FICHA DE APLICAÇÃO Encontro – 14 – 03h/a
� Apresentação do texto de apoio – A Quantização e a Constante de
Planck.
� Vídeo - Organizador Prévio - Proposta de Criação em Sala - Animação
- Princípios da Mecânica Quântica
9
FICHA DE APLICAÇÃO Encontro – 15 – 03h/a
� Apresentação do texto de apoio – A Ótica Ondulatória Como
Formulação da Mecânica Quântica.
� Vídeo 5 - Explorando limites clássicos - Dr.Quantum - Mundo Plano,
o qual introduzimos a discussão probabilística, não determinista da
MQ. – Organizador prévio para próximas aulas.
� Apresentação de slides - A crise da física a incerteza.
� Finalize sua aula apresentando o Vídeo - Ano mundial da física, para
servir de conclusão desta revisão conceitual e introdução a MQ.
Sugerimos pausar o vídeo a cada momento relevante e questionar a
respeito dos princípios clássicos e/ou quânticos que apareciam no filme e
suas implicações no ensino médio, fechando a discussão deste e dos
módulos anteriores. Corrija eventuais erros conceituais.
10
MÓDULO V
FICHA DE APLICAÇÃO Encontro – 16 – 04h/a
� Apresentação do texto de apoio – Átomo de Bohr e Dualidade onda
partícula.
� Apresentação - Mecânica quântica.
� Vídeo - Organizador Prévio - Proposta de Criação em Sala - Animação
- Princípios da Mecânica Quântica.
Sugerimos uma discussão prévia do texto e procure propor que os
professores por meio de desenhos expresse os modelos atômicos, com a
finalidade de identificar erros conceituais. Vale a pena explorar a Idea de
um modelo atômico chamado de “pudim de passas”, mostrando os
obstáculos que posem surgir.
� Vídeo - Buscando Subsunçores - Ciclo da Água – Discuta o vídeo do
ponto de vista da estrutura da matéria.
11
MÓDULO VI
FICHA DE APLICAÇÃO Encontro – 18 – 04h/a
� Apresentação do texto de apoio – Princípio da Incerteza de
Heisenberg.
� Vídeo - Buscando Subsunçores e explorando limites - Discovery -
Tudo Sobre Incerteza a Mecânica Quântica.
Após este dois momentos sugerimos que seja feita a discussão com o
auxilio do texto de apoios e a apresentação - Da crise da física a incerteza,
buscando relacionar situações problemas que levem a discussão
probabilística da MQ. Outra sugestão é a utilização de outros vídeos, de
outros módulos
FICHA DE APLICAÇÃO Encontro – 19 – 02h/a
� Apresentação do texto de apoio – Princípio da Complementaridade.
Discussão do tema, a fim de mostrar a forma como os aspectos
ondulatórios e corpusculares da matéria e da radiação são partes
necessárias e complementares do todo.
12
FICHA DE APLICAÇÃO Encontro – 20 – 04h/a
� Apresentação do texto de apoio – Princípio da Correspondência.
Crie modelos que sugira a discussão de correspondência entre teorias, bem
como assita ao vídeo - Física Nuclear - A descoberta da Radioatividade -
Organizador – Professor – bem como discuta a apresentação - um pouco
de física contemporânea – partículas – Ao final encerre o curso marcando
a avaliação, para que seja verificado o resultado da aprendizagem.
TEXTO DE APOIO
UNIVERSIDADE DE BRASÍLIA Decanato de Pesquisa e Pós-Graduação
Instituto de Física Instituto de Química
PROGRAMA DE PÓS-GRADUAÇÃO EM ENSINO DE CIÊNCIAS MESTRADO PROFISSIONALIZANTE EM ENSINO DE CIÊNCIAS
Texto de Apoio da proposta de inserção de conteúdos de Mecânica
Quântica no ensino médio, por meio de um curso de capacitação para
professores em atividade
Glauson F. Chaves
Brasília, DF
2
Conteúdo
1. LIMITAÇÕES DA FÍSICA CLÁSSICA ....................................................................................................... 4
2 – A DISCUSSÃO CIENTÍFICA (NUVENS DE KELVIN) .................................................................................... 5
3 - O NASCIMENTO DA MECÂNICA QUÂNTICA ........................................................................................... 8
4. UMA NOVA FORMA DE VER O MUNDO .............................................................................................. 10
5. ÓPTICA ONDULATÓRIA ................................................................................................................. 11
6. DIFRAÇÃO DA LUZ. ...................................................................................................................... 14
7. INTERFERÊNCIA. .......................................................................................................................... 15
8. EXPERIMENTOS DE DUPLA FENDA ................................................................................................... 16
9. LEI DE BRAGG ............................................................................................................................ 20
10. COMPORTAMENTO CORPUSCULAR DA LUZ ...................................................................................... 22
11. EFEITO FOTOELÉTRICO. ............................................................................................................... 23
12.EFEITO COMPTON ...................................................................................................................... 27
13. A QUANTIZAÇÃO E A CONSTANTE DE PLANCK ................................................................................... 29
14. A ÓTICA ONDULATÓRIA COMO FORMULAÇÃO DA MECÂNICA QUÂNTICA ............................................... 33
15. ESTADOS CLÁSSICOS E QUÂNTICOS ................................................................................................ 36
15.1. SUPERPOSIÇÃO LINEAR DE ESTADOS. .......................................................................................... 40
16. PRIMEIROS POSTULADOS DA MECÂNICA QUÂNTICA .......................................................................... 41
16.1. EVOLUÇÃO TEMPORAL DOS ESTADOS QUÂNTICOS ........................................................................... 45
16.2. A INTERPRETAÇÃO PROBABILÍSTICA DA FUNÇÃO DE ONDA ................................................................. 46
16.3. ALGUMAS IMPORTANTES CONSEQÜÊNCIAS DA INTERPRETAÇÃO PROBABILÍSTICA .................................... 46
17. O ÁTOMO DE BOHR ................................................................................................................... 47
18. PRINCÍPIO DA CORRESPONDÊNCIA. ................................................................................................ 60
19. DUALIDADE PARTÍCULA-ONDA ..................................................................................................... 61
20. PRINCÍPIO DA COMPLEMENTARIDADE ............................................................................................. 63
21. A INTERPRETAÇÃO DA COMPLEMENTARIDADE .................................................................................. 63
3
22. PRINCÍPIO DA INCERTEZA DE HEISENBERG ........................................................................................ 66
23. BIBLIOGRAFIA ........................................................................................................................... 69
4
1. Limitações da Física Clássica
No final do século XIX, o edifício da Física Clássica dir-se-ia completo. As leis da
Mecânica Clássica, do Eletromagnetismo, da Mecânica Estatística e da Termodinâmica
revelavam-se capazes de interpretar a maior parte dos fenômenos observáveis. A crença nos
poderes da razão, na capacidade da ciência para impulsionar o progresso social era bastante
generalizada. No entanto, alguns problemas não resolvidos continuavam a ser um desafio para
a Física Clássica e, por outro lado, novas descobertas vieram pôr à prova a sua capacidade
interpretativa. Falaremos brevemente de alguns desses problemas.
� O espectro da radiação do corpo negro era um dos problemas não resolvidos
satisfatoriamente. A partir das leis da Física Clássica, obtinha-se a célebre fórmula de
Rayleigh-Jeans, que, embora se ajustasse aos dados experimentais para longos
comprimentos de onda, falhava dramaticamente na região dos pequenos comprimentos
de onda.
� No que respeita à estrutura da matéria, durante séculos, tinha-se discutido a
hipótese atômica, e, embora nos finais do século XIX ela já fosse relativamente
consensual, não havia teorias minimamente consistentes.
� As leis da Mecânica Clássica obedeciam ao princípio da relatividade de
Galileu, mas o mesmo não acontecia com as do Eletromagnetismo. Para estas últimas,
parecia haver um referencial privilegiado, o éter. No entanto, para além da falta de
estética desta hipótese, estava por provar a existência do mesmo éter.
� A Física newtoniana tinha sido coroada de sucessos espantosos, tanto do ponto
de vista interpretativo como de previsão. Questões sobre a origem da inércia, sobre a
razão da existência na teoria de duas massas conceitualmente diferentes (gravitacional
e inercial) e numericamente equivalentes, continuavam por esclarecer.
Um problema que tinha preocupado alguns dos melhores cientistas do século XIX era
o da irreversibilidade no tempo dos fenômenos macroscópicos, atendendo a que eles se
podem considerar combinações de fenômenos elementares, obedecendo estes últimos às leis
de Maxwell e Newton, que são reversíveis no tempo. Maxwell, Gibbs, Boltzman e Clausius
foram os principais fundadores de um novo ramo da Física, a Mecânica Estatística, que teve
na sua origem o problema a que acabamos de nos referir. Esta nova ciência estabelece uma
ponte entre a Mecânica e o Eletromagnetismo, por um lado, e a Termodinâmica, por outro.
5
Estes e outros problemas, bem como as novas descobertas do virar do século, estiveram na
origem da Física Moderna.
2 – A discussão científica (nuvens de Kelvin)
A mecânica quântica é muito mais que apenas uma ‘teoria’, ela é uma forma
completamente nova de ver o mundo. De forma recorrente o ‘fim da física’, significando, com
isso, não seu colapso, mas o fechamento final e definitivo dessa forma de conhecimento. Um
dos registros mais conhecidos disso data precisamente de 1900, quando o influente físico
irlandês William Thomson (lorde Kelvin, 1824-1907), visivelmente imbuído do espírito de
mudança de século, afirmou, em uma conferência proferida na Royal Society e intitulada
“Nuvens do século 19 sobre a Teoria Dinâmica do Calor e da Luz” – assuntos de sua
especialidade –, que “agora não há nada novo por ser descoberto em física. Tudo o que resta
são medidas cada vez mais precisas”.
Lorde Kelvin menciona que existiriam apenas “duas pequenas nuvens no horizonte da
física”: o resultado negativo da experiência de Michelson-Morley e o chamado problema da
radiação do corpo negro. O éter era tido como um meio material que servia de suporte à
propagação das ondas eletromagnéticas – luz, por exemplo.
Em 1887, os físicos norte-americanos Albert Michelson (1852-1931) e Edward
Morley (1838-1923), em um dos experimentos mais famosos e importantes da física, não
conseguiram comprovar – como estava inicialmente previsto – a existência do éter. Já o
problema do corpo negro diz respeito à intensidade de radiação emitida por um corpo
aquecido.
O nome “corpo negro” vem do fato de que se trata de um corpo que deve ter a
propriedade de absorver toda a radiação que incida sobre ele, reemitindo-a, depois de
reprocessar a energia absorvida, segundo apenas propriedades gerais suas, notadamente a
temperatura. Hoje, o exemplo mais notável de corpo negro é o próprio universo, como um
todo, que contém “radiação de fundo” – o que exclui de consideração as altas temperaturas de
estrelas; por exemplo, do Sol, em particular – correspondente a uma temperatura de 2,74
kelvin. A física da época não conseguia explicar, como, a uma dada temperatura, a
intensidade da radiação emitida dependia do valor da freqüência com a qual ela era emitida.
6
Ainda em 1900, a segunda das pequenas nuvens se transformaria em ativa tempestade,
com o sucesso da hipótese dos “quanta” do físico alemão Max Planck (1858-1947), ou seja, a
de que, na natureza, a energia é emitida e absorvida em “pacotes” discretos – daí o uso do
termo latino quanta, que no singular (quantum) significa “quanto” ou “quantidade” – e não
como um fluxo contínuo, como se acreditava. Segundo Planck a energia de cada pacote de
energia é proporcional á freqüência de radiação.
A hipótese dos quanta, formulada por Planck, ganha um aporte conceitual valoroso as
bases filosóficas da física quando cinco anos mais tarde, com os trabalhos de Albert Einstein
(1879-1955) sobre a teoria da relatividade restrita, em que ele mostrou que o conceito de éter
era totalmente desnecessário.
Diferentemente das chamadas “revoluções científicas” anteriores, que envolveram
embates com concepções prevalecentes fora dos domínios da ciência – como a revolução
copernicana, que nasceu com a proposição feita pelo astrônomo polonês Nicolau Copérnico
(1473-1543) de que a Terra e os planetas então conhecidos giravam em torno do Sol –, as
mudanças de perspectiva ocorridas no início do século passado foram às primeiras grandes
revoluções intrínsecas da física, isto é, que envolveram revisões radicais de concepções da
própria física.
Em particular, a transição do mundo físico como visto no último ano do século 19 por
Kelvin – usualmente chamado mundo da física clássica – para o mundo visto através da
mecânica quântica é, sem dúvida, até hoje, a mais profunda e também, em muitos aspectos, a
mais desconcertante delas.
No que se refere à mecânica, o ordenamento clássico do mundo foi completado pelo
físico e matemático inglês Isaac Newton (1642-1727), ao estabelecer que o movimento de
sistemas de corpos materiais – planetas ou partículas – obedece a leis ou a equações de
movimento determinísticas, ou seja, que permitem conhecer situações tanto passadas quanto
futuras a partir de informação suficiente sobre a natureza do sistema e sobre sua situação em
um dado instante de tempo. Especificamente, conhecidas as massas e as forças que agem
sobre cada um dos corpos – o que define a natureza do sistema –, bem como conhecidas, em
um determinado instante, suas posições e velocidades – o que define a situação ou o chamado
estado do sistema naquele instante –, é possível, em princípio, determinar suas posições e
7
velocidades, ou seja, seu estado em qualquer outro instante de tempo passado ou futuro, isto
é, tanto as trajetórias que os corpos percorrem quanto à forma pela qual eles as percorrem.
Figura 11
A imagem acima, mostra uma discussão, hipotética, entre Newton, Planck e Kelvin,
que ilustra o momento de emergência da antiga teoria quântica, ainda buscando equilíbrio
entro o clássico e a nova teoria que surgia em 1900. A mecânica quântica, como é hoje
entendida, emergiu apenas um quarto de século depois da proposta ousada de Planck, com os
trabalhos do alemão Werner Heisenberg (1901-1976) e do austríaco Erwin Schrödinger
1 Extraída do texto de apoio ao professor de física V.17 n.5 2006 - Inserção de mecânica quântica no ensino médio: uma proposta para professores , Ricci e Weber
8
(1887-1961), após um período de maturação conhecido como a época da “velha teoria
quântica”, uma seqüência clarividente e quase heróica de colagens em que idéias inovadoras
eram usadas lado a lado com elementos habilmente pinçados da física tradicional. Os
protagonistas centrais nesse período foram novamente Einstein, bem como o dinamarquês
Niels Bohr (1885-1962) e o francês Louis de Broglie (1892-1987).
Na forma em que emergiu dos trabalhos de Heisenberg e de Schrödinger, a mecânica
quântica compartilha diversas características gerais da mecânica clássica. Notadamente, ela
também descreve em termos de leis ou equações de movimento determinísticas a evolução ao
longo do tempo do estado do sistema que esteja sendo considerado.
A grande ruptura com as idéias clássicas ocorre em relação àquilo que de fato constitui
o estado do sistema. E essa ruptura se dá basicamente por dois motivos:
i) A dinâmica clássica levava a resultados em contradição com o comportamento
observado em sistemas atômicos;
ii) A incapacidade de a velha teoria quântica oferecer uma descrição coerente dos
resultados experimentais.
A mudança de visão está longe de parecer natural ou intuitiva: enquanto, no caso da
mecânica clássica, o estado é expresso em termos de quantidades que têm um conteúdo
empírico imediato, como posições e velocidades, no caso da mecânica quântica, o estado do
sistema é dado de forma muito mais abstrata, a ponto de ter que ser complementado por um
conjunto de regras específicas de interpretação cujo propósito é o de estabelecer o contato
indispensável entre as propriedades do estado quântico abstrato e aquilo que é efetivamente
observado.
3 - O nascimento da mecânica quântica
A mecânica quântica nasceu com o papel de descrever os processos de interação entre
a radiação e a matéria. Logo em seguida ganhou outro mais importante: explicar, dentro do
pensamento atomista, as relações físicas mais básicas dos componentes mais elementares
constituintes do universo. Seja em um, seja em outro, ela ocupou o lugar da física clássica
justamente onde esta se encontrava mais tímida: o domínio microscópico.
9
A tensão que a originara, se levamos em conta o desenvolvimento dos estudos da
radiação e das técnicas espectroscópicas, já durava mais de meio século quando, pela primeira
vez, aquele grande e fragmentado esforço, foi visto como um único corpo teórico. Cada um
destes fragmentos, Raios de Röntgen, Radiação de Corpo Negro, Espectros Atômicos, etc.,
exigiam em si interpretações cada vez mais difíceis de encontrar consistência dentro do
campo tradicional, a física clássica, e, num certo sentido sua síntese sob o nome mecânica
quântica foi exatamente a afirmação da não interpretação, algo como: sabemos para que
serve, não sabemos o que é. Formalmente podemos falar de mecânica quântica a partir da
segunda metade da década de 20, com os trabalhos independentes e totalmente equivalentes
de Heinsenberg e Schrödinger.
Obviamente, tanto para os fragmentos quanto para a síntese, foram tentadas
conceitualizações dentro do espectro da física clássica: numas os elétrons eram partículas,
noutras eram ondas; numas a função de onda seria um campo real, tal como o
eletromagnético, espalhado pelo espaço, noutras, um fluido obedecendo às leis da
hidrodinâmica. Vale notar, entretanto, que estas interpretações semiclássicas, não foram
apenas um trabalho primário daqueles que não percebiam o caráter revolucionário da teoria,
mas foram tentativas, às vezes bastante sofisticadas, que duraram várias décadas, e muito
contribuíram para a polêmica em torno da interpretação da mecânica quântica.
No mundo macroscópico o estudo dos movimentos, tão bem explicado pela mecânica,
é considerado como finalista do ponto de vista científico, no entanto essa visão determinista
quando levada ao estudo do mundo das partículas, o microcosmos, promove o aparecimento
de lacunas conceituais nos movimentos do micromundo. É então a mecânica quântica que vai
revelar aspectos importantes desta visão ampliada da Física.
No início do século passado prevalecia entre os homens de ciência a opinião de que a
mecânica newtoniana continha os elementos necessários a explicação dos fenômenos físicos.
A teoria ondulatória da luz foi à primeira teoria física que se desenvolveu apoiando-se em
uma concepção radicalmente diferente da concepção newtoniana. A propagação da luz é
assimilada a propagação de ondas. O fenômeno luminoso em um ponto caracteriza-se por
uma função periódica do tempo denominada “variável luminosa”.
A intensidade da luz no ponto considerado é por definição o quadrado da amplitude da
vibração luminosa. A variável luminosa deve também satisfazer a equação de propagação das
10
ondas e a determinadas condições limites. Quando a luz se propaga em um meio cujo índice
de refração é constante, as superfícies de igual fase, em um dado instante, são planos paralelos
cujas normais constituem os “raios” percorridos pela perturbação luminosa. No caso de um
meio refringente cujo índice é uma função de ponto lentamente variável as superfícies de
igual fase adquirem curvatura e os raios deixam de ser retilíneos.
4. Uma nova forma de ver o mundo
A Física Quântica desperta, em muitas pessoas, interesses variados. Nascida com o
século XX, bastaram algumas décadas para que influenciasse, decisivamente, a vida de todos
nós, pois deu sustentação teórica à estonteante revolução tecnológica, ocorrida,
principalmente, a partir dos anos cinqüenta. Concomitantemente, exigiu dos físicos profundas
alterações em sua maneira de descrever os fenômenos naturais, em sua forma de compreender
e explicar a natureza.
Na verdade, não houve consenso. Ficaram famosas as discussões entre Einstein e Niels
Bohr, centradas, principalmente, na questão do caráter probabilístico da nova teoria em
oposição ao determinismo da Física Clássica e na interpretação de alguns aspectos do
formalismo matemático utilizado. E as discussões perduram, apesar da sofisticação dos novos
experimentos que o próprio desenvolvimento tecnológico viabiliza, realizados com o fim
específico de tentar elucidar as questões pendentes. Dualidade onda-partícula, princípio da
incerteza, o gato de Schrödinger, o colapso da função de onda, a ação da consciência do
observador sobre o estado do sistema. Expressões como essas respingam no leigo em Física,
que fica entre curioso e perplexo, às vezes, esperançoso, no mais das vezes, indiferente. Mas
afinal, o que é mesmo a Física Quântica? Em uma tentativa de interpretar os novos
paradigmas nascidos com a Física Quântica, Niels Bohr formulou o seu Princípio da
complementaridade., segundo o qual os sistemas quânticos podem se apresentar sob dois
aspectos aparentemente incompatíveis e mutuamente exclusivos.
É nesse contexto de novas descobertas que o século passado se revelou um descritor
da natureza de forma descontínua, fragmentada e estatística, com uma visão do mundo
microscópico por intermédio da entusiasmada descoberta do universo das partículas que
medeiam interações, formam matéria e antimatéria. Foi nessa empolgante construção
cientifica, a física quântica, que chegou para a humanidade uma nova revolução tecnológica,
11
de aplicações pouco inimagináveis, onde potencializou a capacidade humana de manipular o
microcosmo e de perceber o mundo e a natureza, como algo em construção e que necessidade
de novas possibilidades de descoberta em benefício do homem.
5. Óptica Ondulatória
A figura abaixo apresenta um espectro eletromagnético. Podemos notar que a luz
visível ocupa um espaço pequeno em relação ao todo e que o comprimento da onda vai
ficando maior quando se vai dos raios gama até as ondas de rádio.
Figura 22
As figuras abaixo mostra as faixas de freqüências, e os comprimentos de onda
relacionando-os com perspectivas dimensionais, o que leva a uma compreensão visual entre
entes físicos como a onda luminosa, a capacidade visual, a temperatura e as aplicações
tecnológicas da ondas eletromagnéticas.
2 Figura extraída de http://commons.wikimedia.org/wiki/Image:Electromagnetic_spectrum-es.svg
12
Figura 33
Figura 44
3 Figura extraída de www.ufpa.br/.../classificacao%20de%20metodos.htm - Espectro eletromagnético e a relações com o comprimento de
onda e, freqüência e temperatura de emissão
4 Figura extraída de www.sobiologia.com.br/.../Ondas4.php - Espectro eletromagnético e implicações tecnológicas
13
A óptica geométrica, não consegue explicar muitos fenômenos que acontecem com a luz.
Certos fenômenos conseguem ser explicados através do modelo ondulatório da luz, como por
exemplo a refração, difração e interferência da luz.
Uma onda apresenta características como: comprimento de onda (λ), amplitude (A) e
freqüência (f).
Figura 55
Figura 66
5 Figura extraída de www.astro.iag.usp.br/.../aga215/aula05/cap5a.htm
6 Figura extraída de www.ufpa.br/ccen/quimica/classi56.jpg
14
6. Difração da Luz.
A luz quando atravessa um orifício que apresenta a grandeza da ordem de seu
comprimento de onda, sofre uma difração. A óptica geométrica, não consegue dar uma
explicação para tal fenômeno, ao passo que a óptica ondulatória (luz como onda), explica esse
fenômeno facilmente. A difração ocorre quando as ondas encontram um pequeno obstáculo
ou um pequeno orifício e, elas tendem a contorná-los. A figura abaixo, nos mostra um
fenômeno de difração de uma onda.
Figura 77
Observando a figura 7, podemos notar que a onda que vinha se propagando paralelamente
antes da abertura da fenda, sofre uma difração e começa a contornar o anteparo com o orifício
após passar por ele. Esse fenômeno, a óptica geométrica, não conseguia explicar e é explicado
pelo comportamento ondulatório da luz.
Para realizar a demonstração da difração, se utiliza uma cuba de ondas e se provoca
uma oscilação constante na superfície da água e nesse caso a abertura, como se vê na figura 6
é grande, pois terá de ter as dimensões do comprimento de onda gerado. No caso da luz, como
o seu comprimento de onda é muito pequeno, temos que usar fendas ou aberturas pequenas,
na ordem de 10-6
m
7 Figura extraída de HTTP://educar.sc.usp.br/.../2003/of/Difracao.html
15
Figura 88
A difração é explicada pelo Princípio de Huygens: quando os pontos de uma abertura
ou de um obstáculo são atingidos pela frente de onda eles tornam-se fontes de ondas
secundárias que mudam a direção de propagação da onda principal, contornando o obstáculo.
O fenômeno da difração somente é nítido quando as dimensões da abertura ou do obstáculo
forem da ordem de grandeza do comprimento de onda da onda incidente. A difração ocorre
com qualquer tipo de onda. Nas ondas sonoras, por exemplo, permite que escutemos a voz de
uma pessoa que nos chama, mesmo que esta pessoa esteja atrás de um obstáculo. Com a luz
também ocorre a difração, porém é mais difícil percebermos a difração de ondas luminosas,
porque os obstáculos e aberturas em que a luz incide são normalmente bastante grandes em
relação ao seu comprimento de onda. Entretanto, se fizermos a luz passar por orifícios cada
vez menores, observaremos que a luz sofrerá difração ao passar por esse orifício.
7. Interferência.
A interferência é um fenômeno tipicamente ondulatório. Em 1801, Young demonstrou
a interferência da luz e foi quem possibilitou o estabelecimento da teoria ondulatória da luz.
8 Figura extraída de www.fisica.ufs.br/.../Interferencia.htm
16
Figura 99
Para demonstrar a interferência da luz, Young construiu um experimento com uma
fonte de luz, sendo colocada antes de um anteparo com um orifício, que difratava a luz e
formava uma onda coerente. Uma onda coerente apresenta as mesmas características ao longo
do processo. Esse feixe de ondas, difratadas na primeira fenda, incidiam no segundo anteparo
com duas fendas estreitas e o que se via na tela eram franjas de interferência, pois as ondas de
luz que atravessam o anteparo se interferiam, ora construtivamente ora destrutivamente. Uma
interferência construtiva acontece quando as ondas chegam com a mesma fase e uma
interferência destrutiva acontece quando as ondas chegam defasadas de 180º. Um applet para
demonstrar a interferência da luz se encontra no seguinte endereço:
http://geocities.yahoo.com.br/saladefisica3/laboratorio/interferencia/interferencia.htm.
8. Experimentos de Dupla Fenda
Vamos começar nossa viagem pelo mundo quântico recordando os experimentos de
dupla fenda.
Estes experimentos estão entre os exemplos mais nítidos e simples de visualização de
fenômenos quânticos. O experimento utiliza, em geral, uma fonte, um anteparo com duas
fendas e um segundo anteparo para efeitos de registro.
9 Figura extraída de www.scielo.br/scielo.php?pid=S1516-7313200800.
17
Quando o experimento é realizado com uma fonte que emite ondas eletromagnéticas
(luz, por exemplo), obtém-se um padrão de interferência típico da Física Ondulatória, com
franjas de interferência, como observado na figura 1. As manchas escuras no anteparo se
referem às regiões em que ocorre interferência construtiva e as manchas claras às regiões de
interferência destrutiva. (Como ilustração veja, por exemplo, applet sobre o experimento de
dupla fenda com ondas em "Física 2000": http://www.maloka.org/f2000)
Figura 1010
Se o experimento é realizado com uma fonte que emite partículas macroscópicas
(como projéteis atirados por uma metralhadora, por exemplo), observa-se um padrão que
difere do das ondas. Aparecem duas franjas bem destacadas no segundo anteparo, conforme
observado na figura 2. As manchas escuras se referem às regiões atingidas pelos projéteis e
as áreas claras correspondem às regiões não atingidas.
10 Figura extraída de http://grad.physics.sunysb.edu/Namarch/ - Padrão de interferência obtido no experimento de dupla fenda com ondas
- Universidade de Stony Brook, acessado em 29/08/2007.
18
Figura 1111
Os experimentos acima mencionados foram realizados com entidades tipicamente
clássicas. Mas o que acontece quando se utiliza uma fonte de partículas microscópicas, como
os elétrons, por exemplo, no experimento? Intuitivamente, poder-se-ia crer que se obteria um
padrão como o da figura 2, pois, como as balas da metralhadora, os elétrons são porções de
matéria. Mas os elétrons são entidades muito peculiares: são objetos quânticos e, assim, não
devemos confiar em nossa "intuição" construída a partir de resultados clássicos, na predição
de resultados. A figura 3 mostra o padrão de contagens obtido neste caso. Vê-se que este
padrão de contagens é muito parecido com o padrão de interferência das ondas. Mas se os
elétrons são partículas, como isso é possível? Estará ocorrendo interferência de uns com
outros?
11 Figura extraída de http://www.maloka.org/f2000 - Experimento de dupla fenda com partículas macroscópicas
19
Figura 1212
Para entender este fenômeno que a física Clássica não explica, foi necessário lançar
mão da Mecânica Quântica. A explicação do experimento nos remete a alguns conceitos (e
termos) não usados para partículas clássicas, tais como amplitude de probabilidade e função
de onda.
O padrão da figura 3 é, em geral, obtido com uma fonte de alta intensidade que emite
muitas partículas de uma só vez. (Vide applet sobre o experimento com elétrons em "física
2000".). Contudo, imagine que a fonte está emitindo um único elétron a cada vez, ou seja,
cada elétron só é emitido após o registro da contagem do elétron anterior no anteparo. Que
padrão de contagens aparece, após um tempo muito longo? O da figura 2 ou o da figura 3?
Por mais estranho que possa parecer, a resposta é: o da figura 3. Vê-se, neste caso, que o
fenômeno quântico desafia novamente nossa expectativa levando-nos a perguntar: como é
possível gerar padrão de interferência sem ocorrer interação entre os elétrons?
Figura 1313
12 Figura extraída de http://www.maloka.org/f2000 - Experimento de dupla fenda com partículas quânticas
13 Figura 4 extraída de http://www.blacklightpower.com/theory/DoubleSlit.shtml. acessado em 18/06/2008.
20
Figura 1414
Para responder a estas (e outras) perguntas via Mecânica Quântica, devemos conhecer
os princípios fundamentais da nova teoria.
Pense: Por que ocorre, no experimento de dupla fenda com objetos microscópicos, a
visualização de padrões de interferência?
9. Lei de Bragg15
A Lei de Bragg refere-se a equação:
nl = 2d sinq (1)
que foi derivada pelos físicos ingleses Sir W.H. Bragg e seu filho Sir W.L. Bragg, em 1913,
para explicar porque as faces clivadas de cristais refletem feixes de raios-X a certos ângulos
de incidência (q). A variável d é a distância entre camadas atômicas em um cristal, e a
variável lambda l é o comprimento de onda do feixe de raios-X incidente; n é um inteiro.
Esta observação é um exemplo de interferência de ondas de raios-X, conhecido como
difração de raios-X (XRD), e é uma evidência direta da estrutura periódica de cristais, que
14 Figura extraída de http://www.blacklightpower.com/theory/DoubleSlit.shtml. acessado em 18/06/2008.
15 Texto traduzido por Rejane M. Ribeiro Teixeira a partir de um texto escrito por Paul J. Schields Center for High Pressure Research
Department of Earth & Space Sciences State University of New York at Stony Brook Stony Brook, NY 11794-2100.
21
fora postulada por vários séculos. Os Bragg receberam o Prêmio Nobel de Física em 1915 por
seu trabalho na determinação das estruturas cristalinas do NaCl, do ZnS e do diamante.
Embora a Lei de Bragg foi usada para explicar o padrão de interferência de raios-X
espalhados por cristais, o fenômeno de difração tem sido desenvolvido para estudar a
estrutura de todos os estados da matéria com diversos feixes, por exemplo, íons, elétrons,
nêutrons e prótons, com um comprimento de onda da mesma ordem de grandeza da distância
entre as estruturas atômicas ou moleculares de interesse.
A lei de Bragg pode facilmente ser derivada considerando as condições necessárias
para fazer as fases dos feixes coincidirem, quando o ângulo de incidência iguala o ângulo de
reflexão. Os raios do feixe incidente estão sempre em fase e paralelos até o ponto no qual o
feixe superior "bate" na camada no átomo z (Fig. 1). O segundo feixe continua até a seguinte
camada layer onde ele é espalhado pelo átomo B. O segundo feixe deve viajar a distância
extra AB + BC se os dois feixes devem continuar viajando adjacentes e paralelos. Esta
distância extra deve ser um múltiplo inteiro (n) do comprimento de onda (l)para que as fases
dos dois feixes sejam as mesmas:
nl = AB +BC (2).
22
Figura 1516
Reconhecendo-se d como a hipotenusa do triângulo retângulo Abz, nós podemos usar
trigonometria para relacionar d e q à distância (AB + BC). A distância AB é oposta q assim,
AB = d sinq (3).
Como AB = BC, equação (2) torna-se,
nl = 2AB (4)
Substituindo-se equação (3) na equação (4) temos,
nl = 2 d sinq, (1)
e a Lei de Bragg tem sido derivada. A localização da superfície não altera a derivação da Lei
de Bragg.
10. Comportamento Corpuscular da Luz
Desde que Hertz produziu e detectou as primeiras ondas eletromagnéticas geradas pelo
homem, nosso mundo passou a ser povoado por ondas ou radiações eletromagnéticas de toda
espécie, ou seja de todas as freqüências e a luz visível, como podemos ver na figura 2, ocupa
uma faixa muito pequena. Em 1801 com demonstração de Young do comportamento
ondulatório da luz, não se deve mais dúvida de que a luz era uma onda. Só que certos
experimentos realizados na mesma época, não tinham resposta segundo a teoria ondulatória
da luz e que a luz deveria apresentar outro comportamento em certas circunstâncias.
Os fenômenos, da difração e da interferência, eram facilmente explicados pela teoria
ondulatória, mas o efeito fotoelétrico e o efeito Compton não tinham explicação baseados só
na teoria ondulatória. Hoje sabemos, que esses dois efeitos, fotoelétrico e Compton,
16
Figura extraída de Paul J. Schields Center for High Pressure Research Department of Earth & Space Sciences State University of New
York at Stony Brook Stony Brook, NY 11794-2100. - Derivação da Lei de Bragg usando a geometria da reflexão e aplicando-se
trigonometria. O feixe inferior deve viajar a distância extra (AB + BC) para continuar viajando paralelo e adjacente ao feixe superior.
23
comprovam a existência corpuscular da luz, ou seja , a proposta de Einstein de que a luz é
formada por pacotes de luz ou quanta de luz, que denominamos de fótons.
Antes de começar a explicar, os efeitos, fotoelétrico e Compton da luz, vamos fazer
uma pequena introdução à física moderna. Na física clássica, as coisas são bem determinadas
e não existe dúvida quanto ao estado de um objeto ou quanto as suas dimensões deste objeto.
Quando se fala em física moderna, não temos mais certeza do comportamento de um objeto
que quando se fala classicamente é bem definido. Na física moderna, a luz, pode ser onda e
corpúsculo ao mesmo tempo e isso levou tempo para ser aceito no meio científico e gerou
muita discussão. Segundo Einstein, que adotou a idéia de Planck sobre a quantização da
energia, a energia (E) é proporcional à freqüência (f) da radiação:
E = h.f , sendo h uma constante universal conhecida como constante de Planck e cujo
valor é : h = 6,626 x 10-34
J.s.
Como o h é uma constante, logo para obter uma energia maior, se terá que ter uma
freqüência maior.
11. Efeito Fotoelétrico.
O efeito fotoelétrico foi descoberto por Herzt, em 1887, e estudado por Lenard em
1900.
“Por volta de 1887, Heinrich Hertz, descobriu que a faísca elétrica entre dois
condutores surgia facilmente, quando um deles era exposto à radiação ultravioleta ou à luz da
faixa próxima ao violeta. A análise posterior desse fenômeno mostrou que a energia das ondas
eletromagnéticas, era absorvida pelos elétrons do metal e que essa energia fazia com que
alguns elétrons fossem expelidos dele. Os elétrons expelidos apressavam a ionização do ar, o
que facilitava o surgimento da faísca. Esse efeito ficou conhecido como efeito fotoelétrico,
pois era a incidência de luz que fazia os elétrons saírem do metal.
Einstein percebeu que esse efeito poderia, ser explicado se a hipótese de Planck, dos
quanta de luz, feita para as moléculas, fosse estendida também à própria onda
eletromagnética.
24
Assim, a quantização da energia, que fora lançada por Planck como um recurso teórico
para explicar a irradiação térmica, ganhou um significado muito mais geral. Hoje, considera-
se que toda energia é quantizada, isto é, existe na forma de pacotes, ao contrário do que
supunha a Física clássica, segundo a qual a energia poderia apresentar variação contínua.”17
A figura abaixo, nos dá uma idéia de como podemos verificar o efeito fotoelétrico na
prática. Faz-se incidir luz sobre a superfície metálica do catodo e dependendo da freqüência
desta luz se obtém uma corrente no circuito que é metida pelo amperímetro que tenha uma
sensibilidade grande para pequenas correntes elétricas.
Figura 1618
O esquema da figura 16 apresenta um dispositivo experimental com placas de
diferentes metais polidos e, colocados no interior de uma ampola de vácuo. A luz incide numa
da placas liberando elétrons que são atraídos pela placa em frente, ligada ao terminal positivo
da bateria. O movimento de elétrons é detectado pela passagem de uma corrente elétrica
registrada pelo amperímetro.
Enquanto Planck considerava a quantização da energia, na sua teoria da radiação do
corpo negro, como um artifício de cálculo, Einstein enunciou a audaciosa hipótese da
quantização da energia ser uma propriedade fundamental da energia eletromagnética. Três
anos mais tarde, aplicou a idéia da quantização da energia às energias moleculares para
resolver outro enigma da física- a discrepância entre os calores específicos, calculados pelo
17 Extraído de: http://br.geocities.com/saladefisica
18 Figura extraída de http://fisicanet.terra.com.br, – Efeito fotoelétrico extraída da página do prof. Alberto Ricardo Präss.
25
teorema da equipartição da energia, e os calores observados experimentalmente em
temperaturas baixas.
Depois, as idéias da quantização da energia foram aplicadas às energias atômicas, por
Niels Bohr, na primeira tentativa de explicar os espectros atômicos. A hipótese de Einstein
sugere que a luz, ao atravessar o espaço, não se comporta como uma onda, mas sim com uma
partícula.
O efeito fotoelétrico foi descoberto por Hertz, em 1887, e estudado por Lenard em
1900. A Fig.16 mostra o diagrama esquemático do aparelho básico para a realização do
experimento de investigação do efeito fotoelétrico. Quando a luz incide sobre a superfície
metálica limpa, no catodo C, provoca a emissão de elétrons pela superfície. Se alguns destes
elétrons atingirem o anodo A, haverá uma corrente no circuito externo. O número de elétrons
emitidos que atingem o anodo, pode ser aumentado ou diminuído fazendo-se o anodo mais
positivo, ou mais negativo, em relação ao catodo. Seja V a diferença de potencial entre o
catodo e o anodo. A Fig. 17 mostra a corrente em função da ddp (V) para dois valores
diferentes da intensidade da luz incidente aplicada sobre o catodo. Quando V for positivo,
todos os elétrons emitidos atingem o anodo e a corrente tem o seu valor máximo. Observa-se,
experimentalmente, que um aumento extra de V não afeta a corrente. Lenard observou que a
corrente máxima era proporcional à intensidade da luz. Quando V for negativo, os elétrons
são repelidos pelo anodo. Somente os elétrons que tenham as energias cinéticas iniciais mv2/2
maiores que |eV| podem atingir o anodo. Pela Fig. 11 podemos ver que se V for menor que –
Vo, nenhum elétron consegue chegar ao anodo. O potencial Vo é o potencial frenador o qual
está relacionado com a energia cinética máxima dos elétrons emitidos pela superfície pela
relação:
2
max 0
1( . )
2m v eV=
26
Figura 1719
Na visão clássica, o aumento da taxa da energia luminosa incidente sobre a superfície
do catodo deveria aumentar a energia absorvida pelos elétrons e deveria, por isso, aumentar a
energia cinética máxima dos elétrons emitidos.
Aparentemente, não era o que acontecia. Em 1905, Einstein demonstrou que este
resultado experimental poderia ser explicado se a energia luminosa não fosse distribuída
continuamente no espaço, mas fosse quantizada , como pequenos pulsos, cada qual
denominado um fóton. A energia de cada fóton é h , onde f é a freqüência e h a constante de
Planck.
Um elétron ejetado de uma superfície metálica exposta à luz, recebe a energia
necessária de um único fóton. Quando a intensidade da luz, de uma certa freqüência, for
aumentada, maior será o número de fótons que atingirão a superfície por unidade de tempo,
porém a energia absorvida por um elétron ficará imutável. Se f for a energia necessária para
remover um elétron de uma superfície metálica, a energia cinética máxima dos elétrons
emitidos pela superfície será
Esta equação é conhecida como a equação do efeito elétrico. A grandeza f é a função
trabalho, característica do metal. Alguns elétrons terão energias cinéticas menores que h -f
em virtude da perda de energia que sofrem ao atravessar o metal. A partir da equação do
efeito fotoelétrico, podemos ver que o coeficiente angular da reta d á Vo contra deve ser igual
a h/e. Em resumo podemos ressaltar três pontos importantes da hipótese de Einstein:
a) A energia cinética de cada elétron não depende da intensidade da luz. Isto
significa que dobrando a intensidade da luz teremos mais elétrons ejetados,
mas as velocidades não serão modificadas.
19 Figura extraída de vsites.unb.br/.../QG/aula-1/aula-1.htm
27
b) Quando a energia cinética de um elétron for igual a zero significa que o elétron
adquiriu energia suficiente apenas para ser arrancado do metal.
c) A ausência de um lapso de tempo entre a incidência da radiação e a ejeção do
fotoelétron.
A verificação experimental da teor ia de Einstein era bastante difícil. Experiências
cuidadosas de Millikan, publicadas pela primeira vez em 1914, e depois com maior detalhe
em 1916, mostraram que a equação de Einstein estava correta e que as medidas de h
concordavam com o valor encontrado por Planck.
Os fótons com as freqüências menores que o limiar fotoelétrico, e portanto com
comprimentos de onda maiores que o limiar fotoelétrico em comprimento de onda, não tem
energia suficiente para arrancar um elétron de uma certa superfície.
Figura 1820
12.Efeito Compton
A figura abaixo, nos mostra quando um fóton atinge um elétron em repouso. O fóton
incidente tem um comprimento de onda λλλλi e atinge o elétron em repouso. Ao atingir o elétron,
transfere sua energia para ele, sendo que o elétron sofre um deslocamento segundo um ângulo
φφφφ e o comprimento de onda associado ao fóton, sofre um deslocamento num ângulo θθθθ
passando para λλλλf.
20 Figura extraída de http://geocities.yahoo.com.br/saladefisica3/laboratorio/fotoeletrico/fotoeletrico.htm – Applet para o efeito
28
Figura 1921
Ao se realizar a experiência acima, se verificou que o comprimento de onda do fóton
incidente λλλλi era menor que o λλλλf . O experimento realizado por Arthur H. Compton, nos
proporciona outra evidência, de que o conceito de fóton para o luz é verdadeira. “De acordo
com a teoria clássica, quando uma onda eletromagnética de freqüência f1 incide sobre um
material que contém cargas elétricas, as cargas oscilam com esta freqüência e reirradiarão
ondas eletromagnéticas de mesma freqüência. Compton apontou que se esta interação fosse
descrita como um processo de espalhamento, que envolvesse a colisão entre um fóton e um
elétron, o elétron recuaria e absorveria parte da energia. O fóton espalhado teria então menos
energia e, e portanto, freqüência mais baixa que a do fóton incidente.”
21 Figura extraída de Extraído de:hyperphysics.phy-astr.gsu.edu/imgqua/compton.gif - Figura 13 – Efeito Compton Scattering =
Espalhamento
29
Figura 2022
13. A Quantização e a Constante de Planck
A origem da quantização da energia está intimamente ligada ao fenômeno da radiação
de corpo negro. Kirchoff foi quem introduziu a idéia de corpo negro e estabeleceu a
universalidade do espectro de radiação. De acordo com Kirchoff, a densidade espectral de
energia de um corpo negro é independente das características particulares do objeto de estudo,
dependendo apenas da frequência da radiação e da temperatura. Leis universais são aquelas
que independem das propriedades particulares do objeto de estudo.
Em geral elas conduzem a constantes universais. Exemplos:
1) Lei das quedas dos corpos de Galileu.
2) Lei da gravitação universal de Newton.
3) Princípio de Carnot.
4) Leis de Maxwell do eletromagnetismo.
5) Invariância da velocidade da luz em referenciais inerciais.
6) Equipartição da energia em sistemas a altas temperaturas.
22 Figura extraída de http://vsites.unb.br/iq/kleber/CursosVirtuais/QG
30
Planck se interessou pelo estuda da radiação de corpo negro devido ao caráter
universal do fenômeno, pois considerava a busca das leis universais como a mais elevada
meta da atividade científica.
Espectro do carvão incandescente
Figura 2123
Espectro do corpo negro
Figura 2224
23 Figura extraída de pt.wikipedia.org/wiki/Lei_de_Planck_da_Radiação
24 Figura extraída de pt.wikipedia.org/wiki/Lei_de_Planck_da_Radiação
31
Em dezembro de 1900, Max Planck ofereceu ao mundo uma solução para a catástrofe
do ultravioleta. Era o nascimento oficial da Física Quântica. A solução, no entanto, era ainda
mais embaraçosa do que a dificuldade que viera superar. A solução proposta por Planck
consistia em estabelecer uma séria limitação ao movimento dos osciladores elementares.
Segundo ele, um oscilador não poderia vibrar com qualquer energia, mas apenas com algumas
poucas energias permitidas, cujos valores seriam múltiplos inteiros de um valor mínimo
fundamental, denominado o quantum de energia do oscilador.
Este mínimo fundamental seria determinado pela freqüência natural de oscilação do
oscilador. Em linguagem matemática, se a letra f representa a freqüência do oscilador (ou
seja, o número de oscilações que realiza por segundo), o quantum de energia valerá h.f (ou
simplesmente hf), onde h é um número, uma constante universal, denominada .constante de
Planck..
Tomando-se a letra n para representar um número inteiro qualquer, a proposta de
Planck estabelece que os osciladores elementares só podem vibrar com energias tais que:
.E h f=
Por fim, infere-se que um oscilador elementar cuja freqüência natural de oscilação seja
f somente poderá oscilar com energias zero, 1hf, 2hf, 3hf e assim por diante. Então, Planck
.postulou.que a energia dos osciladores é uma variável .discreta, logo em conformidade com a
teoria matemática, a palavra .discreta. é um antônimo para .contínua.. Ou, como passou a
dizer-se, então, a energia dos osciladores é uma grandeza .quantizada.
Refazendo os cálculos, agora submetendo os osciladores elementares a esta restrição,
Planck deduziu, com base em princípios teóricos, a mesma fórmula empírica extraída dos
dados experimentais.
Levando adiante a discussão tomando o valor da constante de Planck h, valor por ele
obtido mediante o simples ajuste numérico entre o seu cálculo teórico e os dados
experimentais. A constante de Planck vale:
h = 6,63.10-34
J s
Na constante de Planck, aparece o fator 10-34
.s, seria o mesmo que dizer que a
constante de Planck refere-se a fenômenos cuja duração é da ordem de 10-17
segundos e
envolvem energias da ordem de 10-17
joules. Ou seja, refere-se a fenômenos de duração
dezessete ordens de grandeza menor do que um segundo, envolvendo energias dezessete
32
ordens de grandeza menor do que a energia gasta por alguém para apanhar um objeto de cem
gramas do solo e depositá-lo sobre uma mesa. Logo, mesmo sendo verdadeira a hipótese de
Planck sobre a quantização dos osciladores físicos, ela não deve afetar significativamente os
sistemas macroscópicos, cujas dimensões são aquelas a que estamos habituados.
A descrição quântica é adequada tanto ao mundo macroscópico quanto ao mundo
microscópico. Mas, no que diz respeito ao comportamento dinâmico dos sistemas com os
quais interagimos no dia-a-dia, podemos dispensá-la, uma vez que os detalhes que fornece
não são de interesse prático. Aliás, a Física Clássica aplica-se aí satisfatoriamente, inclusive
com algumas vantagens, uma das quais é a simplicidade. O contrário, no entanto, não é
verdadeiro: a descrição clássica não corresponde ao comportamento do mundo microscópico.
Assim, a Física Quântica, por abranger a Física Clássica e ir além dela, é considerada
mais adequada, mais completa. Mas devemos reconhecer que a aceitação da hipótese de
Planck implica uma mudança fundamental em nossa concepção acerca da natureza dos
sistemas físicos. A situação é análoga à ocorrida, quando da aceitação das hipóteses sobre a
constituição atômica da matéria.
Três aspectos da fórmula de Planck devem ser considerados:
1) A abordagem termodinâmica,
2) A dedução estatística,
3) A interpretação quantizada.
Tanto em (1) quanto em (2), o foco de Planck é a entropia contida na radiação. Em (1), utiliza
a relação
dU = TdS
entre a energia U e a entropia S introduzida por Clausius. Em (2), utiliza a relação devida a
Boltzmann
S = k lnW
entre a entropia e o número de estados acessíveis W. Essa última fórmula corresponde à
interpretação estatística da entropia.
33
14. A Ótica Ondulatória Como Formulação da Mecânica Quântica25
O papel destacado da Ótica Ondulatória na concepção da unidade conceitual, como
pano de fundo clássico para a abordagem da Mecânica Quântica, está baseado na própria
formulação histórica da Mecânica Ondulatória por Schrödinger em 1925-26, como
sintetizado no quadro abaixo.
Figura 2426
O quadro sintetiza o que Erwin Schrödinger (1887-1961) buscava no final de 1925, e
os elementos que ele dispunha para nortear sua pesquisa a partir do trabalho seminal de Louis
de Broglie (1892-1987): basicamente, uma nova teoria matemática que descrevesse o
comportamento de objetos materiais elementares e que, ao mesmo tempo, incorporasse
analogias com a Ótica Ondulatória. No quadro acima, isto é representado pela seta vertical da
esquerda. Vale observar sempre que, por essa época, não havia qualquer evidência
25 Texto compilado e adaptado de Extraído de Cad. Brás. Ens. Fís., v. 22, n. 1: p. 9-35, abr. 2005 Ostermann, F. e Ricci, T. F.
26 Figura e textos, com adapatações, extraídos de Cad. Brás. Ens. Fís., v. 22, n. 1: p. 9-35, abr. 2005 Ostermann, F. e Ricci, T. F.
34
experimental de que partículas materiais apresentassem comportamento ondulatório (o que só
viria a acontecer dois anos mais tarde).
Schrödinger apenas fora estimulado pelo trabalho teórico de De Broglie, que
especulara sobre um possível caráter ondulatório que partículas elementares materiais, tais
como elétrons, poderiam revelar sob condições adequadas. Tratava-se para ele, portanto, de
um programa teórico que deveria resultar em uma nova dinâmica para os objetos
microscópicos.
De certa forma, havia um paralelo entre o programa que Schrödinger se propunha a
desenvolver e o que Hamilton havia realizado no século XIX referente à Mecânica Clássica.
Isso é ilustrado no quadro de analogias pela seta vertical da direita. William Hamilton (1805-
1865) havia demonstrado, em 1828, que era possível formular a teoria da mecânica de
partículas (objetos clássicos) de maneira que incorporasse uma grande analogia com a Ótica
Geométrica. A trajetória descrita por uma partícula, por exemplo, aparecia na teoria de
Hamilton como sendo sempre perpendicular, em cada ponto, a um conjunto de superfícies de
ação constante. Isso lembra os raios luminosos da Ótica Geométrica (trajetórias da luz) que
são perpendiculares às superfícies de fase constante de Christian Huyghens (1629-1697).
Por outro lado, em 1911, A. Sommerfeld (1868-1951) e J. Runge (1856-1927) haviam
demonstrado detalhadamente que a Ótica Ondulatória, como descrita pelas equações de
Maxwell, reduzia-se à Ótica Geométrica no limite em que o comprimento de onda tende a
zero. Este limite está indicado no quadro de analogias acima pela seta horizontal superior. Ele
significa que a descrição fornecida pela Ótica Geométrica é o limite de uma descrição mais
geral dos fenômenos óticos, dada pela Ótica Ondulatória.
Para Schrödinger, havia um limite análogo para os fenômenos mecânicos, válido para
partículas materiais macroscópicas, no qual a descrição fornecida pela Mecânica Clássica
poderia ser derivada de uma teoria mais geral da Mecânica, ainda desconhecida. Influenciado
pelo trabalho de De Broglie, Schrödinger identificou tal limite no chamado Princípio da
Correspondência, proposto por Niels Bohr (1885-1962) em 1923. Este limite está
representado, no quadro de analogias, pela seta horizontal inferior.
Deve ser notado que a estratégia baseada no quadro de analogias descrito acima
representa um rompimento significativo com a abordagem tradicional, uma vez que esta segue
35
rigorosamente a cronologia histórica da FQ, começando com a velha teoria quântica, para
então, ensinar a nova teoria quântica, geralmente em sua versão ondulatória. Ou seja, na
abordagem tradicional costuma-se explorar modelos diretamente inspirados na Mecânica
Clássica de partículas para depois introduzir um modelo eminentemente ondulatório
(Mecânica Ondulatória). Na concepção da unidade conceitual, preferimos explorar, desde o
início do aprendizado, as analogias naturais entre a Ótica Ondulatória clássica e a Mecânica
Ondulatória de Schrödinger, sem passar pela velha teoria quântica. Assumimos
explicitamente a interpretação de Copenhagen, alertando para a existência de outras
interpretações.
Recentemente, em seqüência a uma variedade de experimentos que se iniciaram na
segunda metade do século passado, realizados com uma ou poucas partículas microscópicas,
um grupo de físicos de Innsbruck, na Áustria, obteve resultados considerados surpreendentes
pela nossa visão clássica de mundo, mas entendidos pela simples consideração dos primeiros
princípios da Mecânica Quântica. Basicamente, pares de fótons idênticos produzidos em
laboratório em um estado batizado de emaranhado, mantiveram idênticas polarizações,
mesmo após serem separados por uma distância de 144 km. Este experimento, como outros
anteriores, evidencia uma propriedade de não-localidade quântica, que foge do que
consideramos "intuitivo", porque não decorre das leis da Física Clássica, que regem o mundo
que vivenciamos habitualmente.
A Mecânica Quântica, então se desenvolveu no primeiro quarto do século passado
para explicar alguns fenômenos macroscópicos e que se revelou como a teoria adequada para
descrever fenômenos microscópicos não relativísticos. Pela falta de familiaridade com os
fenômenos que ela descreve (e que a Física Clássica não consegue predizer ou explicar),
torna-se muito importante analisar os seus primeiros princípios e obter uma boa compreensão
do significado de seus conceitos fundamentais, para que não sejam interpretados e utilizados
erroneamente. Conceitos como o de sistema quântico, estado de um sistema, superposição
linear de estados, observável físico e observáveis compatíveis, serão abordados a após uma
fundamentação da chamada antiga teoria quântica.
36
15. Estados Clássicos e Quânticos27
Tomemos como exemplo um caso bem simples: o de uma única partícula. Segundo a
física clássica, a definição de estado dessa partícula em um determinado tempo t consiste em
dar, em algum sistema de coordenadas, sua posição x e sua velocidade v – ou,
equivalentemente, o seu momento, que é expresso pelo produto da velocidade pela massa da
partícula (p = mv).
Esse estado pode ser representado como um ponto em um plano definido por um par
de eixos representando os diferentes valores possíveis das posições e das velocidades (ou
momentos), como mostra a figura 1a. Assim, conhecendo-se a massa da partícula e as forças
que agem sobre ela, a dinâmica newtoniana permite obter o ponto correspondente ao estado
da partícula em qualquer outro instante, anterior ou posterior a t.
Figura 2528
Em (a), estado clássico de uma partícula com posição x0 e momento p0 bem definidos, ou seja, sem imprecisão na medida dessas duas
variáveis. Em (b), representação do estado clássico de uma partícula em uma situação real, ou seja, no caso em que os valores das
medidas da posição e da velocidade (ou momento) da partícula contenham imprecisões. Em (c), um possível estado quântico bem
definido de uma partícula. Os valores da distribuição em pares de posições diferentes podem não apenas ser negativos – como neste
caso –, mas também, em geral, complexos.
27 Texto compilado e adaptado de Extraído ciência hoje vol. 36 p. 213-214
28 Extraído ciência hoje vol. 36 p. 213-214
37
Essa definição do estado clássico corresponde a uma situação ideal, em que a posição
e a velocidade são conhecidas de forma absolutamente precisa. Em uma situação real, é
inevitável que os valores das medidas – no caso, da posição e da velocidade da partícula –
contenham imprecisões. Uma possível forma de descrever essa situação consiste em
representar o estado imperfeitamente conhecido por uma distribuição sobre o plano das
posições e das velocidades, como na figura 1b. Aqui, o estado é representado em cada
pequena região desse plano por uma altura que é proporcional à probabilidade de que a
posição e a velocidade da partícula estejam de fato nessa região.
Novamente, conhecendo-se a massa da partícula e as forças agindo sobre ela, a
dinâmica newtoniana permite calcular a distribuição que representa o conhecimento do estado
da partícula em qualquer outro instante, passado ou futuro. Em contraste com a descrição
clássica, o estado quântico dessa mesma e única partícula – mesmo quando perfeitamente
conhecido – é dado como uma distribuição de algo que tem caráter de probabilidade, mas que
é dependente não de uma posição e de uma velocidade, mas de duas posições. Em outras
palavras, os valores assumidos pela distribuição que caracteriza o estado quântico da partícula
dependem de duas posições, x e x’, possivelmente diferentes (figura 1c), sem qualquer
referência explícita a velocidades.
Assim, apenas uma das duas variáveis dinâmicas básicas de cada partícula intervém
diretamente – e de forma ‘duplicada’ – na especificação do estado quântico. Como no caso da
mecânica clássica, conhecendo-se a massa da partícula e as forças que agem sobre ela, é
possível, utilizando-se as leis determinísticas da evolução dos estados quânticos, calcular a
distribuição que representa o estado da partícula em qualquer instante passado ou futuro.
Aqui, no entanto, algumas questões inevitavelmente se colocam:
i) de que forma, precisamente, deve ser interpretada essa distribuição?
ii) que se pode dizer com relação às velocidades ou aos momentos?
A primeira dessas perguntas foi parcialmente respondida em 1926 pelo físico teórico
da Universidade de Göttingen (Alemanha), Max Born (1882-1970): os valores, (x, x’),
assumidos pela distribuição quando são iguais, devem ser interpretados como uma
distribuição de probabilidades para a posição da partícula. Isso significa que a especificação
completa do estado quântico de uma partícula não associa a ela, em geral, uma posição bem
definida. Diz-se, então, que as partículas quânticas são, comumente, ‘deslocalizadas’. Essa
38
interpretação deixa em aberto, porém, o papel desempenhado pelo restante da distribuição,
(x, x’), com x e x’ diferentes.
Essa parte da questão tem a ver com o que o estado quântico diz sobre a velocidade e
foi elucidada, em 1927, por Heisenberg, combinando a interpretação de Born com as idéias
expostas, em 1924, por De Broglie sobre as propriedades ondulatórias das partículas quânticas
e que haviam motivado o trabalho de Schrödinger. Segundo De Broglie, a cada valor p do
momento da partícula se associa um comprimento de onda inversamente proporcional a p.
Desse modo, caso fosse possível verter a distribuição , (x, x’), da linguagem das posições para
a linguagem de comprimentos de onda em que ela tomaria a forma de outra distribuição então
seria possível extrair dela uma distribuição de probabilidades para comprimentos de onda – e,
portanto, valores do momento p –, usando a interpretação de Born para a nova distribuição.
A distribuição de probabilidades para a velocidade obtida desse modo depende de toda
a distribuição bidimensional (x, x’). A relação de incerteza de Heisenberg – que afirma a
impossibilidade da definição simultânea da posição e da velocidade (ou momento) de uma
partícula além de um determinado limite, nada mais é, na realidade, que uma propriedade
geral da interdependência das duas distribuições de probabilidade.
Complementado por uma lei determinística de evolução dos estados quânticos, esse
esquema rapidamente se mostrou inteiramente adequado para reproduzir quantitativamente
todas as propriedades observadas dos espectros atômicos, em particular as que se mostravam
recalcitrantes aos procedimentos híbridos da velha teoria quântica, como as intensidades das
diversas linhas espectrais – estas últimas podem ser entendidas como a radiação
eletromagnética emitida por um átomo quando este, depois de absorver energia, volta a algum
outro estado de menor energia, que pode, em particular, ser seu estado normal (fundamental).
Um dos grandes sucessos no uso da mecânica quântica pode ser observado no estudo
das “órbitas” de Bohr – um primeiro modelo sobre como os elétrons se movem em torno do
núcleo atômico – foram simplesmente descartadas, sendo substituídas por estados quânticos
estacionários, isto é, com a propriedade especial de serem independentes do tempo, segundo a
lei determinística de evolução da nova teoria aplicações a outros fenômenos, cuja
compreensão não era possível em termos da física clássica.
39
Ao estado quântico estacionário de Bohr podemos juntar outros sucessos a
interpretativos como:
i) a compreensão do ferromagnetismo, ou seja, a existência de imantação permanente,
como pode ocorrer no ferro;
ii) a compreensão de propriedades dos núcleos dos átomos, vistos como sistemas
formados por um conjunto de prótons e nêutrons ligados entre si por forças muito
mais intensas que as forças eletromagnéticas;
iii) a compreensão da natureza das ligações químicas em termos da estrutura eletrônica
dos átomos – no que se refere a estas últimas, diz-se, muitas vezes, que a mecânica
quântica permitiu, pelo menos em princípio, reduzir a química à física.
O caráter probabilístico da interpretação dos estados quânticos, discutido da nova
teoria quântica de Heisenberg e Schrödinger, foi certamente uma das pontes conceituais para
a ruptura com o determinismo newtoniano. No entanto um dos ratificadores da antiga teoria
quântica, Albert Einstein, resistia em admitir esse caráter fundamental da mecânica quântica.
Segundo Einstein ele estava convencido de que “Deus não joga dados”.
Figura 2629
29
Figura Extraída do texto de apoio ao professor de física V.17 n.5 2006 - Inserção de mecânica quântica no ensino médio: uma proposta
para professores , Ricci e Weber
40
15.1. Superposição Linear de Estados.
A Mecânica Quântica nos diz que se temos dois estados possíveis para um sistema
quântico, uma combinação linear dos dois estados é também um possível estado do sistema.
Essa combinação é a chamada superposição linear de estados.
Mas o que é o estado de um sistema quântico? E o que é um sistema quântico? Antes,
é bom explicitar o que são objetos quânticos. Objeto quântico é a entidade física, em geral
considerada elementar, que obedece às leis da Mecânica Quântica. Como exemplos podemos
citar o elétron, o próton e o nêutron. Um conjunto de tais objetos (e suas interações),
geralmente microscópico, constitui um sistema quântico. Como exemplos podemos
mencionar o núcleo, o átomo e a molécula.
Já o conceito de estado quântico, tido como fundamental na nova Mecânica - e apesar
deste termo possuir diversas concepções idiossincráticas - é, em princípio, basicamente o
mesmo que na Física Clássica, embora apresente características peculiares.
Imaginemos, por exemplo, um elétron que pode estar ligado a um átomo ou estar livre.
Temos aí dois estados diferentes (não só energeticamente) possíveis para o elétron. Isto
implica em que, para conhecer o estado de um sistema quântico, devemos conhecer o valor
das grandezas físicas observáveis associadas a ele. É este também o caso na física clássica.
Contudo, diferentemente da situação clássica, existem, em Mecânica Quântica, observáveis
ditos compatíveis e não compatíveis.
O observável é a grandeza física cujo valor se quer determinar. Quando dois
observáveis são compatíveis, é possível obter informação sobre o valor de um deles sem
alterar a determinação do valor do outro. Essa compatibilidade de observáveis nos leva a dizer
que algumas informações do sistema podem ser obtidas "simultaneamente". Isto não ocorre
quando os observáveis são incompatíveis. Quando dois observáveis são incompatíveis, a
medida do valor de um deles afeta a determinação do valor do outro. Assim, pode-se dizer
que o estado de um sistema quântico é o conjunto das informações sobre valores das
grandezas físicas compatíveis obtidas em um determinado instante de tempo. O estado será
41
completamente conhecido em determinado instante de tempo, se todos os observáveis
compatíveis do sistema forem arrolados e seus valores em um dado instante de tempo forem
determinados.
Como exemplo de observáveis compatíveis tem-se o spin e a posição de uma
partícula; e de observáveis incompatíveis, a posição e o momentum da partícula numa mesma
direção.
Pense: Como descrever o estado de um objeto clássico?
Exercício: Escolha um objeto clássico e caracterize um estado possível do mesmo.
16. Primeiros Postulados da Mecânica Quântica30
Podemos verificar que a superposição de estados resulta em um novo estado quântico,
mas esta verificação não constitui uma prova de tal propriedade. Por isto, na origem dos
postulados da Mecânica Quântica encontra-se a afirmação: Os estados de um sistema quântico
satisfazem o princípio da superposição linear. Tais estados são muitas vezes denominados
vetores de estado.
Em Mecânica Quântica é freqüente, também, utilizarmos a notação de Dirac para
caracterizar os vetores de estado. Nesta notação, o estado é usualmente simbolizado por Ψ
(ket). É importante salientar que tal propriedade fornece, a partir da existência de alguns
estados para o sistema quântico, a possibilidade de construção de inúmeros outros estados.
Consideremos, por exemplo, um computador clássico. Nele, a informação é
processada em um sistema binário, representando-se seus elementos por 0 e 1. Em tal
computador o bit clássico, que é a menor unidade de informação, se apresenta ou no estado
30 Compilado com adaptações do curso Fundamentos de Mecânica Quântica para professores de Física Profs. Carlos Raphael Rocha &
Victoria Elnecave Herscovitz, ministrado no II encontro estadual de ensino de física – RS Porto Alegre, Instituto de Física, UFRGS 13 a 15
de setembro de 2007.
42
0 ou no estado 1 . Já um computador quântico utiliza, em princípio, além dos estados 0
e 1 , superposições lineares destes, abrindo assim, para uma unidade de informação,
simultaneamente dois canais de processamento, uma vez que o bit quântico (qubit) pode estar
em estados 1 2=C 0 +C 1 .Ψ
Estamos agora em condições de enunciar os dois primeiros postulados da Mecânica
Quântica. Embora impostos (não demonstrados) estes princípios passam a se tornar aceitáveis
face às evidências experimentais que os cercam e à estrutura matemática que os ampara.
O postulado nº 1 pode ser enunciado como segue:
Tudo o que se sabe sobre o sistema está expresso no estado.
Pense: Considerando o que foi exposto sabe sobre a caracterização do estado quântico
parece-lhe, agora, natural salientar que o estado é o depositário dos valores das grandezas
físicas afetas ao sistema?
O postulado nº 2 pode ser enunciado parcialmente como segue:
A cada grandeza física em Mecânica Quântica corresponde um operador.
O enunciado acima não está completo. O operador que corresponde à grandeza física
não é qualquer. Ele deve satisfazer determinadas condições (ser linear, ter apenas autovalores
reais e estar definido no espaço, entre outras exigências). Contudo, o que queremos salientar
aqui é que o postulado impõe que exista, sempre, para toda a grandeza física (logo, passível
de ser medida) um operador associado.
Simbolicamente, sendo B o operador que corresponde ao observável físico, devem
existir estados Φ para os quais: .B bΦ = Φ Φ então, não é modificado pela medida da
grandeza física correspondente. Além disto, b simboliza o valor obtido na medida. Temos aí
uma equação de autovalores, sendo I Φ o auto-estado ou autovetor do operador B e b o
autovalor associado. Leia-se ainda: a operação representada por B (medida do valor da
grandeza física em estudo), realizada sobre o sistema quântico quando este se encontra no
estado Φ , dá como resultado o número b e não altera o estado do sistema, ou seja, reproduz
o sistema no mesmo estado anterior à medida. Como uma mesma grandeza física pode ter
43
vários (mesmo infinitos, em número) valores diferentes, podemos indexar os autovalores e
autovetores B bβ β βΦ = Φ com β simbolizando a variedade de autovetores possíveis.
Passa a ter sentido, então, dizer que b é o valor da grandeza física para aquele estado
do sistema. Por exemplo: -13,6 eV é o valor da energia do elétron do átomo de hidrogênio no
estado fundamental.
Pense: Em que situações β simboliza um conjunto de números inteiros?
Exercício: Apresente um exemplo de observável físico cujos autovalores são
contínuos.
Com o princípio da superposição linear e os dois postulados acima, estamos em
condição de "manipular" estados, combinando-os para obter novos estados, ou submetendo-os
a ações que darão como resultados novos estados ou, ainda, submetendo-os a ações que não
modificam os estados e darão valores de alguma grandeza física associada.
Há, contudo, outros fatos surpreendentes, ainda não mencionados, que os sistemas
microscópicos revelam e que são incorporados aos postulados da Mecânica Quântica. Senão,
vejamos. Tomemos como exemplo o espectro de energia do átomo de hidrogênio. As linhas
espectrais medidas evidenciam a existência de vários estados de energia possíveis para o
elétron do átomo, quando ele está "ligado" ao núcleo.
A descrição quântica dessa diversidade espectroscópica, mesmo em um modelo
bastante simples, é surpreendentemente satisfatória e constitui-se em um dos grandes sucessos
da Mecânica Quântica, desde seus primórdios. Esta descrição, basicamente, consiste em
estabelecer as soluções e os autovalores de uma equação de autovalores de um operador (H)
associado à energia total do elétron do átomo. H nada mais é do que a soma de um operador
associado à energia cinética do elétron e de um operador associado à energia potencial do
elétron, supondo o núcleo praticamente inerte, o que é aceitável face à grande razão da ordem
de grandeza da massa do núcleo frente à da do elétron (~103). Este modelo, embora muito
simples, reproduz com concordância mais do que razoável os valores obtidos
experimentalmente e que evidenciaram:
i) a existência de valores discretos de energia para o elétron do átomo (e portanto, para
alguns sistemas quânticos);
44
ii) o fator surpreendente, de os resultados de medida sempre resultarem em algum dos
autovalores do operador correspondente.
O cenário desenhado então - e confirmado por inúmeros outros eventos com sistemas
quânticos - é que: os resultados de medida geram sempre autovalores do operador associado à
grandeza física que se pretende medir. Decorre, daí, o terceiro postulado da teoria, novamente
imposto por fatos experimentais e mantendo estreita correlação com a estrutura matemática
dos espaços vetoriais.
Pode-se expressar o postulado nº 3 como:
Os únicos resultados possíveis de medidas de uma grandeza física são os autovalores
do operador associado à grandeza em questão.
Note-se que estados muito diversos de um objeto quântico podem, se realizamos uma
só medida de um observável, resultar no mesmo autovalor do observável.
Então uma só, ou poucas medidas sobre sistemas quânticos que estão em estados
diferentes (desconhecidos), em geral não são conclusivas. Se, porém, trabalharmos com uma
amostra grande de objetos, todos preparados no mesmo estado, os valores resultantes das
medidas passarão a ter significado.
Duas coisas podem ocorrer neste último caso:
i) as medidas gerarem todas, praticamente, o mesmo autovalor do operador, em cujo
caso diremos que o objeto está um auto-estado (de B) com autovalor bβ , ou ainda, que a
grandeza física em estudo está (bem) definida, para tal estado (por exemplo, o estado tem
energia definida.);
ii) as medidas gerarem vários dos autovalores do operador, em cujo caso diremos que
o objeto está em um estado que é a superposição linear de vários auto-estados do operador, ou
ainda, neste caso é usual dizer-se que a grandeza física em estudo não está definida (por
exemplo, o estado não tem energia definida.). Em tal situação não tem significado
perguntarmos qual o valor da grandeza física (por exemplo, qual o valor da energia deste
sistema?). Limitamo-nos aqui a estabelecer o valor médio da grandeza em análise, para o
estado do objeto quântico considerado. O valor médio do operador associado ao observável
45
em estudo é obtido a partir de A Φ = Ψ , expressando-se Ψ como uma superposição
linear de autovetores de A, ou seja, i i i i
i
Ψ = C Ψ , se A Ψ = a Ψ .∑
Muitos autores apresentam, também, como um dos princípios da Mecânica Quântica o
"Colapso do Vetor de Estado" que, em essência, estabelece que o processo de medida
transforma (em geral) o estado do sistema quântico em um dos auto-estados do operador que
corresponde ao observável físico em estudo, qual seja o auto-estado correspondente ao
autovalor resultante da medida.
16.1. Evolução temporal dos estados quânticos
Uma das maneiras de estudar a variação no tempo dos sistemas quânticos, devida a
Schrödinger, repousa na modificação do vetor de estado ao longo do tempo. (Apenas a título
de informação, uma outra maneira de estudar a variação temporal dos sistemas quânticos,
devida a Heisenberg, analisa a modificação dos operadores.) Schrödinger inspirou-se na
equação da onda, construindo uma equação diferencial correspondente à equação de
conservação de energia clássica não-relativística. Esta equação é denominada equação de
Schrödinger dependente do tempo e nos informa que se conhecemos o estado do sistema
quântico num instante inicial, poderemos determinar o estado do sistema em outro instante
(desde que o sistema não seja submetido a observações no intervalo de evolução).
Lembrando que E = p2/2m + V é a energia de uma partícula de massa m, momento
linear p e submetida a um potencial V, podemos escrever H = p2/2m + U para um objeto
quântico, em que H é o operador hamiltoniano, P é o operador momento linear, U é o
operador potencial e a equação de evolução temporal é:
( ) ( )i t H tt
∂Ψ = Ψ
∂�
O operador hamiltoniano H depende do sistema que se está analisando como na
Mecânica Clássica. Caso o sistema seja uma partícula livre, o operador potencial é nulo.
Como a equação de Schrödinger é uma equação diferencial de primeira ordem em
relação ao tempo, se o estado inicial 0( )tΨ for conhecido, então o estado ( )tΨ em
qualquer outro instante de tempo pode ser determinado. A evolução temporal de um sistema
46
quântico é obtida de forma causal. Indeterminações só aparecem quando grandezas físicas são
medidas num dado instante de tempo.
16.2. A interpretação probabilística da função de onda
A principal característica da interpretação usual da mecânica quântica — a função de
onda como amplitude de probabilidade —, foi introduzida num breve artigo de M. Born em
1926, intitulada: “Sobre o Caráter Quântico das colisões”( Zur Quantenmechnik der
Stossvorgänge ). [Born,1926.] Ele analisa, através da teoria da perturbação, a colisão entre um
elétron e um átomo, resolvendo a equação de Schrödinger para o sistema total e impondo
como condição de contorno que assimptoticamente o elétron , após a colisão se comportasse
como uma onda plana. Seu resultado, como é bem conhecido, foi uma superposição de
estados qualitativamente idênticos ao inicial, cada um deles porém caracterizado
individualmente por um novo valor da energia tanto do elétron quanto do átomo.
Usando a relação de de Broglie, ele obteve para o n-éssimo estado da superposição, a
energia para o elétron Ef = Ei + hf0 ou seja, a energia inicial somada a um quantum de energia
hf0 , transferido pelo átomo que, claro, tem esta quantidade a menos em seu balanço
energético.
Este sentido físico imediato, indicou a Born que cada estado da superposição era a
possibilidade de um estado real, sendo seus coeficientes proporcionais à probabilidade de
cada um deles ocorrer. Não deixa de ser curioso o fato de que a diferença mais radical entre a
mecânica quântica e a física clássica, tenha sido introduzida pela imagem clássica mais
simples do processo de colisão: duas partículas transferindo momento e energia entre si.
16.3. Algumas importantes conseqüências da interpretação probabilística
A interpretação probabilística da função de onda, tornou-se quase que universalmente
aceita. Einstein, por exemplo, em sua crítica à teoria de variáveis ocultas (TVO) de D. Bohm
(1952), a qual tratava a função de onda como um campo real, comentou que a única
interpretação da equação de Schrödinger admissível, até o presente, é a interpretação
47
estatística dada por Born . Alguns problemas —talvez todos referentes à interpretação da
mecânica quântica— surgiram daí. Se a mecânica quântica descreve apenas probabilidades,
estaria ela incompleta, havendo uma outra teoria na qual o determinismo causal fosse
readmitido?
A interpretação probabilística também criou uma nova possibilidade filosófica, que
não demorou a ser explorada: a de fundamentar a liberdade de decisão, o livre arbítrio do
homem a nível científico. A física clássica em nada contribuiu para tal discussão, apenas
substituiu a onipotência , a onisciência e a onipresença do deus cristão pelo determinismo
causal matemático.
A esta questão caberiam duas possibilidades de complementaridade:
a) estando à mecânica quântica completa, isto equivaleria a dizer que a nível
microscópico a causalidade não se aplica? ou apenas não teríamos acesso a ela por algum
limite natural?
b) estando a mecânica quântica incompleta, seria necessário encontrar sua substituta
que restituísse a normalidade à física.
17. O átomo de Bohr31
O progresso extraordinariamente rápido, sobre fundamentos inconsistentes, do
programa de Bohr. O seu estudo, em termos metodológicos, é talvez uma das mais notáveis
formas de se complementar conceitos em ciência principalmente por se tratar de Bohr, que
teve a oportunidade de viver com os maiores cientistas da época, bem como de estabelecer um
tramite entre as teorias clássicas e modernas muito bem notada em seu trabalha com o intuito
de fortalecer a ciências Físicas.
Podemos caracterizar a história do programa de investigação de Bohr por:
31 Módulo elaborado a partir dos trabalhos: Schola quantorum: progresso, racionalidade e inconsistência na antiga teoria atômica Parte I:
desenvolvimento histórico, 1913-1925 de Valter Alnis Bezerra; Analogias utilizadas no ensino dos modelos atômicos de Thomson e Bohr:
uma análise crítica sobre o que os alunos pensam a partir delas de Vinícius Catão de Assis Souza, Rosária da Silva Justi e
Poliana Flávia Maia Ferreira; Para o ensino do átomo de Bohr no nível médio Luiz O.Q. Peduzzi; Andreza C. Basso.
48
(1) o seu problema inicial;
(2) a sua heurística negativa e positiva;
(3) os problemas que procurou solucionar no curso do seu desenvolvimento;
(4) o seu ponto de degeneração e
(5) o programa que o suplantou.
Ao explorarmos uma parte dessa história, mais especificamente, a sua fase de
programa progressivo, relativa aos primeiros modelos que levaram Bohr à formulação da
quantização da energia para átomos de um elétron com massa nuclear finita. Temos como
objetivo contextualizar historicamente o átomo de Bohr, desenvolver o seu conteúdo
matemático e contrapor-se à abordagem empirista que normalmente é conferida a esse assunto
pelos livros didáticos.
A caracterização do problema inicial de Bohr, que é o do entender a estabilidade do
átomo de Rutherford, enseja o tratamento do tema dentro de uma perspectiva histórica
compatível com uma metodologia que explora as insuficiências dos modelos clássicos no
estudo do átomo e da interação da radiação com a matéria. É exatamente a aguda contradição
entre a instabilidade radiativa do átomo de Rutherford, decorrente da eletrodinâmica clássica,
e a evidência química e física da estabilidade das estruturas atômicas e moleculares que
sugerem a Bohr a impossibilidade do entendimento desse sistema no âmbito exclusivo da
física clássica. Considerando que a constituição do átomo é governada pelo quantum de ação,
Bohr impõe condições específicas ao átomo de Rutherford, desenvolvendo a sua teoria
Cinco postulados constituem o núcleo duro de seu programa de pesquisa. No último
dos três artigos publicados no Philosophical Magazine, em 1913, e reunidos no livro Sobre a
Constituição de Átomos e Moléculas [35], Bohr destaca, em síntese conclusiva:
“Nesta memória fez-se uma tentativa de desenvolvimento de
uma teoria da constituição dos átomos e moléculas baseada nas idéias
introduzidas por Planck para explicar a radiação do corpo negro e na
teoria da estrutura dos átomos proposta por Rutherford para explicar a
dispersão das partículas α pela matéria. A teoria de Planck trata da
49
emissão e absorção da radiação de um oscilador harmônico… sendo
incoerente com a teoria de Rutherford… Para se aplicarem os
principais resultados obtidos por Planck é, portanto, necessário
introduzir novas hipóteses sobre a emissão e absorção de radiação por
um sistema atômico. As principais hipóteses utilizadas são:
1. Que a energia radiada não é emitida (ou absorvida) da maneira contínua admitida
pela eletrodinâmica clássica, mas apenas durante a passagem dos sistemas de um estado
‘estacionário’ para outro diferente.
2. Que o equilíbrio dinâmico dos sistemas nos estados estacionários é governado
pelas leis da mecânica clássica, não se verificando estas leis nas transições dos sistemas
entre diferentes estados estacionários.
3. Que é homogênea a radiação emitida durante a transição de um sistema de um
estado estacionário para outro, e que a relação entre a freqüência n e a quantidade total de
energia emitida é dada por E = hf, sendo h a constante de Planck.
4. Que os diferentes estados estacionários de um sistema constituído por um elétron
que roda em volta de um núcleo positivo são determinados pela condição de ser igual a um
múltiplo inteiro de h/2π
5. Que o estado ‘permanente’ de um sistema atômico - isto é, o estado no qual a
energia emitida é máxima - é determinado pela condição de ser igual a h/2π o momento
angular de cada elétron em torno do centro de sua órbita.
Mostrou-se que, aplicando estes postulados ao modelo atômico de Rutherford, é
possível compreender as leis de Balmer e Rydberg...”
Ao discutirmos os postulados é possível esclarecer que eles misturam de forma
melindrosa conceitos da velha e da nova Física, o texto desenvolve o modelo M1 de Bohr
[16], chegando à quantização da energia para o átomo de hidrogênio, sob o pressuposto da
órbita circular e de revoluções em torno de um núcleo de massa infinita. Mostrando que
quando o elétron sofre uma transição de um nível de energia Eni para outro de menor energia
Enf há emissão de uma radiação homogênea de freqüência:
50
ni nfE Ef
h
−=
e que os comprimentos de onda dessa radiação correspondem as séries de Balmer (nf = 2) e de
Paschen (nf = 3).
Contudo, evidências de uma suposta série do hidrogênio não prevista pelo modelo - a
série de Pickering-Fowler - suscitaram críticas a Bohr. Discutindo de que forma ele lida com
esta situação. Neste caso, Bohr não questionou a ‘precisão experimental’ ou a ‘fidedignidade’
dos resultados experimentais, mas sim a teoria observacional em que se baseava, elaborando
um novo modelo em seu programa de investigação: o modelo do hélio ionizado (M2). A
heurística positiva do programa - o átomo como um sistema solar em miniatura - dá a Bohr a
orientação necessária para incrementar M1 .
Argumentando, a seguir, que o desenvolvimento matemático de M2 é análogo ao do
sistema próton-elétron, e que esta dedução pode ser apresentada em termos mais gerais, válida
para átomos de um elétron (hélio ionizado, lítio duplamente ionizado etc.), e assim é possível
escreve as expressões para a quantização das órbitas, da velocidade e das energias cinética,
potencial e mecânica, em função do número atômico (Z).
Para Z = 2, destaca que as linhas observadas por Pickering no espectro de Puppis
devem ser relacionadas ao hélio ionizado, e não ao hidrogênio. Mas o acordo entre teoria e
experiência não era ainda plenamente satisfatório. Quando Bohr foi questionado a esse
respeito, reconheceu que obteve os valores através de um conflitante, com o elétron
descrevendo órbitas em torno de um núcleo fixo, e que precisava lapidar seu modelo. Por
conseguinte, elabora M3 , no qual tanto o elétron como o núcleo se movimentam em torno do
centro de massa do sistema. Assim nos parece que a aparente refutação de M2 converteu-se
em uma retumbante vitória de M3 .
Todo este cenário da discussão do átomo de Bohr nos leva uma abordagem científica-
filosófica-histórica ocorrida no inicio do século XX, sendo o seu personagem principal Niels
Bohr. A chamada antiga teoria atômica (doravante abreviada ATA) de Niels Bohr, Arnold
Sommerfeld e outros abrange um período que se estende de 1913, ano da publicação do
famoso trabalho de Bohr, “On the constitution of atoms and molecules” (Sobre a constituição
de átomos e moléculas), publicado em três partes na Philosophical Magazine (Bohr, 1913a),
51
até 1925, ano em que a hipótese do spin e o princípio de exclusão foram propostos
publicamente por Wolfgang Pauli. A ATA antecede, portanto, a mecânica quântica moderna
de Werner Heisenberg, Erwin Schrödinger e outros.
A ATA é uma das principais linhas de pesquisa que se desenvolveram dentro daquilo
que poderíamos denominar antiga teoria quântica (ATQ), que abrange desde a proposta da
hipótese de quantização, por Max Planck, em 1900, até a hipótese do spin, em 192532
. Dentro
da ATQ havia outras linhas de investigação além da teoria atômica propriamente dita, como
por exemplo o estudo da radiação por Albert Einstein. (Em particular, a linha einsteiniana iria
se encontrar com a linha de Bohr por ocasião da teoria de Bohr-Kramers-Slater, em 1924.)
Cabe notar que é durante o período da ATA (mais especificamente, com a condição geral de
quantização de Sommerfeld) que se dá uma transformação importante, graças à qual passa a
ser possível falar pela primeira vez em uma mecânica quântica, no sentido de uma teoria
geral dos estados quânticos, aplicável não só ao modelo atômico, mas aos sistemas físicos
mais diversos.
O trabalho de Bohr (1979 [1913a]) aparece num momento por assim dizer estratégico
da Física Contemporânea. Em primeiro lugar, porque em 1911 havia sido proposto por Ernest
Rutherford o modelo do átomo nucleado com elétrons planetários, em substituição ao
chamado “modelo do pudim de passas” de J. J. Thomson. O modelo de Rutherford conseguia
dar conta do resultado do experimento de espalhamento de partículas α por núcleos atômicos,
resultado que não podia ser explicado pelo modelo de Thomson. Em segundo lugar, nas
décadas anteriores havia ocorrido um grande avanço na espectroscopia, possibilitando um
conhecimento detalhado dos espectros dos vários elementos químicos.
32Na fase anterior da ATQ, que vai de 1900 até 1912, o problema que predominava era o problema da radiação, especialmente do chamado
corpo negro, e nesse estudo despontavam nomes como os de Planck, Wien, Einstein, Jeans, Rayleigh e Debye. A abordagem era
fundamentalmente baseada nas teorias existentes da termodinâmica, da mecânica estatística e da teoria cinética dos gases, mas existiam
problemas para conciliar esse quadro de referência essencialmente clássico com a hipótese quântica de Planck. Esse período foi estudado
em detalhe por Thomas Kuhn em seu livro Black-body theory and the quantum discontinuity, 1894-1912 (Kuhn, 1978). Ver também Jammer,
1966, Cap. 1; Whittaker, 1973b, Cap. 3; Ter Haar, 1967, caps. 1 e 2; e Mehra & Rechenberg, 1982a, Cap. 1.
33
Modelo do átomo de Thomson. Numa esfera de massa uniformemente distribuída carregada positivamente, estariam incrustr
elétrons de carga negativa.
Figura 2733
delo do átomo de Thomson. Numa esfera de massa uniformemente distribuída carregada positivamente, estariam incrustr
52
delo do átomo de Thomson. Numa esfera de massa uniformemente distribuída carregada positivamente, estariam incrustrados
De inicio supunha-
realizadas por Rutherford não confirmaram essa
mais tarde que eram partículas eletrizadas positivamente. Em seguida, Rutherfor
que a carga elétrica das partículas alfa era equivalente á do hélio ionizado.
que as substancias radioativas emitem Helio quando
já estava convencido de que as partículas alfa eram, de fato, íons de hélio, mas só pode prová
lo definitivamente em 1908.
Era consenso, na década de 1910, que a compreensão da estrutura elementar do átomo
de hidrogênio deveria não só basear
hidrogênio emitia sempre as mesmas raias luminosas, com as mesmas freqüências, a s
estrutura interna deveria estar de alguma forma relacionada a elas. Era uma espécie de código
da natureza. Balmer descobriu o código, mas não foi capaz de entende
Bohr, em 1913, dar um salto adiante decifrando
quantum de ação, senha para esse entendimento.
Como a maioria dos físicos familiarizados com as idéias modernas da
estava convencido de que a introdução do quantum de ação de Planck resolveria as
dificuldades do modelo do á
impedir, de alguma forma, o contínuo movimento em espiral do elétron em direção ao núcleo
previsto pela fisica clássica.
Para facilitar a compreensão do raciocínio de Bo
pudessem ter órbitas circulares. De acordo com a fisica clássica, essas órbitas poderiam ter
qualquer raio, mas sempre
34 Extraídas de Alberto Gaspar Vol. 03 –
Figura 2834
-se que os raios alfa fossem um gás ionizado, as experiências
realizadas por Rutherford não confirmaram essa hipótese. Becquerel e Rutherford verificaram
mais tarde que eram partículas eletrizadas positivamente. Em seguida, Rutherfor
que a carga elétrica das partículas alfa era equivalente á do hélio ionizado.
vas emitem Helio quando aquecidas. Por volta de 1904, Ru
já estava convencido de que as partículas alfa eram, de fato, íons de hélio, mas só pode prová
lo definitivamente em 1908.
Era consenso, na década de 1910, que a compreensão da estrutura elementar do átomo
de hidrogênio deveria não só basear-se na fórmula de Balmer, mas também justificá
hidrogênio emitia sempre as mesmas raias luminosas, com as mesmas freqüências, a s
estrutura interna deveria estar de alguma forma relacionada a elas. Era uma espécie de código
da natureza. Balmer descobriu o código, mas não foi capaz de entende
Bohr, em 1913, dar um salto adiante decifrando-o depois que a física
quantum de ação, senha para esse entendimento.
Como a maioria dos físicos familiarizados com as idéias modernas da
estava convencido de que a introdução do quantum de ação de Planck resolveria as
dificuldades do modelo do átomo de Rutherford. A descontinuidade da natureza deveria
impedir, de alguma forma, o contínuo movimento em espiral do elétron em direção ao núcleo
previsto pela fisica clássica.
Para facilitar a compreensão do raciocínio de Bohr, vamos supor que os elétr
pudessem ter órbitas circulares. De acordo com a fisica clássica, essas órbitas poderiam ter
sempre seriam instáveis. Mas as raias dos espectros,
– Eletromagnetismo e Física Moderna
53
se que os raios alfa fossem um gás ionizado, as experiências
hipótese. Becquerel e Rutherford verificaram
mais tarde que eram partículas eletrizadas positivamente. Em seguida, Rutherford concluiu
que a carga elétrica das partículas alfa era equivalente á do hélio ionizado. Descobriu ainda
aquecidas. Por volta de 1904, Rutherford
já estava convencido de que as partículas alfa eram, de fato, íons de hélio, mas só pode prová-
Era consenso, na década de 1910, que a compreensão da estrutura elementar do átomo
se na fórmula de Balmer, mas também justificá-la. Se o
hidrogênio emitia sempre as mesmas raias luminosas, com as mesmas freqüências, a sua
estrutura interna deveria estar de alguma forma relacionada a elas. Era uma espécie de código
da natureza. Balmer descobriu o código, mas não foi capaz de entende-lo. Coube a Niels
já havia descoberto o
Como a maioria dos físicos familiarizados com as idéias modernas da física, Bohr
estava convencido de que a introdução do quantum de ação de Planck resolveria as
tomo de Rutherford. A descontinuidade da natureza deveria
impedir, de alguma forma, o contínuo movimento em espiral do elétron em direção ao núcleo
, vamos supor que os elétrons só
pudessem ter órbitas circulares. De acordo com a fisica clássica, essas órbitas poderiam ter
seriam instáveis. Mas as raias dos espectros, isoladas e
54
descontínuas, estavam associadas a números inteiros n, de acordo com a fórmula de Balmer.
Bohr concluiu que esses números estariam associados às órbitas, que seriam estáveis. Bohr
chamou essas órbitas de estados estacionários, pois os elétrons nelas poderiam permanecer
indefinidamente, sem perder energia.
De acordo com essa hipótese, Bom, baseando-se também na fisica clássica, obteve as
expressões matemáticas fundamentais de sua teoria. Entre elas, destacamos:
I - A expressão do raio (rn) das órbitas de ordem n do elétron no átomo de hidrogênio. Veja a
figura a seguir:
22 0
2
..
. .n
hr n
m e
ε
π=
Figura 2935
35
Extraída de Alberto Gaspar Vol. 03 – Eletromagnetismo e Física Moderna
55
II – A expressão da energia (En) das órbitas de ordem n que podem ser ocupadas por um
elétron:
4
2 2 2
0
1 ..8. .
n
m eE
n hε= −
Para essas expressões, os valores de n são números inteiros positivos ε0 é a
permissividade do vácuo, h é a constante de Planck, m é a massa do elétron e e, a carga do
elétron. O sinal negativo ocorre, pois a energia em uma órbita n no infinito é nula, como
convencionada para o potencial elétrico, assim no infinito a energia do elétron atinge seu
valor máximo que é zero.
Os primeiros grandes êxitos empíricos da ATA se referiam justamente à explicação
das séries espectrais, a começar pelo hidrogênio e hélio ionizado (além, é claro, do
experimento de Rutherford e da explicação do resultado do experimento de Frank-Hertz).
Num experimento realizado pelos físicos alemães James Frank (1882-1964) e Gustav
Hertz (1887-1975) em 1914. A experiência era simples, com um tubo de vidro, contendo
vapor de mercúrio, V é a diferença de potencial variável entre o catodo C, aquecido pelo
filamento F, e a grade G. O amperímetro A detecta os elétrons que atingem a placa P, depois
de passarem pela grade G e vencerem a pequena diferença de potencial oposta, V0. Nesse
trajeto ocorre a interação de alguns elétrons livres, com os elétrons dos átomos de mercúrio
Gráfico dos níveis de energia de um elétron no átomo de
hidrogênio em função das órbitas n.
56
contidos nessa região. Dessa forma, de acordo com a teoria de Bohr – os elétrons livres não
tem a quantidade de energia que um elétron do átomo de mercúrio precisa para dar um salto
quântico.
Figura 30
Figura 31
Nesse caso, como os elétrons do mercúrio não absorvem quantidades menores do que
o pacote mínimo de que precisam, não há troca de energia. O elétron livre continua a ser
acelerado. energia cinética dos elétrons que chegam à grade, supondo que eles não interagem
com os átomos de mercúrio, é qVa. Após passarem pela grade os elétrons eram desacelerados
por uma pequena diferença de potencial (Vd) entre o ânodo e a grade, a qual era mantida
constante durante o experimento. A energia cinética dos elétrons que chegam ao ânodo,
assumindo que não exista interação com os átomos de mercúrio, é qVa – qVd. Se os elétrons
57
perdem alguma energia (∆E) através de interações com os átomos de mercúrio, então, suas
energia cinética no ânodo pode ser descrita como
Franck e Hertz fizeram uma medida da corrente I do ânodo como função de Va. O
resultado é mostrado na figura abaixo.
Como esperado, uma maior voltagem de aceleração produz uma maior energia cinética, o que
significa que mais elétrons atingem o ânodo, resultando em uma corrente maior. Uma coisa
excepcional ocorre para uma diferença de potencial entre o cátodo e a grade por volta de
4,9 V. A corrente diminui! Para esta diferença de potencial a energia cinética dos elétrons é
suficiente para mandar o elétron de valência do mercúrio para o primeiro nível excitado
através de uma colisão inelástica.
Como o elétron perde energia, ele não consegue mais atravessar a região entre a grade
e o ânodo, devido à diferença de potencial Vd. Isto faz com que a corrente I atinja um mínimo.
Se a diferença de potencial Va é aumentada acima de 4,9 V, a energia cinética dos elétrons é
novamente suficiente para que eles consigam vencer a diferença de potencial Vd, fazendo com
que a corrente I volte a aumentar. Quando Va é 2 × 4,9 V, a energia cinética é tão alta que
dois átomos em sucessão podem ser excitados pelo mesmo elétron. Isto produz um segundo
58
mínimo na corrente I. O gráfico de I versus Va apresenta máximos e mínimos eqüidistantes, a
intervalos de 4,9 V.
Entretanto, os mínimos não são muito bem definidos por causa da distribuição térmica
das velocidades iniciais dos elétrons. É possível observar 10 máximos seqüenciais, todos com
o mesmo espaçamento de 4,9 V. Estes dados mostram um efeito quântico. Os elétrons não
perdem nenhuma energia ou perdem algum múltiplo inteiro de 4,9 eV. Os elétrons podem
perder somente 4,9 eV para o átomo de mercúrio porque os níveis de energia do mercúrio são
quantizados. O elétron perde um múltiplo inteiro de 4,9 eV através de colisões com mais de
um átomo.
O átomo de mercúrio retorna para o estado fundamental através da emissão de um
fóton com uma energia de 4,9 eV. O comprimento de onda de tal fóton é de aproximadamente
253 nm. Em um segundo experimento, Franck demonstrou que uma perda de energia de 4,9
eV pelos elétrons era acompanhada da emissão de um fóton pelo mercúrio com o
comprimento de onda acima.
Entre 1913 e 1924, é Bohr quem desponta como figura-chave dos desenvolvimentos
na mecânica quântica, sendo acompanhado a partir de 1915 por Sommerfeld; a teoria recebeu
também contribuições decisivas de Paul Ehrenfest, Peter Debye, Alfred Landé e outros. Essa
fase é marcada por sucessivos e importantes êxitos empíricos, como a explicação da estrutura
fina dos espectros, a explicação dos efeitos Stark e Zeeman, algumas propriedades dos
espectros de átomos alcalinos, a predição do háfnio e finalmente os espectros de raios X. Com
a formulação do conceito de spin e do princípio de exclusão por Pauli – já em 1925, porém
ainda ligado ao quadro da ATA – finalmente torna-se possível explicar a estrutura eletrônica
dos átomos e a tabela periódica. Em 1924 é formulada a teoria de Bohr-Kramers-Slater (BKS)
da radiação, teoria que, por várias razões, ocupa uma posição-limite tanto em relação à ATA
como à moderna mecânica quântica (MQ).
É interessante notar que Bohr foi aluno tanto de Thomson, em Cambridge, como de
Rutherford, em Manchester. O texto canônico sobre a ATA e a ATQ, no qual todos os
desenvolvimentos relevantes são apresentados e discutidos em detalhe, é o clássico Atomic
structure and spectral lines de Arnold Sommerfeld. Essa obra, originalmente publicada em
alemão (com o título Atombau und Spektrallinen), recebeu diversas edições, cada uma
incorporando substanciais revisões e modificações, num esforço para acompanhar os rápidos
59
desenvolvimentos que ocorriam na física atômica nos anos 20. A sucessão de reedições e
traduções atesta a popularidade desse texto meticuloso e abrangente, e é bem possível que
muitos físicos do período tenham se familiarizado com a nova física em suas páginas.
Portanto, temos uma situação peculiar, na qual, entre duas edições de uma mesma
obra, teve lugar nada menos que uma das maiores revoluções científicas da era moderna – o
advento da nova mecânica quântica de Schrödinger e Heisenberg. (É interessante registrar que
Sommerfeld, no prefácio à nova edição, sustenta a tese de que “somente é possível
compreender a nova teoria erigindo-a a partir da teoria antiga” [Sommerfeld, 1931, p. vi].)
Uma das melhores narrativas do desenvolvimento histórico da teoria quântica
(incluindo a ATA) ainda é a obra clássica de Max Jammer, The conceptual development of
quantum mechanics (Jammer, 1966). Além de proporcionar um panorama conciso e bem
articulado, é uma verdadeira mina de referências. Porém a mais completa história da teoria
quântica, pelo menos no que diz respeito ao grau de detalhe historiográfico, é a obra
monumental de J. Mehra e H. Rechenberg, em vários volumes, intitulada The historical
development of quantum theory. Sendo o volume 1, intitulado The quantum theory of Planck,
Einstein, Bohr and Sommerfeld: its foundation and the rise of its difficulties, 1900-1925
(Mehra & Rechenberg, 1982a; 1982b), a referência tomada para a abordagem conceitual aqui
aprsentada.
Essa obra também contém a mais completa bibliografia de fontes primárias sobre a
ATQ e a ATA que se tem conhecimento, localizada ao final da Parte 2 do Volume 1 (Mehra
& Rechenberg, 1982b, p. 727-861). Outras obras de caráter histórico que podem ser úteis são:
a introdução de D. Ter Haar a sua coletânea The old quantum theory (Ter Haar, 1967) e a
introdução de B. L. Van der Warden a sua coletânea Sources of quantum mechanics (Van der
Waerden, 1967), além do segundo volume de A history of the theories of aether and
electricity de E. Whittaker (Whittaker, 1973b). Uma obra popular, que, sem a pretensão de ser
uma história da teoria quântica, pode ser útil para elucidar conceitos, é o segundo volume de
The rise of the new physics de A. D’Abro, que escreveu também várias outras obras clássicas
de divulgação (D’Abro, 1951). em inglês, Sommerfeld (1928) e Sommerfeld (1931),
traduzidas respectivamente da terceira edição alemã, de 1922, e da quinta edição alemã, de
1931.
60
Em particular, é interessante saber que a trilogia de Bohr foi publicada originalmente
na Philosophical Magazine (Bohr, 1913a), estando reproduzida em fac-símile no Volume II
dos Collected works (Bohr, 1981, p. 159-233). Porém a versão de mais fácil acesso para a
maioria dos leitores há de ser, certamente, a tradução portuguesa publicada pela Fundação C.
Gulbenkian em um volume, com uma introdução de L. Rosenfeld (Bohr, 1979 [1913a]), e é à
paginação desta edição que faremos referência ao longo do presente artigo. Cabe lembrar que
a Parte I da trilogia de Bohr também foi incluída na antologia editada por Ter Haar (ed., 1967,
p. 132-59), edição que indicada aqui como (Bohr, 1967 [1913a]).
18. Princípio da correspondência.36
Se uma nova teoria for valida, ela deve explicar os resultados da teoria antiga, ou seja,
deve haver uma correspondência entre as teorias, onde a antiga pode servir de base para a
formulação da nova, assim a Bohr articulou tal princípio buscando na correspondência uma
forma de mostrar que ela tende a se tornar uma identidade quando os números quânticos
crescem indefinidamente. Assim a teoria clássica pode servir de guia para a determinação
qualitativa e às vezes quantitativa das propriedades das radiações nos fenômenos quânticos.
Convém também salientar a indeterminação característica que existe na aplicação do
princípio de correspondência quando se quer calcular a intensidade de uma radiação emitida
por um átomo quando passa de um estado a outro. A cada um dos estados, inicial ou final, do
salto quântico, corresponde um movimento e uma componente harmônica do movimento, a
qual vai permitir o cálculo da respectiva intensidade de acordo com a teoria clássica. Não se
sabe qual dos movimentos, e portanto qual das componentes harmônicas (as quais têm a
mesma freqüência), se deve escolher para a determinação da intensidade relativa ao salto
quântico. Quando os números quânticos são muito elevados a indeterminação praticamente
desaparece, pois aos dois estados (inicial e final) do “salto quântico” correspondem
movimentos clássicos muito próximos, e pode-se escolher um qualquer dos dois movimentos
para o cálculo da intensidade procurada.
A teoria quântica de Bohr, completada pelo princípio de correspondência teve enorme
sucesso na explicação dos fenômenos atômicos, mas em 1925 já se haviam acumulado
importantes fatos experimentais em acentuada divergência com os resultados da mesma
teoria. Por outro lado eram considerados como pouco satisfatórios os fundamentos lógicos da
36
Texto adaptado da Revista Brasileira de Ensino de Física, v. 26, n. 1, p. 71-74 (2004) - História da Física e Ciências Afins -
Introdução à mecânica dos quanta Parte III - Theodoro Ramos - Escola Politécnica de São Paulo.
61
Mecânica de Bohr. A teoria clássica e a hipótese dos quanta ai se encontravam ligados de uma
forma ilógica; às leis clássicas da Mecânica e do Eletromagnetismo foram acrescentados os
dois postulados de Bohr que em sua essência são contraditórios com as referidas leis clássicas.
Heisenberg, em 1925, resolveu abandonar completamente, no estudo dos fenômenos
atômicos, a concepção das trajetórias eletrônicas, inacessíveis à experimentação direta e de
caráter hipotético.
19. Dualidade Partícula-Onda
A polêmica sobre o caráter ondulatório ou corpuscular da radiação foi continuamente
mantida, até que por volta de 1905. Einstein apresentou uma teoria estabelecendo os limites
de validade de um e outro comportamento. Em suma, na segunda década deste século não
havia razão para duvidar do caráter dualístico da radiação: ora ondulatório, ora corpuscular.
Sob o ponto de vista moderno, depois de tudo que sabemos, parece natural imaginar que essa
dualidade também seja verdadeira para a matéria. Todavia, o conhecimento científico da
época não permitia essa generalização.
Bohr elaborou seu modelo para explicar as linhas espectrais observadas desde o final
do século XIX. Ocorre que no seu modelo, Bohr foi obrigado a impor determinadas restrições
ao movimento do elétron em torno do núcleo. Em 1924 Louis de Broglie, Físico Frances,
enquanto ainda era estudante de pós-graduação obteve uma resposta, publicada em sua tese de
doutoramento em Física que mais tarde lhe valeu o Premio Nobel de Física. Par de Broglie as
restrições eram mais do que sintomas para a necessidade de uma nova concepção do
comportamento da natureza. Segundo ele, a natureza essencialmente descontínua da
quantização, expressa pelo surgimento de números quânticos inteiros, apresentava um
estranho contraste com a natureza contínua dos movimentos suportados pela dinâmica
newtoniana e mesmo pela dinâmica einsteiniana. Portanto, seria necessário uma nova
mecânica onde as idéias quânticas ocupassem um lugar de base, e não fossem acessoriamente
postuladas, como na antiga teoria quântica.
Um aspecto que chamou a atenção de de Broglie, foi o fato de que as regras de
quantização envolviam números inteiros. Ora, sabia-se, desde muito tempo, que os números
inteiros eram fundamentais em todos os ramos da física onde fenômenos ondulatórios
estavam presentes: elasticidade, acústica e ótica. Eles são necessários para explicar a
existência de ondas estacionárias, de interferência e de ressonância. Seria, portanto, permitido
62
pensar que a interpretação das condições de quantização conduziriam à introdução de um
aspecto ondulatório no comportamento dos elétrons atômicos. Dever-se-ia fazer um esforço
para atribuir ao elétron, e mais geralmente a todos os corpúsculos, uma natureza dualística
análoga àquela do fóton, para dotá-los de um aspecto ondulatório e de um aspecto corpuscular
interligados pelo quantum de ação (a constante de Planck).
Para chegar à sua relação fundamental, de Broglie considerou a questão mais simples
possível, isto é, um corpúsculo em movimento retilíneo uniforme, com energia e momentum
conhecidos. Na proposta de de Broglie o comprimento de onda da onda associada a um
corpúsculo de momentum p é dado por l = h/p, ou seja comprimento de onda = h/momentum.
De Broglie demonstrou que a velocidade da onda associada é dada por V = c2/v, onde
v é a velocidade do corpúsculo. Agora, dado o comprimento de onda dessa onda, qual será sua
freqüência, n ?
Como se sabe,
1n = V = c2/v
n = c2/lv = pc
2/hv
Da relatividade, tem-se que
p = mov/g,
onde g = (1-v2/c
2)1/2
. Logo,
n = moc2/hg = E/h
Portanto, o comprimento de onda da onda associada a um corpúsculo é o quociente
entre seu momentum e a constante de Planck, enquanto a freqüência é o quociente entre sua
energia e a constante de Planck.
Outras questões reforçavam o sentimento de De Broglie na direção da dualidade
partícula-onda. Até àquela época, o elétron não tinha manifestado qualquer propriedade
ondulatória, de modo que atribuir ao elétron estas propriedades, sem evidência experimental,
poderia parecer uma fantasia de valor científico duvidoso.
63
Todavia, de Broglie percebeu que a introdução do caráter ondulatório no
comportamento de corpúsculos materiais já poderia ter sido feita no final do século passado,
uma vez que a teoria de Jacobi permitia à dinâmica clássica agrupar as trajetórias possíveis de
um ponto material, em determinado espaço, de tal modo que as trajetórias de um mesmo
grupo sejam similares à propagação de uma onda, no sentido da ótica geométrica.
20. Princípio da Complementaridade
Proposto por Bohr, pela primeira vez, no Congresso Internacional de Física, realizado
em Como, na Itália, em 16 de setembro de 1927 (Atti del Congresso Internazionale dei
Fisici), por ocasião das comemorações do centenário de morte do grande físico italiano,
Alessandro Giuseppe Volta (1745-1827). Entre 1923 e 1924, o físico francês, o Príncipe
Louis Victor Pierre Raymond de Broglie (1892-1987; PNF, 1929) formulou sua hipótese da
“dualidade onda-partícula do elétron”, hipótese essa que era motivo de muita discussão entre
os físicos, devido ao caráter dúbio que ela aparentava representar. Para contornar essa
dubiedade, Bohr apresentou, naquele Congresso, o seguinte princípio: Os modelos
corpuscular e ondulatório são complementares; se uma medida prova o caráter ondulatório
da radiação eletromagnética ou da matéria, então é impossível provar o caráter corpuscular
na mesma medida, e vice-versa.
21. A interpretação da complementaridade37
Para entendermos a interpretação proposta por Bohr, consideremos a figura (a). Nela,
representa-se o experimento da dupla fenda para a luz, que resulta em franjas de interferência
na tela à direita. De acordo com a física clássica, as franjas, que alternam claro e escuro,
indicam que a luz é uma onda. Ao passar por O, esta onda esférica se propaga até o anteparo
com as fendas A e B, e em cada fenda uma parte da onda inicial se propaga como onda
esférica até a tela detectora. As regiões em que máximos das duas ondas se superpõem
construtivamente são iluminadas, e as regiões em que elas se superpõem destrutivamente são
escuras. Com a física quântica, o que se descobriu é que a luz é detectada na tela por meio de
37 Extraído com alterações de Junior P.O (2008) As interpretações Contemporâneas da mecânica Quânticas
64
pacotes mínimos de energia, localizados pontualmente, chamados “fótons”. O acúmulo de um
grande número desses pontos luminosos resulta nas franjas de interferência que observamos
no laboratório. A esta descoberta Bohr deu o nome de “postulado quântico”, cuja primeira
formulação é devida ao alemão Max Planck (1858-1947), que em 1900 inaugurou a velha
teoria quântica.
O princípio de complementaridade foi introduzido por Bohr em 1927, em três
acepções diferentes, das quais uma se tornou mais importante, especialmente após 1935: a
dualidade onda-partícula. Presos à linguagem da física clássica, os cientistas só conseguiriam
compreender um fenômeno observado no laboratório por meio de quadros clássicos, que
seriam de dois tipos: corpuscular ou ondulatório. No quadro corpuscular, concebemos o
objeto quântico como uma partícula que descreve uma trajetória bem definida ao longo de
todo o experimento. No quadro ondulatório, imaginamos que o objeto quântico é uma onda,
que pode ser dividida e recombinada, gerando franjas de interferência. No quadro corpuscular
não pode haver franjas de interferência, e no quadro ondulatório não se podem atribuir
trajetórias bem definidas ao objeto quântico. O princípio de complementaridade afirma que
qualquer experimento com uma entidade quântica, como um elétron, pode ser compreendido
ou em um quadro corpuscular, ou em um ondulatório, mas nunca em ambos ao mesmo tempo.
Ou seja, se observo franjas de interferência, não posso atribuir trajetórias, e vice-versa.
Figura 32
65
(a) O experimento da dupla fenda é um fenômeno ondulatório, e não há como estipular uma trajetória para o quantum detectado, seja
ele luz ou elétron. (b) A colocação de polarizadores ortogonais, no caso da propagação de luz, torna o fenômeno corpuscular, e sabendo-
se a polarização do fóton detectado, sabe-se sua trajetória. (c) A informação de trajetória pode ser apagada, e o quantum detectado passa
a ser associado a um fenômeno ondulatório. (d) Segundo a interpretação de Bohm, o corpúsculo descreve uma trajetória em ziguezague.
O fenômeno da figura (a) é ondulatório: não podemos atribuir uma trajetória ao fóton
detectado em R, pois é como se ele passasse simultaneamente por ambas as fendas (como
diríamos de uma onda na física clássica). Se apenas uma das fendas estivesse aberta, aí o
fenômeno seria corpuscular: saberíamos sua trajetória, mas não haveria franjas quando um
grande número de fótons incidisse na tela.
Outro exemplo de fenômeno corpuscular está na figura (b), onde se colocam filtros
polarizadores orientados em direções ortogonais após cada fenda. Cada polarizador absorve
metade da luz incidente, e deixa passar a outra metade. A porção de luz que é transmitida
oscila (transversalmente à direção de propagação) em uma certa direção, que na figura é 0°
para a fenda A e 90° para a fenda B. O encontro de ondas polarizadas em direções ortogonais
não leva à interferência destrutiva e construtiva, como no caso anterior, de forma que o que se
observa na tela detectora é uma iluminação uniforme, sem franjas de interferência.
Notamos que utilizamos uma explicação típica de um quadro ondulatório, mas este
fenômeno é considerado corpuscular porque o fóton observado na tela é pontual, e a ele pode
ser atribuída uma trajetória bem definida, ou pela fenda A ou pela fenda B. Isso ficaria mais
claro se no lugar da tela detectora se pusesse um detector sensível à polarização da luz. Tal
detector indicaria claramente a polarização do fóton: se a polarização medida fosse 0°,
poderíamos dizer que a partícula passou pela fenda A, se fosse 90°, pela fenda B. Ao
atribuirmos trajetórias bem definidas à partícula (associada ao fóton detectado), adotamos um
quadro corpuscular.
No entanto, a situação muda na figura (c). Agora, um outro polarizador, orientado em
um ângulo intermediário, 45°, é colocado diante da tela detectora. A luz que passa por este
polarizador “perde a informação” sobre qual fenda ela teria passado. De acordo com a
interpretação da complementaridade, o fenômeno associado aos fótons incidentes na região
central da tela é ondulatório, o que é confirmado pelas franjas de interferência observadas
nesta região. Já os fótons detectados fora desta região continuam associados a um quadro
corpuscular.
Por que essa interpretação ortodoxa é considerada positivista? Porque não podemos
dizer se um fóton, que será detectado na região central, está associado a um quadro
ondulatório ou corpuscular, antes da detecção final do objeto quântico. Poderíamos montar
66
um experimento como o da Figura (b) e, antes de encerrado o experimento, sermos tentados a
dizer que o fenômeno será corpuscular. Mas, logo em seguida, alguém poderia pôr em ação
uma “escolha demorada”, e introduzir o polarizador a 45°, transformando o experimento em
um fenômeno ondulatório. Ou seja, a atribuição de um quadro clássico – corpuscular ou
ondulatório – só pode ser feita após o encerramento do experimento. Antes disso, não se pode
atribuir à realidade do objeto quântico uma natureza de partícula ou de onda. Em suma, como
esta interpretação não associa nenhuma representação à realidade, antes do final do
experimento, ela pode ser considerada positivista. A ela, só interessa representar o que é
observado, não aquilo que é inobservável.
22. Princípio da Incerteza de Heisenberg
O princípio da incerteza, de Heisenberg, é relativamente simples de ser enunciado e
tem uma idéia simples.Na física tradicional newtoniana, também chamada de Física Clássica,
acreditava-se que se soubermos a posição inicial e o momento (massa e velocidade) de todas
as partículas de um sistema, seríamos capaz de calcular suas interações e prever como ele se
comportará. Isto parece correto, se soubermos descrever com precisão as interações entre
essas partículas, mas parte de um pressuposto bastante forte: o de que de fato conhecemos a
posição e o momento de todas as partículas.
Segundo o princípio da incerteza, não se pode conhecer com precisão absoluta a
posição ou o momento (e, portanto, a velocidade) de uma partícula. Isto acontece porque para
medir qualquer um desses valores acabamos os alterando, e isto não é uma questão de
medição, mas sim de física quântica e da natureza das partículas. O princípio da incerteza é
equacionado através da fórmula:
No seu nível mais fundamental, o princípio da incerteza é uma conseqüência da
dualidade partícula-onda e do princípio de Broglie. Se uma partícula encontra-se em uma
região com erro ∆x, então seu comprimento de onda natural deve ser menor que ∆x, o que
requer um momento elevado, variando entre -h/∆x e h/∆x. Aí está a incerteza ! O raciocínio é
análogo para a indeterminação do momento.
67
Assim38
como para Dirac o princípio de superposição linear de estados é o postulado
mais importante da Mecânica Quântica, para outros a dualidade onda-partícula ou sua versão
formalizada no princípio de incerteza são as inovações cruciais da Mecânica Quântica. Neste
contexto diz-se que, no mundo microscópico, os aspectos corpusculares e ondulatórios da
matéria são complementares, ou seja, um sistema quântico pode exibir aspectos corpusculares
ou aspectos ondulatórios dependendo do arranjo experimental, mas não ambos ao mesmo
tempo. Em decorrência, não é possível montar um dispositivo experimental onde os dois
aspectos possam ser revelados ao mesmo tempo.
Este aspecto complementar do mundo microscópico é expresso, no formalismo da
Mecânica Quântica, nas relações de incerteza. Segundo o Princípio de Incerteza, enunciado
por Heisenberg em 1927, dado um par de grandezas físicas A e B, representadas pelos
operadores A e B que não comutam, quanto maior é o conhecimento de uma delas em um
dado experimento, menor é o conhecimento da outra. Matematicamente, Se [A,B] ≠0, então,
DA ≠ DB ≤ . sendo DA a incerteza no operador A e DB no operador B. Este princípio refere-
se, então, aos tipos de observáveis que podem ser encontrados.
Por uma parte podemos considerá-lo como uma propriedade fundamental do estado
físico de um sistema quântico de forma que, independentemente de como seja preparado tal
estado, não pode corresponder a valores precisos de dois observáveis incompatíveis; por
exemplo, não pode ter valores precisamente definidos de posição e momento. No mesmo
sentido, um pacote de ondas clássico não pode ter valores perfeitamente definidos de posição
e número de onda. A outra leitura (que pode ser pensada a partir do "microscópio de
Heisenberg") é considerar o Princípio de Incerteza como uma propriedade fundamental do
processo de medida, de modo que a incerteza, por exemplo, no momento é devida à
perturbação do sistema no processo de medida. Ambas as leituras têm, no entanto, uma raiz
comum: se o dispositivo de medida, segundo a primeira leitura, apresenta incertezas
inevitáveis, necessariamente a medição de uma grandeza perturbará a outra; por outra parte,
as perturbações que inevitavelmente acompanham a medição de grandezas incompatíveis nos
impedirão de preparar um sistema quântico em um estado com valores simultâneos bem
definidos de grandezas incompatíveis.
38 Extraído com adaptações de Greca I. M., Moreira M.A., Herscovitz V. E.(2001) - Uma Proposta para o Ensino de
Mecânica Quântica
68
De qualquer forma, o Princípio de Incerteza é uma limitação inerente a todo ato de
medição e não pode ser superado com os avanços tecnológicos dos sistemas de medição. Este
limite natural à nossa capacidade de observação leva-nos a abandonar idéias centrais da visão
clássica de mundo, como a do caráter fundamental que o conceito de trajetória ocupa aí .
Assim como no caso do princípio de superposição, toda teoria que contenha um princípio
sobre observáveis incompatíveis é inerentemente probabilística, ou seja, permite que as
probabilidades de resultados de um determinado experimento sejam diferentes de 0 ou 1.
Somente se todos os observáveis de uma teoria forem compatíveis (como é o caso da Física
Clássica), a teoria pode ser determinística.
Ainda que, tanto o princípio de superposição de estados quanto o de incerteza,
impliquem em teorias probabilísticas, os dois são conceitualmente diferentes, ou seja, que
uma teoria tenha observáveis incompatíveis não implica que estados puros possam ser
somados e vice-versa.
O Princípio de Incerteza nos permite estabelecer, pela primeira vez na história da
Ciência, uma escala "absoluta" de tamanho: o mundo atômico e subatômico é pequeno no
sentido absoluto, porque qualquer medição efetuada nessa escala usará recursos da mesma
escala e poderá afetar o resultado, de forma que é preciso sempre indicar como estão sendo
observados os fenômenos. Ou seja, na escala atômica e subatômica existem limitações
absolutas às possibilidades de medição, questão esta enfatizada por Dirac
Os estudantes, porém, são apresentados, em geral, somente às fórmulas vinculadas ao
Princípio de Incerteza, sem que sejam estabelecidas, pelo menos nos cursos introdutórios, as
suas relações com o conceito de dualidade ou com a idéia de quantização. Assim, muitos dos
estudantes aprendem as fórmulas sem saber onde ou como aplicá-las. E, apesar de aceitar-se
que as relações de incerteza não emergem de imperfeições tecnologicamente superáveis nos
dispositivos de medição, esta é a interpretação mais difundida possivelmente porque este é o
contexto em que os estudantes de ciências primeiramente se deparam com a palavra
"incerteza".
69
23. Bibliografia
BACHELARD, G. (1935). “O Novo Espírito Científico.” Col. “Os Pensadores”, Nova
Cultural, 1988.
BASSO, Délcio. Abordagem de Física Moderna no Ensino Médio. 2000. Trabalho
apresentado ao VII International Conference on Physics Education, Florianópolis, 2000.
BELL, J.S. (1964). On the Einsten Podolsky Rosen Paradox. Reimpresso em Wheeler &
Zurek,pg 403. WHEELER & ZUREK, pg 397. Traduzido para o português por Oswaldo
Pessoa Jr, Cadernos de História e Filosofia da Ciência ,ser.3, vol.2,n.2, jul./dez.,1992.
BEZERRA, V. A. “Schola quantorum: progresso, racionalidade e inconsistência na
antiga teoria atômica. Parte II: crítica à leitura lakatosiana”. Scientiae Studia, no prelo.
BOHR, N. “Atomic Physics and Human Knowledge”. John Wiley & Sons
(1958).Traduzido para o português por Vera Ribeiro, Ed. Contraponto, 1995.
BOHR, N. “On the constitution of atoms and molecules. Part I”. In: TER HAAR, D. (ed.).
The old quantum theory. Oxford, Pergamon, 1967 [1913a], p. 132-59.
BOHR, N. Sobre a constituição de átomos e moléculas. Introd. de L. Rosenfeld. Trad. de E.
Namorado. Lisboa, Gulbenkian, 1979 [1913a].
BORN, M. (1926). On the quantum mechanics of collisions. Traduzido para o inglês em
Wheeler & Zurek, pg.52.
BUCUSSI, A.A. - Introdução ao conceito de energia - Porto Alegre : UFRGS, Instituto de
Física, Programa de Pós-Graduação em Ensino de Física, 2007. 32p. v. 17, n. 3.
CAVALCANTE, Marisa de Almeida; JARDIM, Vladimir; BARROS, José Antônio de
Almeida. Inserção de Física Moderna no Ensino Médio: Difração de um feixe de laser.
Caderno Catarinense de Ensino de Física, Florianópolis, v.16, n.2, 1999.
CHIBENI, S.S. “Aspectos da Descrição Física da Realidade.” Tese de Doutorado
(Orient.M.Ghims).UNICAMP,1993.
70
DAVIDOVICH, L. O gato de Schrödinger: do mundo quântico ao mundo clássico
(Ciência Hoje, vol. 24, n. 143, p. 26, 1998)
DIRAC, P.A.M. (1930). “Princípios de Mecanica Cuantica.” Ediciones Ariel 1967.
EINSTEIN, A. “On the quantum theory of radiation”. In: VAN DER WAERDEN, B. L.
(ed.). Sources of quantum mechanics. Amsterdam, North-Holland, 1967 [1917], p. 63-77.
EINSTEN, A. (1953). “Como Vejo o Mundo.” Nova Fronteira ,1981.
EISBERG, R. & RESNICK, R. Física quântica. Rio de Janeiro, Campus, 1979.
FERREIRA, J. C.. Raios X no Ensino Médio, no contexto de Ciência, Tecnologia e
Sociedade (CTS). Monografia – Instituto de Física, Universidade Federal do Rio de Janeiro,
2006.
GIL-PÉREZ, Daniel. Orientações didáticas para a formação continuada de professores
de ciências. In: MENEZES, Luis Carlos de (Org.). Formação continuada de professores de
ciências no contexto ibero -americano. Campinas: Autores Associados, 1996. P. 71-81.
GREENBERG, D., HORNE, M., SHIMONY, A. AND ZELINGER, A. Bell’s theorem
without inequalities. American Journal of Physics, 58(12), Dec, 1990.
HEISENBERG, W. “Quantum-theoretical reinterpretation of kinematic and mechanical
relations”. In:
HUSSEIN, M. S.e SALINAS, S. R. A. (orgs.) 100 anos de física quântica (Editora Livraria
da Física, São Paulo, 2002).
JAMMER, M. The conceptual development of quantum mechanics. Nova Iorque,
McGraw-Hill, 1966.
KUHN, T. S. Black-body theory and the quantum discontinuity, 1894-1912. Chicago,
University of Chicago Press, 1978.
LORENTZ, H. A. The theory of electrons. 2a ed. Nova Iorque, Dover, 1952 [1909].
71
MACHADO, D. I. e NARDI, R. Avaliação do Ensino e Aprendizagem de Física Moderna
no Ensino Médio. 2003. Trabalho apresentado ao IV Encontro Nacional de Pesquisa em
Educação em Ciências, Bauru, 2003.
MAJORINO,J.E. O Pensamento Reducionista na Filosofia de Niels Bohr. Cad. de Hist. E
Filos. da Ciência , ser.3, vol.2, n.2, jul./dez,1992.
MEHRA, J. & RECHENBERG, H. The historical development of quantum theory. Vol. I.
Part I. The quantum theory of Planck, Einstein, Bohr and Sommerfeld: its foundation and the
rise of its difficulties, 1900-1925.Nova Iorque, Springer, 1982a.
OLIVEIRA, F. F. O Ensino de Física Moderna com enfoque CTS: Uma proposta
metodológica para o Ensino Médio usando o tópico raios X. Dissertação (Mestrado)
Programa de Pós-graduação em Educação, Faculdade de Educação, Universidade Federal do
Rio de Janeiro, 2006. Disponível em <http://fenix2.ufrj.br:8991/F/CTA
OSTERMANN, F. e MOREIRA, M. A. Física Contemporânea en la escuela secundaria:
uma experiência em el aula involucrando formación de profesores. Enseñanza de las
Ciências, Barcelona, v. 3, n. 18, p. 391-404, 2000b.
OSTERMANN, F. e MOREIRA, M. A. Uma revisão bibliográfica sobre a área de
pesquisa “Física Moderna e Contemporânea no Ensino Médio”. Porto Alegre:
Investigações em Ensino de Ciências, 2000c, v. 5, n. 1. Disponível em:
<http://www.if.ufrgs.br/public/ensino/revista.htm> Acesso em: 06 mar. 2006.
PESSOA JR. ,O. O Problema da Medição em Mecânica Quântica.Um Exame Atualizado.
Cad. de Hist. e Filos. da Ciência , ser.3, vol.2 n.2, jul./dez1992.
PINTO, A.; ZANETIC, J. É possível levar a Física Quântica para o Ensino Médio?
Caderno Catarinense de Ensino de Física, Florianópolis, v.16, n.1, p. 7-34, 1999.
POPPER, K. R. O universo aberto: argumentos a favor do indeterminismo. (2° volume do
pós-escrito à Lógica da descoberta científica.) Org. de W. W. Bartley III. Trad. de N. F. da
Fonseca. Lisboa, Dom Quixote, 1988.
72
REZENDE J., FRANK M.; CRUZ S.; FIRMO F. Física Moderna e Contemporânea no
Ensino Médio: Do consenso de temas à elaboração de propostas. 2003. Trabalho
apresentado ao IV Encontro Nacional de Pesquisa em Educação em Ciências, Bauru, 2003.
SAKURAI, J. J. Modern quantum mechanics - Revised edition. Ed. de S. F. Tuan. Reading,
Massachusetts, Addison-Wesley, 1994.
SCHRÖDINGER & HEISENBERG: a física além do senso comum (Coleção Imortais da
Ciência, Odysseus Editora, São Paulo, 2003).
TERRAZZAN Perspectivas para a Inserção da Física Moderna na Escola Média. São
Paulo: FEUSP, 1994. 241p. Tese (Doutorado) – Programa de Pós-Graduação em Educação,
Faculdade de Educação, Universidade de São Paulo, São Paulo, 1994.
TERRAZZAN, E. A. A Inserção da Física Moderna e Contemporânea no Ensino de
Física na Escola de 2o grau. Caderno Catarinense de Ensino de Física, Florianópolis, v.9,
n.3, p. 209-214, 1992.
TIPLER, P. A. Física moderna. Rio de Janeiro, Guanabara Dois, 1981.4ª Edição
VALADARES, E. C.; MOREIRA, A. M. Ensinando Física Moderna do Segundo Grau:
Efeito Fotoelétrico, Laser e Emissão de Corpo Negro. Caderno Catarinense de Ensino de
Física, Florianópolis, v.15, n.2, 1998.
VIANNA, D. M. Do fazer ao ensinar ciência. São Paulo: FEUSP, 1998. Tese (Doutorado) –
Programa de Pós-Graduação em Educação, Faculdade de Educação, Universidade de São
Paulo, 1998.
WEBBER, M. C. M. E RICCI T. F. - Inserção de mecânica quântica no ensino médio :
uma proposta para professores - Porto Alegre : UFRGS, Instituto de Física, Programa de
Pós-Graduação em Ensino de Física, 2007. 63p. v. 17, n. 5.