UNIVERSIDADE FEDERAL DO RIO DE JANEIRO
INSTITUTO DE FÍSICA
MONOGRAFIA DE FINAL DE CURSO
ENTROPIA E A SEGUNDA LEI DATERMODINÂMICA: UMA ABORDAGEMALTERNATIVA PARA O ENSINO MÉDIO
Por : MÁRCIO ALBERTO DE BRITO TELES
DRE: 103116534
Orientador
Prof. Br. Francisco Arthur Braun Chaves
I
RIO DE JANEIRO - RJ / 2010J. F. U. F- R- J-
B I B L I O T E C AREGISTR. DATA
AGRADECIMENTOS
Agradeço a Deus, que me ofereceu a oportunidade de
viver.
Aos meus pais, pelo amor, carinho e paciência,
A minha esposa, pelo apoio.
Aos professores, pela luz do conhecimento.
DEDICATÓRIA
Dedico este trabalho aos meus amigos, colegas de
profissão e àqueles que contribuem com as reflexões sobre
a educação.
SUMARIO
INTRODUÇÃO»... 5
CAPITULO I - RETROSPECTIVA HISTÓRICA DOS CONCEITOS
RELACIONADOS À FÍSICA TÉRMICA 8
l.l.Panorama Histórico da Entropia Estatística 8
CAPITULO II - REVISÃO DOS PRINCIPAIS TÓPICOS
RELACIONADOS À TERMODINÂMICA
ESTATÍSTICA.. 13
1.1. Grandezas e Variáveis extensivas e intensivas.. 13
1.2. Limite Termodinâmico 13
Í.3. Descrição Estatística de uni Sistema Físico: caso
discreto 14
1.4. Descrição Estatística de um Sistema Físico: caso continuo , 18
1.5. Descrição Estatística do Equilíbrio Térmico........... 18
1.6. A hipótese Fundamental de Boltzmann..... 23
1.7. Distribuição de Boltzmann - Reservatório Térmico..... 23
CAPITULO III - ENTROPIA 27
1.1. Conceituando Entropia.... 27
1.1.1. Formulando entropia microscopicameníe 29
1.2. Entropia e a Segunda Lei da Termodinâmica.... 35
CAPITULO IV - AULA PROPOSTA 38
1.1. Aula l - Uma forma alternativa de conceituar entropia 38
1.1.1. Uma forma alternativa de relacionar entropia com a Segunda Lei
da Termodinâmica 45
1.1.2.Contextualizando o conceito de entropia com alguns fenômenos
naturais. ... 49
CONSIDERAÇÕES FINAIS..., 50
REFERÊNCIAS BIBLIOGRÁFICAS... 51
INTRODUÇÃO
"Um grafite anônimo em uma parede do café
Pecan em Austim, Texas, nos EUA, tinha escrito:
"O tempo é a forma que Deus criou de evitar que
as coisas acontecessem todas ao mesmo tempo ". O
tempo também possui um sentido - algumas coisas
acontecem em uma certa seqüência e nunca
poderiam acontecer de forma natural em uma
seqüência invertida. Por exemplo, um ovo que caiu
por acidente se espatifa em uma taça. O processo
inverso, de um ovo espatifado voltando a ser um
ovo inteiro e saltando para cima até uma mão
aberta, nunca acontecerá naturalmente ~ mas por
que não? Por que esse processo não pode ser
invertido, como uma fita de vídeo passada de trás
para frente?"
(HALLIDAY & RESNICK, Fundamentos da
Física, 2001, p. 189)
Na tentativa de explicação de certos fenômenos, em particular o que foi
exemplificado na citação acima, os pensadores, filósofos e cientistas começaram a
arquitetar certos conceitos e teorias consideradas importantíssimas para a evolução da
ciência e em particular da Física. Dentre elas podemos citar a criação do conceito
denominado entropia1.
A formulação do conceito de entropia pode ser considerado como um dos
grandes avanços da ciência. Pois, possibilitou que fosse constituída parte da base teórica
da termodinâmica2, de certos processos (fenômenos) ditos irreversíveis e o alicerce da
mecânica estatística.
Devido à importância de tal conceito, o presente trabalho possui como
principal objetivo, o de revelar aos alunos, particularmente os de ensino médio, uma
1 Entropia: do grego em (em) e trope (transformação) que indica algo em transformação. (Covolan,Dissertação de Mestrado, 2004)2 Termodinâmica é a ciência que resume nosso conhecimento sobre as possibilidades de obter, converter eutilizar a energia. (Tronconi e outros, 1991)
6
forma alternativa de conceituar entropia e sua íntima relação com a 2° Lei da
Termodinâmica, segundo aspectos estatísticos e probabiiísticos. Pois, foi constatado que
o referido conceito encontra-se mal formulado e compreendido de forma totalmente
errônea, por boa parte dos alunos do ensino médio, devido principalmente, a dificuldade
que o professor encontra para explicar o conceito de Entropia e sua relação com a
Segunda Lei da Termodinâmica.
Isto se deve, principalmente, a uma continuação do "tradicionalismo
educacional", ou seja, a importância dada à memorização dos conteúdos escolares por
parte dos estudantes. Com isso, tornou-se importante a descoberta de uma prática
pedagógica direcionada para um aprendizado verdadeiramente significativo.
No intuito de subsidiar o trabalho docente, foi proposta uma aula versando
sobre a conceituação da entropia, segundo a visão probabilística de Boltzmann, a
relação desta com a Segunda Lei da Termodinâmica e, por fim, uma tentativa de
contextualização do conceito de entropia com alguns fenômenos naturais que ocorrem
no cotidiano dos alunos.
Dentro deste contexto, estaremos a seguir apresentando a estrutura de
elaboração deste trabalho.
Inicialmente, no capítulo I, apresentamos uma revisão bibliográfica, que
serviu de base para a elaboração da aula. Essa revisão tem inicio com uma elaboração
da evolução histórica dos conceitos ligados a Física Térmica estatística, culminando
com a criação do conceito de entropia, realizado por Boltzmann. Posteriormente, no
capitulo H, foi realizada uma pequena passagem pela termodinâmica estatística,
principalmente da descrição estatística de um sistema físico e do equilíbrio térmico no
âmbito probabilístico, além de visualizarmos como Boltzmann verificou sua hipótese
fundamental e sua distribuição para o caso de um reservatório térmico. Já no capítulo
III, foi formuíado o conceito de entropia microscopicamente e analisada sua relação
com a 2° Lei da Termodinâmica. No capítulo IV, encontra-se disposta a aula proposta e,
por fim, foram realizadas as considerações finais.
Desta forma, na construção deste trabalho procurou-se da melhor forma
possível dar suporte bibliográfico ao docente por ocasião da confecção de suas aulas e
fazer com que os alunos adquirissem ao menos o mínimo, das competências e
habilidades a serem desenvolvidas em Física, particularmente, no que se refere ao
conceito de Entropia e sua relação com a Segunda Lei da Termodinâmica. Pois,
verifica-se que tais competências e habilidades (Representação e comunicação,
Investigação e compreensão e Contextualização sócio-cultural) mencionadas pelo
Parâmetros Curriculares Nacionais, na atuai conjuntura educacional, tornam-se
praticamente impossível de serem adquiridas pelos alunos.
Por fim, espera-se que ao término das duas aulas propostas, os alunos
consigam atingir as habilidades e competências, sugeridas pelo PCN, da seguinte forma:
Na área da representação e comunicação.
• Expressar-se corretamente utilizando a linguagem física adequada e
elementos de sua representação simbólica. Apresentar de forma clara e objetiva o
conhecimento aprendido, através de tal linguagem.
Na área da Investigação e compreensão:
• Desenvolver a capacidade de investigação física. Classificar, organizar,
sistematizar. Identificar regularidades. Observar, estimar ordens de grandeza,
compreender o conceito de medir, fazer hipótese, testar.
Na área da Contextualização sócio-cultural:
• Reconhecer a Física enquanto construção humana, aspectos de sua história e
relações com o contexto cultural, social, político e econômico.
CAPITULO I
RETROSPECTIVA HISTÓRICA DOS CONCEITOS RELACIONADOS A
FÍSICA TÉRMICA
1.1 - Panorama Histórico da Entropia Estatística
O conceito de entropia está associado à desordem molecular de um
sistema, que pode ser exemplificado no seguinte exemplo:
"Quando misturamos uma tinta com água, o
sistema inicialmente possui uma relativa ordem
(baixa entropia) e os fluídos estão separados e
podem ser distinguidos. O estado final depois de
ocorrer a mistura completa é mais desordenado
(entropia mais alta) porque as partículas da água
e as partículas da tinta são distribuídas ao acaso e
os dois fluidos não podem ser distinguidos. Fazer a
água se separar espontaneamente da tinta, um
processo com diminuição de entropia, nunca seria
possível"
(YOUNG & FREEDMAN, 2003, p.222)
Essa desordem molecular, como uma forma alternativa de apresentar o
conceito de entropia, segundo um caráter probabilistico da segunda lei da
termodinâmica, foi sugerido pelo físico e matemático escocês James Clerk Maxwell
(1831-1879) em uma carta que escreveu, em dezembro de 1867, para o físico inglês
Peter Guthrie Tait (1831-1901), na qual relatava a seguinte situação, conforme descrito
abaixo:
"O célebre físico escocês James Clerk Maxwell
(1831-1879) formulou, em 1871, um experimento
teórico que violaria a segunda lei da
termodinâmica, indicando o caráter estatístico do
conceito de entropia proposto por Clausius em
1864. Ele imaginou um ser microscópico
9
inteligente que teria a capacidade de, por meio de
uma portinhola entre dois recipientes contendo
gás, controlar a passagem das moléculas, só
deixando passar as moléculas rápidas num sentido
e só as moléculas lentas em sentido contrário. Com
isso, ele conseguiria, ao fim de certo tempo, ter de
um lado apenas moléculas rápidas fé portanto, gás
numa temperatura mais elevada) e, do outro lado,
apenas as moléculas lentas (e portanto gás numa
temperatura mais baixa). Esse ser hipotético,
conhecido como demônio de Maxwell, estaria, sem
dispêndio de energia, ordenando o sistema e,
conseqüentemente, diminuindo sua entropia, indo
de encontro a tendência natural para a desordem,
isto é, para o aumento de entropia^
(RAMALHO, NICOLAU, TOLEDO, 2003,
p. 170).
Outro enfoque dado ao raciocínio probabilístico para a compreensão da
entropia foi apresentado pelo físico e químico austríaco Johann Joseph Loschmidt
(1821-1895) ern 1876. Ele afirmava que se as velocidades da partícula de um gás
mudassem de sinal num dado instante t = T, elas percorreriam trajetórias inversas,
atingindo em t = 2r o mesmo estado em que se encontravam no instante inicial t = 0. Se
a entropia aumentasse no primeiro caso, a reversibilidade impiicaria uma evolução na
qual a entropia diminuiria. Tal afirmação ficou conhecida posteriormente como o
paradoxo da irreversibilidade (www.seara.ufc.br/folclore/folclore93.htm - José Maria
Bassalo - Curiosidades de Física).
Finalmente, a formalização da teoria das probabilidades na segunda lei da
termodinâmica foi realizada pelo físico austríaco Ludwig Edward Boltzmann (1844-
1906). Em 1866, Boltzmann idealizou um modelo mecânico no qual considerou que as
partículas de um gás se deslocavam em órbitas periódicas e, com isso, deduziu uma
3 Esse "demônio" foi "exorcizado" em 1951, quando o físico francês Leon Nicolas Brillouin (1889-1969)demonstrou que o decréscimo de entropia resultante das ações do "demônio de Maxwell" poderia sersuperado pelo aumento de entropia na escolha entre as velocidades lentas e rápidas das moléculas(www.seara.ufc.br/folclore /folclore 93. hnn - José Maria Bassalo - Curiosidades de Física).
10
expressão analítica para a entropia que dependia do período do deslocamento das
partícuks ern suas órbitas, e que aumentava com o tempo. No entanto, esse modelo foi
altamente criticado, inclusive por Clausius. Em seguida, ern 1868, Boltzmann idealizou
outro modelo mecânico para a entropia ao admitir que em um gás ideal, composto de
um grande número (N) de moléculas, as interações entre elas, ou seja, as colisões entre
as moléculas gerariam um estado de movimento desordenado entre elas, denominado
"caos molecular". Logo, para Boltzmann, a energia total (E) nas N moléculas seria
constante e poderia ser distribuída de diversas formas, nos denominados microestados
(wvyw.seara.ufc.br/folclore/foiciore93.htm - José Maria Bassalo - Curiosidades de
Física),
No entanto, Boltzmann com seu modelo mecânico não podia explicar o
"paradoxo da irreversibilidade" proposto por Loschmidt. Em conseqüência de tal fato,
Boltzmann propôs que todos os microestados, chamados por ele de complexions
(configurações), possuem a mesma probabilidade (P). E, denominou de macroesíado ao
estado no qual uma molécula específica tem energia sr. Com isso, Bolízmann concluiu
que a probabilidade Pr de um macroestado é proporcional ao número de microestados,
nos quais a energia remanescente E - sr é distribuída entre as N - l moléculas restantes,
ou seja, Pr oc exp (-sr / K. T )4, onde K é a energia cinética, ou seja, proporcional à uma
função decrescente da energia dos níveis. Com isso, Boltzmann considerou o número W
(inicial da palavra alemã WahrschemUchkeit, que significa probabilidade) como sendo o
número de configurações (microestados) distintas de um macroestado envolvendo suas
N (N = n0 + nj + n2 + na + ...) moléculas, onde no representa o número de moléculas com
energia (Os), nj representa o número de moléculas com energia (lê), n2 representa o
número de moléculas com energia (2e),... e nr com energia (re), onde e é uma constante
positiva e re < E e, pelo princípio da conservação do numero de partículas e da energia,
deveremos ter:r r
N = S n; Q E = £ i n, ei = O í - O
Para calcular W, Boltzmann utilizou o raciocínio combinatório, ou seja,
ele considerou que: W (n0, nL n2, n3,...) = N! / (no! ni! n2! n3!...) e, com isso, recorrendo a
4 Boltzmann, em 1876, generalizou a lei de distribuição de velocidades Maxwelliana ao considerar aenergia total (energia cinética mais energia potencial) e não a energia cinética, como admitido porMaxwell, no argumento da exponencial.
11
hipótese das probabilidades iguais, ele sugeriu que a probabilidade P (n0, ni, n2. n3,...) de
ocorrência de uma configuração pertencente ao conjunto definido peJos "números de
ocupação" (no , ni , na , ife , ...) é dado por: P = C W, onde C é uma constante.
Considerando que a entropia do sistema em questão é igual à soma das entropias de seus
componentes, e como as probabilidades das "complexions" (configurações) do mesmo
sistema devem ser multiplicadas, e lembrando que o logaritmo do produto de números é
igual à soma dos logaritmos dos fatores, podemos ter uma idéia de como Boltzmann
formulou sua expressão para designar o conceito de entropia:
S = k log W, onde k é uma constante.
Com isso, Boltzmann esclarecia o "paradoxo da irreversibilidade"
proposto por Loschmidt dizendo que a sua inaplicabilidade advinha do fato de o número
de moléculas, mesmo num pequeno volume de um gás, ser tão espantosamente grande
que uma inversão de todas as velocidades só poderia ocorrer com uma probabilidade
infinitamente pequena. Ern conseqüência, Boltzmann asseverou de maneira clara o
caráter probabiiístico da Segunda Lei, pois, segundo ele, a objeção de Loschmidt
tornava clara a íntima relação entre as probabilidades e a Segunda Lei.
Em seguida, com as contribuições de Maxwell, o qual propôs que, após
uma série de colisões entre as moléculas de um gás, a energia cinética destas tende a se
equalizar. Boltzmann admitiu que:
"Como resultado das colisões, muitas moléculas
adquirirão maiores velocidades, e outras obterão
menores velocidades, até que finalmente é
estabelecida uma distribuição de velocidades entre
as moléculas, tal que não seja alterada por novas
colisões."
(BOLTZMANN, apud. PEREIRA Jr., 1997, p.43)
Desta forma, Boltzmann acreditava que nos movimentos espontâneos de
energia, como por exemplo, a conversão de energia mecânica em calor, ou na
refrigeração de corpos aquecidos, as moléculas tendiam para uma distribuição aleatória
de suas energias. Essa distribuição desordenada era a mais provável, enquanto que
outras mais organizadas possuíam menor probabilidade de ocorrência. Com isso,
12
Boltzmann chega à conclusão que o crescimento espontâneo da entropia de um sistema
poderia estar reiacionado com o aumento da distribuição aleatória (desordenada) das
energias moleculares do mesmo sistema [Mason, 1964, p.406 (transcreve Covolan,
2004, p. 15)].
Finalmente, na concepção de Boltzmann, os estados de maior entropia são
os mais prováveis e como os estados mais prováveis são os de maior desordem, chega-
se a conclusão que os sistemas evoluem no sentido de uma maior desordem ao mesmo
tempo em que sua entropia aumenta [Gilbert, 1982, p.253 (transcreve Covolan, 2004,
p.15)].
13
CAPITULO II
REVISÃO DOS PRINCIPAIS TÓPICOS RELACIONADOS A
TERMODINÂMICA ESTATÍSTICA
1.1 - Grandezas e Variáveis extensivas e intensivas
Para uma melhor compreensão da relação entre as variáveis de estado na
termodinâmica estatística, procuramos dividi-las em variáveis extensivas e intensivas, já
que, para toda variável extensiva há uma intensiva correspondente.
Uma variável é denominada intensiva quando a sua medida permanece
inalterada, devido à mudança de valor do volume V ou do número de partículas N,
sendo mantidas as densidades e concentrações. Para fixarmos essa idéia, consideremos
um recipiente, de volume V, contendo N moléculas de um gás, à temperatura T. Se
diminuirmos o volume passando para V/2 e se conseguirmos variar N de forma a manter
a mesma concentração anterior, ou seja, retiramos metade das moléculas, a pressão e a
temperatura do gás ficam inalteradas.
Já a grandeza extensiva é proporcional ao volume V ou ao número de
partículas N, ern conseqüência, quando são divididas por essas variáveis, o resultado é
independente delas. Logo, podemos dizer que o volume e a energia são grandezas
extensivas, já que r> = V/N e e = E/N, num sistema em equilíbrio não depende de N.
Portanto, podemos dizer que valores específicos ou densidades de grandezas extensivas
nos fornecem uma caracterização dos sistemas macroscópicos.
1.2 - Limite Termodinâmico
Para definirmos de forma satisfatória as grandezas macroscópicas devemos
considerar o elevadíssimo número de partículas no sistema físico em questão. Ou seja,
devemos enunciar a seguinte condição: limite N —» oo. Logo, devemos considerar o
número de partículas N tão grande, tendendo ao infinito. Esse limite deve ser tomado
mantendo todas as densidades, ou valores específicos, constantes. Podemos
exemplificar essa situação da seguinte forma: dado um gás, ao tmporrnos a condição N
—» oo, o volume deve aumentar de forma a manter N/V, ou V/N, constante. A esse limite
denominamos limite termodinâmico.
14
1.3 - Descrição Estatística de um Sistema Físico: caso discreto
A descrição estatística de um sistema físico pode ser compreendida se
considerarmos o seguinte:
1°) As observações macroscópicas correspondem a médias de grandezas
microscópicas.
2°) Um sistema físico pode ser compreendido como um conjunto contendo
um número enorme de partículas, as quais possuem urna dinâmica microscópica
envolvendo variações muito rápidas. As observações macroscópicas desse sistema
físico, obtidas mediante medidas experimentais, nos revelam um comportamento médio
das variações microscópicas.
3°) A energia será a grandeza física extensiva que nos permitirá interligar
as descrições micro e macroscópica. Como visto no curso de Termodinâmica, a 1° Lei
da Termodinâmica nos diz que a energia total de um sistema físico se conserva, com
isso, a referida energia poderá ser calculada para qualquer configuração microscópica
do sistema físico, e assim, poderemos calcular a probabilidade de ocorrência de cada
configuração microscópica, relacionando com os valores medidos com os detalhes no
nível atômico.
Para entendermos de uma forma mais eficiente a descrição estatística e
probabilística de um sistema físico, vamos analisar a seguinte situação: Consideraremos
um sistema físico isolado constituído por um certo número de moléculas, na qual cada
molécula pode ocupar estados energéticos crescentes, de acordo com sua posição,
variando entre e=l ou e=0, conforme demonstrado abaixo:
Figura l
A Energia Total E do sistema será igual a soma das energias ( O ou 1) de
cada molécula, de acordo com sua posição, ou seja, o nível energético na qual se
encontra (O ou 1). Ou seja:
n = no + ni, sendo n o n° total de moléculas, nf) o n° de moléculas no nível
energético e=zero e ni o n° de moléculas no nível energético e=2.
E = no . O + HI . l = ni, logo, para este sistema em particular, a energia total
será numericamente igual ao n° de moléculas que ocupam o nível energético e=l.
15
Primeiramente, vamos analisar as diversas possibilidades de estados
energéticos que quatro moléculas (representadas pela bolinha vermelha) podem ocupar:
E = 4
g = l
E = 3
v~~ i
c—-;
g =
C'~ i
c—v
C i
c—v?
C™ i
c-
0=
16
'*, e* I
c—1, l
=
^'"•SET
V.-™1"" l
••t ̂ 7 ;
6=0
Figu rã 2
C *
e=0 0='.' J
Para o caso das 4 moléculas descrito acima, podemos observar alguns
possíveis microestados para um sistema com E = 4 e g = l , E = 3eg = 4, E = 2eg = 6,
E = l e g = 4, por fim, E = O e g = l. Para um determinado valor de energia (observação
macroscópica), podemos ter vários microestados diferentes. Se o sistema está restrito a
uma energia interna total igual a quatro ou zero, somente um único estado será acessível
ao sistema, então nestes dois casos g - l, correspondendo a maior ordem possível do
sistema.
Chamamos de multiplicidade ao número de microestados pertencendo a
um determinado macroestado, ou seja, ao número de configurações microscópicas que
são idênticas do ponto de vista macroscópico. Esse número, geralmente, dependerá do
número total de partículas (n) no sistema em questão e do valor da energia (E)
escolhido, sendo representado pela função g(E,n). Portanto, neste caso, podemos
calcular a multiplicidade mediante a descoberta do número de escolhas do valor da
energia E, num total de n moléculas, através da combinação C^E :
_E! (n-E)!
17
Agora, vamos considerar p e q como sendo as probabilidades de cada
molécula estar com energia e = O e e = í, respectivamente, sendo p + q = l. Como os
valores de energia, e = O e e = l, são independentes um do outro, a probabilidade de
ocorrência de um determinado microestado com energia E é pE.q""E. Essa probabilidade
é a mesma para qualquer um dos g(E,n) microestados. Com isso, temos que a
probabilidade de um sistema com determinado valor de energia E e um número n de
moléculas é
Pn(E) = _ _nj __ pE q"-E = g(E,n).pE.cf-E
E! (n -E)!
Utilizando os conhecimentos de distribuições de probabilidades para
descrever sistemas físicos, as principais grandezas envolvidas são o valor esperado
(valor médio) e a variância (ô).
O valor esperado é, justamente, o valor que se espera obter como resultado
de uma experiência, quando a mesma for repetida um número infinito de vezes. Esse
valor esperado pode ser expressado da seguinte forma p. f r, onde, fazendo uma analogia
com um lançamento de moeda, p é a probabilidade de se obter cara depois de n
lançamentos.
Já a variância é a grandeza matemática que nos permite quantificar a
dispersão dos valores obtidos em uma experiência, em relação ao valor esperado, ou
seja, a variância é calculada considerando-se o quanto diferem do valor esperado são os
valores individuais de uma determinada medição de dados, podendo ser expressada da
seguinte forma (n.p.q)1'2, onde, como já foi mencionado, n é o número de repetições de
uma determinada experiência, p e q são as probabilidades de ocorrência de um
determinado evento.
No entanto, para nossa interpretação probabilística de sistemas físicos,
vamos nos ater ao valor relativo da dispersão (desvio relativo da distribuição binomial):
n n (n)1/2
Logo, podemos afirmar que ô/n diminui com (n)1/2, quando n aumenta. Ou
seja, quanto maior o valor de n, menor será a flutuação relativa, dificilmente iremos
obter um valor diferente do esperado como resultado de uma medida. Com isso,
chegamos a uma conclusão importantíssima, o valor esperado fica melhor definido
quanto maior for o valor de n, ou seja, esta é a função do limite termodinâmico, fazer
18
com que grandezas macroscópicas provenientes de médias sobre grandezas
microscópicas sejam bem definidas.
1.4 - Descrição Estatística de um Sistema Físico: caso contínuo
Toda a análise feita até agora foi uma particuíarização dos sistemas físicos
aleatórios, já que quando consideramos n — » oo, podemos utilizar distribuições continuas
para descrever tais sistemas. Dentro desse contexto, devemos destacar a grandeza
denominada densidade de probabilidade, a qual representa a probabilidade de
encontrarmos o resultado de uma determinada experiência em um determinado intervalo
inrlnítesirnaí:
f(x) = dP(x) ,dx
ou seja, a função f(x) define a distribuição da variável aleatória x, dá a densidade de
probabilidade da mesma por unidade de x.
Podemos obter uma distribuição contínua a partir de urna distribuição
discreta tomando o limite n — » GO, na distribuição binômia! por exemplo, dessa forma
chegaremos ao conhecimento de outra importante função, denominada distribuição
gaussiana:
P(E) = ̂ JL_exp[-(E - <E>)/(2 5)]ÔV2ÍT
ou
Pn(E) =_J__exp[-(E - p.n)2/(2 npq)]
A distribuição gaussiana possui a importante característica na qual quando
nos afastamos de seu valor máximo ela cai decresce com uma velocidade que depende
do valor de ô. Ou seja, ela descreve sistemas para os quais a probabilidade de se
encontrar valores muito maiores ou menores que a média é muito pequena. Logo, esses
sistemas podem ser caracterizados pelo valor médio ou esperado de alguma grandeza.
1.5 — Descrição Estatística do Equilíbrio Térmico
Para uma compreensão satisfatória da descrição estatística do equilíbrio
térmico vamos imaginar dois sistemas Si e S2 em equilíbrio individualmente, isolados
19
um do outro e do meio externo mediante a utilização de uma parede adiabática e
impermeável (não permite a passagem de partículas). Cada sistema encontra-se num
determinado macroestado, com sua respectiva multiplicidade, relativos aos estados
energéticos iniciais EI e E2, conforme esquematizado abaixo:
SI
TPm e de
Figura 3
Agora, imaginemos que o isolamento térmico entre os sistemas seja
totalmente removido, conseqüentemente, eles começam a trocar calor, ou seja, energia,
até alcançarem um novo estado de equilíbrio. Em razão desta "troca energética", cada
sistema estará em outro macroestado, e certamente, com outra multiplicidade, relativos
aos estados energéticos finais E'i e £'2, conforme esquematizado abaixo:
si
El
r:-*
+ dEl
E '2
Parede coudntoia
Figura 4
20
Antes de analisarmos o exemplo acima, faremos as seguintes
considerações:
1°) A energia total do sistema é constante, devido ao isolamento térmico e a temperatura
de equilíbrio é determinada supondo-se que os sistemas trocam caior dependendo de
suas temperaturas iniciais, suas massas e o tipo de materiais que os constituem;
2°) No equilíbrio térmico os sistemas atingem a mesma temperatura;
3°) A conservação de energia nos autoriza escrever o estado final em termos de energia
total e considerando g(E,n) a multiplicidade do sistema composto S = (Si +82), após as
trocas energéticas. Temos:
g(E,n) = S gi(E'i, n j ) . gz(E'2, na),
onde, gi(E'i, m) e g2(E'2, na) são as multiplicidades dos sistemas Si e 82,
respectivamente.
Se considerarmos somente a conservação de energia, outras configurações
finais seriam possíveis, como por exemplo, o sistema mais frio cedendo calor para o
sistema mais quente, discordando com as observações do nosso cotidiano. Portanto,
vamos determinar todos os valores finais de energia de cada sistema, para todos os
estados finais que satisfazem a conservação de energia, dentro de uma descrição
microscópica probabiíística.
Já que o sistema S, formado pela união de Si e 82, está isolado, pela
conservação de energia devemos ter uma energia total E = E i + E 2 = E ' i+E '2 . Agora,
vamos quantificar o exemplo, segundo os dados da tabela abaixo:
SISTEMA 1
ni
6
Ei
4
SISTEMA 2
n2
4
E2
2
Para o sistema combinado S, n = m + n2 = 10 e E = EI + £2 = 6. Vamos
calcular a multiplicidade de S, conforme feito no item (1.3) deste capítulo:
g(6,10) = 210 microestados possíveis para essa configuração energética
(macroestado).
21
Considerando a conservação de energia, podemos perceber que são
aceitáveis quaisquer valores de E'i e E'2 que satisfaçam tal conservação, incluindo a
possibilidade do sistema com menor energia ter sua energia reduzida e o de maior
energia ter sua energia aumentada da mesma quantidade. No entanto, esta situação só
não ocorre, simplesmente porque ela é extremamente improvável do ponto de vista
probabilístico, como veremos ao final da análise do nosso exemplo.
Agora identificaremos a situação de Sj e 83, em cada um dos 210
microestados. Pela definição de E, visto no item (1.3), EI pode assumir os valores 6, 5,
4, 3, 2, l e 0. E os valores de £2 são 4, 3, 2, l e 0. Voltando à conservação de energia, E
= EI + E2 = E'i + E'2 — 6, os valores de E'i e E 2 que são compatíveis corn tal
conservação são mostrados na tabela abaixo:
CONFIGURAÇÃO
1
2
3
4
5
E'i
6
5
4
3
2
B'a0
1
2
3
4
Vamos calcular as multiplicidades de cada sistema individualmente, para
cada energia E' acima, teremos:
- Sistema Si :
gi(6,6) = l ; gi(5,6) = 6 ; g,(4,6) = 15 ; g,(3,6) = 20 e gl(2,6) = 15.
- Sistema 83 :
g2(0,4) = l ; g2(l,4) = 4 ; g2{2,4) = 6 ; g2(3,4) = 4 e g2(4,4) = I.
Podemos agora escrever a multiplicidade g(E,n) do sistema combinado, da
seguinte forma:
g(6,10) = gl(6,6). g2(0,4) + g,(5,6). g2(l,4) + gi(4,6). g2(2,4) + gl(2,6).
g2(4,4) = 1+ 24 + 90 + 80 + 15 = 210
Percebemos que a configuração final correspondente a E ' i = 4 e E ' 2 = 2
possui a maior multiplicidade e Conseqüentemente após as trocas energéticas, poderá
22
ocorrer com maior probabilidade. Neste caso específico que analisamos, as outras
configurações também poderiam ocorrer, especialmente a configuração 4, isso ocorre
porque nt e na são números pequenos, resultando em variâncias grandes. No entanto,
com visto nos itens (1.2, L3 e 1.4) deste capítulo, quanto maior for o valor n, mais
concentrada no valor máximo será a distribuição, levando a probabilidades
reduzidíssimas de se encontrar resultados diferentes do valor esperado. Com isso, se
tivéssemos valores suficientemente grandes para nj e ns, haveria uma determinada
configuração final com multiplicidade muito maior que as outras. Portanto, cada vez
que efetuássemos uma medição (observação macroscópica) do sistema combinado S,
observaríamos esta mesma configuração finai, nos levando a concluir que essa é a
configuração de equilíbrio.
Vamos generalizar a análise feita até agora, considerando que num sistema
qualquer, o equilíbrio pode ser encontrado pela determinação do maior termo do
somatório:
g(E,n) = 2 gi<E'i, n;) . g2(E'2, n2) — d(gi. g2) = g2
Como a energia se conserva, temos dE = dEi + dE2 = O — » dEi = - dE2.
Logo:
d(gi. §2) - (g2 (H)- gl(||)) dEi - 0. Podemos escrever esta
relação da seguinte forma:
«w*) -«'*>.(A conexão entre a descrição estatística, microscópica, e a termodinâmica
macroscópica, foi proposta por Boltzmann. mediante a seguinte definição estatística da
entropia;
S - k In.g, sendo k a constante de Boltzmann. Com isso, a condição de
equilíbrio pode ser escrita comodsi _ds2dEi 9E2
No equilíbrio térmico, as temperaturas dos sistemas alcançam a mesma
temperatura, logo, temos TI = T2, e assim:, , 351 , ÕS2
(l/ Ti) = - e 0/T2)=~
23
Logo, definimos a entropia estatística em função da multiplicidade do
macroestado e formulamos o equilíbrio térmico do sistema combinado em termos da
temperatura, ou seja, a configuração de troca de energia mais provável para o sistema
combinado é aquela que leva a uma uniformização da temperatura em todas as partes
que o compõem.
1.6 - A Hipótese Fundamental de Boitzniann
Vamos considerar um sistema qualquer com n partículas em equilíbrio
térmico, isolado do meio externo, no macroestado de energia E. Esse macroestado
possui multiplicidade g(E,n), Denominamos de estados acessíveis a qualquer um dos
g(E,n) microestados compatíveis com o número de partículas e a energia que devem
permanecer constantes. Boltzmann idealizou uma situação em que sempre haveria uma
interação residual entre as partículas do sistema, responsável por fazer com que este
fique constantemente passando de um microestado a outro. No sistema idealizado no
item (1.3) deste capítulo, teríamos a molécula alternando entre e = O e e = l. Com isso,t
podemos considerar o equilíbrio térmico correspondendo a ter o sistema visitando todos
os seus estados acessíveis. A hipótese fundamental de Boltzmann nos revela que, no
equilíbrio, o tempo dedicado a cada microestado acessível é o mesmo, portanto,
podemos dizer que todos os microestados acessíveis são igualmente prováveis, ou que
as probabilidades para os microestados obedecem a uma distribuição uniforme definida
da seguinte forma:
PE(J) = l/g(E,n), onde / é o índice de um microestado do macroestado de
energia E e multiplicidade g(E,n). Para o caso estudado no item (1.5) teríamos PE(J) =
1/210.
Portanto, numa visão temporal, na qual o sistema está constantemente
visitando todos os microestados compatíveis de acordo com os valores de E e n
impostos, a hipótese de Boltzmann significa que o sistema passa a mesma quantidade de
tempo em cada um dos microestados acessíveis.
1.7 - A Distribuição de Boltzmann - Reservatório Térmico
Dado um sistema S em contato com um reservatório térmico R. A fronteira
de S permite que ocorra troca de energia com o reservatório, e o sistema combinado
24
S+R se encontra isolado do meio externo, sendo a energia total E, constante. Tal
situação está iíustrada abaixo.
R
E-e_«,,,,™,™ _ s.,,
Figura 5
Se o sistema se encontra num microestado j de energia e, o reservatório
estará no macroestado de energia E- e Q multiplicidade g^(E ~- e). O microestadoy pode
ocorrer estando o reservatório R em qualquer um de seus microestados de energia E e.
A hipótese fundamental de Boltzmann diz que no estado de equilíbrio o sistema passa
por iodos os seus estados acessíveis, permanecendo o mesmo tempo em cada um destes
estados, logo, o tempo que o sistema permanecerá no microestado y será proporcional a
multiplicidade gn do macroestado de energia E - e, ou seja, a probabilidade P j será
proporcional a g%. Sej é um microestado do macroestado de energia e, temos
Pj(e) = c . gü(E - e), onde c é uma constante de proporcionalidade.
No limite termodinâmico, estaremos trabalhando com valores de P} que
mudam rapidamente de acordo com o valor de e escolhido. Portanto, vamos trabalhar
com InPj = Inc + Ing» e considerando o fato do reservatório R ser muito maior que
sistema S, temos E »e. Desta forma podemos expandir InPj em série, obtendo o
seguinte resultado:
j = Inc + IngR(E) - e.dlngR
ÔE
Considerando até o termo linear da série da expansão em série e
identificando SR = k.lngR como a entropia do reservatório, temos
25
,- e
Pj(e) = C.e( ia-}, onde T é a temperatura de equilíbrio do sistema
combinado e C uma constante. Portanto, a probabilidade de se encontrar um
macroestado a uma energia particular e é proporcional a e(~fcr\ que é denominada
distribuição de Boltzmann.
Agora obtendo a constante de proporcionalidade C por normalização, já
que £/P/0) - 1. Temos:
C = l/S/exp(-—)."J v v fcT'
Definimos: Z = £y exp (— -r), onde Z é denominada função de partição.
Esta soma é sobre todos os microestados dos sistemas, portanto teremos vários termos
iguais (g(e) termos que pertencem ao mesmo macroestado). Dessa forma, podemos
juntar tais termos e reescrever a função de partição Z em termos de uma soma sobre os
macroestados, como:
Z = £eg(e).exp(-~).
A probabilidade Pj(e) pode ser definida da seguinte forma:
Pj(e) = exp (——) / Z, onde as probabilidades definidas desta forma são denominadas
de distribuição de Boltzrnann e o fator exp ( — — j, denominamos fator de Boltzmann.\ fíTJ
A multiplicidade g(e) é sempre uma função crescente da energia, e o fator
de Boltzmann exp (— — } decresce com o aumento de energia, o produto dessas funçõesV Kl /
acaba gerando uma função que apresenta um pico, ou seja, um termo máximo, ou
dominante, principalmente quando impomos o limite termodinâmico n—*•<». Vamos
considerar que nesse limite a soma em Z possa ser substituída pelo maior termo apenas.
Usando a definição de entropia em função da multiplicidade, podemos escrever g(E) =
exp(S/k) e
Z = EE exp [-p(f - TS)], onde j3 = 1/kT.
Para um dado valor de temperatura, o maior termo do somatório (termo
dominante, para n—*oo) corresponde ao que tem o menor valor E - TS. Considerando
que quando n-^-oo este é o único termo importante, temos:
Z = exp[-p min(E - TS)]
26
Com isso, podemos admitir que E—* <E> = Ejnt. Isso é possível devido ao
fato de ô/n —+ O no limite termodinâmico. Em conseqüência, conciuírnos que no limite
termodinâmico, a configuração de troca de energia mais provável, correspondente ao
termo dominante da função de partição, é aquela que minimiza a quantidade (Eú,t - TS).
Percebemos que quando a temperatura T é constante, a quantidade (Emt - TS) é
diminuída se Ejnt diminui, ou se a entropia S aumenta. De uma forma geral, podemos
dizer que quando T for baixa, o termo TS é pouco importante, e o critério de diminuição
de energia será predominante, por exemplo, quando T - O, apenas a minimização de
energia define o equilíbrio. No entanto, se a temperatura for alta o suficiente, a
maximização da entropia será predominante.
27
CAPÍTULO III
ENTROPIA
1.1 - Conceituando Entropia
A entropia é um conceito pouco divulgado e mal compreendido que está
tão presente em nosso cotidiano quanto a energia. No entanto, de uma forma contrária
da energia, a entropia não se conserva e, ainda, impõem condições e regras de
funcionamento para os diversos fenômenos naturais. Fato o qual está intimamente
ligado a segunda lei da termodinâmica.
Analisando alguns processos espontâneos ocorridos em nosso cotidiano,
tais como. a expansão de um gás, o aumento da temperatura de um corpo colocado em
contato com outro de temperatura maior, deslizamento de um corpo sobre uma
superfície com atrito, etc, verificamos que todos eles possuem em comum o fato de
ocorrerem em um sentido, mas não ocorrerem, espontaneamente (de modo natural, sem
ser induzido) no sentido oposto, ou seja, invertendo a seqüência temporal.
Diante de tais fatos podemos realizar a seguinte pergunta: Por que nunca
conseguimos observar tais fenômenos ocorrerem espontaneamente de forma inversa?
O processo no sentido contrário de alguns fenômenos implicaria em uma
ordenação no movimento aleatório das moléculas, o que significaria a conversão da
energia interna em trabalho. Visualizando o exemplo de um corpo que desliza sobre
uma superfície com atrito, a energia usada para aumentar a temperatura da superfície de
contato no deslizamento do corpo seria recuperada de tal forma que à medida que a
superfície alcança sua temperatura inicial, o corpo deveria se mover no sentido
contrário, se direcionando para sua posição original. No entanto, isto não acontece em
nosso cotidiano.
Podemos mencionar, também, que o caráter aproximadamente ordenado
das formas inertes e vivas assumidas pela matéria dependem tanto do nível de agitação
térmica dos átomos e/ou moléculas constituintes, como de sua complexidade estrutural e
funcional.
No século XIX, o físico austriaco Ludwig Boltzmann explicou a diferença
entre microestado e macroestado de um objeto. Como exemplo, podemos descrever uma
xícara de café referindo-se ao seu macroestado - temperatura, pressão e outros aspectos
estruturais. Já, o microestado especifica a posição precisa e a velocidade de cada átomo
28
do líquido, isoladamente. A um dado macroestado qualquer correspondem vários
microestados diferentes, ou seja, podemos alterar um átomo aqui, outro acolá, e
ninguém que estiver observando escalas macroscópicas irá perceber. Portanto, a
entropia é uma grandeza que exprime exatamente o numero5 de microestados
correspondentes a um determinado estado de um sistema material, ou seja, seu
macroestado.
Relembrando o exemplo do deslizamento de um corpo sobre uma
superfície com atrito, verificamos neste caso, que a energia cinética do corpo é
convertida em energia térmica, calor. Logo, percebemos que o movimento inicialmente
ordenado das partículas do corpo vai aos poucos sendo transformado num movimento
caótico, desordenado de suas moléculas constituintes. Essa transição do ordenado para o
desordenado caracteriza todos os processos irreversíveis, e relaciona-se intimamente
com o conceito de entropia. Devido a isto, a entropia mensura a desordem e a
desorganização da matéria durante os processos.
Assim, o valor da entropia é tanto mais baixo quanto menor for a agitação
térmica da matéria e quanto mais ordenada e complexa for a configuração por ela
assumida. Enquanto, que a entropia é tanto maior quanto maior for a agitação térmica da
matéria e quanto rnais elementares sejam os modos pelos quais se estruturam as
moléculas, os átomos e os núcleos atômicos. Por exemplo, a entropia de um sólido,
líquido ou gás cresce com o aumento da temperatura e ainda mais rapidamente quando a
substância se funde ou se vaporiza, já que quando um sistema recebe calor, aumenta a
agitação de suas partes constituintes e conseqüentemente aumenta sua desordem
microscópica.
Em conseqüência, existem mais formas de dispor um dado número de
átomos em uma configuração de alta entropia que em uma configuração de baixa
entropia. Para facilitar nossa compreensão, imaginemos que misturemos leite com café.
Existem inúmeras formas de fazer as moléculas de café e do leite se misturarem
completamente, mas relativamente poucas formas de manter o leite completamente
separado do café. Por isso, a mistura terá alta entropia.
Desse ponto de vista podemos compreender que a entropia tende a
aumentar com o tempo. Os estados de alta entropia são muito mais comuns que os
estados de baixa entropia; praticamente qualquer mudança num sistema o levará a um
5 Tecnicamente, é o numero de dígitos, ou logaritmo de um número.
29
estado de entropia mais alta, por uma simples fatalidade do destino. É por isso que o
leite se mistura ao café, mas nunca voltam a ser ieite e café separadamente. Embora seja
fisicamente possível que todas as moléculas de leite espontaneamente conspirem para se
reorganizar de modo a ficarem iodas juntas, estatisticamente isso é muito pouco
provável. Com isso podemos afirmar que a essência da irreversibilidade é uma
tendência natural à desordem.
Poderíamos concluir então, que a diminuição da entropia não é proibida
(reorganização das moléculas), mas somente pouco provável. Com apenas poucas
moléculas de café e leite, em um recipiente, poderia ocorrer à separação em alguns
momentos, mas como o número de moléculas é muito grande, a chance de ocorrer uma
separação é nula na pratica, podendo ser considerada impossível.
Finalizando, podemos deduzir a seguinte conclusão geral:
"Para qualquer sistema, o estado macroscópico
mais provável é aquele que corresponde ao maior
número de estados microscópicos que também
correspondem ao estado macroscópico com maior
desordem e a maior entropia"
(YOUNG & FREEDMAN, Termodinâmica e
Ondas, 2003).
1.1.1 - Formulando a entropia microscopicamente
Primeiramente, vamos analisar um processo irreversível parecido com a
expansão livre de um gás, onde o mesmo encontra-se dentro de um recipiente fechado
divididos em duas partes iguais por uma partição. Agora consideraremos quatro estágios
desse processo. No 1° estágio temos t < O, onde se fez vácuo do lado direito da partição
e há uma quantidade de gás em equilíbrio térmico do lado esquerdo. No 2° estágio
temos t-O, onde a partição é retirada. No 3° estágio temos um instante posterior t = ti >
O, onde o gás começa a se difundir para o lado direito do recipiente. E no 4° e último
estágio, para tempos maiores t » ti, o gás difundido por todo o recipiente atinge um
novo estado de equilíbrio térmico.
30
Figura 6 - Remoção de partição
Neste processo de difusão do gás as moléculas sofrem um grande número
de coHsões umas cont as outras, descrevendo um movimento caótico, o que acaba
levando a uma certa distribuição das posições e velocidades das moléculas na situação
do 4° estágio. Podemos afirmar baseado nas leis da mecânica, que cada colisão ocorrida
entre as moléculas durante a difusão pode ser revertida, de forma que o processo
inverso, ou seja, passagem do 4° estágio para o 2° estágio é perfeitamente viável.
Entretanto, para tal, torna-se necessário inverter as velocidades e as posições de um
número gigantesco de moléculas (~1027, em situações macroscópicas típicas), ou seja, a
partir de uma situação inicial em que as posições e velocidades de tais moléculas têm de
serem exatamente aquelas que produzem o movimento inverso. Embora possível
teoricamente, esta é uma situação extremamente improvável, pois, uma distribuição de
posições e velocidades iniciais de ~1027 moléculas que as leva todas a se concentrarem
numa metade do recipiente é tão rara, frente ao número inimaginavelmente maior de
31
outras configurações iniciais que não levam a esse efeito, que sua probabilidade de
ocorrência é nula para todos os fins práticos.
Para exemplificar de forma mais quantitativa a pouquíssima probabilidade
de as moléculas ocuparem somente a metade direita ou esquerda do recipiente, vamos
analisar as configurações possíveis de um "gás fictício de 2 moléculas", conforme
demonstrado na figura abaixo.
(A) ãfy\*~~" . 1
i(B! ; (í)
(0 j cr
(D)
Conficr.i -~~ ração
IA;
(B)
'? (Q1
q> (D!
Totais
Müiécuk-1
El."£_
D
D
Moléculag
E
D
E
1 5
A = 2.
";.
2
•í
í
2g0
-
i
2
X; 'de jProbabí-estados : lidadi-
1/4
1/4
Figura 7 - Simulação de configurações de um gás com 2 moléculas
Podemos observar na figura acima a formação de 4 configurações
possíveis (A, B, C e D) do gás fictício com relação à ocupação do lado esquerdo (E) ou
direito (D) do recipiente pelas moléculas l e 2. As colunas ng e n» representam o
número total de moléculas à esquerda e a direita respectivamente de cada configuração,
não importando quais sejam as moléculas de cada lado. A penúltima coluna (N° de
estados) representa o número de estados com estes valores de (HE e no). O número total
desta coluna é 4 = 22 = 2N, que é o mesmo número de configurações.
Devemos considerar que cada configuração (A, B, C ou D) seja
igualmente provável. Logo, a probabilidade de cada uma é !4, Podemos dizer que a
probabilidade de que a molécula I esteja de um determinado lado é igual a 1/2 e o
mesmo vale para a molécula 2. Como essas probabilidades são independentes (a
presença da molécula l de um lado não afeta a presença da molécula 2), a probabilidade
de que ambos os eventos se realizem, qualquer que seja a configuração, é Ys x ¥2 = 14
Finalmente, a ultima coluna da tabela (Probabilidade) representa a
probabilidade associada à configuração (HE e no), sendo máxima (= Yz) para UE - no.
32
Generalizando, para um sistema de N moléculas, temos que o número de
configurações das moléculas = 2N e a probabilidade de cada configuração é (Í/2)N. O
número de estados com dados (nE e nD) = f ^ ) = ( ) onde"VnE' VnD/
A equação acima representa o número de combinações de N elementos n a
A probabilidade P(nE e no) de encontrar n£ moléculas à esquerda e no à
direita é:
Suponhamos, agora, a existência de um gás com 100 moléculas (N=100).
A figura abaixo mostra a distribuição de probabiiidade como função de ng/N, para
N=100 e N=2. Esta distribuição é denominada distribuição binomial de Jaques
Bernoulli.
P(nf f N',00
075
050
la ruura>>. iv" '
w
,V
V
0,25 o'.v
Figura 8 - Distribuição de probabilidade
Analisando a figura, podemos constatar que à medida que o número de
moléculas cresce, o pico em torno de HE = HD torna-se mais estreito.
33
A caracterização do estado de um gás pela sua densidade em diferentes
regiões macroscópicas define um macroestado do gás. No caso acima, os macroestados
são caracterizados pelos pares (nE , nD). A cada macroestado está associado vários
microestados diferentes: na tabela da figura 7, um microestado é especificado
informando quais das moléculas, de l a N, estão do lado esquerdo (E) e quais estão do
lado direito (D). Portanto, a cada macroestado corresponde a um grande número de
microestados diferentes, geralmente para N grandes. Agora, como cada microestado é
igualmente provável (mesma probabilidade), o macroestado mais provável de um
sistema é aquele que pode ser realizado pelo maior número possível de microestados
diferentes. Ou seja, para N muito grande, a distribuição de probabilidade terá um
máximo extremamente concentrado em torno do macroestado mais provável.
Para o exemplo de processo irreversível discutido acima, esquematizado
na figura 6, verificamos que os processos físicos devem ocorrer no sentido em que a
probabilidade associada ao macroestado do sistema aumenta, tendendo ao equilíbrio
termodinâmico6 (conforme verificado nos itens (1.2), (1.4) e (1.5) do capitulo II) que
deve corresponder ao macroestado de máxima probabilidade. Podemos complementar
nossa "linha de raciocínio", dizendo que o estado com todas as moléculas na metade
esquerda ou direita é altamente ordenado, que só corresponde a l "microesíado", ao
passo que o estado com distribuição uniforme das moléculas corresponde ao máximo de
desordem, no sentido de ter o maior número possível de realizações microscópicas
distintas.
Com base nas análises feitas podemos estabelecer uma conexão entre a
evolução do macroestado de um sistema no sentido da probabilidade crescente e o
princípio de aumento de entropia, que nos leva a concluir que a entropia deve ser uma
medida da probabilidade termodinâmica, ou seja, mede a desordem de um sistema
moiecuJar, pode ser interpretada como uma média probabiíística.
Associando um peso estatístico W a um macroestado, definido como o
número de microestados compatíveis com esse macroestado, ou seja, proporcional à sua
probabilidade termodinâmica, a entropia S deve ser uma função crescente de W. E
considerando que a entropia é uma grandeza aditiva, ou seja, juntando dois volumes de
gás à mesma temperatura até alcançarem o equilíbrio termodinâmico, a entropia de
sistema resultante, S, será a soma das entropias dos dois sistemas. No entanto, se
6 O estado de equilíbrio termodinâmico representa a desordem máxima: a distribuição de Maxwellcorresponde ao "caos molecular" (Moysés, 2004).
34
tratando de dois sistemas independentes, a probabiiidade P de um macroestado de um
sistema resultante é o produto das probabilidades dos macroestados das componentes,
ou seja,
P = PjP2 -» S = S, + S2
O logaritmo é uma função que possui a propriedade de levar produtos em
somas. Com isso, chegamos ao resultado obtido por Ludwig Boltzmann.
S = k In W, onde k é uma constante e W é o peso estatístico do macroestado de
entropia S, ou seja, o número total de microestados compatíveis com esse macroestado.
Agora, para concluir, vamos considerar que em um sistema fechado
existem inúmeras possibilidades de movimentos moleculares que correspondem
exatamente ao mesmo valor de energia interna. Por exemplo, em um gás poderíamos
imaginar que todas as moléculas se deslocassem em uma mesma direção com uma
velocidade v, a contribuição do movimento cinético à energia interna deste sistema seria
Ec = NÍ-mi?2 j, se as moléculas se deslocassem todas exatamente na direção oposta - v,
a contribuição seria a mesma. Obviamente, que estas duas situações são extremamente
improváveis, já que existiriam milhares de outras situações que resultariam
numericamente na mesma contribuição Ec. Isto significa que existem inúmeras
possibilidades ao nível molecular (estados microscópicos) que correspondem a um
único estado macroscópico termodinâmico, caracterizado por sua energia interna.
Devido aos inúmeros e incessantes choques moleculares, na realidade, o
sistema não se mantém em um único estado microscópico, mudando continuamente em
pequenos intervalos de tempo de um estado a outro. Entretanto, as medidas
macroscópicas que permitem determinar as variáveis termodinâmicas são realizadas em
tempos extremamente longos, quando comparados aos intervalos de tempo dos choques
moleculares, e são, na realidade, médias tomadas sobre todas as possibilidades de
movimentos moleculares. Nesse sentido, a entropia pode ser definida como a soma das
possibilidades de realização dos estados microscópicos compatíveis com o estado
termodinâmico do sistema. Quanto rnenor o número de possibilidades maior será a
ordem do sistema, maiores possibilidades levam a uma maior desordem.
35
1.2 - Entropia e a Segunda Lei da Termodinâmica
Os exemplos de processos irreversíveis, tais como, o fluxo de calor de uma
temperatura mais elevada até uma temperatura mais baixa, a conversão de energia
mecânica em calor, ou a refrigeração de corpos aquecidos são características de
processos ditos naturais, ou seja, movimentos espontâneos de energia. Em tais processos
as moléculas constituintes do sistema envolvido tendem para uma distribuição aleatória
de suas energias. Essa distribuição desordenada é a mais provável, enquanto que outras
mais organizadas possuíam menor probabilidade de ocorrência. Logo, o crescimento
espontâneo da entropia de um sistema poderia estar relacionado com o aumento da
distribuição aleatória das energias moleculares do mesmo sistema. Em conseqüência, o
aumento de entropia em todo o processo irreversível natural mede o aumento da
desordem e do caos no sistema em questão. Um exemplo prático que exemplifica tal
situação é o caso da mistura de água quente com água fria. Poderíamos utilizar a água
quente e a água fria como os reservatórios quente e frio de uma máquina térmica7.
Enquanto, retiramos calor da água quente e fornecemos caíor para a água fria, podemos
obter uma certa quantidade de trabalho. No entanto, depois que ocorre a mistura da água
e ocorre o equilíbrio térmico, a condição de obtenção de trabalho se perde, pois a água
quente não pode ser mais separada da água fria. Devemos deixar claro que não existe
nenhuma diminuição de energia quando a água quente se mistura com a água fria, mas
sim a perda da disponibilidade, ou seja, a oportunidade de converter parte do caíor da
água quente em trabalho mecânico. Portanto, quando ocorre o aumento de entropia, a
energia para a produção de trabalho toma-se menos disponível e o sistema toma-se mais
caótico ou aleatório.
Quando incluímos todas as variações de entropia no interior do sistema, as
variações positivas são sempre maiores do que as variações negativas. Particularmente,
para o caso de um processo reversível, os aumentos e diminuições de entropia são
exatamente iguais. Portanto, podemos enunciar:
"Quando todas as variações de entropia que
ocorrem em um processo são somadas, a entropia
1 As máquinas são dispositivos nos quais geralmente ocorrem transformações de energia para o beneficiodo homem. Nas chamadas máquinas térmicas ocorrem necessariamente transformações de calor emoutras formas de energia, ou seja, elas possuem a capacidade de converter calor em trabalho (MOYSES,Adir. Termodinâmica, 2005).
36
ou cresce ou permanece constante. Em outras
palavras, não existe nenhum processo com
diminuição de entropia quando todas as possíveis
variações de entropia são incluídas."
(YOUNG & FREEDMAN, Termodinâmica e
Ondas, 2003).
Portanto, vimos que a entropia de um sistema cresce quando este recebe
calor de sua vizinhança, e a relação com a segunda lei da termodinâmica, na escala
microscópica, naquela época, foi feita por Boltzmann nos seguintes termos:
"A relação entre a Segunda Lei da Termodinâmica
e a teoria das probabilidades foi inicialmente
mostrada quando eu provei que uma demonstração
analítica desta Lei pode ser fundamentada apenas
a partir da teoria das probabilidades. [...]
podemos calcular o estado de equilíbrio
investigando a probabilidade de diferentes
possíveis estados do sistema. O estado inicial será,
na maioria dos casos, muito provável e, a partir
dele, o sistema irá evoluir em direção a estados
mais prováveis, isto é, ao estado de equilíbrio do
calor. Se aplicarmos isto na segunda lei, podemos
relacionar a quantidade que comumente
designamos como entropia com a propriedade do
estado atual. Pensando num sistema isolado de
corpos que não troca energia com o meio externo,
por exemplo, um corpo de alta temperatura e outro
de baixa temperatura, colocados em contato
térmico e isolados do exterior, permitindo-se a
troca de calor somente entre eles (...) O sistema de
corpos que pensamos, pode ter no inicio qualquer
estado; através da troca entre os corpos, este
estado muda; de acordo com a Segunda Lei esta
37
mudança deve sempre ocorrer de modo que a
entropia de todos os corpos aumente cada vez
mais; o sistema de corpos caminhará de um estado
mais improvável, para um estado mais prováver
[(MAGIE, 1935 (transcreve Covolan, 2004, p. 52)]
38
CAPITULO IV
AULA PROPOSTA
Neste capítulo, encontra-se a aula8 proposta, onde se pretende mostrar aos
aíunos uma forma alternativa do conceito e medição da entropia apresentado peío físico
austríaco Ludwig Boltzmann, enfatizando a diferença entre microestado e macroestado.
Em seguida, associamos o conceito de entropia com a segunda Lei da Termodinâmica e,
conseqüentemente, com a desordem de um sistema. E, finalmente, foi realizada uma
tentativa de contextualização do conceito de entropia com alguns fenômenos naturais
que ocorrem no cotidiano dos alunos.
1.1 - Aula - Uma forma alternativa de conceituar entropia
Suponhamos que uma pessoa jogue para o alto certo número de moedas
(N) iguais e quando estas chegarem ao solo, metade delas mostre cara e a outra metade
Coroa. Trata-se de uma descrição macroscópica do sistema de N moedas. A descrição do
estado microscópico do referido sistema inclui informação sobre cada moeda
individualmente, ou seja, a moeda l exibia cara, a moeda 2 coroa, a moeda 3 cara e
assim por diante. Como visío anteriormente, existem muitos estados microscópicos que
correspondem ao mesmo estado macroscópico. Agora, observemos a figura abaixo que
simula quatro moedas (N=4) sendo jogadas para o alto e ao chegarem ao solo podem
assumir as seguintes configurações:
A aula é composta por dois tempos de 45 minutos.
39
IV-TLI; os nic.''-:v.'ár>.v>-s aT
••;>
• ;;iv- >roas
'éJíHJi^ ''' r, ')1 2 3 4
3©0©í 2 :< i
PXOÍ^ÒA) CD^̂ íi)
* ''V • *
! í 3' 4
' . '•.».-, )•' '. '"-M, ' )
í 2 3 4
-.-.5,. --\.-'-^ ;••'-...
~\ 1
•*.-*-X-> '̂'<?.,>.;•-' '̂ .>
ara.n BB
inroas
3 ~
i 2
Q •".--• ~.:'<f, .•ÍWS'1.. i • • • • - *{.« l•-....,-
L 2 3 4
3 ^i
* ''' "l; , '• ' . '< ''}i • • '•''' . "".i • . ":••,.,<• •:..:.•' >..•:' \ :••:' ^..J:> !it>-:í' %á^^*^
Figura 9 - Todos os estados microscópicos possíveis para quatro moedas. Podem
existir diversos estados microscópicos para cada estado macroscópico.
Agora faremos urna análise das configurações obtidas acima, mediante o
auxilio da íabeJa abaixo, de forma que o lado "cara" é representado pela letra "K" e o
lado "coroa" é representado pela letra "C".
Estado
microscópico
1
K
C
K
K
K
2
K
K
C
K
K
3
K
K
K
C
K
4
K
K
K
K
C
Nr de Estados
microscópicos (n)
Kí)
Hl)
Estado macroscópico
Quatro caras
Três caras, uma
coroa
Probabilidade (P) de
aparecer cara ou coroa
(l/16) = (l/2)4
^=HV&
40
C
ccK
K
K
C
C
C
K
C
C
K
K/i
C
K
C
C
K
C
C
K
C
K
C
K
C
C
K
C
C
C
K
K
C
K
C
C
K
C
C
C
C
TOTAL
H4)
H4)
"(í)16 -24
Duas caras, duas
coroas
Uma cara, três
coroas
Quatro coroas
6/16 = 3/8 -(24)(27
4/,6^(34X2
1)4
(l/16) = (l/2)4
1
Tabela ] - Análise das configurações para quatro moedas
Para o cálculo do número de estados microscópicos (n) e da probabilidade
(P) foram utilizadas as seguintes fórmulas:
/ N \ f N \n~ ( v l ~ ( ri* onde HK é o número de estado microscópico cara e nc é o numeroMI K' vnC''
de estado microscópico coroa; e
Podemos observar que o número total de estados microscópicos é 2 = 16,
dentre estes, existem 6 (seis) possibilidades para as quais uma metade indica cara e a
outra metade coroa. A menor possibilidade é a distribuição em que todas as moedas
exibam somente cara ou coroa, no entanto, devemos frisar que ambas possibilidades são
prováveis.
O número de estados microscópicos aumenta consideravelmente com o
crescimento de N (n° de moedas). Para N=100, temos 2100 - 1,27 x IO30 estados
microscópicos, dos quais 1,01 x 3 O29 exibem metade cara e metade coroa.
(10°) = ÍOO! / 501(100-50)! = 1,00891 x IO29
A ocorrência menos provável da distribuição de moedas é que todas sejam
caras ou todas sejam coroas, já que a probabilidade desta ocorrência é de l ern 1,27 x
IO30. A probabilidade maior é que a metade exiba cara e outra metade coroa, devido ao
41
fato de o estado macroscópico "metade cara e metade coroa" possuir o maior número
possíveí de estados microscópicos correspondentes.
Podemos associar que N moedas todas mostrando coroas formam um
estado macroscópico ordenado, pois, a descrição "todas caras" especifica
completamente o estado de cada uma das N moedas. Porém, a descrição macroscópica
de "metade cara, metade coroa" por si só informa muito pouco sobre o estado (cara ou
coroa) de cada moeda individual. Com isso, dizemos que o sistema está desordenado
porque sabemos muito pouco sobre seu estado microscópico.
Portanto, foi constatado no exemplo de lançamento de 4 moedas, que o
macroestado mais provável corresponde àquele que possui o maior número de
microestados. No referido exemplo, tal estado macroscópico corresponde ao
macroestado "metade cara e metade coroa", como podemos conferir na tabela 1.
Seguindo esta "linha de raciocínio" podemos dizer que o macroestado mais provável é
aquele que possui a maior probabilidade de ocorrer. Conseqüentemente, verificamos,
analisando a Tabela l, que esta probabilidade de ocorrência é proporcional ao número
de microestados correspondente ao mesmo macroestado. Com isso, vamos definir
ENTROPIA da exibição de cara ou coroa de uma moeda, como sendo o número de
estados microscópicos ou microestados diferentes correspondentes a certo estado
macroscópico ou macroestado. Ou seja, essa entropia será o número de microestados em
um macroestado. A entropia do macroestado "todas caras ou todas coroas" é l (um),
enquanto que a entropia do macroestado "metade cara, metade coroa" são 6 (seis), para
o caso de N = 4 moedas. Seguindo esta análise, concluímos que quanto maior o número
de microesíados, maior torna-se o valor da entropia, logo, dizemos que a ENTROPIA é
proporcional ao número de estados microscópicos ou microestados diferentes
correspondentes a certo estado macroscópico ou macroestado. Portanto, comparando o
macroestado "iodas coroas" com o macroesíado "metade cara, metade coroa", podemos
dizer que este possui um número de estados microscópicos maior e desordenado, em
conseqüência, sua entropia, que também estima a desordem de um sistema, será maior.
Finalizando a análise, podemos inferir que a ENTROPIA, de certa forma, é uma
medida da probabilidade de ocorrência de um determinado macroestado.
Resumindo o que vimos até agora:
1°) Um macroestado de um sistema é composto de um certo número de
microestados;
42
2°) Todos os microestados de qualquer macroestado são igualmente prováveis;
3°) Quanto mais microestados um macroestado tiver, mais provável ele é.
4°) A entropia de um macroestado é proporcional ao número de microestados que
ele tem.
Conforme definido, anteriormente, a entropia de um macroestado é
proporcional ao número de microestado nesse macroestado. E a probabilidade de um
macroestado é proporcional ao número de microestados que ele contém.
Antes de seguirmos adiante, vamos analisar mais dois casos de lançamento
de moedas, o primeiro caso lançando as moedas l e 2, e o segundo caso lançando as
moedas 3 e 4, conforme as tabeias abaixo:
Estado
microscópico
1
K
K
C
C
2
K
C
K
C
TOTAL
Nr de Estados
microscópicos (n)
' -(o2) |
*-(?)Kf)
d — 92
Estado macroscópico
Duas caras
Uma cara, uma
coroa
Duas coroas
Probabilidade (P) de
aparecer cara ou coroa
(l/4) = (l/2f
(2/4) = (l/2) = (^)(l/2)2
(l/4) = (l/2)2
1
Tabela 2 - Análise das configurações para duas moedas (l e 2)
Estado
microscópico
3
K
K
C
C
4
K
C
K
C
TOTAL
Nr de Estados
microscópicos (n)
KS)KDRf)
4 — 92~T jt*
Estado macroscópico
Duas caras
Uma cara, uma
coroa
Duas coroas
Probabilidade (P) de
aparecer cara ou coroa
(l/4) = (l/2)2
(2/4) = (l/2) = (2)(l/2)2
(1/4) -(1/2)2 j
1
Tabela 3 - Análise das configurações para duas moedas (3 e 4)
43
Agora, vamos denominar o lançamento das 4 moedas (l, 2, 3 e 4), descrito
na tabela l, de sistema C, o lançamento das moedas l e 2 (tabela 2) de sistema A e o
lançamento das moedas 3 e 4 (tabela 3) de sistema B.
Em seguida, observaremos cuidadosamente, o macroestado "uma cara,
uma coroa" para o sistema A e B simultaneamente, conforme a tabela abaixo:
Estado
microscópico
1
K
C
K
C
2
C
K
C
K
3
K
C
C
K
4
C
K
K
C
Nr de Estados
microscópicos (n)
4 (sistema C) = 2
(sistema A) + 2
(sistema B)
Estado macroscópico
uma cara, uma coroa
(sistema A e B) — *
metade cara, metade
coroa (sistema C)
Probabilidade (P) de
aparecer cara ou coroa
Vi (sistema C) = V2
(sistema A) x l/2
(sistema B)
Tabela 4 - Análise do macroestado "metade cara, metade coroa" para o sistema A e B
simultaneamente.
Analisando o caso acima, podemos observar que os microestados relativos
ao macroestado "uma cara, uma coroa", dos sistemas A e B, se misturam, resultando
nos microestados relativos ao macroestado "metade cara, metade coroa" do sistema C.
Ou seja, existe uma relação aditiva entre o n° de estados microscópicos dos sistemas A e
B, resultando no n° de estados microscópicos do sistema C.
Como definimos a entropia como sendo o número de estados
microscópicos ou microestados diferentes correspondentes a certo estado macroscópico
ou macroestado. Podemos admitir, para o caso da tabela 4, o seguinte:
84=82 + 82, sendo:
84 - Entropia do macroestado "metade cara, metade coroa", do sistema C;
82 - Entropia do rnacroesíado "uma cara e uma coroa", para o caso dos
sistemas A e B.
Generalizando a conclusão acima, podemos dizer que a entropia pode ser
definida como uma quantidade aditiva. Ou seja, se um sistema A tem entropia SA e um
sistema B tem entropia SB, um sistema C composto dos sistemas A e B, deve ter
entropia Sc - SA + SB.
44
No entanto, probabilidades são quantidades multiplicativas. Por exemplo,
analisando a tabeía 4, observamos que a probabilidade do macroestado "metade cara,
metade coroa" do sistema C é igual à multiplicação das probabilidades relativas ao
macroestado "uma cara e uma coroa" dos sistemas A e B. Outro exemplo é o caso de
obtermos uma cara ou uma coroa, ao lançarmos uma moeda, é 1/2. Se lançarmos duas
moedas, a probabilidade de obtermos duas caras ou duas coroas seguidas é 1/2 x 1/2 =
1/4.
Verificamos que entropias se somam, mas probabilidades se multiplicam.
Para relacionar entropia com esta propriedade da probabilidade, a entropia foi definida
como sendo proporcionai ao logaritmo9 da probabilidade do macroestado. Ou seja, se
um sistema tem um macroestado A, com probabilidade PA e entropia SÁ, e outro sistema
tem um macroestado B, com probabilidade PB e entropia SB, a probabilidade de achar o
conjunto dos dois sistemas nesses estados, simultaneamente, será P = PA x PB, que
corresponde à entropia total S.
Agora, definindo WA como sendo o número de microestados compatíveis
com o macroestado A e WB, o número de microestados compatíveis com o macroestado
A, teremos: P = PA x PB -* C x W = (CA x WA) x (CB x WB), onde C, CA e CB são
constantes devido à proporcionalidade existente entre & probabilidade e o número de
microestados relativos a um macroestado.
Tomando o logaritmo nos dois lados da equação, teremos:
k x log W = k x log WA + k x log WB
Portanto, se dissermos que a entropia do macroestado A é SA = k x log
WA, e a entropia do macroestado B é SB = k x log WB, teremos S = SA + SB, onde S = k
x log W é a entropia dos estados A e B juntos. Ou seja, a entropia é proporcional ao
logaritmo do número de microestados.
Desta forma, segundo Ludwig Boíízmann, a entropia de um sistema que
está em um estado cuja probabilidade é P, com um número W de microestados
compatíveis com esse estado, é escrita como S = k x log W. Essa constante de
proporcionalidade k é chamada de constante de Boltzmann. Uma das vantagens de usar
esta definição da entropia ligada ao logaritmo da probabilidade decorre do fato de que,
geralmente, estaremos lidando com números muito grandes, pois nos casos reais da
física, o número de microestados costuma ser gigantesco.
'Relembrando a propriedade dos logaritmos que diz se tivermos C - A x B.teremos logC = log A + log B
45
1.1.1 - Uma forma alternativa de relacionar entropia com a Segunda Lei da
Termodinâmica
Prosseguindo com a segunda parte da nossa aula, vamos considerar que as
figuras abaixo sejam caixas, formadas por duas seções (figura ÍO), contendo em seu
interior quatro moléculas de um gás qualquer, sendo estas representadas pelas bolinhas
azul, amarela, verde e vermelha. Podemos dizer que o microestado, para o caso das
moléculas desse gás, especifica a posição precisa de cada uma isoladamente, na seção l
ou na seção 2 da referida caixa. A um dado macroestado qualquer correspondem vários
microestados diferentes: podemos alterar a posição de uma molécula aqui, outra acolá, e
ninguém que estiver observando escalas macroscópicas irá perceber.
Se<Só 2
Figura 10
Agora vamos considerar o problema de contar os microestados possíveis
nestas caixas contendo este gás. Para isso, como já mencionado, podemos imaginar a
caixa dividida em duas seções e contar quantas formas diferentes podemos dispor estas
quatro moléculas em cada seção da caixa.
MACROESTADO 1: QUATRO MOLÉCULAS NA SEÇÃO l
oo
oioi
46
MACROESTADO 2: TRÊS MOLÉCULAS NA SEÇÃO l E UMA
MOLÉCULA NA SEÇÃO 2
O
O
i
oi11I11
O
O O J1
O
oo o
iI118I11
0
o oo
MACROESTADO 3: DUAS MOLÉCULAS NA SEÇÃO 1 E
MOLÉCULAS NA
o
H
111I
SEÇÃO 2
oo
oo
I1111111
oo
oo
i11II1
JL
oo
oo
111II|1
o
DUAS
1111111
oo
oo
111iIaii
oo
oo
i11111
oo
47
MACROESTADO 4: UMA MOLÉCULA NA SEÇÃO l E TRÊS
MOLÉCULAS NA SEÇÃO 2
O
T
Ioio o\Jr
o !o111
JL.
OO
oTH
:'oio
O
11I1j o
Jl»*»»
oo
MACROESTADO 5: QUATRO MOLÉCULAS NA SEÇÃO 2
O O
O O
A probabilidade de cada macroestado seria dada pelo número de maneiras
distintas (microestado) de distribuir as moléculas mantendo a mesma configuração, ou
seja, o mesmo macroestado. Por exemplo, para o MACROESTADO 3, trocando uma
molécula da seção l com outra da seção 2, teríamos um microestado diferente,
correspondente ao mesmo macroestado. Até agora podemos constatar que se o número
de moléculas for grande, o número de microestados é enorme e que um macroestado
como o MACROESTADO 3 é muito mais provável que o MACROESTADO l ou 5,
por exemplo, pois no MACROESTADO 3 o número de microestados é maior.
48
Podemos verificar que o gás, no MACROESTADO 3, assume uma
configuração mais espaíhada, ou seja, seu estado evoluiu para urna configuração mais
desordenada. No entanto, temos que perceber que é possível encontrar o gás em
qualquer macroestado (l, 2, 3, 4 ou 5). Entretanto, o número de formas (microestados)
de distribuir as moléculas de modo a ter o mesmo número em cada seção (macroestado)
é diferente, em todos os casos, ou seja, em todas as configurações analisadas. Notamos
que esse número é muito maior para a configuração representada pelo
MACROESTADO 3. E como a entropia representa o número de diferentes
microestados que correspondem a um mesmo macroestado, há mais forma de dispor um
dado número de moléculas em uma configuração de alta entropia que em uma
configuração de baixa entropia. Portanto, podemos observar que a entropia do gás no
MACROESTADO 3 é maior que a entropia nos MACROESTADOS l ou 5. Esta
diferença de entropia se acentua consideravelmente quando o número de moléculas
aumenta. Com isso, podemos enunciar a 2° Lei da Termodinâmica de uma forma
alternativa:
"Todo sistema físico sempre evolui, espontaneamente, para situações de
máxima entropia" (vvww.seara.ufc.br/dona.fifi/entropia.htm).
O número de microestados pode, também, ser usado como uma medida da
desordem do sistema. Nesse contexto, a desordem do gás no MACROESTADO 3 é
maior que a desordem no MACROESTADO l ou 5. Com isso, chegamos a mais uma
forma alternativa de enunciar a segunda lei da termodinâmica:
"Todo sistema natural, quando deixado livre, evolui para um estado de
máxima desordem, correspondente a uma entropia máxima"
(www. seara, ufc.br/donafifi/entropia. htm).
Portanto, podemos relacionar a entropia com a desordem, ou seja,
podemos dizer que a entropia mensura a desordem e a desorganização da matéria
durante os processos, conseqüentemente, ela nos fornece uma estimativa quantitativa da
desordem.
49
1.1.2- Contextualizando o conceito de entropia com alguns fenômenos naturais
Na análise das reações químicas e das transformações dos sistemas
materiais verificou-se que a matéria tende a agregar-se em configurações mais estáveis Q
fortemente ligadas. E como um sistema torna-se tanto mais instável quanto maior for o
seu conteúdo de energia interna, isto pode ser constatado, somente, se o referido sistema
libera energia ao ambiente externo sob forma de calor ou de trabalho.
Outra verificação importante na referida analise foi que a matéria tende a evoluir no
sentido dos estados de máxima entropia conforme exposto no capitulo anterior. Ou seja,
tende a evoluir ao estado de mais alto grau de desorganização estrutural e de dispersão
espacial de acordo com a sua temperatura e com as outras condições de contorno.
Com isso, podemos estabelecer quatro variedades de situações implicadas no curso
de transformação:
1) LIBERAÇÃO DE ENERGIA E AUMENTO DA ENTROPIA: Combustão,
digestão dos alimentos, fissão nuclear, explosão, expansão de uma mola, etc.
2) LIBERAÇÃO DE ENERGIA E DIMINUIÇÃO DA ENTROPIA. Resfriamento,
liquefação, solidificação da água, por exemplo, etc.
3) ABSORÇÃO DE ENERGIA E AUMENTO DE ENTROPIA: Aquecimento,
liquefação, vaporização, etc.
4) ABSORÇÃO DE ENERGIA E DIMINUIÇÃO DA ENTROPIA: Metabolismo
das plantas e dos animais, síntese dos polímeros, etc.
Um exemplo prático para ilustrarmos as situações acima é o caso da nitroglicerina
que é um composto onde os átomos de carbono, oxigênio e nitrogênio estão dispostos
em moléculas compJexas agregadas em um estado relativamente compacto (estado
líquido). Nesta situação podemos dizer que parte considerável da energia interna da
nitroglicerina está "congelada" nas ligações moleculares pouco estáveis e a outra parte
da energia se encontra na agitação térmica das próprias moléculas. No entanto, mediante
um pequeno estimulo externo este estado físico-quimico se desfaz e ocorre o que
chamamos de "detonação" evoluindo para um outro estado, onde os mesmos átomos se
reagrupam em número maior de moléculas mais simples que o estado anterior, e com
ligações químicas mais intensas e estáveis. Com isso, a energia de ligação liberada se
torna energia térmica que transforma os produtos da reação em gás a alta temperatura,
num estado mais desordenado do que o estado líquido inicial.
50
CONSIDERAÇÕES FINAIS
Foi constatado, durante a confecção deste trabalho, que a palavra entropia
foi utilizada na física para designar a Segunda lei da Termodinâmica, a qual podia ser
enunciada da seguinte forma: "Todo o sistema natural, quando deixado livre, evolui
para um estado de máxima desordem, correspondente a uma entropia máxima". Desta
forma podemos dizer que a entropia representa a perda de energia do Universo, que
ocorre a cada instante, razão pela qual os pesquisadores afirmam que o Universo
caminha para a morte térmica. Esta perda é irreversível e, portanto esta energia perdida
jamais poderá ser recuperada. Este sentido único da entropia fez com que os físicos a
chamassem de "seta do tempo".
A entropia, também, pode ser associada ao sentido de degradação. Assim,
a velhice, a qual todos os seres vivos estão fadados, é um exemplo da atuação da
entropia vivenciado por nós, seres-humanos, diariamente até resultar em nossa morte.
Desta forma, procurou-se neste trabalho, enfocar o termo entropia
basicamente na física térmica estatística, particularmente na Segunda Lei da
Termodinâmica. Para isso, foi feita uma revisão bibliográfica sobre a parte histórica do
tema, abordando desde a origem do conceito até sua utilização na física quâníica
estatística. Depois, relacionamos entropia com a segunda lei da termodinâmica. .
Com isso, procurou-se realizar um apanhado do termo entropia de forma
diferente, da qual encontramos nos livros didáticos de ensino médio, de modo a servir
de "ferramenta" adicional para os professores do referido ensino, por ocasião das aulas
de física térmica e em particular da entropia e da segunda lei da termodinâmica em uma
forma totalmente contextuaJizada. Como exemplo desta coníextualização, foi sugerida
uma aula, analisando a probabilidade de "tirar" cara ou coroa em um lançamento de
moeda, para posteriormente, definirmos entropia. Em seguida, utilizamos a simulação
de expansão livre de um gás hipotético, a fim de relacionar entropia com a 2° Lei da
Termodinâmica e, por fim, procuramos relacionar este novo conceito com alguns
fenômenos naturais. Portanto, como foi verificado no presente trabalho, a entropia e a
segunda lei da termodinâmica estão intimamente ligadas com o nosso dia a dia e,
principalmente, com a evolução dos seres vivos, do nosso planeta e do Universo, no
quaí estamos inseridos.
51
REFERÊNCIAS BIBLIOGRÁFICAS
1) ADIR, Moysés Luiz. Termodinâmica: Teoria e problemas resolvidos. Rio de
Janeiro, 2005.
2) BAHIANA, Mônica Pereira. Notas de Aula CEDER/: Física estatística. Módulo l,
aulas 1,2,3,4,5 e 6.
3) BASSALO, JMF. A Crônica do Calor: Caiorimetria. Revista Brasileira do Ensino
de Física, v. 14, n. l, 29- 38, 1992.
4) BASSALO, JMF. A Crônica do Calor: Termometria. Revista Brasileira do Ensino
de Física, v. 13, n. l, 135-16], 1991.
5) BASSALO, José Maria. Online: disponível na Internet via
http://www.seara.ufc.br//.
6) BERTÜLANI, C. A. Online. disponível na Internet via
http://www.if.. uFrj.br/teaching/fis2/segundalei//.
7) BORGES, Ernesto P. Irreversibilidade, Desordem e Incerteza: Três Visões da
Generalização do Conceito de Entropia. Revista Brasileira do Ensino de Física, v.
21, n° 4, Dezembro, 1999.
8) CARROLL, Sean M. As origens Cósmicas da Seta do Tempo. Revista Scientifíc
American Brasil, ano 6, n° 74, Julho, 2008.
9) CASTRO, Reginaldo e FERRACIOLI, Laércio. Segunda Lei da Termodinâmica:
Um estudo de sen entendimento por professores de ensino médio. Online:
disponível na Internet via http://www. modeiab. ates, br//.
10) COVENEY, P. & HIGHFIELD, R. A flecha do tempo. São Paulo: Siciliano, 1990.
11) COVOLAN, Silvia Cristina Teodoro. O conceito de entropia num curso destinado
ao ensino médio a partir de concepções prévias dos estudantes e da história da
ciência. Dissertação de Mestrado - Campinas, SP: [s.n], 2004.
12) DIAS, P. M. C. A pertinência da história ao aprendizado de física (Um estudo de
caso). Revista Brasileira de Ensino de Física. V. 23, n. 2, 226 - 235, 2001.
13) HALLIDAY, David; RESNICK, Robert e WALKER, Jearl. Fundamentos de
Física. V2, 6a ed. - Rio de Janeiro: LTC, 2002.
14) NUSSENZVEIG, Herch Moysés. Curso de física básica, 2. 4a ed. rev. - São Paulo:
Edgard Blucher, 2004.
15) Online: disponível na Internet via
http://www.en.wikipedia.org/wiki/hjstQry QfentiQrjy_/y.
52
16) PEREIRA, Jr. Irreversibilidade Física e ordem temporal na tradição
Boltzmaniana. São Pauío: Fundação Editora da UNE SP, 1997.
17) RAMALHO, Júnior Francisco; NICOLAU, Gilberto Ferraro e TOLEDO, Paulo
Antônio Soares. Os fundamentos da física. 8a ed. rev. e ampl. - São Paulo:
Moderna, 2003.
18) SILVA, D.; FERNANDES NETO. O conceito de Temperatura: Gênese,
desenvolvimento e utilização. Atas do XI Simpósio Nacional do Ensino de Física.
Niterói, Rio de Janeiro. PP. 380-385, 1995.
19) SILVA, D. Estudo das trajetórias cognitivas de alunos no ensino da diferenciação
dos conceitos de calor e temperatura. Tese de doutorado. São Pauío. Faculdade de
Educação da USP, 1995.
20) TRONCONI, P.A; VALOTA, R.; AGOSTINELLI, M e RAMPI, F. Energia,
entropia e ... os termos do problema. Preggio: Macroedizioni, 1991 - tradução
SE V A, A. Oswaldo Filho. Unicamp, 1996.
21) YOUNG, Hugh D e FREEDMAN, Roger A. Física II: Termodinâmica e ondas. 10a
ed. - São Paulo: Pearson Addison Wesley, 2003.