entropia estatística de sistemas...

99
Lisan Marcos Marques Durão Entropia Estatística de Sistemas Abertos CAMPINAS 2015 i

Upload: haduong

Post on 11-Feb-2019

220 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

Lisan Marcos Marques Durão

Entropia Estatística de Sistemas Abertos

CAMPINAS2015

i

Page 2: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

ii

Page 3: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia
Page 4: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

Ficha catalográficaUniversidade Estadual de Campinas

Biblioteca do Instituto de Física Gleb WataghinValkíria Succi Vicente - CRB 8/5398

Durão, Lisan Marcos Marques, 1991- D932e DurEntropia estatística de sistemas abertos / Lisan Marcos Marques Durão. –

Campinas, SP : [s.n.], 2015.

DurOrientador: Amir Ordacgi Caldeira. DurDissertação (mestrado) – Universidade Estadual de Campinas, Instituto de

Física Gleb Wataghin.

Dur1. Sistemas abertos (Física). 2. Entropia estatística. 3. Dissipação de energia.

I. Caldeira, Amir Ordacgi,1950-. II. Universidade Estadual de Campinas. Institutode Física Gleb Wataghin. III. Título.

Informações para Biblioteca Digital

Título em outro idioma: Statistical entropy of open quantum systemsPalavras-chave em inglês:Open systems (Physics)Statistical entropyEnergy dissipationÁrea de concentração: FísicaTitulação: Mestre em FísicaBanca examinadora:Amir Ordacgi Caldeira [Orientador]Francisco Castilho AlcarazRoberto LuzziData de defesa: 17-06-2015Programa de Pós-Graduação: Física

Powered by TCPDF (www.tcpdf.org)

iv

Page 5: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia
Page 6: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

vi

Page 7: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

Abstract

The main goal of our project is the characterization of open quantum systems by means of astatistical entropy. Entropy is a fundamental physical quantity and is usually interpreted as thelack of knowledge about the state of the system, which means it is an informational metric.

The statistical mechanical program for non-isolated quantum systems consists in creating aHamiltonian for the “universe" within the so-called system-plus-reservoir approach from which onecan evaluate the reduced density operator of the system of interest through the partial trace ofthe full density operator with respect to the reservoir coordinates. Notice that, in so doing we aretacitly assuming that the equilibrium state of the whole universe can be described by a Gibbsiandistribution.

Alternatively one can evaluate the Von Neumman entropy for the whole universe from whichthe above mentioned full density operator can be obtained via the maximum entropy priciple, andthen, by the same partial tracing procedure, obtain the desired reduced density operator.

Now we can ask ourselves what happens if one insists in obtaining a density operator and thethermodynamical properties for the system of interest directly from a maximum entropy principle.Such a task can require the use of other forms of entropy not necessarily extensive.

Starting from the system-plus-reservoir approach we study the entropy and mean values of aBrownian particle coupled to a harmonic reservoir. Using this as the starting point to the max-imization of non-extensive “parameter depending" entropies, we aim at finding a correspondencebetween the constants arising from our model and the adjustable parameters of some well-knowngeneralized entropies which may turn out to be more appropriate to our needs.

Keywords:Open Systems, Dissipation, Statistical Entropy

vii

Page 8: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

Resumo

Sistemas quânticos abertos, ou não isolados, podem ser caracterizados a partir de uma entropiaestatística. A entropia é um conceito fundamental na física e usualmente é interpretada como faltade informação a respeito do estado do sistema.

O programa usual da física estatística para sistemas não isolados é propor um Hamiltonianopara o “Universo”, descrito por uma distribuição de Gibbs e aplicando uma abordagem do tipo“Sistema + Reservatório”, de onde podemos avaliar o operador densidade reduzido do sistemaatravés de um processo de traço parcial. Outra maneira de obter o operador densidade seria obtera entropia de Von Neumann do sistema completo e a partir dela o operador densidade total peloprincípio de máxima entropia para então tomar o traço parcial com respeito as coordenadas doreservatório.

Por outro lado, podemos tentar obter esse operador densidade e as propriedades termodinâmicasdo sistema diretamente do princípio de máxima entropia Tal tarefa pode exigir o uso de outrasformas de entropia não necessariamente extensivas.

Partindo de uma abordagem do tipo sistema + reservatório, estudamos a entropia de uma par-tícula Browniana acoplada com um reservatório harmônico. Usando isso como o ponto de partidapara a maximização de entropias dependentes de um parâmetro, busca-se uma correspondênciaentre as constantes emergentes do nosso modelo e os parâmetros ajustáveis de algumas bem co-nhecidas entropias generalizadas a fim de determinar qual ansatz é mais apropriado para nossosistema.

Palavras-chave: Sistemas Abertos, Dissipação, Entropia Estatísitica

viii

Page 9: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

Sumário

Agradecimentos xiii

1 Introdução 1

2 Mecânica Estatística e Teoria de Informação 52.1 Sobre o Conceito de Entropia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

2.1.1 As Leis da termodinâmica . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62.1.2 Interpretação Microscópica da Entropia . . . . . . . . . . . . . . . . . . . . . 9

2.2 Princípio de Boltzmann, Equiprobabilidade e Ensembles . . . . . . . . . . . . . . . 122.2.1 Princípio de Boltzmann . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122.2.2 Os Ensembles de Gibbs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

2.3 O Princípio de Maximização da Entropia . . . . . . . . . . . . . . . . . . . . . . . . 152.4 Mecânica Estatístitica Generalizada . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

3 Sistemas Quânticos Dissipativos 263.1 Conceitos Fundamentais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 263.2 Movimento Browniano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

3.2.1 Movimento Browniano Clássico . . . . . . . . . . . . . . . . . . . . . . . . . 273.2.2 Movimento Browniano Quântico . . . . . . . . . . . . . . . . . . . . . . . . . 28

3.3 O Banho de Osciladores Independentes . . . . . . . . . . . . . . . . . . . . . . . . . 303.4 Integrais de Feynman em Tempo Imaginário e a Física Estatística . . . . . . . . . . 33

3.4.1 O Operador Densidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 333.4.2 Ação Efetiva e a Matriz Densidade de Equilíbrio . . . . . . . . . . . . . . . . 36

3.5 O Movimento Browniano Quântico via Integrais Funcionais . . . . . . . . . . . . . . 403.6 Propriedades Termodinâmicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

3.6.1 Termodinâmica do Oscilador Harmônico Livre . . . . . . . . . . . . . . . . . 433.6.2 O Oscilador Harmônico Amortecido . . . . . . . . . . . . . . . . . . . . . . . 45

ix

Page 10: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

3.6.3 Partícula Browniana Livre . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47

4 Entropia Estatística de Sistemas Abertos 494.1 O Modelo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 504.2 O Operador Densidade e a Função de Partição . . . . . . . . . . . . . . . . . . . . . 53

4.2.1 O Oscilador Harmônico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 544.2.2 A Partícula Livre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57

4.3 Propriedades Termodinâmicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 584.3.1 Partícula Livre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 594.3.2 Oscilador Harmônico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64

4.4 Entropia Estatística de Sistemas Abertos . . . . . . . . . . . . . . . . . . . . . . . . 66

5 Epílogo 695.1 Críticas às Estatísticas Generalizadas . . . . . . . . . . . . . . . . . . . . . . . . . . 70

5.1.1 Decomponibilidade, Equilíbrio Térmico e a Lei Zero da Termodinâmica . . . 705.1.2 A 1ª e 2ª Leis da Termodinâmica para as Entropias Generalizadas . . . . . . 73

5.2 O ensemble de Tsallis como um ortodo exato . . . . . . . . . . . . . . . . . . . . . . 765.3 Comentários Finais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78

Bibliografia 82

x

Page 11: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

A minha família e amigos

xi

Page 12: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

“Tentar não, faça ou não faça. Tentativa não há”- Mestre Yoda

“Palavras são, na minha nada humilde opinião, nossa inesgotável fonte de magia. Capazes deformar grandes sofrimentos e também de remedia-los”

- Alvo Dumbledore“Pacientes sempre querem provas, não estamos fazendo carros aqui, nós não damos garantias”

- Gregory House“Não sei, só sei que foi assim”

- Chicó, falando a sua banca examinadora na defesa do mestrado. ’

xii

Page 13: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

Agradecimentos

A seção de agradecimentos é o primeiro “capítulo” que aparece na dissertação, contudo éo último a ser escrito e talvez o mais difícil pois nunca se fará justiça o suficiente a todos osmomentos memoráveis que fizeram do meu mestrado dois anos incríveis de vivência e aprendizado.

Primeiramente eu gostaria de agradecer a minha mãe, Elisete, por todo o amor, dedicação,esforço que fez para que eu pudesse ter uma educação adequada, pelo incentivo nos momentos fáceise difíceis, pela cobrança, pelos ensinamentos e pela vibração a cada passo dado nessa jornada queé a carreira científica. Aproveito para registrar o agradecimento a toda minha família, em especialum agradecimento,ainda que póstumo, a meus avós: Pedro, Maria de Lourdes e Benedito.

Provavelmente, eu não estaria escrevendo os agradecimentos de uma dissertação em Física senão fosse pelo carisma único do Profº Bosco Guerra, que me fez um apaixonado por Física no meu1º colegial e por todo o incentivo ao longo do meu ensino médio, meu muito obrigado!Deixo aquium muito obrigado também os professores Sérgio Alexandre, Sérgio Magalhães, Cristiano Lázaro,Nitevaldo Eloi, Leninha, Jonilson, Lázaro, Antônio Mário, Jussara, Roger e Sônia.

Ao Professor Amir Caldeira, eu gostaria de expressar meus sinceros agradecimentos e admiraçãopela pessoa ímpar que ele se revelou durante esses dois anos de trabalho. Pelas muitas vezes emque pude aprender da sua erudição em física, pela orientação,pelo apoio ,pela paciência,muitapaciência, e pelas muitas risadas e chopes. Amir, muito obrigado!

A todos os professores com quem tive contato no IFGW, deixo aqui um muito obrigado porterem compartilhado comigo sua experiência em ensinamentos acadêmicos e de vida. Meus sincerosagradecimentos aos professores Marcus Aguiar, José Brum, Eduardo Miranda, Marcus Bonança,Silvio Vitiello, Maurice de Koning, Marcelo Knobel, Odilon Couto, Ricardo Doretto e GiorgioTorrieri.

Ao longo da minha vida acadêmica, eu tive a sorte de contar com grandes amigos. Duranteminha graduação, meus sinceros agradecimentos a Caculé, Marcos, Bruno, Gabriel, Tássia e Olavopor todas as nossas aventuras e desventuras pelo IFUFBA. Aos professores da graduação, meusagradecimentos por tudo que fizeram por mim, pelo apoio e torcida até hoje. Em especial, agra-

xiii

Page 14: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

decimentos à Alberto Brum , José Garcia, Gildemar Carneiro, Jailton Almeida, Alberto Betzler,Maria Zucchi e Júlio Guedes.

Da minha trajetória em Campinas, agradeço a acolhida e amizade de todo pessoal da RepKDK: Giácomo,Gabi, Matheus, Henrique, Guilherme, Ricardo, Gioavanni e William. E a todosos meus amigos da rep Love: Maurício, Raniel, Ralph e Renan.

A vida na pós graduação não seria tão divertida sem a companhia de algumas pessoas quenunca esquecerei. Meu muito obrigado a turma do prédio D: Martha, Didi, Olímpio, Júlio, Raúl,Clóvis, Maria, Salinas e Udson. Por todos os momentos passados juntos.

Em especial, um agradecimento ao pessoal da sala de estudos. Por toda a zueira, diversão,ciência e por último porem não menos importante: Pelo tal negócio! Meus sinceros agradecimentosa: Rodolfo, Madeira, Thaís, Carol, Veronez, Vitor, Dalson, Helder, Thiago, Marina, Paulinha,Wendell, Elohim, Andre e João.

O mundo moderno, conectou a pessoas e possibilitou que laços a distância fossem mantidos efortalecidos. Aos amigos que estiveram sempre presente, mesmo que, infelizmente, quase semprede forma virtual, foram também de fundamental importância para esta empreitada. Meu muitoobrigado a: Rebbie Nogueira, Marília Miranda, Inêssa Nascimento, Felipe Antunes, Diego Oliver,Cynthia Larisse, Delilian Fogliato, Flaviano Santos, Arthur Scardua, Ingrid Pelissoli e MeiggaJuliane

Por último, gostaria de deixar um agradecimento especial a três pessoas que foram responsáveisdiretas por eu ter vindo fazer meus mestrado no IFGW. Ao professor Frederico de Brito, peloaconselhamento e ajuda no processo e a dois amigos muito especiais que num dia de chuva no Recifeme convenceram de procurar mestrado pelo estado de São Paulo. Muito obrigado ao Augusto e aNatália!

xiv

Page 15: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

Capítulo 1

Introdução

Em seus primórdios, a termodinâmica era uma ciência puramente fenomenológica. Galileu,Celsius, Fahrenheit entre muitos outros, tentaram fornecer definições precisas para conceitos queaparentemente são óbvios para um observador ,como pressão e temperatura, e tentaram estudaras conexões existentes entre essas grandezas. Nesses dias, a ideia de que esses conceitos deveriamestar ligados com os demais campos da física, como a mecânica clássica, não era sequer cogitada.

No final do século XIX, quando a teoria atômica se tornou popular, os cientistas passaram aconceber um gás como uma enorme quantidade de bolas em movimento errático dentro de umacaixa. Tendo isso em mente, houve um esforço em tentar deduzir toda a termodinâmica a partirda mecânica clássica. Ludwig Boltzmann, um dos campeões desta empreitada, em 1866 propôsuma conexão da entropia termodinâmica,definida apenas de forma fenomenológica, com o volumede uma certa região no espaço de fase, um objeto bem definido na mecânica clássica. Isso foium grande passo adiante, pois tornou-se possível calcular todas as propriedades termodinâmicasa partir do Hamiltoniano do sistema.

Contudo o problema não está completamente resolvido. A termodinâmica estabelece, entreoutras coisas, a irreversibilidade dos fenômenos físicos macroscópicos e a mecânica clássica é umateoria completamente reversível no tempo. Para provar a conexão teórica entre a entropia assimdefinida e a entropia fenomenológica, fazendo emergir a irreversibilidade na mecânica clássica,Boltzmann inseriu os dois postulados que servem como pedra fundamental da mecânica estatística:A Hipótese Ergódica e o Postulado de Equiprobabilidade a priori.

A mecânica estatística emerge como uma teoria para tratar sistemas clássicos contendo umnúmero muito grande de partículas, de tal sorte que se torna impossível resolver todas as equaçõesde movimento ou mesmo que sejamos capazes de tal empreitada, não saberíamos como interpretaro resultado. Não obstante, uma dificuldade que surge antes da nossa habilidade em tratar um pro-

1

Page 16: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

blema desse tipo, é bastante difícil preparar um sistema de muitas partículas em condições inciiaisbem definidas. Deste modo, torna-se conveniente o uso de métodos estatísticos, como associaruma distribuição de probabilidades para as configurações microscópicas e tomar grandezas físicasmensuráveis como valores médios sobre essa distribuição, no intuito de estudar a termodinâmicadestes sistemas.

Impulsionada pelos estudos sobre sistemas em escala atômica, o primeiro quarto do século XXtraz as bases da teoria mecânica para o comportamento desses sistemas: A Mecânica Quântica.Surpreendentemente, a termodinâmica se mostrou algo tão poderoso que sobreviveu intacta àrevisão que a mecânica quântica causou nos fundamentos da física. O estudo de processos termo-dinâmicos no contexto da mecânica quântica levou, por exemplo, à lei da radiação de Planck.

Apesar de mais de 150 anos de estudo e de ser um dos mais bem sucedidos campos da física, osfundamentos da mecânica estatística ainda não são completamente claros. Seu objetivo primário éfazer uma conexão entre teorias microscópicas, clássicas ou quânticas, e a fenomenologia macros-cópica da termodinâmica. Nos últimos anos uma série de propostas para estudar os fundamentose metodologia da mecânica estatística surgiram com as mais diversas inspirações. Basicamente, omote de todo este estudo, é qual a interpretação microscópica da entropia e como podemos buscaruma expressão que conecte as quantidades estatísticas com a entropia termodinâmica. Duas ver-tentes se confrontam há pelo menos 60 anos: Os Ensembles Estatísticos de Gibbs e InterpretaçãoInformacional de Jaynes.

Neste trabalho, trataremos basicamente do estudo da formulação informacional de Jaynes nocontexto de sistemas dissipativos. Nesta interpretação, a entropia mede o nosso desconhecimento arespeito do estado do sistema. Este desconhecimento pode vir de diferentes formas. O grande nú-mero de partículas nos impede de resolver completamente todas as equações de movimento, entãoabrimos mão de resolver o problema de forma exata e inserimos uma distribuição de probabilidadeassociada às configurações microscópicas compatíveis com os vínculos microscópicos. A isso, cha-mamos de falta de conhecimento subjetiva. Por outro lado, em sistemas quânticos, as interaçõesentre os componentes do sistema ou com um reservatório externo levam ao surgimento de uma dasmais contra intuitivas propriedades da mecânica quântica: o emaranhamento. O emaranhamentoleva o sistema a um estado quântico misto e nos resta designar uma probabilidade para cada umdos possíveis autoestados do sistemas. Isso nos leva diretamente a uma falta de conhecimentoobjetiva do estado do sistema.

A versão informacional da mecânica estatística nos diz que a entropia é um funcional da distri-buição de probabilidade do sistema, cuja forma está relacionada com a regra com que a entropiade sistemas compostos de subsistemas é somada, e que a física estatística é tomada como ummétodo de inferência e não uma teoria física. Inspirado no fato de que os estados de equilíbrio

2

Page 17: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

termodinâmico são aqueles de máxima entropia, a distribuição de probabilidade mais adequada éaquela que maximiza uma dada entropia de informação, sujeita a vínculos impostos pela situaçãofísica a ser tratada.

A mecânica estatística interpretada desta forma, cresceu lado a lado com a teoria de informação,que trouxe à luz uma miríade de funcionais de entropia com diversas aplicações como medidasde informação. Em 1988, um desses funcionais despontou como uma proposta de generalizara mecânica estatística para além de sistemas onde a energia e a entropia são adtivas. Em seupaper seminal, Constantino Tsallis desenvolveu uma mecânica estatística baseada numa entropianão-extensiva proposta por Daróczy em 1967 e redescoberta anos depois pelo próprio Tsallis,aplicando ao princípio de Jaynes a esta entropia e consequentemente um método de conexão coma termodinâmica almejando descrever sistemas onde a energia não seja uma quantidade extensiva.

Aqui entra o estudo de sistemas abertos. Sistemas quânticos abertos são por excelência sistemasnão extensivos, pois devido ao acoplamento com um reservatório térmico, a energia do universo,sistema mais reservatório, não é mais a soma da energia dos componentes individualmente. Logoo ensemble canônico de Gibbs não mais se aplica a este estudo.

Usualmente, tratamos este problema propondo explicitamente um modelo para o reservatório epara o acoplamento com o sistema. Este programa pode ser um tanto quanto complicado, contudoapresenta resultados interessantes e tem sido a base para todo o estudo de dissipação e descoerênciaem sistemas quânticos como junções Josephson, Movimento Browniano e outros sistemas onde oacoplamento com o meio externo é relevante para a sua dinâmica do sistema.

Assumindo que sistema-mais-reservatório podem ser descritos adequadamente no ensemblecanônico, podemos calcular exatamente o operador densidade deste conjunto assumindo que obanho térmico é um conjunto de osciladores harmônicos desacoplados e o acoplamento sistema-banho é linear em ambas as coordenadas. A partir de um traço parcial, podemos obter o operadordensidade reduzido do sistema e calcular suas propriedades termodinâmicas.

Nossa proposta aqui é bastante diferente. Partindo de uma entropia generalizada, como a en-tropia de Daróczy-Tsallis, buscaremos um operador densidade que a maximize sujeita a vínculosde energia média constante, um ensemble canônico generalizado, e realizaremos a mecânica esta-tística do sistema de interesse neste ensemble generalizado e tentaremos comparar as propriedadestermodinâmicas obtidas desta maneira com o modelo do banho de osciladores.

Então, temos por objetivo nesta dissertação:

• Formular uma metodologia alternativa ao estudo da mecânica estatística de um sistemadissipativo, sem precisar utilizar explicitamente o banho térmico.

• Pôr à prova, a realidade física das prescrições empregadas na mecânica estatística não ex-

3

Page 18: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

tensiva, tentando relacionar o parâmetro entrópico ajustável 𝑞 com as constantes estruturaisdo modelo do banho de osciladores.

• Estudar a relação entre os resultados advindos de uma mecânica estatística informacionale os fundamentos da termodinâmica, buscando elucidar como e quando uma entropia deinformação pode ser identificada como a entropia termodinâmica.

O trabalho está estruturado da seguinte maneira. O capítulo I traz uma revisão dos métodos efundamentos da mecânica estatística segundo a teoria de informação e apresenta as entropias gene-ralizadas. O capítulo II revisa os aspectos gerais do banho de osciladores e o aplica ao cálculo daspropriedades termodinâmicas de um sistema dissipativo. No capítulo III, propomos um modelo desistema dissipativo baseado no operador densidade generalizado e na sua conexão com a termodi-nâmica e estudamos seu comportamento e comparamos com o banhos de osciladores. Finalmente,o capítulo IV explora a conexão dessa formulação da mecânica estatística com a termodinâmica àluz dos resultados apresentados no capítulo III.

4

Page 19: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

Capítulo 2

Mecânica Estatística e Teoria deInformação

2.1 Sobre o Conceito de EntropiaEntropia é um conceito de fundamental importância na termodinâmica e na mecânica esta-

tística. Seu papel fundamental na descrição dos estados macroscópicos de um sistema físico foidesenvolvido nos trabalhos seminais de Claussius, Kelvin, Maxwell, Boltzmann entre outros 1.Apesar de sua importância fundamental, algumas de suas propriedades mais básicas são motivode debate ainda nos dias atuais. Isto se deve ao fato de que frequentemente estamos mais in-teressados em calcular a entropia de um dado sistema físico como função dos parâmetros queo representam. Notadamente, a entropia possui uma posição privilegiada dentre as quantidadesfísicas. Ressaltamos os seguintes pontos:

• Não aparece em nenhuma equação de movimento fundamental.

• Relaciona aspectos macroscópicos e microscópicos da matéria em equilíbrio térmico.

• Sua natureza probabilística.

Os dois últimos itens são motivo de intenso debate e serão delineados adequadamente nasduas seções que seguem. O ponto principal é que cada um propicia uma interpretação distintade como fazer a mecânica estatística. A relação entre os aspectos microscópicos da matéria e osvínculos macroscópicos está associada à versão de ensembles, atribuída aos trabalhos de Boltzmann

1Uma interessante revisão da evolução história dos conceitos básicos da termodinâmica pode ser encontradaem:Rocha, Ponczek, Pinho, Andrade e Ribeiro Filho,Origens e Evolução das Ideias da Física,EDUFBA, 2002Nussenzveig; Curso de Física Básica Volume 2, Blucher 2002

5

Page 20: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

e Gibbs. A natureza probabilística deu origem a uma formulação inspirada na teoria de informação,chamada de Princípio de Máxima Entropia.

Não obstante as diferentes interpretações possíveis, existem ainda diferentes funcionais quetencionam representar a entropia de uma quantidade física, levando a diferentes algorítimos parafísica estatística e de como fazer a conexão com a termodinâmica. Este será o ponto discutido nasduas últimas seções do capítulo, dedicadas às entropias generalizadas e à mecânica estatística nãoextensiva.

2.1.1 As Leis da termodinâmica

A entropia surge na termodinâmica de equilíbrio como uma medida da irreversibilidade desistemas macroscópicos, ela é proporcional a diferença entre a energia internar e a energia útil deum sistema ao longo de uma transformação. Podemos caracterizar completamente a termodinâmicaenunciando suas leis básicas e seu escopo com algumas poucas sentenças

A termodinâmica descreve o comportamento de sistemas físicos, utilizando algumas poucascoordenadas coletivas, sem precisar descrever o comportamento microscópico do sistema. Parte doproblema resume-se em identificar quais quantidades básicas são adequadas a cada situação.

• A Lei Zero da termodinâmica e Equilíbrio Térmico

A Lei Zero da termodinâmica estabelece:

(Z0) “Se dois corpos 𝒜 e ℬ estão em equilíbrio térmico entre sí, e ℬ está em equilíbrio térmicocom 𝒞, então 𝒜 e 𝒞 também estão em equilíbrio térmico entre sí.”.

Obviamente, para que esta definição tenha sentido, é preciso especificar o que significa “equilí-brio térmico”. Considere a seguinte definição:

(E) “Dois sistemas estão em equilíbrio térmico, se e somente se, eles estão em contato de talforma que possam trocar energia, mas tenham relaxado até um estado em que não exista transfe-rência média de energia entre eles. Um sistema 𝒜 está em equilíbrio térmico com ele próprio, see somente se, todos os subsistemas que o compõem estão em equilíbrio térmico entre sí e então,dizemos que 𝒜 é um estado de equilíbrio. ”

Essa definição minimalista da Lei Zero é uma fundamentação sobre fluxo de energia sem fazerreferência direta à temperatura e entropia. A forma forte da Lei Zero é obtida se sem adição ao jácolocado, fizermos a seguinte exigência:

6

Page 21: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

(Z1) “Para cada estado de equilíbrio, podemos designar um número real que chamaremos detemperatura e denotaremos essa quantidade por 𝑇 .”

Então, chamamos de forma forte da Lei Zero 𝑍0 + 𝑍1 e colocamos que dois sistemas emequilíbrio térmico devem estar obrigatoriamente à mesma temperatura.

• A Primeira Lei da termodinâmica

O princípio de Joule, ou princípio da conservação da energia, ou ainda a Primeira Lei da ter-modinâmica foi estabelecida por vários cientistas2, tendo aparecido mais claramente nos trabalhosde Joule e Mayer3, assumindo que várias formas de trabalho mecânico podem ser transformadosem calor.

Assumindo a constituição atômica da matéria, Helmholtz estendeu o Teorema de Conservaçãoda Energia para a dinâmica microscópica dos átomos. Isto é, ele assumiu que a soma da energiacinética e da energia potencial dos átomos é constante e corresponde à energia interna do corpo.

Desta forma, qualquer quantidade de trabalho que é dissipada na forma de calor, do ponto devista microscópico, significa que os átomos perderam energia. Então, de acordo com Helmholtz,Boltzmann e outros cientistas que estabeleceram a Teoria Cinética da Matéria, troca de calor estãoassociada à dinâmica dos átomos. Precisamos construir uma maneira macroscópica de equacionaressas relações fenomenológicas entre energia, trabalho e troca de calor. Suponha que seja realizadotrabalho 𝛿𝒲 sobre um sistema fechado e simultaneamente seja introduzido calor 𝛿𝒬 no mesmosistema, mantendo sempre o equilíbrio termodinâmico.

A primeira lei da termodinâmica afirma que a variação infinitesimal de energia interna dosistema é dada por:

𝛿𝒰 = 𝛿𝒬 + 𝛿𝒲 (2.1.1)

• A Segunda Lei da termodinâmica

Dentre as leis da termodinâmica, a Segunda Lei é a que possui maior quantidade de enunciadose alguns deles são bastante conflitantes. As duas formas mais tradicionais, e equivalentes, deapresentar a segunda lei são respectivamente os postulados de Clausius e de Kelvin:

1. Postulado de Kelvin : É impossível realizar um processo cíclico cujo único efeito sejaremover calor de um reservatório térmico e produzir uma quantidade equivalente de trabalho.

2. Postulado de Claussius : É impossível realizar um processo cujo único efeito seja transferircalor de um corpo mais frio para um corpo mais quente.

2Nussenzveig, H.M;Curso de Física Básica Vol. 2, Blucher 20143de Oliveira, M,J; Equilibrium Thermodynamics, Springer 2013

7

Page 22: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

A segunda lei da termodinâmica é o que distingue a termodinâmica das demais áreas da física. Poroutro lado, é uma lei fundamental da natureza que possui implicações que vão além dos domínios dafísica. Originalmente as duas formulações apresentadas foram inspiradas nos trabalhos de Carnotsobre máquinas térmicas, e por isso seus postulados originais dizem respeito a motores térmicose reservatórios. Os desenvolvimentos posteriores, devidos a Claussius, levaram à definição daentropia como uma variável de estado e a uma forma alternativa da segunda lei, “o Princípio deMáxima Entropia”.

Para o melhor entendimento de seu conteúdo físico, devemos dividir a segunda lei em trêspartes. A primeira parte diz respeito à temperatura absoluta e entropia. Isso nos permite definirprecisamente um espaço termodinâmico e introduzir uma relação fundamental para os estadosde equilíbrio partindo da conservação de energia. A segunda parte diz respeito ao princípio demáxima entropia e à concavidade da mesma. E finalmente, a terceira parte diz respeito a evoluçãotemporal dos sistemas termodinâmicos e com o aumento da entropia em processos espontâneos eirreversíveis.

Podemos sumarizar tudo isso de forma simples, colocando que a Segunda Lei afirma que oequilíbrio termodinâmico corresponde a uma situação de máxima entropia, para onde ela crescemonotonicamente. Esta situação define um processo irreversível.

A irreversibilidade é algo do qual ninguém duvida. Não podemos esperar que um copo que-brado retorne espontaneamente as nossas mãos, e se tentarmos colá-lo muito provavelmente elenão se parecerá tanto com o original. Por outro lado, sabemos que a irreversibilidade não vemdiretamente das leis de Newton, pois se fizermos 𝑡 = −𝑡 nas equações de movimento, a dinâmicapermanece invariante . O mesmo vale para a mecânica quântica. Podemos, em princípio, obter airreversibilidade a partir das equações reversíveis4,mas, ainda assim, nossas teorias microscópicassão simétricas por reversão temporal.

Do ponto de vista apenas da entropia, o nosso problema na verdade se traduz em obter umainterpretação microscópica para esta grandeza. Para o gás ideal, temos que em um processoisotérmico, a entropia varia com o volume como

Δ𝑆 = 𝑁𝑘 ln 𝑉𝑓

𝑉𝑖

, (2.1.2)

onde percebe-se que ao dobrarmos o volume, a entropia varia de um fator 𝑁𝑘 ln 2. Outro exemplointeressante é o de uma caixa com uma divisória no meio, onde de um lado temos moléculas denéon e do outro de argônio. Se eliminarmos a divisória as moléculas começarão a se misturar e

4Um exemplo bem simples disso é o problema da “Catraca e Lingueta”. O leitor interessado pode consultar ocapítulo 46 de Feynman, Leighton and Sands; The Feynman Lectures on Physics, Vol.1

8

Page 23: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

apesar de não haver interação e nem troca de calor, a entropia irá aumentar de 𝑘𝐿𝑛2 por partícula,apenas devido à mudança na configuração microscópica do sistema e isto não tem nada a ver coma molécula em sí, apenas com o espaço que ela ocupa!

Assim, concluímos imediatamente que: É à mudança de um estado mais ordenado para ummenos ordenado que gera a irreversibilidade. Podemos medir a desordem como sendo o número demaneiras que um arranjo microscópico pode ser alterado e ainda assim corresponder a um mesmoarranjo macroscopico. Nesta interpretação, o equilíbrio termodinâmico corresponde ao estado quepossui maior probabilidade de ocorrer, ou seja aquele que possui maior quantidade de configuraçõesmicroscópicas associadas.

Por fim, colocamos dois postulados equivalentes que são consequência imediata da segunda leida termodinâmica:

1. Princípio de Máxima Entropia: O valor de equilíbrio de qualquer parâmetro interno étal que a entropia é maximizada para um dado valor de energia interna.

2. Princípio de Mínima Energia: O valor de equilíbrio de qualquer parâmetro interno étal que minimiza a energia interna para um dado valor da entropia total.

Do ponto de vista matemático, esses dois princípios são equivalentes a um problema variacionalisoperimétrico: o círculo pode ser considerado como a figura que maximiza a área para um dadoperímetro, ou equivalentemente como a figura que minimiza o perímetro para uma dada área.

2.1.2 Interpretação Microscópica da Entropia

A mecânica estatística se ocupa do problema de como calcular as propriedades de equilíbrio damatéria, partindo da hipótese atômica. De acordo com esta hipótese, a matéria é constituída deátomos ou moléculas descritos de acordo com as leis da mecânica clássica ou da mecânica quântica.Neste ponto de vista, a matéria é entendida como um agregado de 𝑁 partículas e as propriedadesfundamentais emergem do tipo de interação existente entre essas partículas. Conforme já colocado,a entropia é uma quantidade física diferente das demais, dada a sua natureza fenomenológica epor não aparecer em nenhuma equação de movimento fundamental. Mas o que exatamente issosignifica?

Na mecânica quântica, temos que distinguir entre observáveis e estados. Observáveis são opera-dores auto-adjuntos sobre um espaço de Hilbert que representam grandezas físicas como o momentolinear, momento angular e posição. Estados, sejam eles puros ou mistos, são representados poruma Matriz Densidade ou Operador Densidade 𝜌, auto adjunto, com traço unitário.

9

Page 24: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

A entropia não se enquadra em nenhuma dessas duas categorias. Não existe um operador cujovalor esperado em um dado estado seja a entropia daquele estado. Então, fica a pergunta:

Qual a interpretação microscópica da entropia?De acordo com Boltzmann, a entropia está relacionada com o número de estados microscópicos

acessíveis ao sistema. Quanto maior for o número 𝑊 de estados microscópicos acessíveis, maiorserá a entropia 𝑆. Contudo, ainda segundo Boltzmann, a entropia não cresce linearmente com onúmero de microestados, mas sim logarítimicamente:

𝑆 = −𝑘𝐵 ln(𝑊 ). (2.1.3)

O tratamento de Boltzmann foi puramente clássico, o que leva a alguns problemas de interpre-tação, como ,por exemplo, o número de possíveis microestados, que na mecânica clássica não é algomuito bem definido. Por outro lado, esta quantidade tem significado bastante claro na mecânicaquântica; o número de microsestados corresponde ao número de estados puros que compõem oensemble.

Em 1927, Von Neumann introduziu uma extensão do conceito de entropia para a mecânicaquântica:

𝑆(𝜌) = −𝑘𝐵𝑇𝑟(𝜌𝑙𝑜𝑔𝜌), (2.1.4)

para caracterizar a incerteza sobre o estado de um sistema na mecânica quântica. É uma quan-tidade bem definida independente do tamanho do sistema, e sempre ≥ 0, sendo obrigatoriamente= 0 para estados puros. De imediato, não é claro o significado da entropia de Von Neumann.Contudo esta é bastante usada para mensurar a quantidade de informação que pode ser obtidaapós a medida de um dado observável físico.

É fácil verificar que se a distribuição de probabilidade associada aos possíveis microestadosdescritos pelo operador densidade forem equiprováveis com probabilidade 1

𝑊, onde 𝑊 é o número

de microestados, a entropia segundo Boltzmann é recuperada da entropia de Von Neumann. Nateoria dos ensembles de Gibbs, isso é o que chamamos de ensemble microcanônico.

Para concluir esta seção, vamos enunciar formalmente as principais propriedades matemáticasda entropia:

1. A entropia é definida para todo operador densidade 𝜌. É sempre positiva e nula para estadospuros.

2. A entropia é dita ser côncava. Ou seja, para todo operador densidade 𝜌 = 𝜆1𝜌1 +𝜆2𝜌2, temos:

𝑆(𝜌) ≥ 𝜆1𝑆(𝜌1) + 𝜆2𝑆(𝜌2) (2.1.5)

10

Page 25: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

3. A entropia de um sistema composto por subsistemas isolados é aditiva se os subsistemas nãointeragem entre si:

𝑆(𝜌) =∑︁

𝑖

𝑆(𝜌𝑖) (2.1.6)

e sub-adtiva em caso contrário,𝑆(𝜌) ≤

∑︁𝑖

𝑆(𝜌𝑖). (2.1.7)

Apesar de termos nos referido à entropia de Von Neumann, estas propriedades são genéricas edevem ser obedecidas por uma entropia que pretenda reproduzir a termodinâmica.

As diferentes interpretações da entropia termodinâmica deram origem a pelo menos dois estilosde mecânica estatística que serão brevemente apresentados no que segue.

A mecânica estatística foi construida sobre os trabalhos de Boltzmann e Gibbs, como umatentativa de, a partir de uma descrição microscópica, se obter o comportamento termodinâmicode um sistema. O operador densidade surge como um bom candidato para descrever o estadoquântico de um sistema em situações onde temos um ensemble formado por vários microestados,como por exemplo, um ensemble de spins 1/2 que podem ter orientações em diversas direções enão conseguimos precisar o estado quântico do sistema.

Para que esses funcionais de entropia possuam significado físico eles precisam atender as leida termodinâmica, e ser capazes de reproduzir o caráter irreversível e que as grandezas físicascalculadas por métodos estatísticos sejam equivalente aos valores termodinâmicos de equilíbrio. Ademonstração de que isso é verdade requer a inserção de conceitos não intuitivos e às vezes difíceisde demonstrar:

• Equiprobabilidade a priori

• Ergodicidade

• Ensembles

Os dois primeiros foram propostos por Boltzmann como uma maneira de inserir a irreversibi-lidade, característica básica do comportamento termodinâmico, na mecânica clássica. O últimofoi inserido por Gibbs como uma maneira de tratar todas as possíveis configurações microscópicascompatíveis com os vínculos macroscópicos do sistema.

11

Page 26: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

2.2 Princípio de Boltzmann, Equiprobabilidade e Ensem-bles

Os pilares sobre os quais a mecânica estatística se apoia estão nos trabalhos de Bolztmanne Gibbs.5 As duas subseções que seguem são um breve resumo das ideias que fundamentam osmétodos empregados para associar quantidades estatísticas com a termodinâmica6

2.2.1 Princípio de Boltzmann

Boltzmann postulou que a conexão entre entropia termodinâmica e a descrição microscópicade um sistema mecânico, isolado, de 𝑁 partículas ,descrito num espaço de fase {p,q} com 6𝑁dimensões é dada por:

𝑆 = −𝑘𝐵 ln[Ω(𝐸, 𝑉,𝑁)], (2.2.1)

onde 𝑘𝐵 é uma constante que fixa as unidades, 𝐸 a energia, 𝑉 o volume, 𝑁 o número de partículase Ω(𝐸, 𝑉,𝑁) é o número de possíveis configurações microscópicas compatíveis com os vínculosmacroscópicos. Ou seja, é o número de microestados compatíveis com um dado macroestado.

A entropia definida desta forma é aditiva se os dois sistemas forem descorrelacionados: Ω(𝐸, 𝑉,𝑁) =Ω1(𝐸1, 𝑉1, 𝑁1)Ω2(𝐸2, 𝑉2, 𝑁2)

𝑆 = 𝑘𝐵(ln[Ω1(𝐸1, 𝑉1, 𝑁1)] + ln[Ω2(𝐸2, 𝑉2, 𝑁2)]), (2.2.2)

e isto implica diretamente que 𝐸 = 𝐸1 + 𝐸2, 𝑉 = 𝑉1 + 𝑉2, 𝑁 = 𝑁1 +𝑁2.A fenomenologia da termodinâmica associa estados de equilíbrio a estados de máxima entropia.

logo, de acordo com a prescrição de Boltzmann, estados de equilíbrio são aqueles que possuem maiornúmero de microestados compatíveis com os vínculos macroscópicos do sistema.

A mecânica estatística de sistemas isolados possui outro postulado básico, a equiprobabilidadea priori. Todos os microestados compatíveis com os vínculos macroscópicos são equiprováveis.

A ideia de assumir uma probabilidade associada aos microestados ao invés de calculá-los ex-plicitamente leva a uma outra forma de descrever o macroestado de um sistema, chamado de

5Para ser mais preciso, Boltzmann e Gibbs montaram as bases do que conhecemos hoje como o algorítimo damecânica estatística. A “Stanford Encyclopedia of Phylosophy” traz um estudo bastante claro sobre a históriae a filosofia da mecânica estatística e pode ser encontrada no link: http://plato.stanford.edu/entries/statphys-statmech/

6Uma revisão completa dos fundamentos da física estatística pode ser encontrada em: Tolman, R.C; “ThePrinciples of Statistical Mechanis”

12

Page 27: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

ensemble estatístico. Este ensemble consiste em 𝑚 cópias idênticas, virtuais, do sistema para cadapossível configuração microscópica, cada cópia representada por um ponto no espaço de fase. Estainterpretação é válida se assumirmos que os sistemas termodinâmicos são quasi-ergódicos, ou seja,todos os possíveis microestados estão uniformemente distribuídos na região acessível do espaço defase.

A chamada hipótese ergodica, na qual a formulação de ensembles da mecânica estatística estáapoiada, tem como consequência que o valor médio no tempo de uma dada grandeza física é igual aovalor médio calculado sobre todas as possíveis configurações microscópicas, que é o que chamamosmédia de ensemble. Do ponto de vista do espaço de fase, para que isso aconteça o Teorema deLiouville deve ser válido. Contudo, a validade do teorema de Liouville não implica diretamente naergodicidade do sistema, ou seja, nem todo sistema Hamiltoniano é ergódico. Para cada sistemaem estudo, a ergodicidade deve estudada individualmente.7.

Com esta interpretação, Boltzmann colocou quais critérios um sistema Hamiltoniano clássicodeve atender para servir como um bom modelo mecânico para a termodinâmica. Os modelos queatendem os requisitos colocados por Boltzmann são chamados de Ortodos8. Um modelo mecânicoserá um Ortodo se dadas as seguintes condições:

1. 𝐸 = ⟨𝐻⟩ é a “Energia Interna”,

2. 𝑇 = 2⟨𝐾⟩𝑓

“Equipartição de Energia”,

3. 𝑉 = ⟨𝑉 ⟩ “Deslocamento generalizado”,

4. 𝑃 = ⟨𝜕𝐻𝜕𝑉

⟩ “Força generalizada conjugada”,

onde ⟨⟩, representam a média sobre distribuição de probabilidade dos microestados e se é válido oteorema do calor:

𝑑𝐸 + 𝑃𝑑𝑉

𝑇, (2.2.3)

é uma diferencial exata.Sabe-se, desde os trabalhos originais de Boltzmann, que os ensemble Microcanônico e Canônico

são Ortodos9 para sistemas isolados.7Esses poucos paragráfos de forma alguma são suficientes para tratar devidamente o estabelecimento e implica-

ções da hipótese ergódica tanto na mecânica estatística clássica quanto na mecânica estatística quântica. O leitorinteressado é encorajado a consultar as seguintes referências:Oliveira, C.R; Werlang, T; Ergodic Hypothesis in Classical Statistical Mechanics, Revista Brasileira de e Ensino deFísica, v 29, nº 2Klein, M.J; The Ergodic Theorem in Quantum Mechanics, Physical Review 87, 111

8Tradução livre do original Orthode9Gallavotti, G; “Statistical Mechanics: A Short Treatise” 1999

13

Page 28: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

2.2.2 Os Ensembles de Gibbs

O termo ensemble foi introduzido por Gibbs em torno de 1902. A ideia é que um estadomacroscópico é compatível com uma grande quantidade de estados microscópicos, cada um delesrepresentado por um ponto no espaço de fase ou um ket no espaço de Hilbert. Para descrever aevolução do sistema iremos considerar a densidade de pontos no espaço de fase e assumimos válidoo teorema de Liouville.

Isto tem duas consequências importantes:

1. Se o sistema descrito for uniforme ao longo de toda a superfície de energia, então temos umadistribuição de equilíbrio.

2. O volume total ocupado no espaço de fase não varia no tempo.

Ou seja, se o sistema não começa em um estado de equilíbrio, ele nunca alcançará um estadode equilíbrio.

Para resolver este problema, Ehrenfest introduziu o conceito de “Coarse Graining”. Ele alegavaque a entropia não deveria estar ligada ao volume onde a densidade no espaço de fase não é nulae sim com o número de células onde a densidade não é nula. Ou seja, a região acessível do espaçode fase deve ser mapeada em uma região esponjosa que evolui de forma Hamiltoniana.

Ambos os métodos foram bem sucedidos em obter as propriedades de um sistema físico. Con-tudo apesar do vasto desenvolvimento e sucesso da área, uma série de questões continuam emaberto, como o uso de probabilidades e seu significado físico ou como demonstrar a conexão entreuma teoria microscópica e sua contraparte macroscópica.

O uso de probabilidades na física pode ser amplamente questionado no sentido de que a condiçãopara que um sistema físico entre em equilíbrio térmico independa do estado inicial do sistemae da distribuição de probabilidades para os seus microestados. Não obstante, o estado final ésempre o mesmo. Além disso, conforme já foi mencionado, a Mecânica Clássica e a MecânicaQuântica são teorias simétricas por reversão temporal, de tal forma que é preciso primeiro provarque a irreversibilidade pode emergir destas duas teorias antes de usá-las para obter propriedadesmacroscópicas.

A tentativa de justificar este último ponto leva diretamente aos dois pilares da física estatísticaclássica: o Teorema Ergódico e o Teorema H de Boltzmann.

Por outro lado, impor tantos vínculos para que possamos tentar avançar com uma abordagemparece algo muito severo uma vez que espera-se que uma teoria física tenha que lançar mão dealgumas assertivas não demonstradas cujas consequências possam ser confirmadas pela comparaçãocom um experimento. Para citar exemplos da Física Estatística de Gibbs, temos o congelamento

14

Page 29: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

dos graus de liberdade do sistema a baixas temperatura, fazendo o calor específico tender a umvalor finito ou o famoso paradoxo de Gibbs, em relação a como contar corretamente o número departículas em um ensemble clássico. Nenhuma dessas duas hipóteses pode ser provada partindoda mecânica clássica, contudo ao inserir esses ingredientes, os modelos construídos baseados naestatística de Gibbs se tornam comparáveis ao experimento.

Uma outra abordagem seria reinterpretar a maneira como fazemos a mecânica estatística. Setratarmos os mesmos problemas através de inferência estatística ao invés de uma teoria física,percebe-se que o cálculo das quantidades básicas como a função de partição, emergem diretamentede um princípio de máxima entropia estatística e podemos pensar em uma metodologia baseadana teoria de informação para calcular a distribuição de probabilidade dos microestados. Estaabordagem informacional da mecânica estatística é chamada de Princípio de Maximização daEntropia ou simplesmente MaxEnt.

2.3 O Princípio de Maximização da EntropiaO formalismo de ensembles fornece um poderoso algorítimo de cálculo das propriedades físicas

de um sistema de 𝑁 corpos e constitui uma maneira bastante clara de formular um problema físicobaseado nos vínculos macroscópicos.

Ainda assim, não constitui uma maneira completa de partir das leis microscópicas até a ter-modinâmica. Sendo bastante otimista, uma formulação completa do problema deveria atender osseguintes critérios:

1. Não possuir inconsistências matemáticas,

2. Não fazer uso de assertivas não demonstradas,

3. Incluir uma explicação para a existência de estados fora do equilíbrio.

A teoria dos ensembles falha no segundo quesito, ao ter que inserir a Ergodicidade como partefundamental para que funcione. Não devemos tomar isso como um ponto negativo, pois não é raroque uma teoria física tenha pontos em aberto cuja validade deva ser verificada pela experimentação.Por outro lado, podemos ver isto como um estímulo para reinterpretar o método da mecânicaestatística.

Se tomarmos como elemento básico para o problema a falta de informação e então concebera mecânica estatística como um método de inferência ao invés de uma teoria física, em princípio,evitaríamos o uso de hipóteses como ergodicidade pois o que nos restaria seria determinar umalgorítimo de cálculo.

15

Page 30: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

Com o desenvolvimento de uma teoria matemática para a informação, a entropia surge comouma métrica do desconhecimento a respeito dos possíveis eventos descritos por uma variável alea-tória 𝑥, ou como uma medida da falta de informação a respeito de um sistema físico e seu estado.

Em 1953, Shannon desenvolveu uma teoria matemática para quantificar a informação e predizeros resultados de um “experimento” descrito por por uma variável aleatória 𝑥, dada uma distribuiçãode probabilidades 𝑝1, 𝑝2, 𝑝3, ..., 𝑝𝑛 associada a essa variável aleatória e colocou a seguinte questão:

“ Podemos mensurar o quanto de “escolha” está envolvido na seleção de eventos, ou o quantode incerteza temos à respeito dos possíveis resultados?”

Para resolver o problema, Shannon propôs a existência de uma função 𝐻(𝑝1, 𝑝2, ..., 𝑝𝑛) e impôsas seguintes propriedades:

• Propriedade I 𝐻 é uma função contínua de todos os 𝑝′𝑠

• Propriedade II Se todos os 𝑝′𝑠 são iguais, i.e 𝑝 = 1/𝑛, então 𝐻 deveria ter um valor máximoe deve ser uma função monotonicamente crescente de 𝑛

• Propriedade III Se a escolha é quebrada em escolhas sucessivas, então a quantidade 𝐻deve ser a soma dos valores individuais de 𝐻

Observe, que estas são as propriedades que gostaríamos para 𝐻, contudo são propriedades bastanterazoáveis, e podemos justificar todas elas.

• I A continuidade de 𝐻 é justificada pois ao fazer uma pequena modificação em 𝑝, esperamosapenas uma pequena modificação em 𝐻

• II Se temos 𝑛 possíveis eventos, com distribuição uniforme, temos o máximo ou o mínimo deincerteza sobre o resultado do experimento e claramente quanto maior o número 𝑛, maior aquantidade de informação necessária.

• III Às vezes, esta propriedade é enunciada como a independência do agrupamento de eventose equivale a dizer que a informação deve depender apenas da lei de probabilidade e não daforma como adquirimos a informação.

Com estas propriedades, Shannon provou que a única função que obedece essas regras é:

𝐻(𝑝1, ..𝑝𝑛) = −𝑘𝑛∑︁

𝑖=1𝑝𝑖 log(𝑝𝑖), (2.3.1)

onde 𝑘 é uma constante arbitrária.

16

Page 31: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

Assim, interpretar a entropia como a falta de informação sobre os possíveis eventos fornece umalgorítimo preditivo para estimar suas propriedades. É imediato o porquê de suspeitarmos de umapossível conexão entre a Teoria de Informação e a Mecânica Estatística: A entropia de Shannoné a mesma que a Entropia de Gibbs, e seus postulados básicos também são os mesmos que carac-terizam o ensemble canônico. A continuidade é uma propriedade fisicamente razoável, a segundapropriedade leva diretamente ao ensemble microcanônico e a terceira propriedade corresponde àaditividade da entropia para sistemas descorrelacionados.

A teoria de informação aplica um critério construtivo para determinar a distribuição de proba-bilidades baseado apenas em informação parcial sobre o sistema, realizando um tipo de inferênciaestatística chamada de “Princípio de Máxima Entropia”. O que nos leva à um tipo de física esta-tística completamente subjetiva. Estamos trocando a incapacidade de tratar muitas equações demovimento por uma falta de conhecimento sobre o estado do sistema, e todas as regras usuais sãojustificadas de forma completamente independente de qualquer argumento físico e em particular deverificação experimental. Isto é, mesmo que os resultados sejam incompatíveis com o experimento,ainda assim será a melhor estimativa dado o conjunto de dados.

Buscamos uma solução para o seguinte problema estatístico: Dado uma variável aleatória 𝑥𝑖,discreta, tendo apenas como informação o valor médio de uma função 𝑓(𝑥𝑖):

⟨𝑓(𝑥)⟩ =∑︁

𝑖

𝑝𝑖𝑓(𝑥𝑖) (2.3.2)

e a condição de normalização ∑︀𝑖 𝑝𝑖 = 1. Qual o valor médio de uma outra função 𝑔(𝑥𝑖)?É evidente que não temos informação suficiente para resolver este problema, pois não temos

a lei de probabilidades e não temos como saber se ⟨𝑓(𝑥)⟩ possui informação o suficiente paracaracterizar os eventos.

Neste caso, interpretamos o vínculo gerado pelo valor médio fornecido como substituindo ovínculo sobre a região do espaço de fase onde a dimensão é não nula. Especificar probabilidadesquando se tem pouca informação é um problema tão antigo quanto a teoria da probabilidade.

Uma maneira de resolver foi proposta por Laplace e ficou conhecida como o “Princípio da RazãoInsuficiente”, onde dois eventos são ditos equiprováveis dado que não temos motivo para pensar ocontrário.

O cerne da questão é como desenvolver um método de amostragem que evite algum tipo deviés e que seja condizente com a quantidade de informação fornecida. O grande avanço vindo dateoria de informação reside no fato de que existe um único critério não ambíguo para medir a”quantidade de incerteza” representada por uma distribuição de probabilidade. A esta quantidadedamos o nome de Entropia Estatística ou Entropia de Informação. Vamos definir o que seria uma

17

Page 32: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

entropia para a informação:Considere uma variável 𝑥 que pode assumir qualquer valor discreto (𝑥1, 𝑥2, .., 𝑥𝑛). Nosso co-

nhecimento parcial sobre qual processo gera os valores de 𝑥 podem ser representados designandoprobabilidades 𝑝1, 𝑝2, .., 𝑝𝑛 para cara um dos possíveis valores. Shannon demonstrou que as suasexigência para determinar uma métrica do quanto desconhecemos à respeito dos possíveis even-tos do sistema defini univocamente um funcional da distribuição de probabilidades associada aospossíveis eventos:

𝐻[𝒫 ] = −𝑁∑︁

𝑚=1𝑝𝑚 log(𝑝𝑚), (2.3.3)

onde esta quantidade é positiva, cresce com a incerteza e é limitada pelos seguintes casos extremos:Casos limites:

• A Lei de probabilidade da informação completa sobre a sucessão de eventos. Se um eventopossui probabilidade unitária, 𝑝1 = 1 e 𝑝𝑚 = 0 ∀ 𝑚 ≥ 2, então 𝑆[𝒫 ] = −∑︀𝑀

𝑚=1 𝑝𝑚 log(𝑝𝑚) =𝑙𝑜𝑔(1) = 0

• A lei de probabilidade fornece informação mais incompleta possível sobre sobre os microes-tados, isto é eles são equiprováveis: 𝑝𝑚 = 1

𝑀,∀𝑚, então:

𝑆[𝒫 ] = −𝑀∑︁

𝑚=1𝑝𝑚 log(𝑝𝑚) = 𝐻[𝒫 ] = −

𝑀∑︁𝑚=1

1𝑀

log(︂ 1𝑀

)︂= log(𝑀) (2.3.4)

o que resulta em:0 ≤ 𝐻[𝒫 ] ≤ log(𝑀), (2.3.5)

caracterizando a entropia como uma medida do nosso desconhecimento sobre os possíveis eventos.Duas situações particularmente importantes devem ser analisadas:

• Eventos estatisticamente independentes

• Eventos estatisticamente correlacionados

Se os eventos forem independentes, temos que 𝒫 = 𝒫𝑚 ⊗ 𝒫𝑛 = 𝒫𝑚𝒫𝑛 e a entropia estatística édita ser adtiva:

𝐻[𝒫𝑚 ⊗ 𝒫𝑛] = 𝐻[𝒫𝑚] +𝐻[𝒫𝑛]. (2.3.6)

18

Page 33: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

No caso dos eventos estatisticamente correlacionados, temos que 𝒫 = 𝒫𝑚 ⊗ 𝒫𝑛 ̸= 𝒫𝑚𝒫𝑛 e aentropia estatística é dita ser sub-aditiva

𝐻[𝒫𝑚 ⊗ 𝒫𝑛] ≤ 𝐻[𝒫𝑚] +𝐻[𝒫𝑛]. (2.3.7)

Para resolver o problema proposto, temos que buscar pela distribuição de informação com o menorviés que seja compatível com o vínculo imposto por ⟨𝑓(𝑥)⟩ e∑︀𝑖 𝑝𝑖 = 1. A distribuição de menor viésé a que possui maior entropia, então podemos buscar uma maximização da entropia de Shannonpelo método dos multiplicadores de Lagrange, onde temos que encontrar um extremo do seguintefuncional:

Φ = 𝐻(𝑝𝑖) − 𝜆∑︁

𝑖

𝑝𝑖𝑓(𝑥𝑖) − 𝛼∑︁

𝑖

𝑝𝑖, (2.3.8)

𝛿Φ = 𝛿𝐻(𝑝𝑖) − 𝜆∑︁

𝑖

𝛿𝑝𝑖𝑓(𝑥𝑖) − 𝛼∑︁

𝑖

𝛿𝑝𝑖 (2.3.9)

= −∑︁

𝑖

𝑘 ln(𝑝𝑖)𝛿𝑝𝑖 −∑︁

𝑖

𝛿𝑝𝑖 − 𝜆∑︁

𝑖

𝛿𝑝𝑖𝑓𝑖 − 𝛼∑︁

𝑖

𝛿𝑝𝑖 = 0. (2.3.10)

A solução mais geral é𝑃𝑖 = 𝐶𝑜𝑒𝑥𝑝(−𝛼− 𝜆

𝑘𝑓(𝑥𝑖)) (2.3.11)

onde temos:⟨𝑓(𝑥)⟩ = − 𝜕

𝜕𝜆𝑙𝑜𝑔(𝒵(𝜆)), (2.3.12)

𝛼 = log(𝒵(𝜆)), (2.3.13)

e,𝒵(𝜆) =

∑︁𝑖

𝑒𝑥𝑝(−𝜆

𝑘𝑓(𝑥𝑖)). (2.3.14)

O caminho para a mecânica estatística é bem claro agora. A partir da entropia de Gibbspodemos obter,por exemplo, qual o operador densidade que é compatível com o ensemble canônico.Considere o vínculo de energia média:

⟨�̂�⟩ = 𝑇𝑟(𝜌�̂�) = 𝒰 (2.3.15)

onde trocamos 𝑘 pela constante de Boltzmann 𝑘𝐵 e �̂� é o Hamiltoniano do sistema. Seguindo

19

Page 34: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

pela mesmo processo variacional, chegamos imediatamente a:

𝜌 = 𝑒𝑥𝑝(−𝛽�̂�) (2.3.16)

onde o multiplicador de Lagrange: 𝜆 = 1𝑇

= 𝛽. As funções termodinâmicas:

𝒰 − 𝑇𝒮 = 𝐹 (𝑇, 𝛼1, ...) = −𝑘𝑇 𝑙𝑜𝑔(𝒵(𝑇, 𝛼1, ...)) (2.3.17)

𝒮 = − 𝜕

𝜕𝑇𝐹 (𝑇, 𝛼1, ...) = −𝑘

∑︁𝑖

𝑝𝑖𝑙𝑜𝑔(𝑝𝑖) (2.3.18)

𝛽𝑖 = 𝑘𝑇𝜕

𝜕𝛼𝑖

𝑙𝑜𝑔(𝒵(𝜆)) (2.3.19)

Os resultados baseados na maximização de uma entropia estatística são bastante animadorespois não foi preciso evocar nenhuma propriedade física de complexa demonstração, como a ergo-dicidade e a equiprobabilidade a priori, contudo devemos fazer alguns comentários finais a fim dedeixar claro que este método também possui alguns problemas e não constitui uma forma definitivade realizar o trabalho da mecânica estatística.

A entropia deve ser interpretada como uma medida do nosso desconhecimento sobre o estadofísico do sistema. Por outro lado, em situações onde existe equilíbrio termodinâmico, que é o casode maior interesse, a entropia é uma quantidade mensurável, o que em princípio depõe contra ainterpretação apresentada. Não obstante, lembro que o princípio de máxima entropia não temnenhum compromisso com o resultado experimental, ou seja não constitui uma teoria física.

Por último, devemos alertar que parte da motivação na busca de uma conexão entre a entropiaestatística e a entropia termodinâmica vem do fato de encontrarmos a mesma expressão matemáticana teoria de informação e no ensemble de Gibbs.

De forma alguma podemos tomar isto como uma evidência definitiva da conexão entre a Ter-modinâmica e a Teoria de informação. O que deve ser feito é buscar limites onde a interpretaçãodas grandezas que emergem das duas teorias possuem o mesmo significado físico.

Antes mesmo dos trabalhos de Jaynes10 transformarem a mecânica estatística numa teoriabaseada em inferência estatística, Boltzmann já havia percebido que interpretar a entropia comonossa ignorância sobre o estado do sistema poderia ser útil. Conclusões semelhantes foram obtidaspor Weaver e Shannon. Podemos sintetizar toda discussão à respeito das propriedades estatísticasda entropia através dos seguintes postulados:

10Jaynes, E.T;Information Theory and Statistical Mechanics, 1957

20

Page 35: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

• Postulados de Fadeev: Seja uma entropia estatística: 𝐻(𝑝1, 𝑝2, ...., 𝑝𝑛)

1. 𝐻(𝑝1, 𝑝2, ...., 𝑝𝑛) é uma função simétrica dos seus argumentos

2. 𝐻(𝑝, 1 − 𝑝) é uma função contínua de 𝑝, ∀𝑝, tal que 0 ≤ 𝑝 ≤ 1

3. 𝐻(1/2, 1/2) = 1

4. 𝐻(𝑝1, 𝑝2, ...., 𝑝𝑛) = ∑︀𝑛 𝐻(𝑝𝑛)

• Estes postulados definem univocamente a entropia de Shannon

𝐻𝒫 ] = −∑︁

𝑛

𝑝𝑛𝑙𝑜𝑔[𝑝𝑛]

Nos anos que seguiram, outras métricas de informação foram propostas com o intuito de gene-ralizar a entropia de Shannon para preservar a adtividade, no caso de sistemas correlacionados, outratar algum tipo de ruído associado à troca de informação. Em 1966, Alfred Rényi11, mostrou quea entropia é unicamente definida pela maneira como a entropia de sistemas multipartite é somada.Assim reconsiderarmos os postulados que definem a entropia de informação da seguinte maneira:

• O último postulado estabelece a aditividade da entropia conforme estamos acostumados efaz a ponte entre a entropia de Shannon e os Ensembles de Gibbs

• Podemos pensar numa situação mais geral. Podemos propor que a entropia seja aditiva deacordo com alguma função:

𝑔(𝐻(𝑝1, 𝑝2, ...., 𝑝𝑛)) = 𝑔(∑︁

𝑛

𝐻(𝑝𝑛)) (2.3.20)

• Propondo uma função peso 𝑔𝛼(𝑥) = 2(𝛼−1)𝑥, obtemos a famosa entropia de Rényi:

𝐻(𝑝) = 11 − 𝛼

log[𝑇𝑟𝜌𝛼]. (2.3.21)

Outra proposta é baseada em manter a aditividade para sistemas estatisticamente correlacio-nados e foi introduzida por Daroczy e Aczel 12,13

11 − 𝛼

(𝑇𝑟𝜌𝛼 − 1) (2.3.22)

11Rényi, A; On generalized measures of information and its applications, 196612Daroczy and Aczel 195613Note que esta é exatamente a entropia conhecida como Entropia de Tsallis assim nomeada em 1988

21

Page 36: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

onde neste caso, existe um único valor do parâmetro ajustável para o qual esta entropia seriaadtiva.

2.4 Mecânica Estatístitica Generalizada

A mecânica estatística deve ser completamente consistente com a fenomenologia da termodi-nâmica. A fim de uma exposição mais clara e direta do que os enunciados usuais das leis datermodinâmica, foram feitas várias tentativas para enunciar a termodinâmica por meio de postu-lados ao invés de leis fenomenológicas.

Boa parte deste trabalho foi desenvolvido por Caratheodóry e Tisza e consolidados por Callenna forma dos seguintes postulados:

• Postulado I Existe um estado particular chamado de estado de equilíbrio.

• Postulado II Existe uma função 𝑆 dos parâmetros extensivos do sistema, chamada deentropia, definida para todos os estados de equilíbrio, tal que neste estado a entropia alcançaseu valor máximo

• Postulado III A entropia de um sistema composto é aditiva sobre os subsistemas consti-tuintes. A entropia é diferenciável e é uma função monotonicamente crescente da energia.

• Postulado IV A entropia vai a zero, quando a temperatura alcança o zero absoluto.

Estes postulados não emergem como uma prova das leis da termodinâmica e nem o oposto,apenastentam reproduzir seu significado de uma maneira lógica.

Algumas consequências destes postulados do ponto de vista termodinâmico, são que:

1. Os postulados II e III são usualmente tomados como enunciados da Segunda Lei da termo-dinâmica. Contudo, a segunda lei da termodinâmica não requer a aditividade da entropia,pois isto implica diretamente que a energia interna é a soma da energia de cada uma dossubsistemas, excluindo assim qualquer tipo de sistema interagente, dado que neste caso aenergia total deve incluir a soma dos termos de interação.

2. O postulado IV é uma reprodução da terceira lei, conforme enunciada por Planck, e carregao mesmo problema em nos fornecer informação sobre qualquer particularidade do estadofundamental de um sistema físico.

22

Page 37: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

Se a entropia estatística tem o intuito de reproduzir o comportamento termodinâmico, deacordo com esta formulação, ela deve ser sempre aditiva, mesmo para sistemas interagentes, o quereduz a formulação baseada na Entropia de Boltzmann-Gibbs-Shannon-Von Neumann um casoparticular de uma teoria mais geral. Ou seja, teríamos que aplicar o princípio de máxima entropiaa uma forma mais geral de entropia, que em algum limite recuperaria as entropias usuais, mas quefosse aditiva mesmo para sistemas correlacionados. Isto implica dizer, que estamos modificandoo postulado da aditividade, da mesma forma que fizeram Rényi ou Daróczy com as métricas deinformação generalizadas, e a partir daí construir uma mecânica estatística.

Em 1988, Constantino Tsallis, propôs uma mecânica estatística baseada no funcional de en-tropia idêntico ao de Daroczy, porém obtido via uma outra rota, inspirada nas expressões parasistemas físicos com caráter fractal, que ficou conhecida como Mecânica Estatística Não Extensivaou Estatística de Tsallis.

O objetivo fundamental é construir uma termoestatística que seja sempre aditiva. Isto é,sabemos que a entropia de Boltzmann Gibbs não é adtiva para sistemas com dimensões fractais,dissipativos, fortemente correlacionados ou sistemas com interações de longo alcance. Isso sedeve ao fato que ao calcular a energia desses sistemas, a energia total será a soma da energia decada um dos componente, mais a energia associada aos termos de interação. Então, utilizandouma entropia dependente de um parâmetro, poderia-se em princípio obter um modelo mínimo,partindo do princípio de maximização da entropia e encontrar um valor do índice ajustável tal queessa entropia seja aditiva.

A proposta de generalização da mecânica estatística segundo Tsallis é baseada nas propriedadesda q-Entropia:

𝑆𝑞 = −𝑘𝑇𝑇𝑟(𝜌𝑞) − 1𝑞 − 1 (2.4.1)

que no limite 𝑞 → 1, recupera a entropia usual.

De imediato, nota-se que a entropia não é aditiva para sistemas descorrelacionados:

𝜌 = 𝜌(𝐴) ⊗ 𝜌(𝐵) (2.4.2)

temos que:𝑆𝑞(𝐴+𝐵) = 𝑆𝑞(𝐴) + 𝑆𝑞(𝐵) + (1 − 𝑞)

𝑘𝑇

𝑆𝑞(𝐴)𝑆𝑞(𝐵) (2.4.3)

e a aditividade é recuperada no limite 𝑞 → 1. Ao romper com a aditividade, estamos dizendo deimediato que o sistema de estudo não está isolado. Quanto à notação, vamos escrever a entropia

23

Page 38: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

da seguinte maneira:

𝑆𝑞 = −𝑘𝑇1 −∑︀

𝑖 𝑝𝑞

𝑞 − 1 = −𝑘𝑇

∑︁𝑖

𝑝𝑞𝑖 𝑙𝑜𝑔𝑞𝑝𝑖 (2.4.4)

ou na forma quântica𝑆𝑞 = −𝑘𝑇𝑇𝑟(𝜌𝑞𝑙𝑜𝑔𝑞𝜌) (2.4.5)

que define o q-logarítimo:

𝑙𝑜𝑔𝑞(𝑋) = 𝑋1−𝑞 − 11 − 𝑞

(2.4.6)

Aplicando o princípio de maximização da entropia à entropia de Tsallis com os vínculos de umensemble canônico, obtemos o “ensemble canônico generalizado”.

Vínculos:⟨𝐸⟩ = 𝑇𝑟(𝜌𝑞𝐻) (2.4.7)

𝑇𝑟(𝜌𝑞) = 1 (2.4.8)

obtemos o operador densidade generalizado:

𝜌𝑞 = [1 − (1 − 𝑞)𝛽𝑞𝐻]1

1−𝑞 /𝒵𝑞 (2.4.9)

onde 𝒵𝑞 é a função de partição generalizada

𝒵𝑞 = 𝑇𝑟(𝜌𝑞) (2.4.10)

Existe muita controvérsia a respeito da melhor maneira de colocar o valor médio no contexto daestatística de Tsallis. Contudo, me parece inadequado tomar o valor médio de outra forma somentepara satisfazer uma nova entropia, pois a definição de valor médio e operador densidade independedo funcional de entropia, extensividade ou qualquer outra motivação apresentada para as entropiasgeneralizadas.

É possível provar que a conexão com a termodinâmica é obtida através da seguinte prescriçãopara a energia livre em termos do q-logarítimo, usando que.

𝑈𝑞 = − 𝜕

𝜕𝛽𝑞

𝑍1−𝑞𝑞 − 11 − 𝑞

, (2.4.11)

24

Page 39: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

aplicando uma transformação de Legendre temos que

𝐹𝑞 = −𝑘𝑇𝑇𝒵1−𝑞

𝑞 − 11 − 𝑞

= −𝑘𝑇𝑇 log𝑞 𝒵𝑞, (2.4.12)

e as funções termodinâmicas são preservadas, a exemplo do calor específico:

𝐶𝑞 = −𝑇 𝑑2𝐹𝑞

𝑑2𝑇(2.4.13)

Muito pode ser dito a respeito do que foi desenvolvido baseado neste funcional de entropia.Contudo este pequeno resumo é suficiente para desenvolvermos o texto e discutir a aplicabilidadeda termodinâmica emergente desta definição de entropia no contexto de sistemas dissipativos.

A q-Entropia de Tsallis recebeu grande atenção nos anos que a seguiram a sua formulação nosentido de desenvolver uma termodinâmica nela baseada. Existe uma vasta literatura a respeitoda aplicabilidade das distribuições dela emergentes, contudo existem poucos testes consistentesna tentativa de comparar os resultados obtidos com o de sistemas físicos não extensivos cujosresultados sejam bem conhecidos, a fim de determinar o parâmetro q. Outro fato interessante éque o princípio de máxima entropia não faz diferença entre a entropia de Rényi e Entropia deTsallis.

Não existe uma explicação clara para isso. Uma das possibilidades é que como o operadordensidade é obtido tomando apenas a primeira variação das entropias, como elas possuam formaspróximas, a entropia de Tsallis pode ser entendida como um truncamento de primeira ordem daentropia de Rényi. O princípio de máxima entropia não é sensível o suficiente para perceber isso.

De fato, essas entropias possuem algumas propriedades distintas que as tornam conceitualmentediferentes, como a aditividade da entropia de Rényi para sistemas estatisticamente descorrelacio-nados. Pensando apenas no operador densidade obtido e em preservar o papel da transformada deLegendre, as relações termodinâmicas são as mesmas. Houve algum debate sobre este assunto 14,que conclui que a energia livre possui uma forma diferente:

𝐹𝑞 = 𝑈𝑞 − 𝑇𝑆𝑅𝑞 = 𝑈𝑞 − 1

𝛽log(𝑍𝑞), (2.4.14)

mas não é claro se essa forma respeita a transformada de Legendre. Contudo se lançarmos mãoda proposta de vínculos normalizados, ela representa uma série de vantagens.

14Lenzi, Mendes, da Silva, 2000

25

Page 40: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

Capítulo 3

Sistemas Quânticos Dissipativos

3.1 Conceitos Fundamentais

Na física estatística frequentemente usamos a ideia de um sistema pequeno em contato comoutro muito maior a uma dada temperatura. A origem dessa ideia remonta ao Ciclo de Carnot,onde um volume finito de gás é transferido de um ambiente a uma dada temperatura para outroambiente a uma temperatura diferente. Em algumas situações mais genéricas, nem ao menos épreciso construir um reservatório térmico propriamente dito. Considere por exemplo uma reaçãoquímica, onde o sistema de interesse são as moléculas de uma dada natureza e o reservatório é asolução na qual a reação ocorre. O mesmo ocorre por exemplo com uma partícula difundindo emum fluido viscoso, um Movimento Browniano, onde o fluido faz as vezes de reservatório.

A separação entre sistema e reservatório é bem mais clara no contexto da óptica quântica, ondetemos átomos(sistema), acoplados com o campo de radiação(reservatório).

Esta separação traz à tona uma pergunta bastante pertinente; como funciona a interação entreas duas partes e qual a influência disto no estado individual de cada uma das partes? Em geral,supomos que o acoplamento do sistema com o banho é tal que, junto ao fato que o banho é muitomaior que os sitema, podemos fazer uma série de aproximações sobre estes, tais como montar umateoria efetiva com um potencial não local no tempo. Nem sempre este é o caso. No exemplo doátomo no campo de radiação, este átomo pode ser excitado e emitir um fóton, sem o qual este nãopoderia ser detetado, e este fóton perturbar o banho.

Por outro lado, a influência do banho no sistema é bem mais clara. Banho e sistema podemtrocar energia, dando origem a efeitos de dissipação e flutuação.

Neste trabalho, estamos interessados nas propriedades de equilíbrio de um sistema quântico.Contudo, a fim de obtermos alguma intuição sobre quais efeitos físicos são relevantes, é conveniente

26

Page 41: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

olhar brevemente para a dinâmica de um sistema dissipativo clássico. A situação física mais simplesque podemos imaginar é sem dúvida a de uma partícula sob a ação de uma força viscosa dependenteda velocidade. Este é um problema bem conhecido de mecânica clássica amplamente discutido emqualquer livro-texto1. Para resolvermos este problema, basta fazermos uma extensão das equaçõesde Euler-Lagrange, assumindo que o potencial pode ser uma função da velocidade generalizada ouexplicitamente considerarmos esta força no contexto da mecânica de Newton.

O tipo de problema em que estamos interessados, torna este estudo um pouco mais complicado.Estamos interessados em um movimento dissipativo onde além de uma força viscosa, temos a açãode uma componente aleatória, dependente do tempo, que acrescenta um carater estocástico aosistema que estamos tratando. A ideia aqui é adicionar algum efeito de memória na dinâmica dosistema. O sistema mais simples que podemos pensar com essas características é o MovimentoBrowniano.

3.2 Movimento Browniano

3.2.1 Movimento Browniano Clássico

Em 1827, o médico e botânico escocês Robert Brown estudou o movimento de partículas depolem numa suspensão aquosa e observou que algumas partículas presentes nos vacúolos do polem,executavam um movimento errático. A fim de determinar se tratava-se de algum fenômeno deordem biológica, Brown estudou sob as mesmas condições grãos de poeira e concluíu que tratava-se de um fenômeno físico. Apesar de não ter conseguido uma explicação para o movimento, ele ficouconhecido como Movimento Browniano. Nos anos seguintes, o movimento browniano se tornou umtópico de grande interesse da comunidade cientifica na tentativa de comprovar a hipótese molecular.Em 1905, Albert Einstein propôs que a partícula de polem estava sendo movida pelas moléculasde água. Aplicando correções para o tamanho da partícula e a temperatura, Einstein obteve que adistância percorrida pela partícula aumenta com o quadrado do tempo decorrido. Em 1908,JeanPerrin comprovou experimentalmente a proposta de Einstein e seus resultados contribuíram parao estabelecimento da hipótese molecular. Por seus feitos, Perrin foi agraciado com o Nobel deFísica em 1926. Alguns anos mais tarde, o matemático Norbert Wiener percebeu que devido a suanatureza, o movimento browniano não poderia ser explicado utilizando equações de movimentona forma tradicional, completamente determinística. Então, começou a realizar um estudo denatureza probabilística, introduzindo a necessidade de uma componente estocástica. Dentre seus

1Veja por exemplo o problema 2.14 de Goldstein, Safko and Poole, Classical Mechanics, 3ed

27

Page 42: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

resultados mais importantes, estão a demonstração de que o caminho que uma partícula brownianapercorre entre dois pontos é infinito e que a trajetória desta partícula constitui uma superfície 2D.

O modelo físico mais conhecido para estudar o movimento browniano é feito através da equaçãode Langevin, proposta em 1908 e dada por:

𝑀𝑞(𝑡) + 𝜂𝑞(𝑡) + 𝑉 ′(𝑞) = 𝑓(𝑡), (3.2.1)

onde 𝑀 é a massa da partícula, 𝜂 é a constante de dissipação e 𝑉 (𝑞) é o potencial externo ao quala partícula está sujeita. 𝑓(𝑡) é a chamada força flutuante e obedece as seguintes relações:

⟨𝑓(𝑡)⟩ = 0, (3.2.2)

⟨𝑓(𝑡)𝑓(𝑡′)⟩ = 2𝜂𝑘𝑇𝛿(𝑡− 𝑡′). (3.2.3)

A equação de Langevin nada mais é do que um modelo fenomenológico formulado a partirda segunda Lei de Newton contendo um termo estocástico 𝑓(𝑡). Como toda teoria fenomenoló-gica possui um domínio de validade, a equação de Langevin é uma boa descrição do movimentobrowniano quando:

• a massa, 𝑀 , da partícula browniana é tal que𝑀 ≫ 𝑚, onde m é a massa das moléculas dofluído viscoso.

• estamos interessados no comportamento da partícula em tempos muito maiores do que otempo médio de colisões entre as moléculas.

Tanto a força viscosa quanto a força estocástica são manifestações físicas do mesmo fenômeno,a interação da partícula browniana com o meio que a cerca. A força viscosa representa um efeitosistemático das partículas e o a força estocástica reflete a influência instantânea do meio.

3.2.2 Movimento Browniano Quântico

Apesar de quase todos os problemas de mecânica quântica que estamos acostumados a resolverassumirem que o sistema de interesse está completamente isolado, isso quase nunca é verdade.Considerar o efeito do acoplamento com o meio ao redor pode revelar vários aspectos físicos desco-nhecidos do sistema de interesse e não raro é a causa do desvio entre o resultado experimental e apredição teórica. Classicamente, o problema sempre pode ser tratado com a equação de Langevin e

28

Page 43: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

seus desdobramentos. Por exemplo, uma teoria estocástica baseada na equação de Fokker-Planck.O problema surge quando tentamos quantizar um sistema dissipativo.

Nossa abordagem tradicional para quantizar um sistema físico consiste em partir do Hamiltoni-ano ou do Lagrangeano que gera suas equações clássicas de movimento e aplicar os bem conhecidosprocedimentos de quantização canônica. Contudo, é um fato bem conhecido que não existe um Ha-miltoniano ou Lagrangeano que gere a equação de Langevin que não possua dependência explicitano tempo. Existem algumas tentativas de Lagrangeanos ou Hamiltonianos dependentes do tempoque produzem os efeitos dissipativos consistentes2, porém quantizar esses sistemas nos conduz aoutros problemas como dificuldades em definir as relações de incerteza e quando essas possíveissoluções são fisicamente plausíveis.

Podemos agrupar boa parte das tentativas de quantizar um sistema dissipativo em duas cate-gorias:

• buscar por novos métodos de quantização

• modelos do tipo sistema-mais-reservatório

A primeira abordagem sempre recai na necessidade de hipóteses questionáveis e os resultadosnem sempre são fisicamente realistas. Desta forma, a abordagem geral consiste em assumir que osistema de interesse está acoplado com um outro sistema que é o responsável pelos efeitos dissipati-vos. De fato, esta abordagem é bastante factível pois todos os sistemas dissipativos encontrados nanatureza estão acoplados com um meio que é responsável pela sua perda de energia o que justificaestudar modelos desse tipo ao invés de buscar modificações nos esquemas de quantização.

Nossa metodologia consiste em propor explicitamente um Hamiltoniano para o sistema com-posto, da forma:

�̂� = �̂�𝑆 + �̂�𝑆𝐵 + �̂�𝐵. (3.2.4)

Agora temos que enfrentar duas escolhas. Uma é qual o conteúdo físico mínimo que o modelodeve ter a fim de reproduzir o resultado desejado no limite clássico. Uma vez feita a escolhaapropriada, ou seja uma escolha cuja solução clássica seja uma equação de Langevin ,esta muitoprovavelmente será a certa. A segunda diz respeito a qual método iremos aplicar para tratar osistema composto e é isso que discutiremos em seguida.

2Goldstein, Safko Poole; Problema 2.14

29

Page 44: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

3.3 O Banho de Osciladores Independentes

Considere um sistema cujo Lagrangeano clássico é dado por:

𝐿𝑇 𝑜𝑡 = 𝐿𝑆𝑖𝑠𝑡 + 𝐿𝐼𝑛𝑡 + 𝐿𝑅𝑒𝑠𝑒𝑟𝑣 + 𝐿𝐶𝑇 , (3.3.1)

onde:

𝐿𝑆𝑖𝑠𝑡 = 12𝑚𝑞

2 − 𝑉 (𝑞), (3.3.2)

𝐿𝐼𝑛𝑡 =∑︁

𝑘

𝐶𝑘𝑞𝑘𝑞, (3.3.3)

𝐿𝑅𝑒𝑠𝑒𝑟𝑣 =∑︁

𝑘

12𝑚𝑞

2𝑘 −

∑︁𝑘

12𝑚𝑧𝜔

2𝑘𝑞

2𝑘, (3.3.4)

𝐿𝐶𝑇 =∑︁

𝑘

12𝐶2

𝑘

𝑚𝑘𝜔2𝑘

𝑞2, (3.3.5)

O último termo, o contra-termo, possui duas funções fundamentais:

1. Renormalizar o potencial: 𝑉 (𝑞) → 𝑉 (𝑞) +∑︀𝑘

12

𝐶2𝑘

𝑚𝑘𝜔2𝑘𝑞2

2. Preservar a invariância translacional do reservatório ao qual a partícula está acoplada.

Se tentarmos resolver as equações de movimento clássicas sem o contra-termo sempre irá aparecerum termo quadrático nas coordenadas do sistema que pode ser renormalizado em seguida, con-tudo sempre estaremos resolvendo o problema de uma partícula sob a ação de um potencial de“fundo” mais o potencial externo que estamos interessados. Adcionando o contra-termo as equa-ções clássicas dependerão apenas do potencial em que estamos interessados em estudar a dinâmicada partícula Browniana.

As equações de movimento para este sistema são dadas por:

𝑀𝑞 = −𝑉 ′(𝑞) +∑︁

𝑘

𝐶𝑘𝑞𝑘 −∑︁

𝑘

𝐶2𝑘

𝑚𝑘𝜔2𝑘

𝑞, (3.3.6)

𝑚𝑘𝑞𝑘 = −𝑚𝑘𝜔2𝑘𝑞𝑘 + 𝐶𝑘𝑞𝑘. (3.3.7)

30

Page 45: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

Figura 3.1: Análogo mecânico do modelo do banho de osciladores.

Tomando a transformada de Laplace da última equação, obtemos

𝑞𝑘(𝑠) = 𝑞𝑘(0)𝑠2 + 𝜔2

𝑘

+ 𝑠𝑞𝑘(0)𝑠2 + 𝜔2

𝑘

+ 𝐶𝑘𝑞(𝑠)𝑚𝑘(𝑠2 + 𝜔2

𝑘) , (3.3.8)

que substituindo na equação de movimento para o sistema, após alguma álgebra,obtemos

𝑀𝑞 + 𝑉 ′(𝑞) +∑︁

𝑘

𝐶2𝑘

𝑚𝑘𝜔2𝑘

12𝜋𝑖

∫︁ 𝜖+𝑖∞

𝜖−𝑖∞

𝑠2𝑞𝑘(0)𝑠2 + 𝜔2

𝑘

𝑒𝑠𝑡𝑑𝑠 = 12𝜋𝑖

∫︁ 𝜖+𝑖∞

𝜖−𝑖∞

∑︁𝑘

𝐶𝑘

{︃𝑞𝑘(0)𝑠2 + 𝜔2

𝑘

+ 𝑠𝑞𝑘(0)𝑠2 + 𝜔2

𝑘

}︃𝑒𝑠𝑡𝑑𝑠

(3.3.9)Aplicando o teorema da convolução, podemos escrever o último termo do lado esquerdo da

igualdade da seguinte forma:

𝑑

𝑑𝑡

{︃∑︁𝑘

𝐶2𝑘

𝑚𝑘𝜔2𝑘

∫︁ 𝑡

0𝑐𝑜𝑠[𝜔𝑘(𝑡− 𝑡′)]𝑞(𝑡′)𝑑𝑡′

}︃. (3.3.10)

Agora, fazemos a passagem para o limite do contínuo inserindo a densidade espectral de banho𝐽(𝜔), dada por:

𝐽(𝜔) = 𝜋

2∑︁

𝑘

𝐶2𝑘

𝑚𝑘𝜔2𝑘

𝛿(𝜔 − 𝜔𝑘) (3.3.11)

e então, podemos escrever

∑︁𝑘

𝐶2𝑘

𝑚𝑘𝜔2𝑘

𝑐𝑜𝑠[𝜔𝑘(𝑡− 𝑡′)] = 2𝜋

∫︁ ∞

0

𝐽(𝜔)𝜔

𝑐𝑜𝑠[𝜔(𝑡− 𝑡′)] (3.3.12)

31

Page 46: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

Agora, assumindo que 𝜔 < Ω, onde Ω é um corte de altas frequências, definindo 𝛾 ≡ 𝜂2𝑀

, comosendo a frequência de relaxação macroscópica do problema e assumindo

𝐽(𝜔) =

⎧⎪⎨⎪⎩𝜂𝜔 se 𝜔 < Ω

0 se 𝜔 > Ω

podemos finalmente escrever que:

∑︁𝑘

𝐶2𝑘

𝑚𝑘𝜔2𝑘

𝑐𝑜𝑠[𝜔𝑘(𝑡− 𝑡′)] = 2𝜋

∫︁ 𝜔

0𝑑𝜔𝜂𝑐𝑜𝑠[𝜔(𝑡− 𝑡′)] = 2𝜂𝛿(𝑡− 𝑡′) (3.3.13)

onde tomamos o limite Ω → ∞ que significa apenas que Ω ≫ 1, este resultado nos permite escreverque:

𝑑

𝑑𝑡

∫︁ 𝑡

02𝜂𝛿(𝑡− 𝑡′)𝑞(𝑡′)𝑑𝑡′ = 𝜂𝑞 + 2𝜂𝛿(𝑡)𝑞(0) (3.3.14)

Finalmente, o lado direito da igualdade (3.3.9) pode ser interpretado como a força flutuante

𝑓(𝑡) =∑︁

𝑘

𝑐𝑘[𝑞𝑘(0)𝜔𝑘

𝑠𝑖𝑛(𝜔𝑘𝑡) + (𝑞𝑘(0) − 𝑞𝑘)𝑐𝑜𝑠(𝜔𝑘𝑡)]. (3.3.15)

Usando o princípio de equipartição de energia, pode-se mostrar que

⟨𝑓(𝑡)⟩ = 0 (3.3.16)

⟨𝑓(𝑡)𝑓(𝑡′)⟩ = 2𝜂𝑘𝑇𝛿(𝑡− 𝑡′) (3.3.17)

e após todas essas manipulações, obtemos uma equação de Langevin:

𝑀𝑞 + 𝜂𝑞 + 𝑉 ′(𝑞) = 𝑓(𝑡) (3.3.18)

Logo, a dinâmica clássica de um sistema acoplado a um banho de osciladores em equilíbrioatende nossas expectativas e reproduz uma equação de Langevin. Deve-se enfatizar que em parteisso é devido à escolha feita para a densidade espectral 𝐽(𝜔). O passo seguinte é implementar ométodo de integrais de Feynman para calcular o operador densidade reduzido de equilíbrio.

32

Page 47: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

3.4 Integrais de Feynman em Tempo Imaginário e a FísicaEstatística

3.4.1 O Operador Densidade

No contexto da mecânica estatística, o estado microscópico de um sistema em particular não éperfeitamente conhecido. Esta falta de conhecimento a respeito do sistema em geral é tratada coma inserção de probabilidades associadas a cada uma das configurações microscópicas compatíveiscom os vínculos microscópicos. Na mecânica quântica, nos referimos a este tipo de ensemble comosendo um ensemble misto ou uma mistura estatística. Isto é, o sistema pode ser encontrado noestado |Ψ1⟩ com probabilidade 𝑝1, ou no estado |Ψ2⟩ com probabilidade 𝑝2 e assim por diante entreos 𝑁 possíveis estados microscópicos. Nessas condições, o estado do sistema é bem descrito pelooperador densidade

�̂� (𝑡) =∑︁

𝑘

𝑝𝑘 |Ψ𝑘(𝑡)⟩ ⟨Ψ𝑘(𝑡)| , (3.4.1)

com as seguintes propriedades matemáticas:

• �̂� é hermiteano

• �̂� tem traço unitário 𝑇𝑟(�̂� ) = ∑︀𝑘 𝑝𝑘 = 1

• �̂� é um operador não-negativo : ∀ |𝜙⟩ temos ⟨𝜙| �̂� |𝜙⟩ ≥ 0

• para um estado puro: 𝑇𝑟(𝑊 2) = ∑︀𝑘 𝑝

2𝑘 = 1

• Evolução Temporal�̂� (𝑡0) =

∑︁𝑘

𝑝𝑘 |Ψ𝑘(𝑡0)⟩ ⟨Ψ𝑘(𝑡0)| (3.4.2)

�̂� (𝑡) = 𝒰(𝑡, 𝑡0)�̂� (𝑡0)𝑈 †(𝑡, 𝑡0) → 𝑖ℎ̄𝜕𝑊

𝜕𝑡= [𝑊, ℋ̂] (3.4.3)

Um exemplo importante é o operador densidade de equilíbrio do ensemble canônico:

^𝑊 (𝑒𝑞) = 𝑊𝛽 = 1𝒵𝑒−𝛽ℋ̂ = 1

𝒵∑︁

𝑘

𝑒−𝛽𝐸𝑘 |Ψ𝑘(𝑡)⟩ ⟨Ψ𝑘(𝑡)| , (3.4.4)

onde 𝒵 = ∑︀𝑘 𝑒

−𝛽𝐸𝑘 é a função de partição do sistema.

33

Page 48: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

Numa base ortonormal de autoestados {|𝜙𝑘⟩}, obtemos os elementos de matriz do operadordensidade:

𝑊𝑛,𝑚 =∑︁

𝑘

𝑝𝑘 ⟨𝜙𝑛|Ψ𝑘⟩ ⟨Ψ𝑘|𝜙𝑚⟩ . (3.4.5)

Considere os elementos diagonais nesta base de autoestados:

𝑊𝑛,𝑛 =∑︁

𝑘

𝑝𝑘 | ⟨𝜙𝑛|Ψ𝑘⟩ |2, (3.4.6)

onde | ⟨𝜙𝑛|Ψ𝑘⟩ |2 é um número real e positivo, representa a probabilidade de medirmos o sistema|Ψ𝑘⟩ no estado |𝜙𝑛⟩. Por outro lado os elementos fora da diagonal:

𝑊𝑛,𝑚 =∑︁

𝑘

𝑝𝑘 ⟨𝜙𝑛|Ψ𝑘⟩ ⟨Ψ𝑘|𝜙𝑚⟩ , (3.4.7)

representam a média dos termos cruzados e estão associados à interferência quântica e perda decoerência.

O operador densidade nos permite definir o valor esperado de um observável como:

⟨𝐴⟩ = 𝑇𝑟(�̂�𝐴). (3.4.8)

Considere agora um sistema quântico bipartido, por exemplo uma situação do tipo “Sistema +Reservatório”, o espaço de estados deste sistema é um produto tensorial do espaço de estados decada uma das partes, ℋ = ℋ𝑆 ⊗ ℋ𝑅. Adicionalmente, considere um observável 𝐴 que age apenassobre o sistema de interesse, ou seja não age sobre |𝜗⟩𝑗, referente ao reservatório. Isso significa quepodemos escrever 𝐴 da seguinte maneira

𝐴 = 𝐴𝑆 ⊗ (1)𝑗, (3.4.9)

o valor esperado desse observável é dado por:

⟨𝐴⟩ = 𝑇𝑟(𝜌𝐴), (3.4.10)

onde 𝜌 é o operador densidade reduzido do sistema 𝑆;

𝜌 = 𝑇𝑟𝑅(�̂� ). (3.4.11)

O programa a ser seguido é propor uma forma de calcular o operador densidade para o sistemaglobal e então realizarmos um traço parcial para obter o operador densidade reduzido de equilíbrio

34

Page 49: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

do sistema. No modelo de dissipação que vamos tratar, o sistema global é assumido em equilíbriotérmico de acordo com o ensemble canônico e as equações clássicas de movimento reproduzem umaequação de Langevin. Para quantizar este modelo, utilizaremos a representação de integrais deFeynman do operador densidade.

O hamiltoniano do sistema global é dado por:

�̂� = �̂�𝑆 + �̂�𝐼 + �̂�𝑅 (3.4.12)

com o operador densidade dado por:

�̂�𝛽 = 𝑒−𝛽�̂� (3.4.13)

Este operador tem uma relação muito próxima com o operador de evolução temporal 𝑒𝑥𝑝(− 𝑖𝑡ℎ̄ℋ̂)

através de uma continuação analítica ou Rotação de Wick; 𝑡 = −𝑖ℎ̄𝛽. Feynman desenvolveu ummétodo para calcular os elementos de matriz dos operadores 𝑒𝑥𝑝(− 𝑖𝑡

ℎ̄ℋ̂) e 𝑒𝑥𝑝(−𝛽ℋ̂) somando

sobre todos os caminhos reais ou imaginários do espaço de configuração. O método de integrais deFeynman não só constitui uma abordagem alternativa à quantização canônica da mecânica clássicamas também uma forma de interpretar a mecânica quântica.

Vamos considerar brevemente a demonstração do método de Feynman para o propagador detempo imaginário ⟨𝑞′′| 𝑒𝑥𝑝(− 𝜏

ℎ̄ℋ̂) |𝑞′⟩ para um Hamiltoniano independente do tempo da forma

�̂� = 𝑝2/2𝑀 + 𝑉 (𝑞). O ponto inicial da demonstração é a propriedade de grupo do propagador:

⟨𝑞′′| 𝑒𝑥𝑝(−𝜏

ℎ̄ℋ̂) |𝑞′⟩ = ⟨𝑞′′| 𝑒𝑥𝑝(− 𝜏

𝑁ℎ̄ℋ̂)1𝑒𝑥𝑝(− 𝜏

𝑁ℎ̄ℋ̂)1𝑒𝑥𝑝(− 𝜏

𝑁ℎ̄ℋ̂)...𝑒𝑥𝑝(− 𝜏

𝑁ℎ̄ℋ̂) |𝑞′⟩ . (3.4.14)

Inserindo a relação de completeza:

1 =∫︁ ∞

−∞𝑑𝑞 |𝑞⟩ ⟨𝑞| (3.4.15)

o propagador térmico ⟨𝑞′′| 𝑒𝑥𝑝(− 𝜏ℎ̄ℋ̂) |𝑞′⟩ se torna uma sucessão de integrais representando transi-

ções de 𝑁 propagadores no intervalo de tempo 𝜖 = 𝜏𝑁

⟨𝑞′′| 𝑒𝑥𝑝(−𝜏

ℎ̄ℋ̂) |𝑞′⟩ = lim

𝑁→∞

∫︁ ∞

−∞𝑑𝑞𝑁−1...𝑑𝑞1

𝑁∏︁𝑛=1

⟨𝑞𝑁 | 𝑒𝑥𝑝(− 𝜖

ℎ̄ℋ̂) |𝑞𝑛−1⟩ , (3.4.16)

onde 𝑞′′ = 𝑞𝑁 e 𝑞′ = 𝑞0 e então tomamos o limite 𝑁 → ∞. Inserindo a condição incial ⟨𝑞𝑛|𝑞𝑛−1⟩ =

35

Page 50: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

𝛿(𝑞𝑛 − 𝑞𝑛−1), obtemos:

⟨𝑞′′| 𝑒𝑥𝑝(− 𝜖

ℎ̄ℋ̂) |𝑞′⟩ =

√︃𝑀

2𝜋ℎ̄𝜖𝑒𝑥𝑝(−𝑆𝑛

ℎ̄) (3.4.17)

onde temos a ação euclideana para tempos pequenos:

𝑆𝑛 = 𝜖[𝑀2 (𝑞𝑛 − 𝑞𝑛−1

𝜖)2 + 𝑉 (𝑞𝑛)] (3.4.18)

Então, tomando o limite 𝑁 → ∞ temos

⟨𝑞′′| 𝑒𝑥𝑝(− 𝜖

ℎ̄ℋ̂) |𝑞′⟩ = lim

𝑁→∞

∫︁ ∞

−∞

𝑑𝑞𝑁−1

2𝜋ℎ̄𝜖/𝑀𝑁

2 𝑒𝑥𝑝(−𝑆𝑁), (3.4.19)

e vemos imediatamente que:

lim𝑁→∞

𝑆𝑁 =∫︁ 𝜏

0𝑑𝜏 ′(𝑀2 𝑞2(𝜏 ′) + 𝑉 [𝑞(𝜏 ′)]). (3.4.20)

Estabelecendo a seguinte notação:

∫︁ 𝑞′′

𝑞′𝒟[𝑞(𝜏)]... = lim

𝑁→∞

∫︁ ∞

−∞

𝑑𝑞𝑁−1

2𝜋ℎ̄𝜖/𝑀 (3.4.21)

chegamos na tão famosa representação de Feynman para o operador densidade:

⟨𝑞′′| 𝑒𝑥𝑝(− 𝜖

ℎ̄ℋ̂) |𝑞′⟩ =

∫︁ 𝑞′′

𝑞′𝒟[𝑞(𝜏)]𝑒𝑥𝑝(−𝑆(𝐸)[𝑞(𝜏)]

ℎ̄), (3.4.22)

onde 𝑆(𝐸) é a ação clássica do sistema em tempo imaginário ou ação euclideana. Devemos enfatizarque o conceito de soma sobre caminhos, como o conceito da integral ordinária, independe de umadefinição específica do caminho somado. Isto é, a definição da soma sobre todos os caminhos ésempre válida, independente da escolha da medida que define a técnica de integração.

3.4.2 Ação Efetiva e a Matriz Densidade de Equilíbrio

O passo seguinte, é generalizar a representação de integrais de caminho para o caso de umsistema acoplado com um reservatório térmico e aplicar o procedimento de traço parcial paraobter o operador densidade reduzido do sistema.

O universo formado pelo par “sistema + reservatório” é considerado em equilíbrio térmico a

36

Page 51: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

uma temperatura 𝑇 e energia média fixas , logo temos que:

𝑊𝛽(𝑞′′,x′′; 𝑞′,x′) = 1𝒵𝑇 𝑜𝑡

∑︁{𝑛}

Ψ{𝑛}(𝑞′′,x′′)Ψ*{𝑛}(𝑞′,x′)𝑒𝑥𝑝(−𝛽𝐸{𝑛}) (3.4.23)

onde x′ é o vetor das coordenadas do banho, 𝑥1....𝑥𝑛, Ψ{𝑛} é o autoestado do sistema global, {𝑛} éo conjunto de todos os números quânticos relevantes e 𝒵𝑇 𝑜𝑡 á a função de partição do sistema queestabelece a condição de normalização 𝑇𝑟(𝑊𝛽) = 1.

Na representação de Integrais de Feynman:

𝑊𝛽(𝑞′′,x′′; 𝑞′,x′) = 1𝒵𝑇 𝑜𝑡

∫︁ 𝑞′′

𝑞′

∫︁ x′′

x′𝐷𝑞(𝜏)𝐷x(𝜏) exp

(︂−1ℎ̄𝑆𝐸[𝑞(𝜏)x(𝜏)]

)︂(3.4.24)

onde a ação Euclideana

𝑆𝐸[𝑞(𝜏)x(ø)] = 𝑆𝐸𝑆 + 𝑆𝐸

𝑅 + 𝑆𝐸𝐼 =

∫︁ ℎ̄𝛽

0𝑑𝜏(𝐿𝐸

𝑆 + 𝐿𝐸𝑅 + 𝐿𝐸

𝐼 )

=∫︁ ℎ̄𝛽

0𝑑𝜏

{︃12𝑀𝑞2 + 𝑉 (𝑞) +

∑︁𝑘

(︃𝐶𝑘𝑞𝑥𝑘

12𝑚𝑘�̇�

2𝑘 + 1

2𝑚𝑘𝜔2𝑘𝑥

2𝑘 + 𝐶2

𝑘𝑞2

2𝑚𝑘𝜔2𝑘

)︃}︃

O operador densidade reduzido é obtido pelo processo de traço parcial:

𝜌𝛽(𝑞′′, 𝑞′) = 𝑇𝑟(𝑊𝛽) =∫︁ +∞

−∞𝑑x′𝑊𝛽(𝑞′′,x′; 𝑞′,x′) (3.4.25)

e a função de partição reduzida do sistema:

𝒵(ℎ̄𝛽) = 𝒵(ℎ̄𝛽)𝑇 𝑜𝑡

𝒵(ℎ̄𝛽)𝑅

, (3.4.26)

onde 𝒵(ℎ̄𝛽)𝑅 é a função de partição apenas do banho térmico. Podemos expressar o resultadofinal da seguinte forma:

𝜌𝛽(𝑞′′, 𝑞′) = 1𝒵

∫︁ 𝑞(ℎ̄𝛽)=𝑞′′

𝑞(0)=𝑞′𝒟𝑞(𝜏)𝑒𝑥𝑝

{︁−𝑆(𝐸)

𝑆 [𝑞(𝜏)]/ℎ̄}︁

ℱ (𝐸)[𝑞(𝜏)] (3.4.27)

onde

ℱ (𝐸)[𝑞(𝜏)] ≡ 𝑒𝑥𝑝{︁−𝑆(𝐸)

𝑖𝑛𝑓𝑙[𝑞(𝜏)]/ℎ̄}︁

= 1𝒵

∮︁𝒟x(𝜏)𝑒𝑥𝑝

{︁−𝑆(𝐸)

𝑅,𝐼 [𝑞(𝜏),x(𝜏)]/ℎ̄}︁

(3.4.28)

O funcional ℱ é, às vezes, chamado de funcional de influência. No caso dinâmico(tempo real)

37

Page 52: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

essa nomeclatura de fato se aplica, mas aqui, no caso imaginário, para o operador de equilíbrioele apenas tem função de acrescentar um termo não local ao operador densidade. Este termonão local fará toda a diferença no modelo de dissipação a ser utilizado e sobre como funciona acorrelação entre o reservatório e o sistema. Vamos determinar este termo para o modelo do banhode osciladores introduzido na seção anterior.

𝑆(𝐸)𝑅,𝐼 [𝑞(𝜏)x(𝜏)] =

∫︁ ℎ̄𝛽

0𝑑𝜏{︁ℒ𝐸

𝑅,𝐼

}︁, (3.4.29)

ℒ𝐸𝑅,𝐼 =

∑︁𝑘

(︃𝐶𝑘𝑞𝑥𝑘

12𝑚𝑘�̇�

2𝑘 + 1

2𝑚𝑘𝜔2𝑘𝑥

2𝑘 + 𝐶2

𝑘𝑞2

2𝑚𝑘𝜔2𝑘

)︃. (3.4.30)

Os caminhos estacionários desta ação, 𝑞 e �̄�𝑘 atendem às equações clássicas de movimento:

𝑀 ¨̄𝑞 − 𝑉 ′(𝑞) +𝑁∑︁

𝑘=1𝑐𝑘

{︃�̄�𝑘 − 𝑐𝑘

𝑚𝑘𝜔2𝑘

𝑞

}︃= 0, (3.4.31)

𝑚𝑘¨̄𝑥𝑘 −𝑚𝑘𝜔

2𝑘�̄�𝑘 + 𝑐𝑘𝑞 = 0. (3.4.32)

Passando para o espaço de Fourier

𝑥𝑘(𝜏) = 1ℎ̄𝛽

+∞∑︁𝑛=−∞

𝑥𝑘,𝑛𝑒−𝑖𝜈𝑛𝜏 , (3.4.33)

𝑞(𝜏) = 1ℎ̄𝛽

+∞∑︁𝑛=−∞

𝑞𝑛𝑒−𝑖𝜈𝑛𝜏 . (3.4.34)

Com as propriedades 𝑥𝑘,𝑛 = 𝑥*𝑘,−𝑛,𝑞𝑛 = 𝑞*

−𝑛 e 𝜈𝑛 = 2𝑛𝜋ℎ̄𝛽

são as frequências bosônicas de Matsubara.Voltando à ação, obtemos:

𝑆(𝐸)𝑅,𝐼 [𝑞,x] =

𝑁∑︁𝑘=1

1ℎ̄𝛽

+∞∑︁𝑛=−∞

𝑚𝑘

2

(︃𝜈𝑛 | 𝑥𝑘,𝑛 |2 +𝜔2

𝑘 | 𝑥𝑘,𝑛 − 𝑐𝑘

𝑚𝑘𝜔2𝑘

𝑞𝑘 |2)︃

(3.4.35)

Expandindo 𝑥𝑘,𝑛 em torno da trajetória clássica �̄�𝑘,𝑛, que é solução da equação (3.4.32), temos

𝑥𝑘,𝑛 = �̄�𝑘,𝑛 + 𝑦𝑘,𝑛 = 𝑐𝑘

𝑚𝑘(𝜈2𝑛 + 𝜔2

𝑘)𝑞𝑘 + 𝑦𝑘,𝑛, (3.4.36)

e então,𝑆

(𝐸)𝑅,𝐼 [𝑞, x̄ + y] = 𝑆

(𝐸)𝑅 [𝑦] + 𝑆

(𝐸)𝑖𝑛𝑓 [𝑞], (3.4.37)

38

Page 53: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

onde,

𝑆𝑅[y] =𝑁∑︁

𝑘=1

1ℎ̄𝛽

+∞∑︁−∞

𝑚𝑘

2 (𝜈2𝑛 + 𝜔2

𝑘) | 𝑦𝑘,𝑛 |2=𝑁∑︁

𝑘=1

∫︁ ℎ̄𝛽

0

𝑚𝑘

2 (�̇�2 + 𝜔2𝑘𝑦

2𝑘), (3.4.38)

𝑆(𝐸)𝑖𝑛𝑓𝑙[𝑞] =

𝑁∑︁𝑘=1

𝑐2𝑘

2𝑚𝑘

1ℎ̄𝛽

+∞∑︁−∞

(︃| 𝑞𝑛 |2

𝜔2𝑘

− | 𝑞𝑛 |2

𝜈2𝑛 − 𝜔2

𝑛

)︃= 𝑀

21ℎ̄𝛽

+∞∑︁−∞

𝜉𝑘 | 𝑞𝑛 |2, (3.4.39)

nesta forma, todos os efeitos dissipativos ficam encapsulados no coeficiente de Fourier:

𝜉𝑘 = 1𝑀

𝑁∑︁𝑘=1

𝐶2𝑘

𝑚𝑘𝜔2𝑘

𝜈2𝑘

𝜈2𝑘 + 𝜔2

𝑘

= 2𝑀𝜋

∫︁ ∞

𝑜𝑑𝜔𝐽(𝜔)𝜔

𝜈2𝑘

𝜈2𝑘 + 𝜔2

𝑘

. (3.4.40)

Voltando ao domínio do tempo:

𝜅(𝜏) = 𝑀

ℎ̄𝛽

+∞∑︁−∞

𝜉𝑘𝑒𝑥𝑝(−𝑖𝜈𝑘𝜏), (3.4.41)

e passando ao limite do contínuo, obtemos a forma geral da ação de influência em termos dokernel de dissipação:

𝑆(𝐸)𝑖𝑛𝑓𝑙[𝑞(𝜏)] =

∫︁ ℎ̄𝛽

0𝑑𝜏∫︁ 𝜏

0𝑑𝜏 ′𝜅(𝜏 − 𝜏 ′)𝑞(𝜏)𝑞(𝜏 ′) (3.4.42)

= −12

∫︁ ℎ̄𝛽

0𝑑𝜏∫︁ 𝜏

0𝑑𝜏 ′𝜅(𝜏 − 𝜏 ′)(𝑞(𝜏) − 𝑞(𝜏 ′))2 (3.4.43)

Substituindo a ação de influência no seu devido funcional e voltando ao operador densidadereduzido, temos a integral funcional que desejamos resolver:

𝜌𝛽(𝑞′′, 𝑞′) = 1𝒵

∫︁ 𝑞(ℎ̄𝛽)=𝑞′′

𝑞(0)=𝑞′𝒟𝑞(𝜏)𝑒𝑥𝑝

{︁−𝑆(𝐸)

𝑒𝑓𝑓 [𝑞(𝜏)]/ℎ̄}︁

(3.4.44)

Onde a ação efetiva 𝑆𝑒𝑓𝑓 é dada por

𝑆𝑒𝑓𝑓 =∫︁ ℎ̄𝛽

0𝑑𝜏(1

2𝑀𝑞2 + 𝑉 (𝑞)) + 12

∫︁ ℎ̄𝛽

0𝑑𝜏∫︁ 𝜏

0𝑑𝜏 ′𝜅(𝜏 − 𝜏 ′)(𝑞(𝜏) − 𝑞(𝜏 ′))2 (3.4.45)

=∫︁ ℎ̄𝛽

0𝑑𝜏(1

2𝑀𝑞2 + 𝑉 (𝑞)) +∫︁ ℎ̄𝛽

0𝑑𝜏∫︁ 𝜏

0𝑑𝜏 ′𝜅(𝜏 − 𝜏 ′)𝑞(𝜏)𝑞(𝜏 ′) (3.4.46)

Esta ação descreve qualquer sistema exposto a um processo linear de dissipação e é fundamentalno estudo da termodinâmica de sistemas abertos. Obviamente, nem sempre a solução completaserá possível, devido ao termo não local no tempo e a ordem do potencial. Na seção seguinte vamostestar o poder desta ação com uma situação exatamente solúvel.

39

Page 54: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

O algorítimo a seguir a partir deste ponto é bastante claro. Dado um modelo de reservatório eo acoplamento com o sistema, temos que obter a forma do funcional de influência e a partir deleobter a ação efetiva do sistema e,consequentemente, o operador densidade reduzido de equilíbrio.

3.5 O Movimento Browniano Quântico via Integrais Fun-cionais

Uma vez que o movimento Browniano foi a tônica para o modelo de dissipação quântica adotado,o caminho natural a ser seguido é quantizar o modelo do banho de osciladores em busca de umaversão quântica do movimento browniano. Vamos nos ater a dois casos exatamente solúveis:

• Partícula Livre 𝑉 (𝑞) = 0

• Poço Parabólico 𝑉 (𝑞) = 12𝑚𝜔

20𝑞

2

Ambos os casos nos conduzem a uma ação efetiva gaussiana nas coordenadas do sistema. Istonos permite fazer um ansatz bastante razoável que o operador densidade reduzido de equilíbrioseja gaussiano. Definindo 𝑋 = 𝑞+𝑞′

2 e 𝜉 = (𝑞 − 𝑞′), propomos o seguinte resultado:

𝜌𝛽(𝑋, 𝜉, 𝛽) = 𝐶0𝑒𝑥𝑝[−12{𝜆−1𝜒2 + 𝜇𝜉2}] (3.5.1)

onde 𝐶0, 𝜆 e 𝜇 são funções de 𝛽 e das constantes do modelo de dissipação adotado. É fácil verque 𝜆 e 𝜇 são as médias de equilíbrio do quadrado da coordenada e momento, respectivamente

⟨𝑞2⟩ ≡∫︁𝑥2𝜌𝛽(𝑋, 0, 𝛽)𝑑𝑋 = 𝜆, (3.5.2)

⟨𝑝2⟩ ≡∫︁𝑑𝑋

∫︁𝑑𝑝𝑝2𝑒𝑥𝑝(𝑖𝑝𝑋ℎ̄)𝜌(𝑋, 𝜉, 𝛽) = ℎ̄2𝜇. (3.5.3)

O mesmo poderia ser feito calculando explicitamente as integrais funcionais, contudo este caso ébastante simples, sendo mais econômico aplicar este ansatz. Resta obter ⟨𝑞2⟩ e ⟨𝑝2⟩ em termos dasconstantes do modelo. Podemos fazer isso propondo que este ansatz atenda às seguintes condições:

1. O processo estocástico é gaussiano e markoviano.

2. Os valores médios atendem ao teorema de Ehrerenfest.

3. A função resposta e de autocorrelação de equilíbrio atendem ao teorema flutuação dissipação.

40

Page 55: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

Pelo teorema de Eherenfest, obtemos que:

⟨𝑞(𝑡)⟩ +∫︁ +∞

−∞𝛾(𝑡− 𝑡′)⟨𝑞(𝑡)⟩ + 𝜔2

𝑜⟨𝑞(𝑡)⟩ = 1𝑀𝑓𝑒𝑥𝑡(𝑡), (3.5.4)

e a relação entre ⟨𝑞(𝑡)⟩ e 𝑓𝑒𝑥𝑡(𝑡) e a função resposta 𝜒(𝑡− 𝑡′) é dada por:

⟨𝑞(𝑡)⟩ =∫︁ +∞

−∞𝑑𝑡′𝜒(𝑡− 𝑡′)𝑓𝑒𝑥𝑡(𝑡′) (3.5.5)

Passando ao domínio de frequência:

�̃�(𝜔) = �̃�′(𝜔) + 𝑖�̃�′′(𝜔) = 1𝑀

1𝜔2

0 − 𝜔2 − 𝑖𝜔𝛾(𝜔) , (3.5.6)

onde𝛾(𝜔) =

∫︁ ∞

0𝛾(𝑡)𝑒𝑖𝜔𝑡 (3.5.7)

representa os efeitos dissipativos. A parte imaginária da função resposta:

�̃�′′(𝜔) = 1𝑀

𝜔𝛾′′(𝜔)[𝜔2

0 − 𝜔2 − 𝑖𝜔𝛾′(𝜔)]2 + 𝜔2𝛾′′2(𝜔) , (3.5.8)

fornece os efeitos dissipativos sobre as propriedades do sistema. No que segue adotaremos oamortecimento ôhmico:

𝛾(𝜔) =∫︁ ∞

0𝛾(𝑡)𝑒𝑖𝜔𝑡 = 𝛾 (3.5.9)

Neste limite, o teorema flutuação dissipação nos fornece:

⟨𝑞2⟩ = ℎ̄

𝑀𝑓0(𝛽), (3.5.10)

⟨𝑝2⟩ = ℎ̄𝑀𝑓2(𝛽), (3.5.11)

onde

𝑓𝑛(𝛽) =∫︁ ∞

−∞

𝑑𝜔

2𝜋𝜆𝜔𝑛+1

(𝜔2 − 𝜔20)2𝜆2𝜔2𝐶𝑜𝑡ℎ( ℎ̄𝛽𝜔2 ). (3.5.12)

Em princípio, o problema da partícula browniana quântica está resolvido. As expressões apre-sentadas referem-se ao oscilador harmônico amortecido. Para obtermos a partícula livre, bastatomar o limite 𝜔 → 0 na equação de movimento e realizar o mesmo procedimento.

Recentemente, uma importante questão foi lançada a respeito da termodinâmica de um sistemadissipativo. A conexão com a termodinâmica é sempre obtida através da função de partição e a

41

Page 56: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

prescrição direta para fazê-lo seria resolver a integral funcional periódica:

𝒵(ℎ̄𝛽) =∮︁

𝒟𝑞(𝜏)𝑒𝑥𝑝(−𝑆(𝐸)𝑒𝑓𝑓 [𝑑(𝜏)]/ℎ̄). (3.5.13)

Contudo, esta prescrição é baseada diretamente na adotada para o ensemble canônico e obvia-mente o operador densidade reduzido de uma partícula browniana com acoplamento finito com oreservatório de calor não é um estado de Gibbs, mesmo que o universo inteiro esteja num estadodesse tipo. Desta forma, é razoável supor que temos que ter cautela ao calcular as quantidadestermodinâmicas de um sistema aberto.

Ao definir como calcular as quantidades termodinâmicas, temos que pôr os resultados obtidosà prova, a fim de verificar se eles obedecem os critérios da termodinâmica de equilíbrio, isto é se aterceira lei da termodinâmica é verificada quando a temperatura tende a zero. Um exemplo claroé que a entropia de von-Neumann falha para o oscilador harmônico dissipativo, tendo um valorfinito a 𝑇 = 0.

Essas dificuldades ficam evidentes quando olhamos para o calor específico de um sistema aberto3, pois percebemos que a definição de calor específico se torna um tanto quanto ambígua.

3.6 Propriedades Termodinâmicas

Um sistema clássico aberto sempre pode ser modelado em termos de uma dinâmica baseadana equação de Langevin, com amortecimento constante e ruído gaussiano obedecendo o teoremaflutuação-dissipação. O estado de equilíbrio canônico para uma partícula clássica amortecida des-crita nestes termos, concorda com o resultado para o equilíbrio canônico de uma partícula clássicaisolada. Isso deve-se ao fato que a “força média Hamiltoniana” ainda é dada pelo Hamiltonianodo sistema apenas, sem o amortecimento4.

Quando olhamos o mesmo problema do ponto de vista quântico, temos um claro contraste. Oresultado para um sistema acoplado com um reservatório concorda com uma teoria livre apenasno limite de acoplamento fraco. Além disto, o estado de equilíbrio apresenta uma dependência notermo de acoplamento com o reservatório, que é exatamente o funcional de influência deduzidonas seções anteriores. Este comportamento nos faz imaginar o que acontece com as propriedadestermodinâmicas de sistemas quânticos dissipativos.

Diferentemente da mecânica clássica e do eletromagnetismo, a termodinâmica se mostrou incri-3Hänggi and Ingold,Quantum Brownian Motion and the Third Law of Thermodynamics, Acta Phys. Pol. B 37,

1537–15504Mozahy, Classical and Quantum Dissipation

42

Page 57: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

velmente robusta ao surgimento da mecânica quântica. A principal razão disto é que a formulaçãoda termodinâmica repousa sobre alguns poucos pilares: entropia, temperatura e as três leis querelacionam essas duas grandezas. Toda a glória da termodinâmica reside no fato de que estesconceitos são válidos independentemente da dinâmica interna do sistema sob estudo.

Não obstante, os fundamentos estatísticos da termodinâmica estão firmemente embasados naspropriedades quânticas da matéria, em particular no que concerne o comportamento de baixastemperaturas.

Nesta seção, vamos estudar as propriedades termodinâmicas de um sistema quântico dissipativo,com o intuito de mostrar as diferenças com o caso não dissipativo e estabelecer um ponto decomparação para os resultados obtidos a partir das entropias generalizadas. Faremos isso atravésdo calor específico calculado por duas rotas; uma baseada na função de partição reduzida e outrabaseada no valor esperado térmico da energia do sistema.

3.6.1 Termodinâmica do Oscilador Harmônico Livre

A fim de comparar as diferenças entre as propriedades termodinâmicas de um sistema quânticodissipativo e um sistema quântico livre, vamos revisitar a termodinâmica do oscilador quânticolivre.

Então, seja um oscilador harmônico quântico livre, de massa 𝑀 e frequência 𝜔0:

𝐻𝑆 = 𝑝2

2𝑀 + 12𝑚𝜔

20𝑥

2. (3.6.1)

Os níveis de energia são dados por; 𝐸𝑛 = (𝑛 + 12)ℎ̄𝜔0, levando a bem conhecida função de

partição canônica 𝒵,𝒵 =

∞∑︁𝑛=0

𝑒𝑥𝑝(−𝛽𝐸𝑛) = 12𝑠𝑖𝑛ℎ(ℎ̄𝛽𝜔0/2) , (3.6.2)

onde 𝛽 = 1/𝑘𝐵𝑇 .

A conexão com a termodinâmica, no ensemble canônico, é feita usando a seguinte prescrição:

𝐸 = ⟨𝐻𝑆⟩ = − 𝜕

𝜕𝛽ln(𝒵) = ℎ̄𝜔0

2 + ℎ̄𝜔0

𝑒𝑥𝑝(ℎ̄𝛽𝜔0) − 1 , (3.6.3)

43

Page 58: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

e, a entropia é dada por:

𝒮 = 𝑘𝐵

[︃ln(𝒵) − 𝛽

𝜕

𝜕𝛽ln(𝒵)

]︃(3.6.4)

= 𝑘𝐵

[︃ℎ̄𝛽𝜔0

𝑒𝑥𝑝(ℎ̄𝛽𝜔0) − 1 − ln(1 − 𝑒𝑥𝑝(−ℎ̄𝛽𝜔0))]︃. (3.6.5)

No limite de baixas temperaturas, ℎ̄𝛽𝜔0 >> 1, a entropia vai a zero,

𝒮 = ℎ̄𝜔0

𝑇𝑒𝑥𝑝

(︃− ℎ̄𝜔0

𝑘𝐵𝑇

)︃. (3.6.6)

Podemos derivar o calor específico de duas maneiras:

𝐶 = 𝜕𝐸

𝜕𝑇= −𝑘𝐵𝛽

2𝜕𝐸

𝜕𝛽, (3.6.7)

ou𝐶 = 𝑇

𝜕𝒮𝜕𝑇

= −𝛽𝜕𝒮𝜕𝛽

. (3.6.8)

Pelos dois caminhos, obviamente, chegamos ao mesmo resultado:

𝐶 = 𝑘𝐵

(︃ℎ̄𝛽𝜔0

2𝑠𝑖𝑛ℎ(ℎ̄𝛽𝜔0/2)

)︃. (3.6.9)

Tomando o limite de baixas temperaturas

𝐶 = 𝑘𝐵

(︃ℎ̄𝜔0

𝑇

)︃2

𝑒𝑥𝑝

(︃− ℎ̄𝜔0

𝑘𝐵𝑇

)︃, (3.6.10)

percebe-se que ele não é analítico na temperatura, mas tende a zero exponencialmente. O com-portamento de altas temperaturas

𝐶 = 𝑘𝐵

⎡⎣1 − 112

(︃ℎ̄𝜔0

𝑇

)︃2

+ 𝒪(𝑇−4)⎤⎦ . (3.6.11)

tende ao resultado do Teorema de Equipartição de Energia quando a temperatura tende ao infinito.Isto nos mostra que o calor específico da partícula livre não pode ser obtido simplesmente

fazendo 𝜔0 → 0, pois este procedimento não é suficiente para tratar o número reduzido de grausde liberdade. Agora estamos em posição de perceber os efeitos que o acoplamento com o banhoacarretam nas propriedades termodinâmicas.

44

Page 59: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

3.6.2 O Oscilador Harmônico Amortecido

Vamos calcular o calor específico do oscilador harmônico por duas rotas, usando a energiamédia e a função de partição reduzida do sistema.

A energia média do oscilador harmônico amortecido é dada por:

𝐸 = ⟨𝐻𝑆⟩ = ⟨𝑝2⟩2𝑀 + 𝑀

2 𝜔20⟨𝑥2⟩, (3.6.12)

onde definimos o valor médio de um observável agindo apenas sobre o sistema como

⟨𝑂𝑠⟩ = 𝑇𝑟[𝑂𝑆𝑒𝑥𝑝(−𝛽𝐻)]𝑇𝑟[𝑒𝑥𝑝(−𝛽𝐻)] . (3.6.13)

Alternativamente, podemos, pelo menos para um banho Ôhmico, utilizar o teorema FlutuaçãoDissipação

⟨𝑞2⟩ = ℎ̄

𝑀𝑓0(𝛽), (3.6.14)

⟨𝑝2⟩ = ℎ̄𝑀𝑓2(𝛽), (3.6.15)

onde𝑓𝑛(𝛽) =

∫︁ ∞

−∞

𝑑𝜔

2𝜋𝜆𝜔𝑛+1

(𝜔2 − 𝜔20)2𝜆2𝜔2𝐶𝑜𝑡ℎ( ℎ̄𝛽𝜔2 ). (3.6.16)

O calor específico assim obtido é dado por

𝐶 = 1 − 𝛽𝜔0𝛾

2𝜋 + 𝜆2+𝜓(1 + 𝜆+) + 𝜆2

−𝜓(1 + 𝜆−), (3.6.17)

onde 𝜆+/− = 𝛽𝜔02𝜋

[ 𝛾2𝜔0

±√︁

𝛾2𝜔0

2 − 1], e Ψ(𝑥) é a função trigamma definida por:

Ψ(𝑥) = 𝑑2

𝑑𝑥2 ln(Γ(𝑥)) (3.6.18)

onde Γ(𝑥) é a função Gamma usual.

As diferenças para o caso livre ficam claras quando olhamos para as expansões de baixa e altatemperatura, respectivamente

𝐶

𝑘𝐵

= 𝜋

3𝛾

𝜔0

𝑘𝐵𝑇

ℎ̄𝜔0+ 4𝜋3

15𝛾

𝜔0

[︃3 −

(︂𝛾

𝜔0

)︂2]︃𝑘𝐵𝑇

ℎ̄𝜔0

3+ 𝒪(𝑇 5), (3.6.19)

45

Page 60: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

e𝐶

𝑘𝐵

= 1 − ℎ̄𝛾

2𝜋𝐵𝑇+ ℎ̄2(𝛾2 − 2𝜔2

0)24(𝑘𝐵𝑇 )2 + 𝒪(𝑇−3). (3.6.20)

Agora, vamos considerar o mesmo problema utilizando como ponto de partida a função de partição

Figura 3.2: Comportamento típico do calor específico do oscilador harmônico amortecido

reduzida do sistema𝒵(ℎ̄𝛽) = 𝑇𝑟[𝑒−𝛽𝐻 ]

𝑇𝑟𝐵[𝑒−𝛽𝐻𝐵 ] , (3.6.21)

onde novamente, 𝒵 = 𝑇𝑟𝐵[𝑒−𝛽𝐻𝐵 ] é a função de partição do reservatório não amortecido e 𝒵 =𝑇𝑟[𝑒−𝛽𝐻 ] é a função de partição do sistema-mais-reservatório.

Para o oscilador harmônico amortecido

𝒵(ℎ̄𝛽) = 1ℎ̄𝛽𝜔0

∞∏︁𝑛=1

𝜈2𝑛

𝜈2𝑛 + 𝜈𝑛�̃�(𝜈𝑛) + 𝜔2

0, (3.6.22)

com as frequências de Matsubara 𝜈𝑛 = 2𝜋𝑛/ℎ̄𝛽. Nosso ponto de partida é que “sistema+reservatório”estão numa situação descrita pelo ensemble canônico, desta forma é razoável supor que a conexãocom a termodinâmica da função de partição reduzida seja feita através da mesma prescrição:

⟨𝐸⟩𝑍 = − 𝜕

𝜕𝛽𝐿𝑛(𝒵). (3.6.23)

Isto implica que a energia média é dada por:

⟨𝐸⟩𝑍 = ⟨𝐻⟩ − ⟨𝐻𝐵⟩𝐵 (3.6.24)

= 𝐸 + [⟨𝐻𝑆𝐵⟩ + ⟨𝐻𝐵⟩ − ⟨𝐻𝐵⟩𝐵]. (3.6.25)

Este resultado difere significativamente do procedimento anterior devido aos termos dentro dos

46

Page 61: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

colchetes. Contudo, para o regime Ôhmico, o calor específico obtido para o oscilador harmônicoamortecido é o mesmo. Este resultado deve ser tomado como uma exceção, já que o mesmo nãoocorre com a a partícula browniana livre, pois não há garantia que essas prescrições emprestadasdo ensemble canônico sejam de fato válidas nessa situação.

3.6.3 Partícula Browniana Livre

O cálculo das propriedades de uma partícula livre só faz sentido físico se considerarmos a par-tícula confinada dentro de uma caixa de tamanho 𝑙, suficientemente grande para que possamosnegligenciar os níveis de energia discretos. Seguiremos a prescrição baseada no cálculo da energiamédia. Assim como no caso sem dissipação, não conseguimos obter de forma trivial o calor espe-cífico da partícula livre tomando o limite 𝜔0 → 0. O mesmo ocorre aqui, e logo temos que refazera rota a partir do valor médio de energia. A equação de movimento e consequentemente a funçãoresposta podem ser obtidas tomando 𝜔0 → 0

⟨𝐸⟩ = 12𝑀 ⟨𝑝2⟩ = 1

2𝛽

[︃1 + 2

∞∑︁𝑛=1

𝛾(𝜈𝑛)𝜈𝑛 + 𝛾(𝜈𝑛)

]︃(3.6.26)

e o calor específico é dado por:

𝐶

𝑘𝐵

= 12 − 𝛽𝛾

2𝜋 + (𝛽𝛾2𝜋 )2𝜓(1 + 𝛽𝛾

2𝜋 ). (3.6.27)

Tomando o limite de baixas temperaturas

𝐶

𝑘𝐵

= 𝜋

3𝑘𝐵𝑇

ℎ̄𝜆− 4𝜋3

15

(︃𝑘𝐵𝑇

ℎ̄𝛾

)︃3

+ 𝒪(𝑇 5), (3.6.28)

que claramente concorda com a terceira lei da termodinâmica. Interessante notar que no limite dealtas temperaturas o Teorema de Equipartição de Energia é recuperado.

Há alguns anos, o mesmo cálculo foi realizado aplicando as mesmas prescrições para o ensem-ble canônico5, em contraste com o oscilador harmônico amortecido. Os resultados foram com-pletamente discordantes e foi observado que o calor específico podia alcançar valores negativos abaixíssimas temperaturas.

Recentemente uma possível explicação6 foi apresentada tomando como responsável por essaanomalia a relação entre os graus de liberdade de uma partícula livre e um oscilador harmônico

5Ingold, Hänggi, Talkner,Specific heat anomalies of open quantum systems, arxiv:0811.3509v26Adamietz, Ingold, Weiss;Thermodynamic anomalies in the presence of dissipation: from the free particle to ther

harmonic oscillator, arxiv:1402.6221v1

47

Page 62: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

Figura 3.3: Comportamento típico do calor específico da partícula browniana livre

dissipativo e em correlações entre as densidades de estados de ambos.Contudo, mesmo que não exista garantia que os resultados obtidos pela metodologia de calcular

a energia média sejam de fato os corretos, eles são acessíveis experimentalmente7 e estão maisde acordo com a intuição física do significado do calor específico além de ser uma prescriçãoindependente da escolha do ensemble.

7Gieseler, Deutsch, Quidant, Novotny; Subkelvin Parametric Feedback Cooling of a Laser-Trapped Nanoparticle,PRL,109,103603 Gieseler, Quidant, Dellago, Novotny;Dynamic relaxation of a levitated nanoparticle from a non-equilibrium steady state, Nature Nanotechnology, 9, 2014

48

Page 63: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

Capítulo 4

Entropia Estatística de Sistemas Abertos

Os dois capítulos precedentes versaram sobre dois estilos distintos de mecânica estatística. Umaversão informacional, apresentada no primeiro capítulo e a versão de ensembles que foi aplicadano contexto de sistemas dissipativos no segundo capítulo. O primeiro capítulo também introduziuo que viria a ser uma generalização do funcional de entropia e a termoestatístca a ela associada,a Mecânica Estatística Não-Extensiva, sendo esta uma teoria para tratar problemas que vão alémda energia diretamente aditiva e operadores densidade descorrelacionados usualmente associados àentropia de Gibbs. O segundo capítulo nos trouxe um exemplo de sistema não-extensivo, partículabrowniana, e como podemos tratá-lo dentro do formalismo dos ensembles de Gibbs.

O contraste entre as duas abordagens é bem claro. No formalismo de Gibbs, montamos umasituação física conhecida, ou ao menos tratável, e buscamos um algorítimo que nos permita ape-nas filtrar a informação referente ao subsistemas de interesse. Na abordagem de Jaynes, temosinformação apenas sobre o valor médio alguma grandeza física relevante ao sistema e utilizamosum funcional de entropia como maneira de medir nosso desconhecimento a respeito do estado dosistema, representado pelo operador densidade que maximiza essa entropia.

O operador densidade obtido para o movimento browniano quântico, apesar de gaussiano, nãocorresponde ao operador densidade do ensemble canônico. Por outro lado, a modificação essencialque o acoplamento com o reservatório exerce sobre o estado do sistema aparece na parte energéticado problema. Ou seja, o valor médio da energia ainda é uma grandeza relevante para caracterizaras propriedades do sistema. Assim, recolocamos a pergunta que motivou este trabalho da seguinteforma:

“- Podemos utilizar uma mecânica estatística baseada no princípio de máxima entropia aplicadoa uma entropia de informação, para obter o operador densidade e a correspondente termodinâmicade um sistema dissipativo?-”

49

Page 64: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

Sendo um sistema dissipativo um exemplo de sistema não-extensivo, esperamos que a únicamaneira de descrevê-lo diretamente de um princípio de máxima entropia seja aplicando um fun-cional de entropia generalizado que vá além da Entropia de Gibbs. Logo, dentro da perspectivade modificar a parte energética do problema, temos que lançar mão de um “ensemble canônico”obtido a partir de uma entropia generalizada, como a q-entropia de Daróczy-Tsallis.

O programa a ser descrito nas páginas que seguem é bem simples:

1. Propor um modelo baseado na física estatística não extensiva

2. Obter a termodinâmica deste modelo

3. Comparar com os resultados conforme a prescrição “Sistema + Reservatório”

4.1 O Modelo

Na descrição adotada para um sistema dissipativo, o parâmetro de amortecimento 𝛾 representatodos os efeitos dissipativos produzidos pelo acoplamento com o banho, de tal forma que no limite𝛾 → 0 recuperamos as correlações de equilíbrio e as propriedades do sistema desacoplado. Poroutro lado, na mecânica estatística não extensiva, o índice ajustável 𝑞 mede o quão longe daextensividade o sistema se encontra. Se é o amortecimento que leva o sistema para além de umcomportamento extensivo, então temos que obter a relação entre 𝑞 e 𝛾 de tal forma que quando oamortecimento for nulo, obrigatoriamente , 𝑞 → 1 recuperando a estatística de Boltzmann-Gibbs.

O modelo para o operador densidade reduzido do sistema que vamos aplicar é bem simples;Assumir que os níveis de energia dos subsistemas de interesse estão distribuídos de acordo com a leide probabilidade que emerge da maximização das entropias generalizadas. Desta forma, ao tentarbuscar a correspondência com o operador densidade reduzido do modelo do banho de osciladores,no limite em que não há dissipação, o valor de 𝑞 será obrigatoriamente 1. Estamos interessados nooscilador harmônico amortecido e no movimento browniano quântico livre. Então, nosso modelopara esses sistemas consiste em resolver o oscilador harmônico e a partícula livre neste ensemblecanônico generalizado. A justificativa de adotar tal modelo é bastante razoável.

Primeiro, estes ainda são nossos sistemas de interesse, logo o operador densidade tem querefletir as características deles, com todo o efeito dissipativo ficando a cargo de ser representadopelo parâmetro 𝑞. A segunda justificativa vem da própria definição de operador densidade:

𝜌 =∑︁

𝑖

𝑝𝑖 |Ψ𝑖⟩ ⟨Ψ𝑖| , (4.1.1)

50

Page 65: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

onde 𝑝𝑖 é a probabilidade associada a cada autoestado. Se o estado de equilíbrio é o mesmo doensemble canônico, adotamos como distribuição de probabilidades para os microestados o peso deBoltzmann:

𝜌 =∑︁

𝑖

𝑝𝑖 |Ψ𝑖⟩ ⟨Ψ𝑖| =∑︁

𝑖

𝑒𝑥𝑝(−𝛽𝜀𝑖) |Ψ𝑖⟩ ⟨Ψ𝑖| = 𝑒𝑥𝑝(−𝛽ℋ̂) (4.1.2)

ou seja, se estamos dizendo que os estados de energia do sistema são distribuídos de acordo coma distribuição de probabilidades que maximiza a entropia de Gibbs, nós a colocamos como pesoestatístico do operador densidade, da mesma forma, se os estados do sistema são descritos peladistribuição de probabilidades que maximiza a q-entropia, devemos utilizá-la como peso estatísticodo operador densidade:

𝜌𝑞 = [1 − 𝛽(1 − 𝑞)ℋ̂]1

1−𝑞 . (4.1.3)

Então, apesar da diferença na distribuição de probabilidade, todas as propriedades do operadordensidade e como obter a média de ensemble são mantidas. Em aplicações mais recentes damecânica estatística generalizada, foram propostas duas novas médias de ensemble. O 𝑞 momentoda distribuição de probabilidades:

⟨𝐴⟩ = 𝑇𝑟 (𝜌𝑞𝐴) , (4.1.4)

e a média normalizada ou média de Escort:

⟨𝐴⟩ = 𝑇𝑟 (𝜌𝑞𝐴)𝑇𝑟 (𝜌𝑞) . (4.1.5)

Essas duas modificações foram inseridas para contornar divergências no cálculo de valores mé-dios de grandezas físicas no estudo de fenômenos difusivos. Contudo, do ponto de vista estatísticoe físico, não há nenhum motivo para definir essas médias como a média de ensemble. A fim de de-monstrar que essas médias possuem significado físico, houve tentativas de demonstrar a existênciade um Teorema de Ehrenfest associado a elas. Contudo, tal demonstração não atribui signifi-cado físico a essas médias, pois não há qualquer motivo para uma q-generalização do Teorema deEhrenfest. De fato, existem na literatura tentativas de utilizar q-distribuições como funções deonda para condensados de Bose-Einstein ou q-generalizações da equação de Schrödinger, porémnão há nenhuma tentativa de justificar o uso dessas funções como funções de onda, uma vez queelas não atendem a equação de Schrödinger, e nem ao menos de porque “generalizar” a equaçãode Schrödinger uma vez que a Mecânica Quântica não depende dos argumentos motivacionais daMecânica Estatística Não-Extensiva. Voltarei a este ponto no capítulo seguinte.

51

Page 66: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

Uma vez que o modelo foi colocado, o roteiro a ser seguido é simples:

1. Obter o operador densidade para o sistema de interesse

2. Calcular a função de partição

3. Obter as quantidades termodinâmicas

Para realizar tal programa, aplicaremos duas estratégias:

1. Equação de Bloch Generalizada

2. Representações integrais da q-distribuição.

O operador densidade do ensemble canônico atende uma equação diferencial em 𝛽, conhecidapor equação de Bloch:

𝜕𝜌

𝜕𝛽= −ℋ𝜌, (4.1.6)

F. Bloch utilizou essa equação para derivar o operador densidade do oscilador harmônico1. Ooperador densidade da q-Entropia atende uma equação similar:

𝜕𝜌𝑞

𝜕𝛽= − ℋ

1 − 𝛽(𝑞 − 1)ℋ𝜌𝑞, (4.1.7)

chamada de equação de Bloch generalizada. Percebe-se que podemos obter uma representação emintegrais de Feynman no espaço de fases para o operador densidade generalizado

𝜌𝑞(𝛽) =∫︁

𝒟𝑝𝒟𝑞𝑒𝑥𝑝(∫︁ 𝜏

𝑜𝑑𝜏(𝑝𝑞 −𝐻𝑒𝑓𝑓 )), (4.1.8)

onde o Hamiltoiano efetivo:𝐻𝑒𝑓𝑓 = ℋ

1 − 𝛽(𝑞 − 1)ℋ . (4.1.9)

A não ser em raras situações em que seja possível realizar todas integrais sobre as variáveis demomentum 𝑝, não poderemos converter esta integral na integral de Feynman usual, no espaço deconfigurações.

Outra possível rota é aplicar as representações integrais para a q- distribuição:

• q > 1𝜌𝑞(𝛽) = 1

Γ( 1𝑞−1)

∫︁ ∞

0𝑑𝑡𝑒−𝑡𝑒(−𝑡𝛽(1−𝑞)ℋ)𝑡

1𝑞−1 −1, (4.1.10)

1R.P. Feynman - Statistical Mechanics: A Set of Lectures

52

Page 67: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

• q < 1𝜌𝑞(𝛽) = 𝑖

2𝜋Γ(2 − 𝑞

1 − 𝑞)∮︁

𝐶𝑑𝑡𝑒−𝑡(1+𝛽(1−𝑞)ℋ)𝑡−

2−𝑞1−𝑞 , (4.1.11)

as representações integrais nos permitem evitar o problema de inserir uma medida de integraçãono espaço de funções para a q-exponencial.

Estas representações integrais claramente agem como transformadas da teoria de Boltzmann-Gibbs para a de Tsallis-Rényi-Daróczy, o que endorsa o modelo que adotamos para os sistemasde interesse. As duas representações são conhecidas na literatura como Transformada de Hilrost eTransformada de Prato, respectivamente2.

A representação em integrais de Feynman é um objeto complicado de tratar, mesmo para oproblema mais simples, como a partícula livre. Por outro lado, o uso das transformadas integraistambém não são tão simples. Para realizar a transformada, temos que re-escalar a temperatura𝛽 → 𝑡𝛽(𝑞− 1) e realizar a integral que resta. Não é complicado perceber que esta integral não temsolução analítica, e métodos de inversão numérica não serviriam aos nossos propósitos. A menosde alguns casos aproximados, como o limite de baixas ou altas temperaturas, não podemos obtereste operador densidade de forma explicita. Porém, estas representações integrais tem a vantagemde nos permitir usar o operador densidade sem calcula-lo explicitamente. De fato podemos tentarcalcular a função de partição e os valores médios sem calcular explicitamente o operador densidade.

4.2 O Operador Densidade e a Função de PartiçãoA seção anterior apresentou três maneiras de alcançar a representação de coordenadas do

operador densidade efetivo:

1. Equação de Bloch

2. Integração Funcional

3. Transformadas Integrais

Devido a forma não linear da Equação de Bloch, uma solução exata não foi possível nemmesmo para a partícula livre, e temos que lançar mão de métodos perturbativos, expandindo oHamiltoniano efetivo em séries de potências

𝐻𝑒𝑓𝑓 = ℋ1 − 𝛽(𝑞 − 1)ℋ ≈ −𝛽ℋ + (1 − 𝑞)𝛽2ℋ2 + 𝒪[(1 − 𝑞)2]. (4.2.1)

2Lenzi, Malacarne e Mendes 2000

53

Page 68: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

Isso implica que tanto no caso da partícula livre quanto do oscilador harmônico, teremos deenfrentar um termo do tipo 𝑝4, o que nos impede de obter uma integral de Feynman no espaço deconfiguração e dificulta muito o processo de realizar um cálculo perturbativo.

A tática que vamos aplicar é a mesma de qualquer tratamento perturbativo; tentar fazer apro-ximações sucessivas, inicialmente tomamos como entrada o operador densidade sem a perturbaçãoe calculamos uma correção, depois usamos esse resultado como entrada novamente para calcu-lar uma segunda correção e assim por diante. Note que nesse caso o termo livre, é exatamenteo resultado na estatística de Boltzmann-Gibbs. Então, o que temos que fazer é tratar o termoℋ𝐼 = (1 − 𝑞)𝛽2ℋ2 como uma perturbação e resolver o seguinte problema:

𝜌(𝑥, 𝑥′; 𝛽) ≈ 𝜌𝐺(𝑥, 𝑥′; 𝛽) −∫︁ 𝛽

0⟨𝑥| 𝜌𝐺(𝛽 − 𝛽′)

(︂∫︁|𝑥′′⟩ ⟨𝑥′′| 𝑑𝑥′′

)︂ℋ𝐼𝜌𝐺(𝛽′) |𝑥′⟩ 𝑑𝛽′ (4.2.2)

onde 𝜌𝐺(𝑥, 𝑥′, 𝛽), corresponde ao resultado sem a perturbação.Observe, que obtivemos de forma bastante natural o tratamento perturbativo usual para um

oscilador anarmônico quântico, que consiste em tomar a correção como sendo quadrática na energiado oscilador livre3

4.2.1 O Oscilador Harmônico

Nossa primeira tentativa foi utilizar o modelo proposto para o oscilador harmônico

ℋ = 𝑝2

2𝑚 + 𝑚𝜔𝑥2

2 , (4.2.3)

que nos dá um operador densidade em ordem zero,

𝜌𝐺(𝑥, 𝑥′, 𝛽) = 𝑒𝑥𝑝[ −𝑚𝜔2ℎ̄𝑆𝑖𝑛ℎ( ℎ̄𝜔𝛽

2 )((𝑥2 + 𝑥

′2)𝐶𝑠𝑐ℎ(ℎ̄𝜔𝛽) − 2𝑥𝑥′)]. (4.2.4)

Como não conseguimos realizar exatamente essa integração para qualquer temperatura, opta-mos por buscar uma solução no regime de baixas temperaturas:

𝜌𝐺(𝑥, 𝑥′) = 𝑒𝑥𝑝[ ℎ̄𝜔2 ((𝑥2 + 𝑥′2)](𝑚𝜔

𝜋ℎ̄) 1

2 (4.2.5)

3Pathria, R.K; Problema 3.30

54

Page 69: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

A correção perturbativa até primeira ordem é dada por:

𝜌(𝑥, 𝑥′, 𝑞) = 𝜌𝐺(𝑥, 𝑥′)(1 − (𝑞 − 1)12 ℎ̄𝜔

2). (4.2.6)

Antes de tentarmos obter uma relação entre 𝑞 e 𝛾, vamos analisar o resultado obtido. Oprimeiro ponto a ser levado em conta é que esse resultado é obtido via uma solução perturbativade um modelo já bastante simplificado, portanto devemos esperar que algumas característicassejam perdidas neste processo.

Consideremos o operador densidade que obtivemos para o oscilador amortecido no capítuloanterior:

𝜌(𝑥′, 𝑥, 𝛽) = 1√2𝜋 < 𝑥2 >

exp{︃

−(𝑥′ + 𝑥)2

8𝜋 < 𝑥2 >− < 𝑝2 > (𝑥′ − 𝑥)2

2𝜋 < 𝑥2 >

}︃, (4.2.7)

Como as variâncias < 𝑥2 > e < 𝑝2 > dependem do amortecimento, temos claramente queesse pacote sofre um estreitamento à medida que aumentamos o amortecimento, ao passo que ooperador densidade generalizado apenas será modulado pela variação do valor de 𝑞. Isso nos dizduas coisas:(1) Este resultado só pode ser usado para pequenos desvios de 𝑞 = 1, o que é de seesperar de um resultado perturbativo.(2) A fim de reproduzir os efeitos dissipativos, a relação𝑞 = 𝑓(𝛾) possivelmente não é uma função elementar.

O passo lógico seguinte seria fazer o mesmo cálculo para altas temperaturas, contudo conformemostrado no capítulo anterior, o efeito do amortecimento desaparece das variâncias, mas nãodas funções termodinâmicas, e logo não teremos como fazer uma comparação clara neste nível.Deixaremos este limite para quando estudarmos a termodinâmica.

Calcular correções de ordem mais alta não nos levará muito mais longe. Na verdade nosrestringiria ainda mais a respeito do quão longe de 𝑞 = 1 podemos confiar nos resultados. Ocálculo via integrais de trajetória no espaço de fase nos fornece o mesmo resultado, o que é esperado,contudo o esforço necessário para seguir este programa é muito maior.

Podemos escrever a série perturbativa associada a forma de integral funcional do operadordensidade da seguinte maneira4:

𝜌(𝑥, 𝑥′, 𝛽) =∫︁

𝒟𝑥𝒟𝑝∑︁

𝑙

(−1)𝑙

𝑙! ⟨(−1ℎ̄

∫︁(𝛽2(𝑞 − 1)ℋ2)𝑑𝜏)𝑙⟩𝜌𝐺. (4.2.8)

4Esta maneira de escrever o operador densidade perturbativamente é claramente inpirada na série pertubativapara o propagador de Feynman da teoria quântica de campos. A formulação no espaço de fase esta claramenteformulada em:Kleinert,H; Path Integrals in Quantum Mechanics, Statistics, Polymer Physics, and Financial Markets World Sci-entific, 2009

55

Page 70: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

É bem claro que no limite em que q tende a 1, nossa formulação retorna ao operador densidadedo oscilador harmônico livre. Os valores médios dos termos da série perturbativa são calculadasem termos das derivadas funcionais de 𝜌𝐺 só que dessa vez com as fontes geradoras de correlações:

𝜌𝐺 = 𝐸𝑥𝑝[−1ℎ̄

∫︁(𝑝(𝜏)𝑞(𝜏) − 𝑝2(𝜏)

2 − 𝜔𝑥2(𝜏)2 − 𝑗(𝜏)𝑝(𝜏) − 𝑐(𝜏)𝑥(𝜏))𝑑𝜏 ], (4.2.9)

Isto é, vamos fazer o seguinte cálculo:

𝜌(𝑥, 𝑥′, 𝛽) =∫︁

𝒟𝑥𝒟𝑝∑︁

𝑙

(−1)𝑙

𝑙! ⟨(−1ℎ̄

∫︁(𝛽2(𝑞 − 1)ℋ2( 𝛿

𝛿𝑗(𝜏) ,𝛿

𝛿𝑐(𝜏))𝑑𝜏)𝑙⟩𝜌𝐺, (4.2.10)

Após o cálculo da derivada funcional, tomamos o limite (𝑗(𝜏), 𝑐(𝜏)) → 0 e chegamos à mesmacorreção de primeira ordem. Os resultados perturbativos obtidos não levam em consideração seestamos na região 𝑞 > 1 ou 𝑞 < 1, e podemos usá-los a fim de buscar alguma intuição sobre quala região que corresponde aos resultados que obtemos do banho de osciladores. Temos que tomarcuidado ao analisar os resultados, pois como trata-se de uma aproximação, é preciso verificar aregião do espaço de parâmetros onde o valor de 𝑞 depende apenas 𝛾.

O modelo do banho de osciladores nos fornece resultados exatos nos limites de altas e baixastemperaturas.O amortecimento é influente no operador densidade, no limite de baixas temperatu-ras. Podemos prosseguir nessa aproximação e tentar obter um resultado exato através das trans-formadas integrais. O cálculo exato foi possível no caso 𝑞 > 1, e obtemos um estado gaussianomodulado pela distribuição de Rényi-Tsallis

𝜌𝑞(𝛽) = 1Γ( 1

𝑞−1)

∫︁ ∞

0𝑑𝑡𝑒−𝑡𝑒(−𝑡𝛽(𝑞−1)ℋ)𝑡

1𝑞−1 −1 (4.2.11)

= [1 − (𝑞 − 1)ℎ̄𝜔0]1

1−𝑞 𝑒𝑥𝑝[ ℎ̄𝜔2 ((𝑥2 + 𝑥′2)] (4.2.12)

Novamente, apesar desse resultado ser exato, não observamos o estreitamento da largura dooperador quando variamos o índice 𝑞, e logo este resultado não parece promissor para valores de 𝑞muito distantes de 1.

Podemos nos perguntar o que acontece se tentarmos aplicar a representação integral para ocálculo de outras quantidades, como a função de partição generalizada para o sistema. De fato,nada nos impede de aplicar um traço em ambos os lados da representação integral e obter umatransformada para a função de partição

56

Page 71: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

• q > 1𝒵𝑞(𝛽) = 1

Γ( 1𝑞−1)

∫︁ ∞

0𝑑𝑡𝑒−𝑡𝒵(−𝑡𝛽(1 − 𝑞))𝑡

1𝑞−1 −1, (4.2.13)

• q < 1𝒵𝑞(𝛽) = 𝑖

2𝜋Γ(2 − 𝑞

1 − 𝑞)∮︁

𝐶𝑑𝑡𝑒−𝑡𝒵(𝛽(1 − 𝑞))𝑡−

2−𝑞1−𝑞 . (4.2.14)

Usando a função de partição do oscilador harmônico,

𝒵 = 12𝐶𝑠𝑐ℎ

(︃𝛽𝜔0ℎ̄

2

)︃, (4.2.15)

conseguimos uma expressão exata para a função de partição generalizada

𝒵𝑞(𝛽) = 𝑇

𝑞 − 1

1𝑞−1𝜁[ 1𝑞 − 1 ,

12 + 𝑇

𝑞 − 1], (4.2.16)

convergente apenas na região 1 < 𝑞 < 3. Essa limitação é de cunho apenas matemático e não possuiinterpretação física. De acordo com nossas expectativas de que valores de 𝑞 sejam associados avalores 𝛾, percebe-se que este será um ansatz bastante limitado em relação ao modelo do banhode osciladores.

4.2.2 A Partícula Livre

Considere agora a partícula livreℋ = 𝑝2

2𝑀 . (4.2.17)

O operador densidade na representação de coordenadas é dada por

𝜌(𝑥, 𝑥′; 𝛽) =√︃

𝑚

2𝜋ℎ̄2𝛽𝑒𝑥𝑝(− 𝑚

2ℎ̄𝛽 (𝑥− 𝑥′)2). (4.2.18)

A dependência em 𝛽 do operador não normalizado é muito mais simples do que no caso dooscilador harmônico, neste caso podemos calcular a versão de Rényi-Tsallis-Daróczy exatamentetanto para 𝑞 > 1, quanto para 𝑞 < 1

• 𝑞 > 1

𝜌(𝑥, 𝑥′, 𝛽)𝑞 = 1Γ( 1

𝑞−1) [ 2𝑚𝜋(𝑞 − 1)𝛽 ]1/2[𝑚(𝑥− 𝑥′)2

2(𝑞 − 1)𝛽 ]1

𝑞−1 − 12𝐾 1

𝑞−1 − 12[𝑚(𝑥− 𝑥′)2

2(𝑞 − 1)𝛽 ], (4.2.19)

57

Page 72: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

• 𝑞 < 1

𝜌(𝑥, 𝑥′, 𝛽)𝑞 = Γ( 11 − 𝑞

+ 1)[ 2𝑚𝜋(1 − 𝑞)𝛽 ]1/2[𝑚(𝑥− 𝑥′)2

2(1 − 𝑞)𝛽 ]1

𝑞−1 − −12 𝐽 1

1−𝑞+ 1

2[𝑚(𝑥− 𝑥′)2

2(1 − 𝑞)𝛽 ]. (4.2.20)

Note que neste caso é possível observar efeitos além de uma simples modulação nos termos de-pendentes da posição, logo podemos esperar que 𝑞 possa ser associado ao amortecimento. O gráficoabaixo mostra a forma do operador densidade generalizado para diversos valores de 𝑞. Percebemosque existe um comportamento similar ao variarmos 𝑞 com o que observamos ao variarmos 𝛾.

Em primeira análise, esses resultados qualitativos nos indicam que é possível obter a termodi-nâmica de um sistema dissipativo a partir deste ansatz.

A função de partição efetiva pode ser calculada exatamente tomando o traço deste operadordensidade nos dois limites,

𝑍𝑞(𝛽) =∫︁ 𝐿/2

−𝐿/2𝜌(𝑥, 𝑥, 𝛽)𝑞𝑑𝑥 (4.2.21)

= 𝐿

[︃𝑚

2𝜋(𝑞 − 1)𝛽ℎ̄2

]︃2 Γ(︁

1𝑞−1 − 1

2

)︁Γ(︁

1𝑞−1

)︁ , (4.2.22)

para 𝑞 > 1, e

𝑍𝑞(𝛽) = 𝐿

[︃𝑚

2𝜋(𝑞 − 1)𝛽ℎ̄2

]︃2 Γ(︁

1𝑞−1 + 1

)︁Γ(︁

1𝑞−1 + 3

2

)︁ , (4.2.23)

para 𝑞 < 1, onde 𝐿 é o tamanho da caixa onde realizamos a normalização da partícula livre. Afunção de partição para 𝑞 > 1 só é convergente para valores no intervalo 1 < 𝑞 < 3.

4.3 Propriedades Termodinâmicas

Os resultados da seção anterior mostram que o operador densidade efetivo só pode ser usadocomo um bom ansatz em uma região muito limitada do espaço de parâmetros, correspondente aolimite de dissipação fraca. Mesmo assim, precisamos investigar se esses resultados representam algofísico e por em teste as prescrições empregadas pela mecânica estatística não extensiva para realizara conexão com a termodinâmica e comparar com os resultados obtidos através do modelo do banhode osciladores. Assim como no caso do banho de osciladores, buscaremos a termodinâmica através

58

Page 73: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

Figura 4.1: Operador densidade generalizado da partícula livre para diversos valores de 𝑞.

do calor específico calculado a partir da energia livre generalizada

𝐹𝑞 = −𝑘𝑇𝑇𝒵1−𝑞

𝑞 − 11 − 𝑞

= −𝑘𝑇𝑇𝐿𝑜𝑔𝑞𝒵𝑞, (4.3.1)

e𝐶𝑞 = −𝑇 𝑑

2𝐹𝑞

𝑑2𝑇. (4.3.2)

Seguiremos o seguinte caminho:

1. Calcular a expressão para o calor específico generalizado

2. Investigar o comportamente com a variação de q

3. Comparar com o comportamento subamortecido e superamortecido

4. Usar o resultado do calor específico como função teste para determinar numericamente arelação 𝑞 = 𝑓(𝛾).

4.3.1 Partícula Livre

Utilizando a função de partição generalizada calculada na seção anterior, calculamos o calorespecífico generalizado nas duas região de valor de 𝑞:

59

Page 74: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

• 𝑞 > 1

𝐶𝑞 = 2 12 (𝑞−5)𝜋

12 (𝑞−1)(𝑞 − 3)

⎛⎝√︁ 𝑇

𝑞 − 1

Γ( 1𝑞−1 − 0.5)Γ( 1

𝑞−1)

⎞⎠ 11−𝑞

(4.3.3)

• 𝑞 < 1

𝐶𝑞 = 2 12 (𝑞−5)𝜋

12 (1−𝑞)(𝑞 − 3)

⎛⎝√︁ 𝑇

𝑞 − 1

Γ( 11−𝑞

+ 1)Γ( 1

1−𝑞+ 1.5)

⎞⎠ 11−𝑞

(4.3.4)

O comportamento típico de cada um desses sistemas para diversos valores de 𝑞 estão representadosnos gráficos abaixo:

Figura 4.2: Calor específico da partícula livre na região q<1

Olhando para o comportamento do calor específico com a temperatura, percebe-se que ambosos casos respeitam a terceira lei da termodinâmica. Observe que no caso 𝑞 > 1, o calor específicoé negativo, o que não respeita a segunda lei da termodinâmica, conforme a definição mais simplesde calor específico:

𝐶 = 𝑇𝜕𝒮𝜕𝑇

. (4.3.5)

60

Page 75: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

Figura 4.3: Calor específico da partícula livre na região q>1

Dado que a entropia sempre cresce com a temperatura, e a temperatura não pode ser negativa5,logo o calor específico não pode ser uma função decrescente com a temperatura e devemos descartara região 𝑞 > 1.

Um calor específico decrescente e temperaturas negativas não são novidadades no estudo desistemas simples na física estatística, o tratamento canônico de um sistema magnético6 apresentao mesmo comportamento para as propriedades termodinâmicas. A saída encontrada é inserir umatemperatura negativa, que em princípio não ocasionaria nenhum problema pois o sistema possuium espectro de energia superiormente limitado.

Este fenômeno ocorre em sistemas físicos em que o spin nuclear e a rede cristalina alcançamestados de equilíbrio termodinâmico distintos. Para isso acontecer basta que o tempo de relaxaçãoda rede e dos spins em conjunto ser maior que o tempo de relaxação dos spins e da rede emseparado. Desta forma, se o sistema está em um estado global de equilíbrio, uma súbita mudançaem um dos parâmetros externos é seguida de um período transiente em que os dois subsistemas,rede e spins, estão desacoplados um do outro e alcançam estados de equilíbrio a temperaturasdistintas, que no caso dos spins pode ser negativa.

5Dunkel, J; Hilbert, S; Consistent thermostatistics forbids negative absolute temperatures, Nature Physics, 10,67-72 (2014)Campisi, M; Construction of microcanonical entropy on thermodynamic pillars, arXiv:1411.2425v3 [cond-mat.stat-mech]

6Pathria, R,K; Statistical Mechanics, Second Edition, Seção 3.10

61

Page 76: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

Apesar de um resultado exato, novamente não podemos esperar uma descrição completa de umsistema dissipativo com este tipo de ansatz pois temos uma região muito limitada para os valoresde 𝑞. Isso ressalta a importância de não nos atermos apenas ao operador densidade, pois da seçãoanterior vimos que é possível obter resultados além dessa região.

Utilizando o calor específico generalizado como função teste para o resultado do banho deosciladores, conseguimos uma correspondência que está representada no gráfico abaixo.

0 . 0 0 . 5 1 . 0 1 . 5 2 . 0

0 . 7 0

0 . 7 5

0 . 8 0

0 . 8 5

0 . 9 0

0 . 9 5

1 . 0 0

q - T s a l l i s

q-Tsa

llis

λ ( γ/ω0)

Figura 4.4: Relação entre 𝑞 e 𝛾 para o calor específico da partícula livre generalizada e da partículabrowniana livre

Observamos claramente que o limite de amortecimento nulo corresponde ao caso Boltzmann-Gibbs e temos 𝑞 = 1. Percebemos também a presença de uma mudança de comportamento quandopassamos do regime subamortecido para o regime superamortecido.

Em primeira análise, seria esperado que as regiões acessíveis de 𝑞 fossem correspondentes àregimes de amortecimento distintos, de tal forma que a relação entre 𝑞 e 𝛾 seria descontínua. Nossosresultados indicam uma relação contínua, superiormente limitada pela caso sem amortecimento.A maior parte dos resultados apresentados na literatura, tomam 𝑞 como um número real positivo,embora na formulação da teoria a única restrição é que o valor de 𝑞 seja um número real e destaforma, podemos extrapolar a região superamortecida para valores negativos de 𝑞. Isso apresenta

62

Page 77: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

Figura 4.5: Comparação entre os calores específicos para valores correspondentes de 𝑞 e 𝛾, ondeCq é o calor específico generalizado para 𝑞 = 0.9 e Ccl é o calor específico do modelo do banho deosciladores para 𝛾 = 0.5

alguns problemas:

1. Interpretação Física

2. Estabilidade Termodinâmica

Um dos objetivos do trabalho é tentar uma interpretação física para o índice entrópico, ou associa-lo a algum parâmetro físico. A mudança de sinal ocorre dentro da região superamortecida, logonão há nenhuma mudança do comportamento físico do sistema de tal forma que não encontramosuma interpretação física para a mudança de sinal.

Por outro lado, as leis da termodinâmica estabelecem que o estados de equilíbrio são extremosda entropia e convencionamos que este extremo é um máximo. Para valores negativos de 𝑞 aentropia generalizada possui apenas um mínimo e a entropia de Rényi não está definida nestaregião, logo essa região não é físicamente aceitável. Para testar a concordância entre os doismodelos, podemos confrotar valores correspondentes de 𝑞 e 𝛾, em um mesmo gráfico: Percebe-seclaramente que mesmo esses valores sendo obtidos como o melhor ajuste entre os dois modelos, aconcordância numérica não existe. Contudo vê-se que ambos os modelos tem exatamente o mesmocomportamento com a temperatura. Logo apesar de não ter um bom ajuste com o banho deosciladores, nosso modelo é capaz de descrever um sistema dissipativo, ainda que de forma muitolimitada.

Como produto observamos um comportamento termodinâmico anômalo nas definições termo-dinâmicas propostas pela Mecânica Estatística Não-Extensiva. À primeira vista, pode-se cogitarque o sistema precise de alguma modificação para que seja possível montar uma teoria efetiva commelhor concordância com os resultados para o movimento browniano quântico livre. Ainda assim,

63

Page 78: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

para que os dois regimes de 𝑞 teriam que ser consistentes com a termodinâmica, o que só ocorreráse a modificação for tal que a dependência com a temperatura seja drasticamente alterada, o quevai de encontro a justificativa adotada para o modelo. Assim, vemos que cumprimos parcialmentenosso propósito, utilizar um modelo partindo do Princípio de Jaynes para um sistema dissipativo,testar o conteúdo físico da Mecânica Estatística Não Extensiva e comparar com os resultados paraum sistema não extensivo exatamente solúvel e verificar o comportamento do índice ajustável comas constante do modelo solúvel. Vamos executar o mesmo programa para o oscilador harmônico.

4.3.2 Oscilador Harmônico

No limite de amortecimento Ôhmico, a função de partição reduzida tem uma expressão exatabem conhecida, de tal forma que foi possível realizar uma comparação com a função de partiçãogeneralizada. Observamos um comportamento similar para a região subamortecida: Tomando a

2 4 6 8 10T

5

10

15

20

Zt

ZCL

ZT

Figura 4.6: Comparação entre a função de partição do modelo do banho de osciladores, ZCL, e afunção de partição generalizada, ZT, para o oscilador harmônico.

função de partição generalizada como função teste para a função de partição reduzida, obtivemosas seguintes relações entre 𝑞 e 𝛾: Assim como fizemos para a partícula livre, realizamos o cálculodo calor específico para 𝑞 > 1, cujo comportamento típico é mostrado nos gráficos abaixo

Figura 4.7: Calor específico para o oscilador harmônico no regime q>1

Novamente encontramos um comportamento que viola as leis da termodinâmica na região

64

Page 79: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

𝑞 > 1 com um calor específico que decresce com a temperatura e este comportamento se torna maisacentuado à medida que aumentamos o valor de 𝑞. Dado a semelhança de comportamento entre 𝒵 e𝒵𝑞, podemos pensar em comparar diretamente o calor específico do oscilador harmônico amortecidocom o calor específico generalizado do oscilador harmônico. Por exemplo, 𝛾 = 0.4 que correspondea 𝑞 = 1.4, mostra que existe alguma concordância apenas em baixíssimas temperaturas:

2 4 6 8 10T

0.2

0.4

0.6

0.8

1.0

C

CCL

CT

Figura 4.8: Comparação entre o calor específico dos dois modelos para o oscilador harmônico

Não conseguimos obter uma função de partição generalizada na região 𝑞 < 1, contudo, aindapodemos tentar explorar essa região aplicando métodos variacionais. É possível provar a existênciade uma desigualdade de Bogoliubov generalizada7 para a q-estatística:

ℱ𝑞 ≤ ℱ0𝑞 + ⟨ℋ𝐼⟩, (4.3.6)

Podemos aplicá-la ao problema do oscilador harmônico, tomando o potencial quadrático ℋ𝐼 =𝑚𝜔2𝑥2/2 como uma pequena pertubação para uma partícula confinada num potencial quadrado,ℋ0 =𝑝2/2𝑚 + 𝑉0, com 𝑉0 = 0 para mod 𝑥 mod ≤ 𝐿/2 e 𝑉0 = ∞ para mod 𝑥 mod ≥ 𝐿/2. Afunção de partição do sistema não perturbado é a mesma que usamos para a partícula livre e ovalor médio do termo de interação é dado por:

• 𝑞 < 1

⟨ℋ𝐼⟩0𝑞 = 𝑚𝜔2𝐿3

24ℎ̄𝒵(0)𝑞𝑞

[︃2𝑚𝜋

(1 − 𝑞)𝛽

]︃ 12 Γ

(︁1

1−𝑞

)︁Γ(︁

11−𝑞

+ 12

)︁ , (4.3.7)

7Lenzi, Malacarne e Mendes; Pertubation and Variational Methods in Nonextensive Tsallis Statistics,Phys. Rev.Lett. 80, 218

65

Page 80: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

• q> 1

⟨ℋ𝐼⟩0𝑞 = 𝑚𝜔2𝐿3

24ℎ̄𝒵(0)𝑞𝑞

[︃2𝑚𝜋

(𝑞 − 1)𝛽

]︃ 12 Γ

(︁𝑞

1−𝑞− 1

2

)︁Γ(︁

21−𝑞

)︁ . (4.3.8)

O valor de 𝐿 que minimiza a energia livre tanto para 𝑞 > 1 e 𝑞 < 1 é dado por:

𝐿 = 43 − 𝑞

(︃3

𝑚𝜔2𝛽

)︃ 12

. (4.3.9)

Usando a energia livre assim obtida, calculamos novamente o calor específico. Na região 𝑞 < 1obtivemos um comportamento compatível com as leis da termodinâmica, conforme ilustrado nafigura abaixo

Figura 4.9: Comportamento típico do calor específico do oscilador harmônico, calculado com adesigualdade de Bogoliubov generalizada.

Contudo, observa-se que esse comportamento é um tanto quanto distinto do comportamentoobtido no modelo do banho de osciladores, de tal forma que não conseguimos aplicá-lo comofunção teste. A região 𝑞 > 1 apresenta um calor específico decrescente, mas com resultadossubstacialmente diferentes do cálculo exato. De fato, isso mostra que a aproximação variacional nãoé muito precisa no contexto da Mecânica Estatística Não Extensiva. De fato, foi demonstrado queessas abordagens apresentam uma taxa de convergência muito melhor que a Mecânica Estatísticausual, contudo exitem poucos ou nenhum teste relativo a qualidade dos resultados obtidos.

4.4 Entropia Estatística de Sistemas Abertos

O objetivo central deste trabalho foi buscar uma descrição para sistemas quânticos dissipativos apartir de um princípio de máxima entropia, sem ter que desenvolver um modelo para o reservatóriotérmico e o acoplamento com o sistema de interesse. Para realizar tal programa, utilizamos duas

66

Page 81: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

entropias dependentes de parâmetros ou entropias generalizadas; A entropia de Rényi e a entropiade Daróczy-Tsallis.

Ao longo do trabalho, estudamos a interpretação informacional da mecânica estatística,princípiode máxima entropia, e como ela se coloca em relação aos pontos estruturantes da mecânica esta-tística baseada em ensembles formulada por Boltzmann e Gibbs. Obtivemos o operador densidadeque maximiza essas entropias, sujeitas a um vínculo de energia média constante, um ensemblecanônico generalizado, e montamos um caminho para a conexão com a termodinâmica.

Em seguida, revisamos os aspectos fundamentais dos modelos do tipo “sistema + reservatório”para a descrição de sistemas quânticos dissipativos e aplicamos ao problema do movimento brow-niano quântico, calculamos exatamente o operador densidade,aplicando um modelo estocástico, eas propriedades termodinâmicas para o movimento browniano livre e em um potencial parabólico.

O sistema dissipativo escolhido é obviamente um sistema dito não extensivo, contudo possuiuma solução exata cujas propriedades são muito bem conhecidas, constituindo uma situação físicabastante conveniente ao estudo da robustez das prescrições da mecânica estatística generalizada.

Na abordagem aplicada para sistemas dissipativos, assumimos que o conjunto “sistema+reservatório”possui seus níveis de energia distribuídos de acordo com o ensemble canônico. Neste trabalho, pro-pusemos um modelo minimalista onde assumimos que os níveis de energia do sistema de interesseestão distribuídos de acordo com a q-distribuição que obtivemos pelo princípio de máxima entropia.

Conseguimos calcular exatamente a representação de coordenadas do operador densidade paraa partícula livre, para valores de q nos intervalos 0 < 𝑞 < 1 e 1 < 𝑞 < 3. O limitante superior novalor de 𝑞 não possui qualquer interpretação física e o operador densidade diverge para além de 3,apontando na direção de uma limitação na física descrita por este tipo de estatística. Estudandoa variação do operador densidade com 𝑞, mostramos qualitativamente que é possível identificar oíndice entrópico com a constante de amortecimento 𝛾.

Para o oscilador harmônico, conseguimos calcular a representação de coordenadas apenas nolimite de 𝑇 → 0, e o comportamento para valores distintos de 𝑞 corresponde apenas ao de dissipaçãomuito fraca.

De posse destes resultados, partimos à investigação das propriedades termodinâmicas do mo-delo, tendo sempre como referência os resultados do modelo do banho de osciladores desacoplados,testamos a validade do algorítimo para a termodinâmica generalizada através do cálculo do calorespecífico. Foi possível obter um resultado exato para os dois regimes na partícula livre e na região1 < 𝑞 < 3 para o oscilador harmônico. Utilizando a desigualdade de Bogoliubov, calculamos,aproximadamente, o calor específico para 0 < 𝑞 < 1.

Nos dois sistemas, a região 𝑞 > 1 apresenta um comportamento não compatível com as leisda termodinâmica, pois temos um calor específico decrescente com a temperatura ou até mesmo

67

Page 82: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

negativo. A partícula livre apresentou um comportamento condizente com o movimento brownianolivre para 0 < 𝑞 < 1. O oscilador harmônico também demonstrou comportamento anômaloem 0 < 𝑞 < 1. Apesar disso, mostramos que a função de partição e operador densidade têmcomportamentos similares. Contudo o significado físico não é o mesmo ou as vezes é completamenteinexistente.

Com isso, concluímos que o princípio de máxima entropia aplicado às entropias propostas,ditas serem generalizações genuínas da estatística de Boltzmann Gibbs e capazes de preenchera lacuna de sistemas físicos não descritos pelo ensemble canônico, não se apresenta como umalgorítimo robusto para o estudo do movimento browniano quântico,em comparação com o modelodo banho de osciladores. Suas prescrições para a termodinâmica apresentam inconsistências severascom as suas leis básicas e são desprovidas de significado físico. Por isso, podemos dizer queessas versões da mecânica estatística não são tão fundamentais quanto a forma de BoltzmannGibbs e não representam um ansatz fisicamente justificável e robusto para o estudo de sistemasquânticos abertos ou qualquer outro sistema cujo conteúdo físico possa ser bem representado poruma abordagem do tipo “sistema+reservatório”.

Obviamente, algumas perguntas sobre a validade dos nossos resultados ficam no ar;(1) Podemosidentificar 𝛽 com o inverso da temperatura?, (2) Essas entropias estatísticas podem ser tomadascomo uma entropia termodinâmica?

Esses questionamentos necessitam ser respondidos para que nossas conclusões possuam algumfundamento. E serão tratadas para a conclusão da dissertação

68

Page 83: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

Capítulo 5

Epílogo

A mecânica estatística serve como uma ponte entre as teorias microscópicas e a fenomenologiada termodinâmica, que por sua vez assumimos ser válida para todos os sistemas físicos. A razãodisso é muito simples, a termodinâmica usa de poucas exigências básicas, as quatro leis, e é formu-lada com base em verificação experimental. Logo deve valer independente da situação adotada. Aforça da descrição termodinâmica pode ser jocosamente traduzida na célebre frase de Sir ArthurEddington:

“The law that entropy always increases, holds, I think, the supreme position among the lawsof Nature. If someone points out to you that your pet theory of the universe is in disagreementwith Maxwell’s equations — then so much the worse for Maxwell’s equations. If it is found tobe contradicted by observation — well, these experimentalists do bungle things sometimes. But ifyour theory is found to be against the second law of thermodynamics I can give you no hope; thereis nothing for it but to collapse in deepest humiliation.”

A quantidade de sistemas físicos nos quais a termodinâmica foi observada com extremo sucessovão desde gases e osciladores, presentes nos livros-texto, até buracos negros e centros de galáxias,passando por bactérias, proteínas, dispositivos, reações químicas entre outros, constituído umvínculo para as descrições de primeiros princípios de sistemas naturais.

Muito foi dito a respeito das aplicabilidades dos funcionais de entropia generalizados surgidosno contexto da teoria de informação. Existe uma miríade de aplicações em ciências econômicas,política e sociologia dessas entropias, bem como existem bem sucedidas aplicações à física, químicae biologia. Isto nos leva a crer que possivelmente, através dessas prescrições, a termodinâmica sejamais geral do que podemos imaginar.

Nos últimos 27 anos, muita atenção foi dada à entropia de Daróczy-Tsallis e todo o formalismoque dela emergiu. Antes do artigo seminal da q-mecânica estatística, floreceu um verdadeiro

69

Page 84: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

miríade de funcionais de entropia dependentes de parâmetro(s)1,. Ainda hoje novos funcionaissão propostos2 e não existe consenso sobre a relevância física desses funcionais, ao passo que asdistribuições que emergem destas entropias foram fortemente aplicadas como ferramentas de ajustepara sistemas físicos, de forma que obtemos uma teoria que fornece expressões para tratar sistemasfísicos mas não é preditiva.

À luz dos resultados do capítulo anterior, onde obtemos ambiguidades nas definições das quan-tidades termodinâmicas advindas das entropias generalizadas, bem como discordâncias dos resul-tados obtidos nos modelos de dissipação, temos que buscar alguma justificativa física para essesfatos. O caminho mais óbvio é dizer que dado os resultados as entropias generalizadas representamum ansatz inadequado para sistemas dissipativos na abordagem do banho de osciladores desaco-plados. Contudo, antes de fazermos essa afirmação, temos que verificar a validade das prescriçõesempregadas para a conexão com a termodinâmica.

Outra abordagem é tentar confrontar estas entropias com as leis da termodinâmica e verificarse elas são boas candidatas para a entropia de sistemas acoplados com um reservatório térmico.Essa pergunta foi feita no contexto de sistemas isolados, ensemble microcaônico, recentemente3 4.Podemos fazer a mesma pergunta aqui. O que acontece se confrontarmos as entropias generalizadasde Tsallis e Rényi, com as leis da termodinâmica? Elas de fato são físicas? Esse questionamentojá foi feito antes por Nauenberg5. Na próxima seção, elencamos alguns argumentos para comporuma crítica à q-Estatística e estabelecer os limites de validade termodinâmica dessa teoria, e emseguida expomos as conclusões finais.

5.1 Críticas às Estatísticas Generalizadas

5.1.1 Decomponibilidade, Equilíbrio Térmico e a Lei Zero da Termo-dinâmica

O primeiro argumento exposto por Nauenberg já foi colocado anteriormente aqui: A q-Entropianão é aditiva para sistemas descorrelacionados, ela apresenta uma pseudo-aditividade:

𝑃𝐴𝐵𝑖,𝑗 = 𝑝𝐴

𝑖 𝑝𝐵𝑗 (5.1.1)

1Beck arXiv:0902.1235 [cond-mat.stat-mech]2Borges and Roditi 19983Hilbert, Hänggi and Dunkel PhysRevE.90.0621164Campisi arXiv:1411.24255Critique of q-Entropy for Thermal Statistics ; Phys. Rev. E 67, 036114

70

Page 85: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

do qual obtemos𝑆𝑞(𝐴+𝐵) = 𝑆𝑞(𝐴) + 𝑆𝑞(𝐵) + (1 − 𝑞)𝑆𝑞(𝐴)𝑆𝑞(𝐵)/𝑘𝑇 . (5.1.2)

Isto nos conduz a dificuldades óbvias pois probabilidades decomponíveis implicam em acoplamentofraco, que por sua vez implicam em aditividade da energia:

𝐸𝐴,𝐵𝑖,𝑗 = 𝐸𝐴

𝑖 + 𝐸𝐵𝑗 . (5.1.3)

Do ponto de vista termodinâmico a entropia tem que ser obrigatoriamente aditiva. Esse problemacomumente é resolvido dizendo que neste caso, obrigatoriamente 𝑞 = 1, o que apresenta algumasfalhas. Isso não deveria acontecer se esta entropia tenciona ser uma entropia termodinâmica. Aaditivdade deveria ser obtida como um produto básico. Para um sistema não extensivo, existe umvalor de 𝑞 diferente de 1 para o qual esta entropia seria aditiva. Isto implica dizer que nenhumsistema interagente,como por exemplo o modelo do Jellium, pode ser descrito pela entropia deBoltzmann-Gibbs, o que sabemos não ser verdade6.

O mesmo problema ocorre com a distribuição de probabilidades que emerge do princípio demáxima entropia para um ensemble canônico generalizado:

𝑝𝑖 ∝ [1 − (𝑞 − 1)𝛽𝜖𝑖]1

𝑞−1 . (5.1.4)

Se o sistema não for interagente, a energia é aditiva e a distribuição de probabilidades deveria serfatoravel, o que não ocorre, mesmo aplicando as prescrições generalizadas para soma e produto.Ou seja, essa distribuição de probabilidades insere naturalmente uma correlação inexistente entreas partes do sistema e a saída será assumir 𝑞 = 1 obrigatoriamente, o que deveria vir como produtoda teoria.

Vamos considerar uma situação de cunho termodinâmico. Sejam A e B dois sistemas em contatotérmico e isolados do meio externo:

𝛿𝑆𝑞(𝐴,𝐵) = 0 (5.1.5)

𝛿𝑈𝑞(𝐴,𝐵) = 0 (5.1.6)

isto implica:𝛿𝑆𝑞(𝐴)

1 + (1 − 𝑞)𝑆𝑞(𝐴)/𝑘𝑇

= 𝛿𝑆𝑞(𝐵)1 + (1 − 𝑞)𝑆𝑞(𝐵)/𝑘𝑇

(5.1.7)

6Veja Fetter, A and Walecka, J.D; Quantum Theory of Many-Particles System

71

Page 86: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

𝛿𝑈𝑞(𝐴) = 𝛿𝑈𝑞(𝐵). (5.1.8)

Combinando as duas equações, obtemos:

[1 + (1 − 𝑞)𝑆𝑞(𝐴)/𝑘𝑇 ]𝑇 (𝐴) = [1 + (1 − 𝑞)𝑆𝑞(𝐵)/𝑘𝑇 ]𝑇 (𝐵) (5.1.9)

onde 𝑇 (𝐴) e 𝑇 (𝐵) são as temperaturas termodinâmicas absolutas:

𝛿𝑆

𝛿𝑈= 1𝑇. (5.1.10)

No equilíbrio, os dois sistemas deveriam alcançar a mesma temperatura. Isso só será verdadese 𝑞 = 1. Contudo T é uma quantidade intensiva, e não deveria depender do índice de nãoextensividade e nem o índice deve depender da temperatura, mas isso não ocorre em um formalismoonde a entropia não e aditiva.

Uma proposta para contornar este problemas é redefinir a temperatura como:

𝑇𝑞 = [1 + (1 − 𝑞)𝑆𝑞/𝑘𝑇 ]𝑇 (5.1.11)

E no equilíbrio térmico encontramos 𝑇 (𝐴) = 𝑇 (𝐵).Contudo, a definição de temperatura deve ser genérica e de forma alguma depender de q, pois

nunca obteríamos equilíbrio térmico entre sistemas com diferentes valores de 𝑞, a menos que 𝑞 sejauma constante universal exatamente como a constante de Boltzmann. Isso mostra que o ensemblede Tsallis viola a Lei Zero da termodinâmica. Podemos nos perguntar o que acontece se usarmosum funcional de entropia que seja compatível com essa “temperatura generalizada ’ ’:

𝜕𝑆𝑅𝑞

𝜕𝑈𝑞

= 1𝑇𝑞

. (5.1.12)

A forma de entropia correspondente é dada por:

𝑆𝑅𝑞 = 𝑘

1 − 𝑞lg[1 + (1 − 𝑞)𝑆𝑞] (5.1.13)

que é exatamente a entropia de Rényi!Existem vários argumentos na literatura que clamam que a entropia de Tsallis nada mais é do

que um truncamento de 1ª ordem da entropia de Rényi, o que de fato faz algum sentido. Contudo,essas entropias possuem o mesmo operador densidade, que é obtido tomando a primeira variação dofuncional de entropia. Logo, mesmo sendo mais geral que a entropia de Tsallis, a entropia de Rényi

72

Page 87: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

enfrenta o problema da decomponibilidade e ainda assim não serviria ao trabalho termodinâmico.

5.1.2 A 1ª e 2ª Leis da Termodinâmica para as Entropias Generaliza-das

Resolver um problema de termodinâmica consiste em tomar alguma informação conhecida,como a energia interna ou o comportamento ao longo de um ciclo termodinâmico e confrontarcom as leis da termodinâmica. Isto é feito através da versão combinada da primeira e segunda lei,conhecida como 1ª equação 𝑇𝑑𝑆:

𝑑𝒰 = 𝑇𝑑𝒮 + 𝑑𝒲 . (5.1.14)

Analisando os resultados obtidos nesta equação para diversas situações físicas, obtemos ospilares do formalismo termodinâmico como os potenciais termodinâmicos e as relações de Maxwell.Não precisamos inserir nenhum truque matemático não usual para obtermos esses resultados. Asquantidades relevantes são definidas unicamente através da observação dos resultados vindos daaplicação direta das leis da termodinâmica. Vamos ilustrar um desses casos:

Segundo a primeira lei, ao realizarmos um processo termodinâmico, reversível ou não, entredois estados de equilíbrio, o trabalho total é dado por:

𝒲 = (𝒰1 + 𝒰2) + 𝒬 (5.1.15)

considere o caso em que o fluxo de calor vem apenas de uma fonte a temperatura 𝑇 e os estadosfinais e iniciais do sistema estão à mesma temperatura. A 2ª lei da termodinâmica diz que avariação da entropia total, sistema + fonte, é maior ou igual a zero:

Δ𝒮𝑇 = (𝒮2 − 𝒮1) + Δ𝒮𝑅 ≥ 0 (5.1.16)

e a variação de entropia da fonte é dada por:

𝒮𝑅 = −𝒬𝑇

(5.1.17)

ou seja:Δ𝒮𝑇 = (𝒮2 − 𝒮1) + 𝒬

𝑇≥ 0 (5.1.18)

𝑇 (𝒮2 − 𝒮1) ≥ 𝒬𝑇

(5.1.19)

73

Page 88: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

Consequentemente, a combinação da primeira com a segunda lei da termodinâmica nos fornece:

𝒲𝑇 ≤ (𝒰1 − 𝒰2) − 𝑇 (𝒮1 − 𝒮2). (5.1.20)

Definindo-se uma propriedade do sistema que é a função energia livre de Helmholtz:

ℱ ≡ 𝒰 − 𝑇𝒮 (5.1.21)

e assim

𝒲𝑇 ≤ (ℱ1 − ℱ2) (5.1.22)

estabelecendo um limite superior para o trabalho realizado entre dois estados de equilíbrio.Os potenciais termodinâmicos são usualmente obtidos das propriedades matemáticas das va-

riáveis de estado via transformadas de Legendre. Este procedimento, obviamente é completamentecorreto. A Energia livre pode ser obtida pela transformada de Legendre da energia interna. Con-tudo esta energia interna, se calculada via métodos estatísticos, deve vir de uma entropia estatísticaque seja compatível com todas as leis da termodinâmica.

Isto posto, podemos tentar uma identificação com a termodinâmica de uma forma bastante pe-destre e intuitiva, calculando uma grandeza física via métodos estatísticos e usar como entrada nasleis da termodinâmica. Para ilustrar, considere a conexão com a termodinâmica para o ensemblecanônico:

Dada a distribuição de probabilidade:

𝑃𝑟 = 𝑒𝑥𝑝(−𝛽𝐸𝑖)∑︀𝑖 𝑒𝑥𝑝(−𝛽𝐸𝑖)

, (5.1.23)

a energia média é dada por:𝒰 = ⟨𝐻⟩ =

∑︀𝑖 𝑒𝑥𝑝(−𝛽𝐸𝑖)𝐸𝑖∑︀

𝑖 𝑒𝑥𝑝(−𝛽𝐸𝑖). (5.1.24)

É fácil ver que: ∑︁𝑖

𝑒𝑥𝑝(−𝛽𝐸𝑖) = −∑︁

𝑖

𝜕

𝜕𝛽(𝑒𝑥𝑝(−𝛽𝐸𝑖)) = 𝜕𝒵

𝜕𝛽, (5.1.25)

e obtemos:𝒰 = −1

𝒵𝜕𝒵𝜕𝛽

= −𝜕 ln(𝒵)𝜕𝛽

. (5.1.26)

Assuma agora que a função de partição não é uma função apenas da temperatura, mas tambémde um parâmetro externo usado para controlar a realização de trabalho: 𝒵 = 𝒵(𝛽, 𝑥). Pelo mesmo

74

Page 89: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

caminho, chegamos que o trabalho é dado por:

𝒲 = 𝜕 ln(𝒵)𝜕𝑥

. (5.1.27)

Desses dois resultados, percebemos que ln(𝒵) é uma quantidade recorrente na descrição esta-tística. Considere seu diferencial total:

𝑑(ln(𝒵)) = 𝜕 ln(𝒵)𝜕𝑥

𝑑𝑥+ 𝜕 ln(𝒵)𝜕𝛽

𝑑𝛽 (5.1.28)

= 𝛽𝑑𝒲 − 𝒰𝑑𝛽 = 𝛽𝑑𝒲 − 𝑑(𝒰𝛽) − 𝛽𝑑𝒰 , (5.1.29)

rearanjando os termo de forma conveniente e aplicando a primeira lei da termodinâmica

𝑑(𝐿𝑛(𝒵) + 𝛽𝒰) = 𝛽(𝑑𝒲 + 𝑑𝒰) = 𝛽𝑑𝒬 = 𝑑𝒬𝑇, (5.1.30)

uma vez que 𝛽 = 1𝑘𝐵𝑇

, para que a segunda lei da termodinâmica seja satisfeita, o lado direitodeve ser o diferencial da entropia termodinâmica:

𝒮 = ln(𝒵) + 𝛽𝒰 (5.1.31)

o que nos fornece por produto, a energia livre de Helmholtz:

ℱ = 𝑘𝑇𝑇𝐿𝑛(𝒵). (5.1.32)

Então, ao invés de tomar diretamente a transformada de Legendre da energia média, podemosseguir por esse mesmo caminho, utilizando a distribuição de probabilidade que vem da maximizaçãodas entropias estatísticas. Como as entropias de Rényi e Tsallis possuem a mesma distribuição,podemos fazer um único cálculo. A energia média é dada por:

𝒰 =∑︀

𝑖[1 − 𝛽(1 − 𝑞)𝐸𝑖]1

1−𝑞𝐸𝑖∑︀𝑖[1 − 𝛽(1 − 𝑞)𝐸𝑖]

11−𝑞

= 𝜕

𝜕𝛽[𝒵1−𝑞

𝑞 − 11 − 𝑞

], (5.1.33)

o trabalho termodinâmico é dado por:

𝒲 = 1𝛽

𝜕

𝜕𝑥[𝒵1−𝑞

𝑞 − 11 − 𝑞

], (5.1.34)

Denominando𝑓(𝒵) =

𝒵1−𝑞𝑞 − 11 − 𝑞

, (5.1.35)

75

Page 90: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

tomando a primeira lei

𝑑(𝑓(𝒵) + 𝛽𝒰) = 𝛽(𝑑𝒲 + 𝑑𝒰) = 𝛽𝑑𝒬. (5.1.36)

Para verificarmos concordância com a segunda lei, 𝛽 obrigatoriamente tem que ser igual a 1𝑘𝐵𝑇

e assim identificamos a entropia termodinâmica:

𝒮𝑞 = 𝑓(𝒵) + 𝛽𝒰 , (5.1.37)

e a energia livre de Helmholtz:ℱ𝑞 = −𝑘𝐵𝑇𝑓(𝒵𝑞). (5.1.38)

Concluímos que para ser compatível com a primeira e a segunda lei, as entropias de Tsallis eRényi devem possuir a mesma termodinâmica. Isto prova que a entropia de Rényi é mais adequadaque a entropia de Tsallis, pois esta é aditiva para sistemas descorrelacionados.

5.2 O ensemble de Tsallis como um ortodo exato

Nos últimos anos, dado o crescente interesse nos fundamentos da Física Estatística e na emer-gência do comportamento termodinâmico na escala quântica, o princípio de máxima entropia e aaplicação de entropias de informação na física tiveram suas bases contestadas. Aliado a isso, ocrescente clamor que a entropia de Tsallis representa uma verdadeira generalização da mecânica es-tatística, tornou-a um excelente modelo para testar as bases da mecânica estatística informacionalalém da contestação do significado físico do parâmetro 𝑞.

Em seu artigo seminal, Jaynes deixa claro que ao tomar a mecânica estatística como ummétodo de inferência e não uma teoria física, estamos sujeitos a resultados com interpretação físicaconfusa ou sem nenhum significado físico, mas ainda assim a descrição obtida é matematicamenteconsiderada a melhor dada as condições de contorno.

Ao confrontar as entropias generalizadas com a primeira e segunda lei da termodinâmica,resolvemos um problema de longa data: O multiplicador de Lagrange deve ser de fato associadocom o inverso da temperatura. Mas ainda resta a dualidade entre as entropias Rényi e Tsallis.Existe um segundo ponto que deve ser levado explicitamente em conta para completar a análise,que é o que chamaremos aqui de forma forte das leis da termodinâmica:

Para que uma dessas entropias seja uma entropia termodinâmica, ela deve não só ter grandezas

76

Page 91: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

físicas relacionadas pela primeira equação 𝑇𝑑𝑆, bem como esta deve ser um diferencial exato.

𝑑𝒰 − 𝑃𝑑𝒱𝑇

= diferencial exato. (5.2.1)

Este é exatamente o estabelecimento do teorema do calor, apresentado no capítulo I. Junta-mente com as exigências do valor médio da energia, trabalho e do teorema de equipartição, temoso Ortodo de Boltzmann. O que segue é uma demonstração de que o ensemble de Tsallis atendea condição de ortodo de Boltzmann, contudo a entropia termodinâmica associada é a entropia deRényi e não a entropia de Tsallis.

Seja a função de partição:

𝑍(𝐸, 𝑉 ) =∫︁𝑑z[1 − 𝛽

𝛼(𝐻(z, 𝑉 ) − 𝐸)], (5.2.2)

onde 𝐻(z, 𝑉 ) é Hamiltoniano do sistema, caracterizado pelo volume 𝑉 e pelas coordenadas z =(q,p) e 𝛼 = 1

1−𝑞. Vamos propor a seguinte entropia termodinâmica:

𝒮 = 𝑙𝑜𝑔(𝑍(𝐸, 𝑉 )), (5.2.3)

e provar que ela atende o teorema do calor. Para tal, precisamos da existência de um teorema deequipartição:

2⟨𝑝2

𝑖

2𝑚𝑖

⟩= 1𝛽, (5.2.4)

(Martínez, Pennini, Plastino, Tessone 2002) e da exigência que ⟨𝐻⟩ = 𝒰 , afim de provar a ortodi-cidade, escrevemos:

𝜕𝑍

𝜕𝐸= 𝜕

𝜕𝐸

∫︁𝑑z[1 − 𝛽

𝛼(𝐻(z, 𝑉 ) − 𝐸)] = −𝑁 𝜕𝛽

𝜕𝐸⟨𝐻 − 𝐸⟩ + 𝛽𝑍 = 𝑍

𝑇(5.2.5)

e fazemos o mesmo para o volume:

𝜕𝑍

𝜕𝑉= 𝜕

𝜕𝑉

∫︁𝑑z[1 − 𝛽

𝛼(𝐻(z, 𝑉 ) − 𝐸)] = −𝑁 𝜕𝛽

𝜕𝑉⟨𝐻 − 𝐸⟩ + 𝛽𝑍 <

𝜕𝐻

𝜕𝑉> = 𝒫𝑍

𝑇. (5.2.6)

Isso prova que a quantidade:𝑑𝒮 = 𝑑𝑍

𝑍= 𝑑𝒰 + 𝒫𝑑𝒱

𝑇, (5.2.7)

é um diferencial exato e o ensemble obtido da maximização da entropia de Tsallis é um ortodo.Contudo, interessante notar que a entropia termodinâmica nesse caso não é a entropia de Tsallis.

77

Page 92: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

Na verdade, essa entropia logarítimica é a entropia de Rényi:

𝑆𝑅 = 11 − 𝑞

𝑙𝑜𝑔(∫︁𝑑z𝜌𝑞(z)), (5.2.8)

onde

𝜌(z) =[1 − 𝛽

𝛼(𝐻(z, 𝑉 ) − 𝐸)]∫︀

𝑑z[1 − 𝛽𝛼(𝐻(z, 𝑉 ) − 𝐸)]

. (5.2.9)

Isso fecha o problema da identificação dessa distribuição com a termodinâmica. Conformecolocado no capítulo I, ambas as entropias conduzem ao mesmo ensemble e logo a conexão com atermodinâmica se encontra com o formalismo de teoria de informação ao adotarmos como ponto departida a entropia de Rényi e não a entropia de Tsallis. Este resultado foi obtido classicamente, massoa promissor na mecânica quântica, dada a vasta gama de resultados envolvendo aplicações daentropia de Rényi em sistemas quânticos de muitos corpos, na tentativa de caracterizar efeitos deemaranhamento nesses sistemas. Sendo esta uma entropia termodinâmica, podemos caracterizaros efeitos do emaranhamento na termodinâmica desses sistemas.

5.3 Comentários FinaisPrimeiramente, vamos recapitular a premissa do trabalho, o programa seguido e os resulta-

dos, antes de discutirmos a conexão do que foi obtido com as demonstrações expostas nas seçõesanteriores, em seguida farei os comentários finais à respeito do que foi observado.

Partindo do suposto que e Mecânica Estatística Generalizada nos permite ,a partir de umaentropia generalizada no sentido de que é possível identificar um limite onde reencontramos aentropia de Boltzmann-Gibbs, obter um operador densidade e construir um ensemble canônicogeneralizado, temos um programa capaz de tratar sistemas onde a energia é não aditiva, o queinclui sistemas fortemente interagentes, dissipativos, com interações de longo alcance, fractais, nãoergódicos, sistemas que possuem comportamento do tipo lei de potência entre outros, para os quaisprescrições de Boltzmann e Gibbs seriam falhas.

Isto posto, nos perguntamos se seria possível utilizar essas entropias para descrever um sistemaquântico dissipativo diretamente da maximização de uma entropia, sem ter que lançar mão dadescrição usual, envolvendo um modelo do tipo “Sistema + Reservatório”, propondo um modelomínimo contendo apenas o Hamiltoniano do sistema de interesse, distribuído de acordo com a leide probabilidade emergente da maximização de uma entropia generalizada. Como uma primeiratentativa, buscamos o operador densidade vindo destas entropias a fim de servir como uma mímica

78

Page 93: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

para o operador densidade reduzido do sistema e em seguida, adotamos as prescrições da cone-xão destas entropias com a termodinâmica. Finalmente, comparamos com os resultados de umadescrição utilizando um banho de osciladores harmônicos desacoplados.

O programa proposto tem dois objetivos: (i) Tentar uma descrição alternativa de sistemasdissipativos a partir de entropias de informação, (ii) Testar a consistência termodinâmica dasprescrições empregadas para as generalizações da mecânica estatística, com atenção especial àMecânica Estatística não-extensiva.

A escolha de uma entropia de informação generalizada é devido ao fato que o parâmetro ajus-tável poderia adequadamente substituir o efeito do amortecimento e nos permitiria utilizar comosistema físico apenas o sistema de interesse. Tentar propor um hamiltoniano com característicasdissipativas e não extensivas e que seja consistente com as regras de quantização bem estabelecidasa fim de então usar uma formulação alternativa da mecânica estatística não parece uma vantagemsobre nenhum método já estabelecido.

Nossa abordagem consistiu em estudar a mecânica estatística quântica de equilíbrio, de acordocom as entropias generalizadas, da partícula livre e do oscilador harmônico, e comparar como movimento browniano quântico livre e confinado num potencial quadrático no limite ôhmicode amortecimento. A escolha do limite Ôhmico é justificada por conter apenas um parâmetrorepresentando os aspectos da interação com o reservatório, dado que as entropias adotadas possuemapenas um parâmetro ajustável, assim ao tentar buscar uma correlação entre o amortecimento e oparâmetro não extensivo, 𝑞 e 𝛾, podemos garantir que a correlação obtida não depende de nenhumaoutra constante do modelo, como a frequência de corte 𝜔𝐷 do modelo de Drude.

A escolha das entropias generalizadas aplicadas no trabalho, Rényi e Tsallis, tem três motivos:

• São as entropias generalizadas mais citadas

• Possuem o mesmo operador densidade

• A entropia de Tsallis possui uma longa lista de trabalhos tentando estabelecê-la como umapedra fundamental da mecânica estatística.

Os resultados nos levam a formas matemáticas complicadas, e obter quantidades como o opera-dor densidade de uma simples partícula livre é um verdadeiro “tour de force” de trocas de variáveise integrações. Contudo, conforme mostramos, as representações integrais facilitaram o trabalhoem alguns pontos, nos permitindo usar o operador densidade generalizado como uma transformadado operador densidade canônico. Ainda assim, nem todos os casos são possíveis. O operador den-sidade do oscilador harmônico não pôde ser obtido por essa metodologia, mas em ambos os casos

79

Page 94: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

as funções de partição puderam ser obtidas. Isto nos levou na direção de obter uma descriçãobaseada na termodinâmica do sistema.

Nos chamou a atenção duas tentativas anteriores de generalizar, nesta mesma direção, o estudode sistemas físicos conhecidos, o Diamagnetismo de Landau 7 e interação elétron-fônon 8. Contudo,os resultados obtidos nunca foram confrontados com algum sistema físico de comportamento co-nhecido cujo estado de equilíbrio não seja dado pelo ensemble canônico ou mesmo se as prediçõesbaseadas nestes modelos tem significado físico.

No trabalho apresentado ao longo desta dissertação, fica claro que a descrição de sistemasdissipativos, via princípio de máxima entropia somente é possível para uma região muito limitadado espaço de parâmetros. Ou seja, podemos obter uma relação entre o valor do índice entrópico𝑞 e da constante de amortecimento 𝜆 para poucos valores ou numa região limitada dos possíveisvalores de 𝑞.

Fazendo uma tentativa da comparação da termodinâmica obtida para os sistemas estudados,percebemos a ocorrência de comportamento não físico, como o calor específico decrescente coma temperatura, e observamos que só existe correspondência para os índices 𝑞 e termo de amorte-cimento 𝛾, para baixíssimas temperaturas. Essas inconsistências termodinâmicas nos levaram aconfrontar as prescrições estabelecidas para essas entropias com as leis da termodinâmica.

Percebemos que para as leis da termodinâmica serem atendidas algumas condições amplamentenegadas no contexto da mecânica estatística não extensiva devem ser verdade. A primeira e asegunda lei da termodinâmica são válidas somente se o multiplicador de Lagrange 𝛽 for tomadocomo o inverso da temperatura termodinâmica, e observamos também que a a lei zero só é satisfeitapara sistemas com o mesmo valor de q, a menos que q seja uma constante universal, como aconstante de Boltzmann. Como produto, obtemos que a entropia de Rényi e a entropia de Tsallisdevem levar à mesma prescrição termodinâmica e que isto faz com que a entropia de Rényi sejamais adequada ao trabalho termodinâmico, pois é aditiva para sistemas descorrelacionados.

Com isso, concluímos que mesmo nos limites onde há concordância entre o modelo do banhode osciladores e a mecânica estatística generalizada, não há nenhuma garantia que os resultadosobtidos são físicos devido às incompatibilidades com a termodinâmica. Nossos resultados mostramque ao contrário do que é colocado na literatura9, a mecânica estatística não extensiva não cons-titui uma generalização da mecânica estatística e a sua incompatibilidade com a termodinâmicamostra que mesmo para sistemas descritos por uma lei de potência, ela é um ansatz completamenteinadequado para o cálculo das propriedades físicas do sistema. Pode-se argumentar em favor dessa

7Sökmen, Büyükkiliç e Demirhan, 20028Koponen, 19979C. Tsallis An Introduction to Nonextensive Statistical Mechanics, Springer 2009

80

Page 95: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

metodologia a imensa quantidade de artigos onde as distribuições emergentes da maximização des-sas entropias apresentou resultados positivos10. Essas distribuições apenas tem caráter estatísticoou de funções teste para ajuste. O fato delas ajustarem bem conjuntos de dados ou resultados desimulação não implica na realidade física dessas funções e nem que a termodinâmica assim obtidaseja consistente.

Por último, mesmo que seja encontrado um sistema onde as correlações levem a um compor-tamento de lei de potência característico dessas duas entropias, tratar o sistema com um ansatzdependente de um parâmetro tira o aspecto preditivo que uma teoria física deve ter, pois podemoster inúmeros comportamentos físicos associados ao mesmo valor do índice entrópico. Utilizandoapenas o operador densidade para um dado valor de 𝑞 não podemos ter nenhuma intuição físicaa respeito do reservatório com o qual o sistema físico esteja acoplado ou do tipo de interação quegere o comportamento não-extensivo.

10http://tsallis.cat.cbpf.br/TEMUCO.pdf

81

Page 96: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

Bibliografia

[1] Robert Adamietz, Gert-Ludwig Ingold e Ulrich Weiss. “Thermodynamic anomalies in thepresence of general linear dissipation: from the free particle to the harmonic oscillator”. Em:The European Physical Journal B 87 (2014), p. 90. issn: 1434-6028. doi: 10.1140/epjb/e2014-50125-2. arXiv: 1402.6221. url: http://arxiv.org/abs/1402.6221$\backslash$nhttp://link.springer.com/10.1140/epjb/e2014-50125-2.

[2] M Bachmann. “Effective classical hamiltonian from perturbatively defined path integral”.Em: (2011), pp. 1–10. arXiv: 1107.0341v1.

[3] M. Bachmann, H. Kleinert e a. Pelster. “Variational Perturbation Theory for Density Matri-ces”. Em: 60.5 (1998), pp. 3429–3443. issn: 1050-2947. doi: 10.1103/PhysRevA.60.3429.arXiv: 9812063 [quant-ph]. url: http://arxiv.org/abs/quant-ph/9812063.

[4] M Le Bellac, F Mortessagne e Gg Batrouni. Equilibrium and non-equilibrium statistical ther-modynamics. 2004. isbn: 9780521821438.

[5] Heinz Breuer e Francesco Petruccione. The Theory of Open Quantum Systems. First. OxfordUniversity Press, 2002, p. 665.

[6] Amir Caldeira. An Introduction to Macroscopic Quantum Phenomena and Quantum Dissi-pation. 1ª ed. Cambridge University Press, 2014, p. 285. isbn: 9780521113755.

[7] A.O. Caldeira e A.J. Leggett. “Path integral approach to quantum Brownian motion”. Em:Physica A: Statistical Mechanics and its Applications 121.September 1980 (1983), pp. 587–616. issn: 03784371. doi: 10.1016/0378-4371(83)90013-4.

[8] M. Campisi e G. B. Bagci. “Tsallis ensemble as an exact orthode”. Em: Physics Letters,Section A: General, Atomic and Solid State Physics 362 (2007), pp. 11–15. issn: 03759601.doi: 10.1016/j.physleta.2006.09.081. arXiv: 0605089 [cond-mat].

[9] Michele Campisi. “Construction of microcanonical entropy on thermodynamic pillars”. Em:(2015). arXiv: 1411.2425v3.

82

Page 97: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

[10] Michele Campisi. “On the limiting cases of nonextensive thermostatistics”. Em: PhysicsLetters, Section A: General, Atomic and Solid State Physics 366 (2007), pp. 335–338. issn:03759601. doi: 10.1016/j.physleta.2007.01.082. arXiv: 0611068 [cond-mat].

[11] Michele Campisi. “Thermodynamics with generalized ensembles: The class of dual orthodes”.Em: Physica A: Statistical Mechanics and its Applications 385 (2007), pp. 501–517. issn:03784371. doi: 10.1016/j.physa.2007.07.004. arXiv: 0701538 [cond-mat].

[12] Michele Campisi, Fei Zhan e Peter Hänggi. “On the origin of power laws in equilibrium”.Em: EPL (Europhysics Letters) 99 (2012), p. 60004. issn: 0295-5075. doi: 10.1209/0295-5075/99/60004. arXiv: 1206.6330.

[13] Michele Campisi, David Zueco e Peter Talkner. “Thermodynamic anomalies in open quantumsystems: Strong coupling effects in the isotropic XY model”. Em: Chemical Physics 375.2-3(2010), pp. 187–194. issn: 03010104. doi: 10.1016/j.chemphys.2010.04.026. arXiv:1010.2620. url: http://dx.doi.org/10.1016/j.chemphys.2010.04.026.

[14] Jörn Dunkel e Stefan Hilbert. “Consistent thermostatistics forbids negative absolute tem-peratures”. Em: Nature Physics 10.1 (2013), pp. 67–72. issn: 1745-2473. doi: 10.1038/nphys2815. arXiv: 1304.2066. url: http://dx.doi.org/10.1038/nphys2815.

[15] Hermann Grabert, Peter Schramm e Gert-Ludwig Ingold. Quantum Brownian motion: Thefunctional integral approach. 1988. doi: 10.1016/0370-1573(88)90023-3.

[16] Peter Hänggi e Gert Ludwig Ingold. “Quantum brownian motion and the third law of ther-modynamics”. Em: Acta Physica Polonica B 37.5 (2006), pp. 1537–1550. issn: 05874254.doi: 10.1140/epjb/e2007-00013-y. arXiv: 0601056 [quant-ph].

[17] Peter Hänggi, Gert Ludwig Ingold e Peter Talkner. “Finite quantum dissipation: The chal-lenge of obtaining specific heat”. Em: New Journal of Physics 10 (2008). issn: 13672630.doi: 10.1088/1367-2630/10/11/115008. arXiv: 0805.3974.

[18] Stefan Hilbert, Peter Hänggi e Jörn Dunkel. “Thermodynamic laws in isolated systems”.Em: 062116 (2014), p. 24. issn: 1539-3755. doi: 10.1103/PhysRevE.90.062116. arXiv:1408.5382. url: http://arxiv.org/abs/1408.5382.

[19] G. L. Ingold. “Thermodynamic anomaly of the free damped quantum particle: The bathperspective”. Em: European Physical Journal B 85 (2012). issn: 14346028. doi: 10.1140/epjb/e2011-20930-2. arXiv: 1111.3594.

83

Page 98: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

[20] Gert-Ludwig Ingold, Peter Hänggi e Peter Talkner. “Specific heat anomalies of open quantumsystems”. Em: June (2008), p. 7. doi: 10.1103/PhysRevE.79.061105. arXiv: 0811.3509.url: http://arxiv.org/abs/0811.3509.

[21] Martin J. Klein. “The Ergodic Theorem in Quantum Statistical Mechanics”. Em: Phys. Rev.87 (1 1952), pp. 111–115. doi: 10.1103/PhysRev.87.111.

[22] Ismo Koponen. Thermalization of an electron-phonon system in a nonequilibrium state cha-racterizedby fractal distribution of phonon excitations. 1997. doi: 10.1103/PhysRevE.55.7759.

[23] E. K. Lenzi, L. C. Malacarne e R. S. Mendes. “Path integral approach to the nonextensivecanonical density matrix”. Em: Physica A: Statistical Mechanics and its Applications 278(2000), pp. 201–213. issn: 03784371. doi: 10 . 1016 / S0378 - 4371(99 ) 00551 - 8. arXiv:9912313 [cond-mat].

[24] E. K. Lenzi, L. C. Malacarne e R. S. Mendes. “Perturbation and Variational Methods inNonextensive Tsallis Statistics”. Em: (1998), pp. 1–11. issn: 0031-9007. doi: 10 . 1103 /PhysRevLett.80.218. arXiv: 9804095 [cond-mat]. url: http://arxiv.org/abs/cond-mat/9804095.

[25] E. Lutz. “Anomalous diffusion and Tsallis statistics in an optical lattice”. Em: (2002), p. 4.issn: 1050-2947. doi: 10.1103/PhysRevA.67.051402. arXiv: 0210022 [cond-mat]. url:http://arxiv.org/abs/cond-mat/0210022.

[26] Renio S. Mendes. “Field-Theoretical Methods and Nonextensive Systems representations”.Em: Brazilian Journal of Physics 29.1 (1999), pp. 66–78. issn: 01039733.

[27] L. H C M Nunes e E. V L De Mello. “BCS model in Tsallis’ statistical framework”. Em:Physica A: Statistical Mechanics and its Applications 296.January 2014 (2001), pp. 106–118.issn: 03784371. doi: 10.1016/S0378-4371(01)00147-9. arXiv: 0108251 [cond-mat].

[28] Herch Moysés Nussenzveig. Curso de Física Básica. Quarta. Edgard Blucher, 2002, p. 313.

[29] R. de Oliveira e Thiago Werlang. “Ergodic hypothesis in classical statistical mechanics”. Em:Revista Brasileira de Ensino de Física 29 (2007), pp. 189 –201.

[30] R.K. Pathria e P.D. Beale. Statistical Mechanics. Elsevier Science, 1996.

[31] Ashok Razdan. “On non-extensive nature of thermal conductivity”. Em: Pramana - Journalof Physics 68.1 (2007), pp. 61–65. issn: 03044289. doi: 10.1007/s12043-007-0006-8.

[32] José Fernando Moura Rocha. Origens e Evolução das Ideias da Física. Primeira. EDUFBA,2002, p. 372.

84

Page 99: Entropia Estatística de Sistemas Abertosrepositorio.unicamp.br/bitstream/REPOSIP/276945/1/Durao_Lisan... · Física Gleb Wataghin. Dur 1. Sistemas abertos (Física). 2. Entropia

[33] Benjamin Spreng, Gert-Ludwig Ingold e Ulrich Weiss. “Anomalies in the specific heat of afree damped particle: The role of the cutoff in the spectral density of the coupling”. Em: 2(2014), p. 13. arXiv: 1404.0254. url: http://arxiv.org/abs/1404.0254.

[34] Constantino Tsallis. Introduction to Nonextensive Statistical Mechanics. First. Springer, 2009,p. 389.

[35] Constantino Tsallis. “Possible generalization of Boltzmann-Gibbs statistics”. Em: Journal ofStatistical Physics 52 (1988), pp. 479–487. issn: 00224715. doi: 10.1007/BF01016429.

[36] Ulrich Weiss. Dissipative Quantum Systems. Second. World Scientific, 1999, p. 462.

85