• Nenhum resultado encontrado

Entropia estatística de sistemas abertos

N/A
N/A
Protected

Academic year: 2021

Share "Entropia estatística de sistemas abertos"

Copied!
99
0
0

Texto

(1)

Lisan Marcos Marques Durão

Entropia Estatística de Sistemas Abertos

CAMPINAS 2015

(2)
(3)
(4)

Ficha catalográfica

Universidade Estadual de Campinas Biblioteca do Instituto de Física Gleb Wataghin

Valkíria Succi Vicente - CRB 8/5398

Durão, Lisan Marcos Marques,

D932e DurEntropia estatística de sistemas abertos / Lisan Marcos Marques Durão. – Campinas, SP : [s.n.], 2015.

DurOrientador: Amir Ordacgi Caldeira.

DurDissertação (mestrado) – Universidade Estadual de Campinas, Instituto de Física Gleb Wataghin.

Dur1. Sistemas abertos (Física). 2. Entropia estatística. 3. Dissipação de energia. I. Caldeira, Amir Ordacgi,1950-. II. Universidade Estadual de Campinas. Instituto de Física Gleb Wataghin. III. Título.

Informações para Biblioteca Digital

Título em outro idioma: Statistical entropy of open quantum systems Palavras-chave em inglês:

Open systems (Physics) Statistical entropy Energy dissipation

Área de concentração: Física Titulação: Mestre em Física Banca examinadora:

Amir Ordacgi Caldeira [Orientador] Francisco Castilho Alcaraz

Roberto Luzzi

Data de defesa: 17-06-2015

Programa de Pós-Graduação: Física

(5)
(6)
(7)

Abstract

The main goal of our project is the characterization of open quantum systems by means of a statistical entropy. Entropy is a fundamental physical quantity and is usually interpreted as the lack of knowledge about the state of the system, which means it is an informational metric.

The statistical mechanical program for non-isolated quantum systems consists in creating a Hamiltonian for the “universe" within the so-called system-plus-reservoir approach from which one can evaluate the reduced density operator of the system of interest through the partial trace of the full density operator with respect to the reservoir coordinates. Notice that, in so doing we are tacitly assuming that the equilibrium state of the whole universe can be described by a Gibbsian distribution.

Alternatively one can evaluate the Von Neumman entropy for the whole universe from which the above mentioned full density operator can be obtained via the maximum entropy priciple, and then, by the same partial tracing procedure, obtain the desired reduced density operator.

Now we can ask ourselves what happens if one insists in obtaining a density operator and the thermodynamical properties for the system of interest directly from a maximum entropy principle. Such a task can require the use of other forms of entropy not necessarily extensive.

Starting from the system-plus-reservoir approach we study the entropy and mean values of a Brownian particle coupled to a harmonic reservoir. Using this as the starting point to the max-imization of non-extensive “parameter depending" entropies, we aim at finding a correspondence between the constants arising from our model and the adjustable parameters of some well-known generalized entropies which may turn out to be more appropriate to our needs.

Keywords:

(8)

Resumo

Sistemas quânticos abertos, ou não isolados, podem ser caracterizados a partir de uma entropia estatística. A entropia é um conceito fundamental na física e usualmente é interpretada como falta de informação a respeito do estado do sistema.

O programa usual da física estatística para sistemas não isolados é propor um Hamiltoniano para o “Universo”, descrito por uma distribuição de Gibbs e aplicando uma abordagem do tipo “Sistema + Reservatório”, de onde podemos avaliar o operador densidade reduzido do sistema através de um processo de traço parcial. Outra maneira de obter o operador densidade seria obter a entropia de Von Neumann do sistema completo e a partir dela o operador densidade total pelo princípio de máxima entropia para então tomar o traço parcial com respeito as coordenadas do reservatório.

Por outro lado, podemos tentar obter esse operador densidade e as propriedades termodinâmicas do sistema diretamente do princípio de máxima entropia Tal tarefa pode exigir o uso de outras formas de entropia não necessariamente extensivas.

Partindo de uma abordagem do tipo sistema + reservatório, estudamos a entropia de uma par-tícula Browniana acoplada com um reservatório harmônico. Usando isso como o ponto de partida para a maximização de entropias dependentes de um parâmetro, busca-se uma correspondência entre as constantes emergentes do nosso modelo e os parâmetros ajustáveis de algumas bem co-nhecidas entropias generalizadas a fim de determinar qual ansatz é mais apropriado para nosso sistema.

(9)

Sumário

Agradecimentos xiii

1 Introdução 1

2 Mecânica Estatística e Teoria de Informação 5

2.1 Sobre o Conceito de Entropia . . . 5

2.1.1 As Leis da termodinâmica . . . 6

2.1.2 Interpretação Microscópica da Entropia . . . 9

2.2 Princípio de Boltzmann, Equiprobabilidade e Ensembles . . . 12

2.2.1 Princípio de Boltzmann . . . 12

2.2.2 Os Ensembles de Gibbs . . . 14

2.3 O Princípio de Maximização da Entropia . . . 15

2.4 Mecânica Estatístitica Generalizada . . . 22

3 Sistemas Quânticos Dissipativos 26 3.1 Conceitos Fundamentais . . . 26

3.2 Movimento Browniano . . . 27

3.2.1 Movimento Browniano Clássico . . . 27

3.2.2 Movimento Browniano Quântico . . . 28

3.3 O Banho de Osciladores Independentes . . . 30

3.4 Integrais de Feynman em Tempo Imaginário e a Física Estatística . . . 33

3.4.1 O Operador Densidade . . . 33

3.4.2 Ação Efetiva e a Matriz Densidade de Equilíbrio . . . 36

3.5 O Movimento Browniano Quântico via Integrais Funcionais . . . 40

3.6 Propriedades Termodinâmicas . . . 42

3.6.1 Termodinâmica do Oscilador Harmônico Livre . . . 43

(10)

3.6.3 Partícula Browniana Livre . . . 47

4 Entropia Estatística de Sistemas Abertos 49 4.1 O Modelo . . . 50

4.2 O Operador Densidade e a Função de Partição . . . 53

4.2.1 O Oscilador Harmônico . . . 54

4.2.2 A Partícula Livre . . . 57

4.3 Propriedades Termodinâmicas . . . 58

4.3.1 Partícula Livre . . . 59

4.3.2 Oscilador Harmônico . . . 64

4.4 Entropia Estatística de Sistemas Abertos . . . 66

5 Epílogo 69 5.1 Críticas às Estatísticas Generalizadas . . . 70

5.1.1 Decomponibilidade, Equilíbrio Térmico e a Lei Zero da Termodinâmica . . . 70

5.1.2 A 1ª e 2ª Leis da Termodinâmica para as Entropias Generalizadas . . . 73

5.2 O ensemble de Tsallis como um ortodo exato . . . 76

5.3 Comentários Finais . . . 78

(11)
(12)

“Tentar não, faça ou não faça. Tentativa não há” - Mestre Yoda “Palavras são, na minha nada humilde opinião, nossa inesgotável fonte de magia. Capazes de formar grandes sofrimentos e também de remedia-los” - Alvo Dumbledore “Pacientes sempre querem provas, não estamos fazendo carros aqui, nós não damos garantias” - Gregory House “Não sei, só sei que foi assim” - Chicó, falando a sua banca examinadora na defesa do mestrado. ’

(13)

Agradecimentos

A seção de agradecimentos é o primeiro “capítulo” que aparece na dissertação, contudo é o último a ser escrito e talvez o mais difícil pois nunca se fará justiça o suficiente a todos os momentos memoráveis que fizeram do meu mestrado dois anos incríveis de vivência e aprendizado. Primeiramente eu gostaria de agradecer a minha mãe, Elisete, por todo o amor, dedicação, esforço que fez para que eu pudesse ter uma educação adequada, pelo incentivo nos momentos fáceis e difíceis, pela cobrança, pelos ensinamentos e pela vibração a cada passo dado nessa jornada que é a carreira científica. Aproveito para registrar o agradecimento a toda minha família, em especial um agradecimento,ainda que póstumo, a meus avós: Pedro, Maria de Lourdes e Benedito.

Provavelmente, eu não estaria escrevendo os agradecimentos de uma dissertação em Física se não fosse pelo carisma único do Profº Bosco Guerra, que me fez um apaixonado por Física no meu 1º colegial e por todo o incentivo ao longo do meu ensino médio, meu muito obrigado!Deixo aqui um muito obrigado também os professores Sérgio Alexandre, Sérgio Magalhães, Cristiano Lázaro, Nitevaldo Eloi, Leninha, Jonilson, Lázaro, Antônio Mário, Jussara, Roger e Sônia.

Ao Professor Amir Caldeira, eu gostaria de expressar meus sinceros agradecimentos e admiração pela pessoa ímpar que ele se revelou durante esses dois anos de trabalho. Pelas muitas vezes em que pude aprender da sua erudição em física, pela orientação,pelo apoio ,pela paciência,muita paciência, e pelas muitas risadas e chopes. Amir, muito obrigado!

A todos os professores com quem tive contato no IFGW, deixo aqui um muito obrigado por terem compartilhado comigo sua experiência em ensinamentos acadêmicos e de vida. Meus sinceros agradecimentos aos professores Marcus Aguiar, José Brum, Eduardo Miranda, Marcus Bonança, Silvio Vitiello, Maurice de Koning, Marcelo Knobel, Odilon Couto, Ricardo Doretto e Giorgio Torrieri.

Ao longo da minha vida acadêmica, eu tive a sorte de contar com grandes amigos. Durante minha graduação, meus sinceros agradecimentos a Caculé, Marcos, Bruno, Gabriel, Tássia e Olavo por todas as nossas aventuras e desventuras pelo IFUFBA. Aos professores da graduação, meus agradecimentos por tudo que fizeram por mim, pelo apoio e torcida até hoje. Em especial,

(14)

agra-decimentos à Alberto Brum , José Garcia, Gildemar Carneiro, Jailton Almeida, Alberto Betzler, Maria Zucchi e Júlio Guedes.

Da minha trajetória em Campinas, agradeço a acolhida e amizade de todo pessoal da Rep KDK: Giácomo,Gabi, Matheus, Henrique, Guilherme, Ricardo, Gioavanni e William. E a todos os meus amigos da rep Love: Maurício, Raniel, Ralph e Renan.

A vida na pós graduação não seria tão divertida sem a companhia de algumas pessoas que nunca esquecerei. Meu muito obrigado a turma do prédio D: Martha, Didi, Olímpio, Júlio, Raúl, Clóvis, Maria, Salinas e Udson. Por todos os momentos passados juntos.

Em especial, um agradecimento ao pessoal da sala de estudos. Por toda a zueira, diversão, ciência e por último porem não menos importante: Pelo tal negócio! Meus sinceros agradecimentos a: Rodolfo, Madeira, Thaís, Carol, Veronez, Vitor, Dalson, Helder, Thiago, Marina, Paulinha, Wendell, Elohim, Andre e João.

O mundo moderno, conectou a pessoas e possibilitou que laços a distância fossem mantidos e fortalecidos. Aos amigos que estiveram sempre presente, mesmo que, infelizmente, quase sempre de forma virtual, foram também de fundamental importância para esta empreitada. Meu muito obrigado a: Rebbie Nogueira, Marília Miranda, Inêssa Nascimento, Felipe Antunes, Diego Oliver, Cynthia Larisse, Delilian Fogliato, Flaviano Santos, Arthur Scardua, Ingrid Pelissoli e Meigga Juliane

Por último, gostaria de deixar um agradecimento especial a três pessoas que foram responsáveis diretas por eu ter vindo fazer meus mestrado no IFGW. Ao professor Frederico de Brito, pelo aconselhamento e ajuda no processo e a dois amigos muito especiais que num dia de chuva no Recife me convenceram de procurar mestrado pelo estado de São Paulo. Muito obrigado ao Augusto e a Natália!

(15)

Capítulo 1

Introdução

Em seus primórdios, a termodinâmica era uma ciência puramente fenomenológica. Galileu, Celsius, Fahrenheit entre muitos outros, tentaram fornecer definições precisas para conceitos que aparentemente são óbvios para um observador ,como pressão e temperatura, e tentaram estudar as conexões existentes entre essas grandezas. Nesses dias, a ideia de que esses conceitos deveriam estar ligados com os demais campos da física, como a mecânica clássica, não era sequer cogitada. No final do século XIX, quando a teoria atômica se tornou popular, os cientistas passaram a conceber um gás como uma enorme quantidade de bolas em movimento errático dentro de uma caixa. Tendo isso em mente, houve um esforço em tentar deduzir toda a termodinâmica a partir da mecânica clássica. Ludwig Boltzmann, um dos campeões desta empreitada, em 1866 propôs uma conexão da entropia termodinâmica,definida apenas de forma fenomenológica, com o volume de uma certa região no espaço de fase, um objeto bem definido na mecânica clássica. Isso foi um grande passo adiante, pois tornou-se possível calcular todas as propriedades termodinâmicas a partir do Hamiltoniano do sistema.

Contudo o problema não está completamente resolvido. A termodinâmica estabelece, entre outras coisas, a irreversibilidade dos fenômenos físicos macroscópicos e a mecânica clássica é uma teoria completamente reversível no tempo. Para provar a conexão teórica entre a entropia assim definida e a entropia fenomenológica, fazendo emergir a irreversibilidade na mecânica clássica, Boltzmann inseriu os dois postulados que servem como pedra fundamental da mecânica estatística: A Hipótese Ergódica e o Postulado de Equiprobabilidade a priori.

A mecânica estatística emerge como uma teoria para tratar sistemas clássicos contendo um número muito grande de partículas, de tal sorte que se torna impossível resolver todas as equações de movimento ou mesmo que sejamos capazes de tal empreitada, não saberíamos como interpretar o resultado. Não obstante, uma dificuldade que surge antes da nossa habilidade em tratar um

(16)

pro-blema desse tipo, é bastante difícil preparar um sistema de muitas partículas em condições inciiais bem definidas. Deste modo, torna-se conveniente o uso de métodos estatísticos, como associar uma distribuição de probabilidades para as configurações microscópicas e tomar grandezas físicas mensuráveis como valores médios sobre essa distribuição, no intuito de estudar a termodinâmica destes sistemas.

Impulsionada pelos estudos sobre sistemas em escala atômica, o primeiro quarto do século XX traz as bases da teoria mecânica para o comportamento desses sistemas: A Mecânica Quântica. Surpreendentemente, a termodinâmica se mostrou algo tão poderoso que sobreviveu intacta à revisão que a mecânica quântica causou nos fundamentos da física. O estudo de processos termo-dinâmicos no contexto da mecânica quântica levou, por exemplo, à lei da radiação de Planck.

Apesar de mais de 150 anos de estudo e de ser um dos mais bem sucedidos campos da física, os fundamentos da mecânica estatística ainda não são completamente claros. Seu objetivo primário é fazer uma conexão entre teorias microscópicas, clássicas ou quânticas, e a fenomenologia macros-cópica da termodinâmica. Nos últimos anos uma série de propostas para estudar os fundamentos e metodologia da mecânica estatística surgiram com as mais diversas inspirações. Basicamente, o mote de todo este estudo, é qual a interpretação microscópica da entropia e como podemos buscar uma expressão que conecte as quantidades estatísticas com a entropia termodinâmica. Duas ver-tentes se confrontam há pelo menos 60 anos: Os Ensembles Estatísticos de Gibbs e Interpretação Informacional de Jaynes.

Neste trabalho, trataremos basicamente do estudo da formulação informacional de Jaynes no contexto de sistemas dissipativos. Nesta interpretação, a entropia mede o nosso desconhecimento a respeito do estado do sistema. Este desconhecimento pode vir de diferentes formas. O grande nú-mero de partículas nos impede de resolver completamente todas as equações de movimento, então abrimos mão de resolver o problema de forma exata e inserimos uma distribuição de probabilidade associada às configurações microscópicas compatíveis com os vínculos microscópicos. A isso, cha-mamos de falta de conhecimento subjetiva. Por outro lado, em sistemas quânticos, as interações entre os componentes do sistema ou com um reservatório externo levam ao surgimento de uma das mais contra intuitivas propriedades da mecânica quântica: o emaranhamento. O emaranhamento leva o sistema a um estado quântico misto e nos resta designar uma probabilidade para cada um dos possíveis autoestados do sistemas. Isso nos leva diretamente a uma falta de conhecimento objetiva do estado do sistema.

A versão informacional da mecânica estatística nos diz que a entropia é um funcional da distri-buição de probabilidade do sistema, cuja forma está relacionada com a regra com que a entropia de sistemas compostos de subsistemas é somada, e que a física estatística é tomada como um método de inferência e não uma teoria física. Inspirado no fato de que os estados de equilíbrio

(17)

termodinâmico são aqueles de máxima entropia, a distribuição de probabilidade mais adequada é aquela que maximiza uma dada entropia de informação, sujeita a vínculos impostos pela situação física a ser tratada.

A mecânica estatística interpretada desta forma, cresceu lado a lado com a teoria de informação, que trouxe à luz uma miríade de funcionais de entropia com diversas aplicações como medidas de informação. Em 1988, um desses funcionais despontou como uma proposta de generalizar a mecânica estatística para além de sistemas onde a energia e a entropia são adtivas. Em seu paper seminal, Constantino Tsallis desenvolveu uma mecânica estatística baseada numa entropia não-extensiva proposta por Daróczy em 1967 e redescoberta anos depois pelo próprio Tsallis, aplicando ao princípio de Jaynes a esta entropia e consequentemente um método de conexão com a termodinâmica almejando descrever sistemas onde a energia não seja uma quantidade extensiva. Aqui entra o estudo de sistemas abertos. Sistemas quânticos abertos são por excelência sistemas não extensivos, pois devido ao acoplamento com um reservatório térmico, a energia do universo, sistema mais reservatório, não é mais a soma da energia dos componentes individualmente. Logo o ensemble canônico de Gibbs não mais se aplica a este estudo.

Usualmente, tratamos este problema propondo explicitamente um modelo para o reservatório e para o acoplamento com o sistema. Este programa pode ser um tanto quanto complicado, contudo apresenta resultados interessantes e tem sido a base para todo o estudo de dissipação e descoerência em sistemas quânticos como junções Josephson, Movimento Browniano e outros sistemas onde o acoplamento com o meio externo é relevante para a sua dinâmica do sistema.

Assumindo que sistema-mais-reservatório podem ser descritos adequadamente no ensemble canônico, podemos calcular exatamente o operador densidade deste conjunto assumindo que o banho térmico é um conjunto de osciladores harmônicos desacoplados e o acoplamento sistema-banho é linear em ambas as coordenadas. A partir de um traço parcial, podemos obter o operador densidade reduzido do sistema e calcular suas propriedades termodinâmicas.

Nossa proposta aqui é bastante diferente. Partindo de uma entropia generalizada, como a en-tropia de Daróczy-Tsallis, buscaremos um operador densidade que a maximize sujeita a vínculos de energia média constante, um ensemble canônico generalizado, e realizaremos a mecânica esta-tística do sistema de interesse neste ensemble generalizado e tentaremos comparar as propriedades termodinâmicas obtidas desta maneira com o modelo do banho de osciladores.

Então, temos por objetivo nesta dissertação:

• Formular uma metodologia alternativa ao estudo da mecânica estatística de um sistema dissipativo, sem precisar utilizar explicitamente o banho térmico.

(18)

ex-tensiva, tentando relacionar o parâmetro entrópico ajustável 𝑞 com as constantes estruturais do modelo do banho de osciladores.

• Estudar a relação entre os resultados advindos de uma mecânica estatística informacional e os fundamentos da termodinâmica, buscando elucidar como e quando uma entropia de informação pode ser identificada como a entropia termodinâmica.

O trabalho está estruturado da seguinte maneira. O capítulo I traz uma revisão dos métodos e fundamentos da mecânica estatística segundo a teoria de informação e apresenta as entropias gene-ralizadas. O capítulo II revisa os aspectos gerais do banho de osciladores e o aplica ao cálculo das propriedades termodinâmicas de um sistema dissipativo. No capítulo III, propomos um modelo de sistema dissipativo baseado no operador densidade generalizado e na sua conexão com a termodi-nâmica e estudamos seu comportamento e comparamos com o banhos de osciladores. Finalmente, o capítulo IV explora a conexão dessa formulação da mecânica estatística com a termodinâmica à luz dos resultados apresentados no capítulo III.

(19)

Capítulo 2

Mecânica Estatística e Teoria de

Informação

2.1 Sobre o Conceito de Entropia

Entropia é um conceito de fundamental importância na termodinâmica e na mecânica esta-tística. Seu papel fundamental na descrição dos estados macroscópicos de um sistema físico foi desenvolvido nos trabalhos seminais de Claussius, Kelvin, Maxwell, Boltzmann entre outros 1.

Apesar de sua importância fundamental, algumas de suas propriedades mais básicas são motivo de debate ainda nos dias atuais. Isto se deve ao fato de que frequentemente estamos mais in-teressados em calcular a entropia de um dado sistema físico como função dos parâmetros que o representam. Notadamente, a entropia possui uma posição privilegiada dentre as quantidades físicas. Ressaltamos os seguintes pontos:

• Não aparece em nenhuma equação de movimento fundamental.

• Relaciona aspectos macroscópicos e microscópicos da matéria em equilíbrio térmico.

• Sua natureza probabilística.

Os dois últimos itens são motivo de intenso debate e serão delineados adequadamente nas duas seções que seguem. O ponto principal é que cada um propicia uma interpretação distinta de como fazer a mecânica estatística. A relação entre os aspectos microscópicos da matéria e os vínculos macroscópicos está associada à versão de ensembles, atribuída aos trabalhos de Boltzmann 1Uma interessante revisão da evolução história dos conceitos básicos da termodinâmica pode ser encontrada

em:Rocha, Ponczek, Pinho, Andrade e Ribeiro Filho,Origens e Evolução das Ideias da Física,EDUFBA, 2002 Nussenzveig; Curso de Física Básica Volume 2, Blucher 2002

(20)

e Gibbs. A natureza probabilística deu origem a uma formulação inspirada na teoria de informação, chamada de Princípio de Máxima Entropia.

Não obstante as diferentes interpretações possíveis, existem ainda diferentes funcionais que tencionam representar a entropia de uma quantidade física, levando a diferentes algorítimos para física estatística e de como fazer a conexão com a termodinâmica. Este será o ponto discutido nas duas últimas seções do capítulo, dedicadas às entropias generalizadas e à mecânica estatística não extensiva.

2.1.1 As Leis da termodinâmica

A entropia surge na termodinâmica de equilíbrio como uma medida da irreversibilidade de sistemas macroscópicos, ela é proporcional a diferença entre a energia internar e a energia útil de um sistema ao longo de uma transformação. Podemos caracterizar completamente a termodinâmica enunciando suas leis básicas e seu escopo com algumas poucas sentenças

A termodinâmica descreve o comportamento de sistemas físicos, utilizando algumas poucas coordenadas coletivas, sem precisar descrever o comportamento microscópico do sistema. Parte do problema resume-se em identificar quais quantidades básicas são adequadas a cada situação.

• A Lei Zero da termodinâmica e Equilíbrio Térmico

A Lei Zero da termodinâmica estabelece:

(Z0) “Se dois corpos 𝒜 e ℬ estão em equilíbrio térmico entre sí, e ℬ está em equilíbrio térmico com 𝒞, então 𝒜 e 𝒞 também estão em equilíbrio térmico entre sí.”.

Obviamente, para que esta definição tenha sentido, é preciso especificar o que significa “equilí-brio térmico”. Considere a seguinte definição:

(E) “Dois sistemas estão em equilíbrio térmico, se e somente se, eles estão em contato de tal forma que possam trocar energia, mas tenham relaxado até um estado em que não exista transfe-rência média de energia entre eles. Um sistema 𝒜 está em equilíbrio térmico com ele próprio, se e somente se, todos os subsistemas que o compõem estão em equilíbrio térmico entre sí e então, dizemos que 𝒜 é um estado de equilíbrio. ”

Essa definição minimalista da Lei Zero é uma fundamentação sobre fluxo de energia sem fazer referência direta à temperatura e entropia. A forma forte da Lei Zero é obtida se sem adição ao já colocado, fizermos a seguinte exigência:

(21)

(Z1) “Para cada estado de equilíbrio, podemos designar um número real que chamaremos de temperatura e denotaremos essa quantidade por 𝑇 .”

Então, chamamos de forma forte da Lei Zero 𝑍0 + 𝑍1 e colocamos que dois sistemas em equilíbrio térmico devem estar obrigatoriamente à mesma temperatura.

• A Primeira Lei da termodinâmica

O princípio de Joule, ou princípio da conservação da energia, ou ainda a Primeira Lei da ter-modinâmica foi estabelecida por vários cientistas2, tendo aparecido mais claramente nos trabalhos de Joule e Mayer3, assumindo que várias formas de trabalho mecânico podem ser transformados

em calor.

Assumindo a constituição atômica da matéria, Helmholtz estendeu o Teorema de Conservação da Energia para a dinâmica microscópica dos átomos. Isto é, ele assumiu que a soma da energia cinética e da energia potencial dos átomos é constante e corresponde à energia interna do corpo.

Desta forma, qualquer quantidade de trabalho que é dissipada na forma de calor, do ponto de vista microscópico, significa que os átomos perderam energia. Então, de acordo com Helmholtz, Boltzmann e outros cientistas que estabeleceram a Teoria Cinética da Matéria, troca de calor estão associada à dinâmica dos átomos. Precisamos construir uma maneira macroscópica de equacionar essas relações fenomenológicas entre energia, trabalho e troca de calor. Suponha que seja realizado trabalho 𝛿𝒲 sobre um sistema fechado e simultaneamente seja introduzido calor 𝛿𝒬 no mesmo sistema, mantendo sempre o equilíbrio termodinâmico.

A primeira lei da termodinâmica afirma que a variação infinitesimal de energia interna do sistema é dada por:

𝛿𝒰 = 𝛿𝒬 + 𝛿𝒲 (2.1.1)

• A Segunda Lei da termodinâmica

Dentre as leis da termodinâmica, a Segunda Lei é a que possui maior quantidade de enunciados e alguns deles são bastante conflitantes. As duas formas mais tradicionais, e equivalentes, de apresentar a segunda lei são respectivamente os postulados de Clausius e de Kelvin:

1. Postulado de Kelvin : É impossível realizar um processo cíclico cujo único efeito seja remover calor de um reservatório térmico e produzir uma quantidade equivalente de trabalho.

2. Postulado de Claussius : É impossível realizar um processo cujo único efeito seja transferir calor de um corpo mais frio para um corpo mais quente.

2Nussenzveig, H.M;Curso de Física Básica Vol. 2, Blucher 2014 3de Oliveira, M,J; Equilibrium Thermodynamics, Springer 2013

(22)

A segunda lei da termodinâmica é o que distingue a termodinâmica das demais áreas da física. Por outro lado, é uma lei fundamental da natureza que possui implicações que vão além dos domínios da física. Originalmente as duas formulações apresentadas foram inspiradas nos trabalhos de Carnot sobre máquinas térmicas, e por isso seus postulados originais dizem respeito a motores térmicos e reservatórios. Os desenvolvimentos posteriores, devidos a Claussius, levaram à definição da entropia como uma variável de estado e a uma forma alternativa da segunda lei, “o Princípio de Máxima Entropia”.

Para o melhor entendimento de seu conteúdo físico, devemos dividir a segunda lei em três partes. A primeira parte diz respeito à temperatura absoluta e entropia. Isso nos permite definir precisamente um espaço termodinâmico e introduzir uma relação fundamental para os estados de equilíbrio partindo da conservação de energia. A segunda parte diz respeito ao princípio de máxima entropia e à concavidade da mesma. E finalmente, a terceira parte diz respeito a evolução temporal dos sistemas termodinâmicos e com o aumento da entropia em processos espontâneos e irreversíveis.

Podemos sumarizar tudo isso de forma simples, colocando que a Segunda Lei afirma que o equilíbrio termodinâmico corresponde a uma situação de máxima entropia, para onde ela cresce monotonicamente. Esta situação define um processo irreversível.

A irreversibilidade é algo do qual ninguém duvida. Não podemos esperar que um copo que-brado retorne espontaneamente as nossas mãos, e se tentarmos colá-lo muito provavelmente ele não se parecerá tanto com o original. Por outro lado, sabemos que a irreversibilidade não vem diretamente das leis de Newton, pois se fizermos 𝑡 = −𝑡 nas equações de movimento, a dinâmica permanece invariante . O mesmo vale para a mecânica quântica. Podemos, em princípio, obter a irreversibilidade a partir das equações reversíveis4,mas, ainda assim, nossas teorias microscópicas

são simétricas por reversão temporal.

Do ponto de vista apenas da entropia, o nosso problema na verdade se traduz em obter uma interpretação microscópica para esta grandeza. Para o gás ideal, temos que em um processo isotérmico, a entropia varia com o volume como

Δ𝑆 = 𝑁 𝑘 ln 𝑉𝑓 𝑉𝑖

, (2.1.2)

onde percebe-se que ao dobrarmos o volume, a entropia varia de um fator 𝑁 𝑘 ln 2. Outro exemplo interessante é o de uma caixa com uma divisória no meio, onde de um lado temos moléculas de néon e do outro de argônio. Se eliminarmos a divisória as moléculas começarão a se misturar e

4Um exemplo bem simples disso é o problema da “Catraca e Lingueta”. O leitor interessado pode consultar o

(23)

apesar de não haver interação e nem troca de calor, a entropia irá aumentar de 𝑘𝐿𝑛2 por partícula, apenas devido à mudança na configuração microscópica do sistema e isto não tem nada a ver com a molécula em sí, apenas com o espaço que ela ocupa!

Assim, concluímos imediatamente que: É à mudança de um estado mais ordenado para um menos ordenado que gera a irreversibilidade. Podemos medir a desordem como sendo o número de maneiras que um arranjo microscópico pode ser alterado e ainda assim corresponder a um mesmo arranjo macroscopico. Nesta interpretação, o equilíbrio termodinâmico corresponde ao estado que possui maior probabilidade de ocorrer, ou seja aquele que possui maior quantidade de configurações microscópicas associadas.

Por fim, colocamos dois postulados equivalentes que são consequência imediata da segunda lei da termodinâmica:

1. Princípio de Máxima Entropia: O valor de equilíbrio de qualquer parâmetro interno é tal que a entropia é maximizada para um dado valor de energia interna.

2. Princípio de Mínima Energia: O valor de equilíbrio de qualquer parâmetro interno é tal que minimiza a energia interna para um dado valor da entropia total.

Do ponto de vista matemático, esses dois princípios são equivalentes a um problema variacional isoperimétrico: o círculo pode ser considerado como a figura que maximiza a área para um dado perímetro, ou equivalentemente como a figura que minimiza o perímetro para uma dada área.

2.1.2 Interpretação Microscópica da Entropia

A mecânica estatística se ocupa do problema de como calcular as propriedades de equilíbrio da matéria, partindo da hipótese atômica. De acordo com esta hipótese, a matéria é constituída de átomos ou moléculas descritos de acordo com as leis da mecânica clássica ou da mecânica quântica. Neste ponto de vista, a matéria é entendida como um agregado de 𝑁 partículas e as propriedades fundamentais emergem do tipo de interação existente entre essas partículas. Conforme já colocado, a entropia é uma quantidade física diferente das demais, dada a sua natureza fenomenológica e por não aparecer em nenhuma equação de movimento fundamental. Mas o que exatamente isso significa?

Na mecânica quântica, temos que distinguir entre observáveis e estados. Observáveis são opera-dores auto-adjuntos sobre um espaço de Hilbert que representam grandezas físicas como o momento linear, momento angular e posição. Estados, sejam eles puros ou mistos, são representados por uma Matriz Densidade ou Operador Densidade ^𝜌, auto adjunto, com traço unitário.

(24)

A entropia não se enquadra em nenhuma dessas duas categorias. Não existe um operador cujo valor esperado em um dado estado seja a entropia daquele estado. Então, fica a pergunta:

Qual a interpretação microscópica da entropia?

De acordo com Boltzmann, a entropia está relacionada com o número de estados microscópicos acessíveis ao sistema. Quanto maior for o número 𝑊 de estados microscópicos acessíveis, maior será a entropia 𝑆. Contudo, ainda segundo Boltzmann, a entropia não cresce linearmente com o número de microestados, mas sim logarítimicamente:

𝑆 = −𝑘𝐵ln(𝑊 ). (2.1.3)

O tratamento de Boltzmann foi puramente clássico, o que leva a alguns problemas de interpre-tação, como ,por exemplo, o número de possíveis microestados, que na mecânica clássica não é algo muito bem definido. Por outro lado, esta quantidade tem significado bastante claro na mecânica quântica; o número de microsestados corresponde ao número de estados puros que compõem o ensemble.

Em 1927, Von Neumann introduziu uma extensão do conceito de entropia para a mecânica quântica:

𝑆( ^𝜌) = −𝑘𝐵𝑇 𝑟( ^𝜌𝑙𝑜𝑔 ^𝜌), (2.1.4)

para caracterizar a incerteza sobre o estado de um sistema na mecânica quântica. É uma quan-tidade bem definida independente do tamanho do sistema, e sempre ≥ 0, sendo obrigatoriamente = 0 para estados puros. De imediato, não é claro o significado da entropia de Von Neumann. Contudo esta é bastante usada para mensurar a quantidade de informação que pode ser obtida após a medida de um dado observável físico.

É fácil verificar que se a distribuição de probabilidade associada aos possíveis microestados descritos pelo operador densidade forem equiprováveis com probabilidade 𝑊1, onde 𝑊 é o número de microestados, a entropia segundo Boltzmann é recuperada da entropia de Von Neumann. Na teoria dos ensembles de Gibbs, isso é o que chamamos de ensemble microcanônico.

Para concluir esta seção, vamos enunciar formalmente as principais propriedades matemáticas da entropia:

1. A entropia é definida para todo operador densidade ^𝜌. É sempre positiva e nula para estados puros.

2. A entropia é dita ser côncava. Ou seja, para todo operador densidade ^𝜌 = 𝜆1𝜌^1+𝜆2𝜌^2, temos:

(25)

3. A entropia de um sistema composto por subsistemas isolados é aditiva se os subsistemas não interagem entre si:

𝑆( ^𝜌) =∑︁

𝑖

𝑆( ^𝜌𝑖) (2.1.6)

e sub-adtiva em caso contrário,

𝑆( ^𝜌) ≤∑︁

𝑖

𝑆( ^𝜌𝑖). (2.1.7)

Apesar de termos nos referido à entropia de Von Neumann, estas propriedades são genéricas e devem ser obedecidas por uma entropia que pretenda reproduzir a termodinâmica.

As diferentes interpretações da entropia termodinâmica deram origem a pelo menos dois estilos de mecânica estatística que serão brevemente apresentados no que segue.

A mecânica estatística foi construida sobre os trabalhos de Boltzmann e Gibbs, como uma tentativa de, a partir de uma descrição microscópica, se obter o comportamento termodinâmico de um sistema. O operador densidade surge como um bom candidato para descrever o estado quântico de um sistema em situações onde temos um ensemble formado por vários microestados, como por exemplo, um ensemble de spins 1/2 que podem ter orientações em diversas direções e não conseguimos precisar o estado quântico do sistema.

Para que esses funcionais de entropia possuam significado físico eles precisam atender as lei da termodinâmica, e ser capazes de reproduzir o caráter irreversível e que as grandezas físicas calculadas por métodos estatísticos sejam equivalente aos valores termodinâmicos de equilíbrio. A demonstração de que isso é verdade requer a inserção de conceitos não intuitivos e às vezes difíceis de demonstrar:

• Equiprobabilidade a priori

• Ergodicidade

• Ensembles

Os dois primeiros foram propostos por Boltzmann como uma maneira de inserir a irreversibi-lidade, característica básica do comportamento termodinâmico, na mecânica clássica. O último foi inserido por Gibbs como uma maneira de tratar todas as possíveis configurações microscópicas compatíveis com os vínculos macroscópicos do sistema.

(26)

2.2 Princípio de Boltzmann, Equiprobabilidade e

Ensem-bles

Os pilares sobre os quais a mecânica estatística se apoia estão nos trabalhos de Bolztmann e Gibbs.5 As duas subseções que seguem são um breve resumo das ideias que fundamentam os

métodos empregados para associar quantidades estatísticas com a termodinâmica6

2.2.1 Princípio de Boltzmann

Boltzmann postulou que a conexão entre entropia termodinâmica e a descrição microscópica de um sistema mecânico, isolado, de 𝑁 partículas ,descrito num espaço de fase {p, q} com 6𝑁 dimensões é dada por:

𝑆 = −𝑘𝐵ln[Ω(𝐸, 𝑉, 𝑁 )], (2.2.1)

onde 𝑘𝐵 é uma constante que fixa as unidades, 𝐸 a energia, 𝑉 o volume, 𝑁 o número de partículas

e Ω(𝐸, 𝑉, 𝑁 ) é o número de possíveis configurações microscópicas compatíveis com os vínculos macroscópicos. Ou seja, é o número de microestados compatíveis com um dado macroestado.

A entropia definida desta forma é aditiva se os dois sistemas forem descorrelacionados: Ω(𝐸, 𝑉, 𝑁 ) = Ω1(𝐸1, 𝑉1, 𝑁1)Ω2(𝐸2, 𝑉2, 𝑁2)

𝑆 = 𝑘𝐵(ln[Ω1(𝐸1, 𝑉1, 𝑁1)] + ln[Ω2(𝐸2, 𝑉2, 𝑁2)]), (2.2.2)

e isto implica diretamente que 𝐸 = 𝐸1+ 𝐸2, 𝑉 = 𝑉1+ 𝑉2, 𝑁 = 𝑁1+ 𝑁2.

A fenomenologia da termodinâmica associa estados de equilíbrio a estados de máxima entropia. logo, de acordo com a prescrição de Boltzmann, estados de equilíbrio são aqueles que possuem maior número de microestados compatíveis com os vínculos macroscópicos do sistema.

A mecânica estatística de sistemas isolados possui outro postulado básico, a equiprobabilidade a priori. Todos os microestados compatíveis com os vínculos macroscópicos são equiprováveis.

A ideia de assumir uma probabilidade associada aos microestados ao invés de calculá-los ex-plicitamente leva a uma outra forma de descrever o macroestado de um sistema, chamado de

5Para ser mais preciso, Boltzmann e Gibbs montaram as bases do que conhecemos hoje como o algorítimo da

mecânica estatística. A “Stanford Encyclopedia of Phylosophy” traz um estudo bastante claro sobre a história e a filosofia da mecânica estatística e pode ser encontrada no link: http://plato.stanford.edu/entries/statphys-statmech/

6Uma revisão completa dos fundamentos da física estatística pode ser encontrada em: Tolman, R.C; “The

(27)

ensemble estatístico. Este ensemble consiste em 𝑚 cópias idênticas, virtuais, do sistema para cada possível configuração microscópica, cada cópia representada por um ponto no espaço de fase. Esta interpretação é válida se assumirmos que os sistemas termodinâmicos são quasi-ergódicos, ou seja, todos os possíveis microestados estão uniformemente distribuídos na região acessível do espaço de fase.

A chamada hipótese ergodica, na qual a formulação de ensembles da mecânica estatística está apoiada, tem como consequência que o valor médio no tempo de uma dada grandeza física é igual ao valor médio calculado sobre todas as possíveis configurações microscópicas, que é o que chamamos média de ensemble. Do ponto de vista do espaço de fase, para que isso aconteça o Teorema de Liouville deve ser válido. Contudo, a validade do teorema de Liouville não implica diretamente na ergodicidade do sistema, ou seja, nem todo sistema Hamiltoniano é ergódico. Para cada sistema em estudo, a ergodicidade deve estudada individualmente.7.

Com esta interpretação, Boltzmann colocou quais critérios um sistema Hamiltoniano clássico deve atender para servir como um bom modelo mecânico para a termodinâmica. Os modelos que atendem os requisitos colocados por Boltzmann são chamados de Ortodos8. Um modelo mecânico

será um Ortodo se dadas as seguintes condições:

1. 𝐸 = ⟨𝐻⟩ é a “Energia Interna”,

2. 𝑇 = 2⟨𝐾⟩𝑓 “Equipartição de Energia”,

3. 𝑉 = ⟨𝑉 ⟩ “Deslocamento generalizado”,

4. 𝑃 = ⟨𝜕𝐻𝜕𝑉⟩ “Força generalizada conjugada”,

onde ⟨⟩, representam a média sobre distribuição de probabilidade dos microestados e se é válido o teorema do calor:

𝑑𝐸 + 𝑃 𝑑𝑉

𝑇 , (2.2.3)

é uma diferencial exata.

Sabe-se, desde os trabalhos originais de Boltzmann, que os ensemble Microcanônico e Canônico são Ortodos9 para sistemas isolados.

7Esses poucos paragráfos de forma alguma são suficientes para tratar devidamente o estabelecimento e

implica-ções da hipótese ergódica tanto na mecânica estatística clássica quanto na mecânica estatística quântica. O leitor interessado é encorajado a consultar as seguintes referências:

Oliveira, C.R; Werlang, T; Ergodic Hypothesis in Classical Statistical Mechanics, Revista Brasileira de e Ensino de Física, v 29, nº 2

Klein, M.J; The Ergodic Theorem in Quantum Mechanics, Physical Review 87, 111

8Tradução livre do original Orthode

(28)

2.2.2 Os Ensembles de Gibbs

O termo ensemble foi introduzido por Gibbs em torno de 1902. A ideia é que um estado macroscópico é compatível com uma grande quantidade de estados microscópicos, cada um deles representado por um ponto no espaço de fase ou um ket no espaço de Hilbert. Para descrever a evolução do sistema iremos considerar a densidade de pontos no espaço de fase e assumimos válido o teorema de Liouville.

Isto tem duas consequências importantes:

1. Se o sistema descrito for uniforme ao longo de toda a superfície de energia, então temos uma distribuição de equilíbrio.

2. O volume total ocupado no espaço de fase não varia no tempo.

Ou seja, se o sistema não começa em um estado de equilíbrio, ele nunca alcançará um estado de equilíbrio.

Para resolver este problema, Ehrenfest introduziu o conceito de “Coarse Graining”. Ele alegava que a entropia não deveria estar ligada ao volume onde a densidade no espaço de fase não é nula e sim com o número de células onde a densidade não é nula. Ou seja, a região acessível do espaço de fase deve ser mapeada em uma região esponjosa que evolui de forma Hamiltoniana.

Ambos os métodos foram bem sucedidos em obter as propriedades de um sistema físico. Con-tudo apesar do vasto desenvolvimento e sucesso da área, uma série de questões continuam em aberto, como o uso de probabilidades e seu significado físico ou como demonstrar a conexão entre uma teoria microscópica e sua contraparte macroscópica.

O uso de probabilidades na física pode ser amplamente questionado no sentido de que a condição para que um sistema físico entre em equilíbrio térmico independa do estado inicial do sistema e da distribuição de probabilidades para os seus microestados. Não obstante, o estado final é sempre o mesmo. Além disso, conforme já foi mencionado, a Mecânica Clássica e a Mecânica Quântica são teorias simétricas por reversão temporal, de tal forma que é preciso primeiro provar que a irreversibilidade pode emergir destas duas teorias antes de usá-las para obter propriedades macroscópicas.

A tentativa de justificar este último ponto leva diretamente aos dois pilares da física estatística clássica: o Teorema Ergódico e o Teorema H de Boltzmann.

Por outro lado, impor tantos vínculos para que possamos tentar avançar com uma abordagem parece algo muito severo uma vez que espera-se que uma teoria física tenha que lançar mão de algumas assertivas não demonstradas cujas consequências possam ser confirmadas pela comparação com um experimento. Para citar exemplos da Física Estatística de Gibbs, temos o congelamento

(29)

dos graus de liberdade do sistema a baixas temperatura, fazendo o calor específico tender a um valor finito ou o famoso paradoxo de Gibbs, em relação a como contar corretamente o número de partículas em um ensemble clássico. Nenhuma dessas duas hipóteses pode ser provada partindo da mecânica clássica, contudo ao inserir esses ingredientes, os modelos construídos baseados na estatística de Gibbs se tornam comparáveis ao experimento.

Uma outra abordagem seria reinterpretar a maneira como fazemos a mecânica estatística. Se tratarmos os mesmos problemas através de inferência estatística ao invés de uma teoria física, percebe-se que o cálculo das quantidades básicas como a função de partição, emergem diretamente de um princípio de máxima entropia estatística e podemos pensar em uma metodologia baseada na teoria de informação para calcular a distribuição de probabilidade dos microestados. Esta abordagem informacional da mecânica estatística é chamada de Princípio de Maximização da Entropia ou simplesmente MaxEnt.

2.3 O Princípio de Maximização da Entropia

O formalismo de ensembles fornece um poderoso algorítimo de cálculo das propriedades físicas de um sistema de 𝑁 corpos e constitui uma maneira bastante clara de formular um problema físico baseado nos vínculos macroscópicos.

Ainda assim, não constitui uma maneira completa de partir das leis microscópicas até a ter-modinâmica. Sendo bastante otimista, uma formulação completa do problema deveria atender os seguintes critérios:

1. Não possuir inconsistências matemáticas,

2. Não fazer uso de assertivas não demonstradas,

3. Incluir uma explicação para a existência de estados fora do equilíbrio.

A teoria dos ensembles falha no segundo quesito, ao ter que inserir a Ergodicidade como parte fundamental para que funcione. Não devemos tomar isso como um ponto negativo, pois não é raro que uma teoria física tenha pontos em aberto cuja validade deva ser verificada pela experimentação. Por outro lado, podemos ver isto como um estímulo para reinterpretar o método da mecânica estatística.

Se tomarmos como elemento básico para o problema a falta de informação e então conceber a mecânica estatística como um método de inferência ao invés de uma teoria física, em princípio, evitaríamos o uso de hipóteses como ergodicidade pois o que nos restaria seria determinar um algorítimo de cálculo.

(30)

Com o desenvolvimento de uma teoria matemática para a informação, a entropia surge como uma métrica do desconhecimento a respeito dos possíveis eventos descritos por uma variável alea-tória 𝑥, ou como uma medida da falta de informação a respeito de um sistema físico e seu estado. Em 1953, Shannon desenvolveu uma teoria matemática para quantificar a informação e predizer os resultados de um “experimento” descrito por por uma variável aleatória 𝑥, dada uma distribuição de probabilidades 𝑝1, 𝑝2, 𝑝3, ..., 𝑝𝑛 associada a essa variável aleatória e colocou a seguinte questão:

“ Podemos mensurar o quanto de “escolha” está envolvido na seleção de eventos, ou o quanto de incerteza temos à respeito dos possíveis resultados?”

Para resolver o problema, Shannon propôs a existência de uma função 𝐻(𝑝1, 𝑝2, ..., 𝑝𝑛) e impôs

as seguintes propriedades:

Propriedade I 𝐻 é uma função contínua de todos os 𝑝𝑠

Propriedade II Se todos os 𝑝𝑠 são iguais, i.e 𝑝 = 1/𝑛, então 𝐻 deveria ter um valor máximo e deve ser uma função monotonicamente crescente de 𝑛

Propriedade III Se a escolha é quebrada em escolhas sucessivas, então a quantidade 𝐻 deve ser a soma dos valores individuais de 𝐻

Observe, que estas são as propriedades que gostaríamos para 𝐻, contudo são propriedades bastante razoáveis, e podemos justificar todas elas.

I A continuidade de 𝐻 é justificada pois ao fazer uma pequena modificação em 𝑝, esperamos apenas uma pequena modificação em 𝐻

II Se temos 𝑛 possíveis eventos, com distribuição uniforme, temos o máximo ou o mínimo de incerteza sobre o resultado do experimento e claramente quanto maior o número 𝑛, maior a quantidade de informação necessária.

III Às vezes, esta propriedade é enunciada como a independência do agrupamento de eventos e equivale a dizer que a informação deve depender apenas da lei de probabilidade e não da forma como adquirimos a informação.

Com estas propriedades, Shannon provou que a única função que obedece essas regras é:

𝐻(𝑝1, ..𝑝𝑛) = −𝑘 𝑛

∑︁

𝑖=1

𝑝𝑖log(𝑝𝑖), (2.3.1)

(31)

Assim, interpretar a entropia como a falta de informação sobre os possíveis eventos fornece um algorítimo preditivo para estimar suas propriedades. É imediato o porquê de suspeitarmos de uma possível conexão entre a Teoria de Informação e a Mecânica Estatística: A entropia de Shannon é a mesma que a Entropia de Gibbs, e seus postulados básicos também são os mesmos que carac-terizam o ensemble canônico. A continuidade é uma propriedade fisicamente razoável, a segunda propriedade leva diretamente ao ensemble microcanônico e a terceira propriedade corresponde à aditividade da entropia para sistemas descorrelacionados.

A teoria de informação aplica um critério construtivo para determinar a distribuição de proba-bilidades baseado apenas em informação parcial sobre o sistema, realizando um tipo de inferência estatística chamada de “Princípio de Máxima Entropia”. O que nos leva à um tipo de física esta-tística completamente subjetiva. Estamos trocando a incapacidade de tratar muitas equações de movimento por uma falta de conhecimento sobre o estado do sistema, e todas as regras usuais são justificadas de forma completamente independente de qualquer argumento físico e em particular de verificação experimental. Isto é, mesmo que os resultados sejam incompatíveis com o experimento, ainda assim será a melhor estimativa dado o conjunto de dados.

Buscamos uma solução para o seguinte problema estatístico: Dado uma variável aleatória 𝑥𝑖,

discreta, tendo apenas como informação o valor médio de uma função 𝑓 (𝑥𝑖):

⟨𝑓 (𝑥)⟩ =∑︁

𝑖

𝑝𝑖𝑓 (𝑥𝑖) (2.3.2)

e a condição de normalização ∑︀

𝑖𝑝𝑖 = 1. Qual o valor médio de uma outra função 𝑔(𝑥𝑖)?

É evidente que não temos informação suficiente para resolver este problema, pois não temos a lei de probabilidades e não temos como saber se ⟨𝑓 (𝑥)⟩ possui informação o suficiente para caracterizar os eventos.

Neste caso, interpretamos o vínculo gerado pelo valor médio fornecido como substituindo o vínculo sobre a região do espaço de fase onde a dimensão é não nula. Especificar probabilidades quando se tem pouca informação é um problema tão antigo quanto a teoria da probabilidade.

Uma maneira de resolver foi proposta por Laplace e ficou conhecida como o “Princípio da Razão Insuficiente”, onde dois eventos são ditos equiprováveis dado que não temos motivo para pensar o contrário.

O cerne da questão é como desenvolver um método de amostragem que evite algum tipo de viés e que seja condizente com a quantidade de informação fornecida. O grande avanço vindo da teoria de informação reside no fato de que existe um único critério não ambíguo para medir a ”quantidade de incerteza” representada por uma distribuição de probabilidade. A esta quantidade damos o nome de Entropia Estatística ou Entropia de Informação. Vamos definir o que seria uma

(32)

entropia para a informação:

Considere uma variável 𝑥 que pode assumir qualquer valor discreto (𝑥1, 𝑥2, .., 𝑥𝑛). Nosso

co-nhecimento parcial sobre qual processo gera os valores de 𝑥 podem ser representados designando probabilidades 𝑝1, 𝑝2, .., 𝑝𝑛 para cara um dos possíveis valores. Shannon demonstrou que as suas

exigência para determinar uma métrica do quanto desconhecemos à respeito dos possíveis even-tos do sistema defini univocamente um funcional da distribuição de probabilidades associada aos possíveis eventos: 𝐻[𝒫] = − 𝑁 ∑︁ 𝑚=1 𝑝𝑚log(𝑝𝑚), (2.3.3)

onde esta quantidade é positiva, cresce com a incerteza e é limitada pelos seguintes casos extremos: Casos limites:

• A Lei de probabilidade da informação completa sobre a sucessão de eventos. Se um evento possui probabilidade unitária, 𝑝1 = 1 e 𝑝𝑚 = 0 ∀ 𝑚 ≥ 2, então 𝑆[𝒫] = −∑︀𝑀𝑚=1𝑝𝑚log(𝑝𝑚) =

𝑙𝑜𝑔(1) = 0

• A lei de probabilidade fornece informação mais incompleta possível sobre sobre os microes-tados, isto é eles são equiprováveis: 𝑝𝑚 = 𝑀1 , ∀𝑚, então:

𝑆[𝒫] = − 𝑀 ∑︁ 𝑚=1 𝑝𝑚log(𝑝𝑚) = 𝐻[𝒫] = − 𝑀 ∑︁ 𝑚=1 1 𝑀 log (︂ 1 𝑀 )︂ = log(𝑀 ) (2.3.4)

o que resulta em:

0 ≤ 𝐻[𝒫] ≤ log(𝑀 ), (2.3.5)

caracterizando a entropia como uma medida do nosso desconhecimento sobre os possíveis eventos. Duas situações particularmente importantes devem ser analisadas:

• Eventos estatisticamente independentes

• Eventos estatisticamente correlacionados

Se os eventos forem independentes, temos que 𝒫 = 𝒫𝑚⊗ 𝒫𝑛 = 𝒫𝑚𝒫𝑛 e a entropia estatística é

dita ser adtiva:

(33)

No caso dos eventos estatisticamente correlacionados, temos que 𝒫 = 𝒫𝑚⊗ 𝒫𝑛 ̸= 𝒫𝑚𝒫𝑛 e a

entropia estatística é dita ser sub-aditiva

𝐻[𝒫𝑚⊗ 𝒫𝑛] ≤ 𝐻[𝒫𝑚] + 𝐻[𝒫𝑛]. (2.3.7)

Para resolver o problema proposto, temos que buscar pela distribuição de informação com o menor viés que seja compatível com o vínculo imposto por ⟨𝑓 (𝑥)⟩ e∑︀

𝑖𝑝𝑖 = 1. A distribuição de menor viés

é a que possui maior entropia, então podemos buscar uma maximização da entropia de Shannon pelo método dos multiplicadores de Lagrange, onde temos que encontrar um extremo do seguinte funcional: Φ = 𝐻(𝑝𝑖) − 𝜆 ∑︁ 𝑖 𝑝𝑖𝑓 (𝑥𝑖) − 𝛼 ∑︁ 𝑖 𝑝𝑖, (2.3.8) 𝛿Φ = 𝛿𝐻(𝑝𝑖) − 𝜆 ∑︁ 𝑖 𝛿𝑝𝑖𝑓 (𝑥𝑖) − 𝛼 ∑︁ 𝑖 𝛿𝑝𝑖 (2.3.9) = −∑︁ 𝑖 𝑘 ln(𝑝𝑖)𝛿𝑝𝑖− ∑︁ 𝑖 𝛿𝑝𝑖− 𝜆 ∑︁ 𝑖 𝛿𝑝𝑖𝑓𝑖− 𝛼 ∑︁ 𝑖 𝛿𝑝𝑖 = 0. (2.3.10)

A solução mais geral é

𝑃𝑖 = 𝐶𝑜𝑒𝑥𝑝(−𝛼 − 𝜆 𝑘𝑓 (𝑥𝑖)) (2.3.11) onde temos: ⟨𝑓 (𝑥)⟩ = − 𝜕 𝜕𝜆𝑙𝑜𝑔(𝒵(𝜆)), (2.3.12) 𝛼 = log(𝒵(𝜆)), (2.3.13) e, 𝒵(𝜆) =∑︁ 𝑖 𝑒𝑥𝑝(−𝜆 𝑘𝑓 (𝑥𝑖)). (2.3.14)

O caminho para a mecânica estatística é bem claro agora. A partir da entropia de Gibbs podemos obter,por exemplo, qual o operador densidade que é compatível com o ensemble canônico. Considere o vínculo de energia média:

⟨ ^𝐻⟩ = 𝑇 𝑟( ^𝜌 ^𝐻) = 𝒰 (2.3.15)

(34)

pela mesmo processo variacional, chegamos imediatamente a:

^

𝜌 = 𝑒𝑥𝑝(−𝛽 ^𝐻) (2.3.16)

onde o multiplicador de Lagrange: 𝜆 = 𝑇1 = 𝛽. As funções termodinâmicas:

𝒰 − 𝑇 𝒮 = 𝐹 (𝑇, 𝛼1, ...) = −𝑘𝑇 𝑙𝑜𝑔(𝒵(𝑇, 𝛼1, ...)) (2.3.17) 𝒮 = − 𝜕 𝜕𝑇𝐹 (𝑇, 𝛼1, ...) = −𝑘 ∑︁ 𝑖 𝑝𝑖𝑙𝑜𝑔(𝑝𝑖) (2.3.18) 𝛽𝑖 = 𝑘𝑇 𝜕 𝜕𝛼𝑖 𝑙𝑜𝑔(𝒵(𝜆)) (2.3.19)

Os resultados baseados na maximização de uma entropia estatística são bastante animadores pois não foi preciso evocar nenhuma propriedade física de complexa demonstração, como a ergo-dicidade e a equiprobabilidade a priori, contudo devemos fazer alguns comentários finais a fim de deixar claro que este método também possui alguns problemas e não constitui uma forma definitiva de realizar o trabalho da mecânica estatística.

A entropia deve ser interpretada como uma medida do nosso desconhecimento sobre o estado físico do sistema. Por outro lado, em situações onde existe equilíbrio termodinâmico, que é o caso de maior interesse, a entropia é uma quantidade mensurável, o que em princípio depõe contra a interpretação apresentada. Não obstante, lembro que o princípio de máxima entropia não tem nenhum compromisso com o resultado experimental, ou seja não constitui uma teoria física.

Por último, devemos alertar que parte da motivação na busca de uma conexão entre a entropia estatística e a entropia termodinâmica vem do fato de encontrarmos a mesma expressão matemática na teoria de informação e no ensemble de Gibbs.

De forma alguma podemos tomar isto como uma evidência definitiva da conexão entre a Ter-modinâmica e a Teoria de informação. O que deve ser feito é buscar limites onde a interpretação das grandezas que emergem das duas teorias possuem o mesmo significado físico.

Antes mesmo dos trabalhos de Jaynes10 transformarem a mecânica estatística numa teoria

baseada em inferência estatística, Boltzmann já havia percebido que interpretar a entropia como nossa ignorância sobre o estado do sistema poderia ser útil. Conclusões semelhantes foram obtidas por Weaver e Shannon. Podemos sintetizar toda discussão à respeito das propriedades estatísticas da entropia através dos seguintes postulados:

(35)

Postulados de Fadeev: Seja uma entropia estatística: 𝐻(𝑝1, 𝑝2, ...., 𝑝𝑛)

1. 𝐻(𝑝1, 𝑝2, ...., 𝑝𝑛) é uma função simétrica dos seus argumentos

2. 𝐻(𝑝, 1 − 𝑝) é uma função contínua de 𝑝, ∀𝑝, tal que 0 ≤ 𝑝 ≤ 1

3. 𝐻(1/2, 1/2) = 1

4. 𝐻(𝑝1, 𝑝2, ...., 𝑝𝑛) =∑︀𝑛𝐻(𝑝𝑛)

• Estes postulados definem univocamente a entropia de Shannon

𝐻𝒫] = −∑︁

𝑛

𝑝𝑛𝑙𝑜𝑔[𝑝𝑛]

Nos anos que seguiram, outras métricas de informação foram propostas com o intuito de gene-ralizar a entropia de Shannon para preservar a adtividade, no caso de sistemas correlacionados, ou tratar algum tipo de ruído associado à troca de informação. Em 1966, Alfred Rényi11, mostrou que

a entropia é unicamente definida pela maneira como a entropia de sistemas multipartite é somada. Assim reconsiderarmos os postulados que definem a entropia de informação da seguinte maneira:

• O último postulado estabelece a aditividade da entropia conforme estamos acostumados e faz a ponte entre a entropia de Shannon e os Ensembles de Gibbs

• Podemos pensar numa situação mais geral. Podemos propor que a entropia seja aditiva de acordo com alguma função:

𝑔(𝐻(𝑝1, 𝑝2, ...., 𝑝𝑛)) = 𝑔(

∑︁

𝑛

𝐻(𝑝𝑛)) (2.3.20)

• Propondo uma função peso 𝑔𝛼(𝑥) = 2(𝛼−1)𝑥, obtemos a famosa entropia de Rényi:

𝐻(𝑝) = 1

1 − 𝛼log[𝑇 𝑟 ^𝜌

𝛼]. (2.3.21)

Outra proposta é baseada em manter a aditividade para sistemas estatisticamente correlacio-nados e foi introduzida por Daroczy e Aczel 12,13

1

1 − 𝛼(𝑇 𝑟 ^𝜌

𝛼− 1)

(2.3.22)

11Rényi, A; On generalized measures of information and its applications, 1966 12Daroczy and Aczel 1956

(36)

onde neste caso, existe um único valor do parâmetro ajustável para o qual esta entropia seria adtiva.

2.4 Mecânica Estatístitica Generalizada

A mecânica estatística deve ser completamente consistente com a fenomenologia da termodi-nâmica. A fim de uma exposição mais clara e direta do que os enunciados usuais das leis da termodinâmica, foram feitas várias tentativas para enunciar a termodinâmica por meio de postu-lados ao invés de leis fenomenológicas.

Boa parte deste trabalho foi desenvolvido por Caratheodóry e Tisza e consolidados por Callen na forma dos seguintes postulados:

Postulado I Existe um estado particular chamado de estado de equilíbrio.

Postulado II Existe uma função 𝑆 dos parâmetros extensivos do sistema, chamada de entropia, definida para todos os estados de equilíbrio, tal que neste estado a entropia alcança seu valor máximo

Postulado III A entropia de um sistema composto é aditiva sobre os subsistemas consti-tuintes. A entropia é diferenciável e é uma função monotonicamente crescente da energia.

Postulado IV A entropia vai a zero, quando a temperatura alcança o zero absoluto. Estes postulados não emergem como uma prova das leis da termodinâmica e nem o oposto,apenas tentam reproduzir seu significado de uma maneira lógica.

Algumas consequências destes postulados do ponto de vista termodinâmico, são que:

1. Os postulados II e III são usualmente tomados como enunciados da Segunda Lei da termo-dinâmica. Contudo, a segunda lei da termodinâmica não requer a aditividade da entropia, pois isto implica diretamente que a energia interna é a soma da energia de cada uma dos subsistemas, excluindo assim qualquer tipo de sistema interagente, dado que neste caso a energia total deve incluir a soma dos termos de interação.

2. O postuladoIV é uma reprodução da terceira lei, conforme enunciada por Planck, e carrega o mesmo problema em nos fornecer informação sobre qualquer particularidade do estado fundamental de um sistema físico.

(37)

Se a entropia estatística tem o intuito de reproduzir o comportamento termodinâmico, de acordo com esta formulação, ela deve ser sempre aditiva, mesmo para sistemas interagentes, o que reduz a formulação baseada na Entropia de Boltzmann-Gibbs-Shannon-Von Neumann um caso particular de uma teoria mais geral. Ou seja, teríamos que aplicar o princípio de máxima entropia a uma forma mais geral de entropia, que em algum limite recuperaria as entropias usuais, mas que fosse aditiva mesmo para sistemas correlacionados. Isto implica dizer, que estamos modificando o postulado da aditividade, da mesma forma que fizeram Rényi ou Daróczy com as métricas de informação generalizadas, e a partir daí construir uma mecânica estatística.

Em 1988, Constantino Tsallis, propôs uma mecânica estatística baseada no funcional de en-tropia idêntico ao de Daroczy, porém obtido via uma outra rota, inspirada nas expressões para sistemas físicos com caráter fractal, que ficou conhecida como Mecânica Estatística Não Extensiva ou Estatística de Tsallis.

O objetivo fundamental é construir uma termoestatística que seja sempre aditiva. Isto é, sabemos que a entropia de Boltzmann Gibbs não é adtiva para sistemas com dimensões fractais, dissipativos, fortemente correlacionados ou sistemas com interações de longo alcance. Isso se deve ao fato que ao calcular a energia desses sistemas, a energia total será a soma da energia de cada um dos componente, mais a energia associada aos termos de interação. Então, utilizando uma entropia dependente de um parâmetro, poderia-se em princípio obter um modelo mínimo, partindo do princípio de maximização da entropia e encontrar um valor do índice ajustável tal que essa entropia seja aditiva.

A proposta de generalização da mecânica estatística segundo Tsallis é baseada nas propriedades da q-Entropia:

𝑆𝑞 = −𝑘𝑇

𝑇 𝑟(𝜌𝑞) − 1

𝑞 − 1 (2.4.1)

que no limite 𝑞 → 1, recupera a entropia usual.

De imediato, nota-se que a entropia não é aditiva para sistemas descorrelacionados:

𝜌 = 𝜌(𝐴)⊗ 𝜌(𝐵) (2.4.2) temos que: 𝑆𝑞(𝐴 + 𝐵) = 𝑆𝑞(𝐴) + 𝑆𝑞(𝐵) + (1 − 𝑞) 𝑘𝑇 𝑆𝑞(𝐴)𝑆𝑞(𝐵) (2.4.3)

e a aditividade é recuperada no limite 𝑞 → 1. Ao romper com a aditividade, estamos dizendo de imediato que o sistema de estudo não está isolado. Quanto à notação, vamos escrever a entropia

(38)

da seguinte maneira: 𝑆𝑞 = −𝑘𝑇 1 −∑︀ 𝑖𝑝𝑞 𝑞 − 1 = −𝑘𝑇 ∑︁ 𝑖 𝑝𝑞𝑖𝑙𝑜𝑔𝑞𝑝𝑖 (2.4.4) ou na forma quântica 𝑆𝑞 = −𝑘𝑇𝑇 𝑟(𝜌𝑞𝑙𝑜𝑔𝑞𝜌) (2.4.5)

que define o q-logarítimo:

𝑙𝑜𝑔𝑞(𝑋) =

𝑋1−𝑞− 1

1 − 𝑞 (2.4.6)

Aplicando o princípio de maximização da entropia à entropia de Tsallis com os vínculos de um ensemble canônico, obtemos o “ensemble canônico generalizado”.

Vínculos:

⟨𝐸⟩ = 𝑇 𝑟(𝜌𝑞𝐻) (2.4.7)

𝑇 𝑟(𝜌𝑞) = 1 (2.4.8)

obtemos o operador densidade generalizado:

𝜌𝑞 = [1 − (1 − 𝑞)𝛽𝑞𝐻]

1 1−𝑞/𝒵

𝑞 (2.4.9)

onde 𝒵𝑞 é a função de partição generalizada

𝒵𝑞 = 𝑇 𝑟(𝜌𝑞) (2.4.10)

Existe muita controvérsia a respeito da melhor maneira de colocar o valor médio no contexto da estatística de Tsallis. Contudo, me parece inadequado tomar o valor médio de outra forma somente para satisfazer uma nova entropia, pois a definição de valor médio e operador densidade independe do funcional de entropia, extensividade ou qualquer outra motivação apresentada para as entropias generalizadas.

É possível provar que a conexão com a termodinâmica é obtida através da seguinte prescrição para a energia livre em termos do q-logarítimo, usando que.

𝑈𝑞 = − 𝜕 𝜕𝛽𝑞 𝑍1−𝑞 𝑞 − 1 1 − 𝑞 , (2.4.11)

(39)

aplicando uma transformação de Legendre temos que

𝐹𝑞 = −𝑘𝑇𝑇

𝒵1−𝑞

𝑞 − 1

1 − 𝑞 = −𝑘𝑇𝑇 log𝑞𝒵𝑞, (2.4.12)

e as funções termodinâmicas são preservadas, a exemplo do calor específico:

𝐶𝑞 = −𝑇

𝑑2𝐹 𝑞

𝑑2𝑇 (2.4.13)

Muito pode ser dito a respeito do que foi desenvolvido baseado neste funcional de entropia. Contudo este pequeno resumo é suficiente para desenvolvermos o texto e discutir a aplicabilidade da termodinâmica emergente desta definição de entropia no contexto de sistemas dissipativos.

A q-Entropia de Tsallis recebeu grande atenção nos anos que a seguiram a sua formulação no sentido de desenvolver uma termodinâmica nela baseada. Existe uma vasta literatura a respeito da aplicabilidade das distribuições dela emergentes, contudo existem poucos testes consistentes na tentativa de comparar os resultados obtidos com o de sistemas físicos não extensivos cujos resultados sejam bem conhecidos, a fim de determinar o parâmetro q. Outro fato interessante é que o princípio de máxima entropia não faz diferença entre a entropia de Rényi e Entropia de Tsallis.

Não existe uma explicação clara para isso. Uma das possibilidades é que como o operador densidade é obtido tomando apenas a primeira variação das entropias, como elas possuam formas próximas, a entropia de Tsallis pode ser entendida como um truncamento de primeira ordem da entropia de Rényi. O princípio de máxima entropia não é sensível o suficiente para perceber isso. De fato, essas entropias possuem algumas propriedades distintas que as tornam conceitualmente diferentes, como a aditividade da entropia de Rényi para sistemas estatisticamente descorrelacio-nados. Pensando apenas no operador densidade obtido e em preservar o papel da transformada de Legendre, as relações termodinâmicas são as mesmas. Houve algum debate sobre este assunto 14,

que conclui que a energia livre possui uma forma diferente:

𝐹𝑞 = 𝑈𝑞− 𝑇 𝑆𝑞𝑅 = 𝑈𝑞

1

𝛽 log(𝑍𝑞), (2.4.14)

mas não é claro se essa forma respeita a transformada de Legendre. Contudo se lançarmos mão da proposta de vínculos normalizados, ela representa uma série de vantagens.

(40)

Capítulo 3

Sistemas Quânticos Dissipativos

3.1 Conceitos Fundamentais

Na física estatística frequentemente usamos a ideia de um sistema pequeno em contato com outro muito maior a uma dada temperatura. A origem dessa ideia remonta ao Ciclo de Carnot, onde um volume finito de gás é transferido de um ambiente a uma dada temperatura para outro ambiente a uma temperatura diferente. Em algumas situações mais genéricas, nem ao menos é preciso construir um reservatório térmico propriamente dito. Considere por exemplo uma reação química, onde o sistema de interesse são as moléculas de uma dada natureza e o reservatório é a solução na qual a reação ocorre. O mesmo ocorre por exemplo com uma partícula difundindo em um fluido viscoso, um Movimento Browniano, onde o fluido faz as vezes de reservatório.

A separação entre sistema e reservatório é bem mais clara no contexto da óptica quântica, onde temos átomos(sistema), acoplados com o campo de radiação(reservatório).

Esta separação traz à tona uma pergunta bastante pertinente; como funciona a interação entre as duas partes e qual a influência disto no estado individual de cada uma das partes? Em geral, supomos que o acoplamento do sistema com o banho é tal que, junto ao fato que o banho é muito maior que os sitema, podemos fazer uma série de aproximações sobre estes, tais como montar uma teoria efetiva com um potencial não local no tempo. Nem sempre este é o caso. No exemplo do átomo no campo de radiação, este átomo pode ser excitado e emitir um fóton, sem o qual este não poderia ser detetado, e este fóton perturbar o banho.

Por outro lado, a influência do banho no sistema é bem mais clara. Banho e sistema podem trocar energia, dando origem a efeitos de dissipação e flutuação.

Neste trabalho, estamos interessados nas propriedades de equilíbrio de um sistema quântico. Contudo, a fim de obtermos alguma intuição sobre quais efeitos físicos são relevantes, é conveniente

Referências

Documentos relacionados

Estudar o efeito da plastificação do ATp com glicerol nas características físico-químicas da blenda PLA/ATp; Analisar a mudança na cristalinidade dos laminados submetidos a

2 - OBJETIVOS O objetivo geral deste trabalho é avaliar o tratamento biológico anaeróbio de substrato sintético contendo feno!, sob condições mesofilicas, em um Reator

ii Incorporação do ABZ à ração através da técnica de revestimento polimérico em equipamento de leito fluidizado; iii Desenvolvimento e avaliação do método analítico

Montagem em paredes no exterior Se o Schlüter-LIPROTEC-LLPM for insta- lado em paredes no exterior como ilumina- ção decorativa, só é possível utilizar módu- los LED no

•   O  material  a  seguir  consiste  de  adaptações  e  extensões  dos  originais  gentilmente  cedidos  pelo 

atender direitos sociais básicos e combater a exclusão social e, mais recentemente, proteger o patrimônio ecológico brasileiro” (Szazi, 2003, p.22). Também Montaño destaca que

Quase que simultaneamente ao surgimento da Teoria Cinética, o renamento desse procedimento, a partir também de argumentos estatístico-probabilísticos, mas sem hipóteses ou

A entropia de um sistema isolado tende a um máximo, que corresponde à sua condição de equilíbrio (máximo número de microestados acessíveis). Se o sistema isolado