Soluções de Livros-Texto: Fundamentals of Statistical and Thermal Physics, F. Reif, edição de 1965

De Nerdyard

Este arquivo será organizado da seguinte forma: primeiro escreverei o enunciado do exercício em tradução livre (caso haja algum erro, por favor corrijam), após isso, procederei com a(s) solução(ões) da forma mais rigorosa possível (inclusive introduzindo alguns conceitos necessários à solução do problema), em geral fazendo passo-a-passo - a não ser em resultados que tiverem sido já explicitados anteriormente. Então vamos lá!

Observação: como não estamos mais na época dos papiros, algumas contas aqui podem eventualmente ser feitas por computador, pois nem sempre é relevante saber como calcular algo analiticamente, mas obter o valor numérico final é de nosso interesse. É assim que a ciência funciona nos dias de hoje, e eu não tenho nenhum problema com isso. Entretanto, para satisfazer os adeptos ao cálculo braçal, vou realizar todas essas contas de forma analítica, quando possível.

Tabela de conteúdo

Capítulo 1

Exercício 1

Qual é a probabilidade de obtermos 6 pontos ou menos com lançamento de três dados?

Wuerfel3.jpg

Observação: como esse problema é realmente apenas trabalhoso, colocarei várias figuras de dados para distrair quem ficar cansado de ler...

Solução: Independentemente de como for a solução, é necessário escrever explicitamente quais pontuações obedecem o critério citado no exercício. Vamos utilizar a notação abaixo, com n_1 denotando o valor retirado no primeiro lançamento, n_2 denotando o valor retirado no segundo lançamento e n_3 denotando o valor retirado no terceiro lançamento, sendo que _+_p significa que além da seqüência de números dada, devemos contar permutações que são distintas, no sentido de que a ordem dos números será diferente, mas os números os mesmos. Nossa notação será, portanto:

 (n_1,n_2,n_3)

se não houver permutações e será:

 (n_1,n_2,n_3)_+_p

se estas existirem.

Nesse procedimento, contaremos as permutações manualmente. Ao fim do exercício, forneceremos uma maneira mais eficiente de se efetuar a contagem.

Para obter 6 pontos ou menos em três lançamentos significa que podemos obter ou 6, ou 5, ou 4, ou 3 pontos ao lançar os três dados. As possibilidades nas quais isto ocorre são:

6 pontos:

-  (1,1,4)_+_p ou 3 possibilidades.

-  (1,2,3)_+_p ou 6 possibilidades.

-  (2,2,2) ou uma possibilidade.

Ou seja, existem 10 possibilidades de se obter exatamente 6 pontos.

5 pontos:

-  (1,1,3)_+_p ou 3 possibilidades.

-  (1,2,2)_+_p ou 3 possibilidades.

Ou seja, existem 6 possibilidades de se obter exatamente 5 pontos.

4 pontos:

-  (1,1,2)_+_p ou 3 possibilidades.

Ou seja, existem 3 possibilidades de se obter exatamente 4 pontos.

3 pontos:

Red'n'Blackdice.jpg

-  (1,1,1) ou uma possibilidade.

Ou seja, existe uma possibilidade de se obter exatamente 3 pontos.

Assim o número de possibilidades para que se obtenha 6 pontos ou menos em três lançamentos é:

 10+6+3+1=20 ou seja, 20 possibilidades.

O número total de resultados possíveis para o lançamentos de dados é 6^3 = 216, já que há 6 possíveis resultados para cada um dos 3 lançamentos.

Portanto, a probabilidade de se obter 6 pontos ou menos em 3 lançamentos de dados é:

 P = \frac{20}{216} \approx 0,0926 = 9,26 \%.

Há uma outra maneira de se resolver esse mesmo exercício, sem haver a necessidade de contar manualmente as permutações, o que, apesar de ser uma maneira completamente válida de resolução, é bastante ineficiente se há muitas permutações possíveis. Ainda é verdade que é necessário escrever explicitamente os resultados possíveis, mas agora ao invés de contá-los manualmente, vamos calcular sua quantidade.

Suponha que haja  N ocorrências de um determinado evento cujos possíveis resultados são  k diferentes possibilidades. Denotaremos por  p_i a probabilidade de ocorrer um evento cujo resultado é a i-ésima possibilidade e denotaremos por  n_i o número de vezes que a i-ésima possibilidade ocorre. Assim, podemos construir a distribuição multinomial:

 W = \frac{N!}{\displaystyle \prod_{i=1}^{k} n_i!} \displaystyle \prod_{i=1}^{k} p_i^{n_i} - ou  W = N! \prod_{i=1}^{k} \frac{p_i^{n_i}}{n_i!} , para os que preferem uma notação um pouco mais compacta - com  \sum_{i=1}^{k} n_i = N .

Dicerpgmetalic.jpg

No caso dos dados, temos  k=6 , ou seja, seis possibilidades. Daí:

 W = \frac{N!}{\displaystyle \prod_{i=1}^{6} n_i!} \displaystyle \prod_{i=1}^{6} p_i^{n_i}

Para uma dado honesto,  p_1 = p_2 = p_3 = p_4 = p_5 = p_6 = \frac{1}{6}, assim, como \sum_{i=1}^{6} n_i = N:

 W = \frac{N!}{\displaystyle \prod_{i=1}^{6} n_i!} \displaystyle \prod_{i=1}^{6} \left (\frac{1}{6} \right)^{n_i} = \frac{N!}{\displaystyle \prod_{i=1}^{6} n_i!} \left (\frac{1}{6} \right )^{\sum_{i=1}^{6} n_i} = \frac{N!}{ \displaystyle \prod_{i=1}^{6} n_i!} \left (\frac{1}{6} \right)^{N}

Note que a distribuição multinomial calcula as probabilidades diretamente, já considerando a contagem das permutações. O número de permutações é dado por:

 Permut = \frac{N!}{\displaystyle \prod_{i=1}^{k} n_i!}

No caso dos dados,  k=6 , daí:

 Permut = \frac{N!}{\displaystyle \prod_{i=1}^{6} n_i!}

No caso do nosso exercício,  N=3 , e os  n_i são calculados de acordo com as exigências do enunciado.

Sabemos que para obter 6 pontos, devemos possuir uma das combinações:  (1,1,4); (1,2,3); (2,2,2) .

Rpg-dice.png

O número de permutações da combinação  (1,1,4) é :

 Permut_{(1,1,4)} = \frac{3!}{2!0!0!1!0!0!} = \frac{6}{2} = 3

A probabilidade de obtermos essa combinação ou suas permutações é:

 P_{(1,1,4)} = \frac{3!}{2!0!0!1!0!0!} \left (\frac{1}{6} \right)^{3} = \frac{3}{6^3} = \frac{1}{72} \approx 0,01389

O número de permutações da combinação  (1,2,3) é :

 Permut_{(1,2,3)} = \frac{3!}{1!1!1!0!0!0!} = \frac{6}{1} = 6

A probabilidade de obtermos essa combinação ou suas permutações é:

 P_{(1,2,3)} = \frac{3!}{1!1!1!0!0!0!} \left (\frac{1}{6} \right)^{3} = \frac{6}{6^3} = \frac{1}{36} \approx 0,02778

O número de permutações da combinação  (2,2,2) é :

 Permut_{(2,2,2)} = \frac{3!}{0!3!0!0!0!0!} = \frac{6}{6} = 1

A probabilidade de obtermos essa combinação é:

 P_{(2,2,2)} = \frac{3!}{0!3!0!0!0!0!} \left (\frac{1}{6} \right)^{3} = \frac{1}{6^3} = \frac{1}{216} \approx 0,00463

Sabemos que para obter 5 pontos, devemos possuir uma das combinações:  (1,1,3); (1,2,2) .

O número de permutações da combinação  (1,1,3) é :

 Permut_{(1,1,3)} = \frac{3!}{2!0!1!0!0!0!} = \frac{6}{2} = 3

Maybe evil dice.jpg

A probabilidade de obtermos essa combinação ou suas permutações é:

 P_{(1,1,3)} = \frac{3!}{2!0!1!0!0!0!} \left (\frac{1}{6} \right)^{3} = \frac{3}{6^3} = \frac{1}{72} \approx 0,01389

O número de permutações da combinação  (1,2,2) é :

 Permut_{(1,2,2)} = \frac{3!}{1!2!0!0!0!0!} = \frac{6}{2} = 3

A probabilidade de obtermos essa combinação ou suas permutações é:

 P_{(1,2,2)} = \frac{3!}{1!2!0!0!0!0!} \left (\frac{1}{6} \right)^{3} = \frac{3}{6^3} = \frac{1}{72} \approx 0,01389

Sabemos que para obter 4 pontos, devemos possuir a combinação:  (1,1,2) .

O número de permutações da combinação  (1,1,2) é :

 Permut_{(1,1,2)} = \frac{3!}{2!1!0!0!0!0!} = \frac{6}{2} = 3

A probabilidade de obtermos essa combinação ou suas permutações é:

 P_{(1,1,2)} = \frac{3!}{2!1!0!0!0!0!} \left (\frac{1}{6} \right)^{3} = \frac{3}{6^3} = \frac{1}{72} \approx 0,01389

Sabemos que para obter 3 pontos, devemos possuir a combinação:  (1,1,1) .

O número de permutações da combinação  (1,1,1) é :

 Permut_{(1,1,1)} = \frac{3!}{3!0!0!0!0!0!} = \frac{6}{6} = 1

Lots'fdice.jpg

A probabilidade de obtermos essa combinação é:

 P_{(1,1,1)} = \frac{3!}{3!0!0!0!0!0!} \left (\frac{1}{6} \right)^{3} = \frac{1}{6^3} = \frac{1}{216} \approx 0,00463

Totalizando  3+6+1+3+3+3+1 = 20 possibilidades e totalizando a probabilidade:

 P = \frac{20}{216} \approx 2 \cdot 0,00463 + 4 \cdot 0,01389 + 0,02778 \approx 0,0926

Conforme obtido anteriormente.

Exercício 2

Considere um jogo no qual seis dados honestos são lançados. Encontre a probabilidade de obter:

O jogo Dix-Mille (também conhecido por 10000, ou, comercialmente, Farkle) é um exemplo de sistema no qual seria útil saber qual é a probabilidade de se obter pelo menos uma face um dentre seis dados.

a) exatamente uma face um dentre estes dados

b) pelo menos uma face um dentre eles

c) exatamente duas faces um dentre eles.

Solução:

a) Vamos utilizar uma notação na qual  N_i denota o número de vezes que se obtém uma determinada face  i .

Queremos obter um conjunto de  N_i 's tal que cumpra as condições:

  • Obtenhamos  \left\{ N_1 , N_2 , N_3 , N_4 , N_5 , N_6 \right\} , com  N_i \in \mathbb{N}, \, \forall i = 1, (\cdots), 6 .
  • Para  i = 2, (\cdots), 6 ; \, N_i \in [0,5] , sendo  N_1 = 1 .
  • Claramente  \sum_{i = 1}^{6} N_i = 6 .

As condições acima são o que determina o conjunto  X de casos de interesse. Assim a probabilidade total seria dada pela soma sobre os elementos de  X , com  \mathcal{N} denotando o número total de dados:

 Prob. \, total \, = \sum_{X} \frac{\mathcal{N}!}{N_1! N_2! N_3! N_4! N_5! N_6!} \left(\frac{1}{6} \right)^{\mathcal{N}}

Em princípio, poderíamos cuidadosamente analisar todos os casos que cumprem as condições acima e calcular cada termo da soma, o que seria rigoroso, mas demoorado.

Para nossa sorte, há uma outra maneira de se realizar o exercício, operacionalmente falando:

  • Considerar que o 1º dado lançado tenha fornecido a face um, e calcular a probabilidade de se obter a face um apenas nesse dado - note que isso não é o que o exercício pede...
  • Feito o passo anterior, calculemos o número de permutações da situação proposta anteriormente; dessa forma, cobrimos todas as possibilidades e resolvemos o problema!

Dessa forma, para obter uma face um apenas no 1º lançado dado e quaisquer outras faces nos outros dados, temos um número possível de resultados dado por:

 \underline{1} \cdot \underline{5} \cdot \underline{5} \cdot \underline{5} \cdot \underline{5} \cdot \underline{5} = 3125 \, resultados \, poss\'iveis

Cada 'caixinha' denota o número de resultados possíveis respectivos para cada dado.

O número de permutações é dado por:

 C_{6,5} = \binom 6 5 = \frac{6!}{5!1!} = 6 \, permuta \c{c} \~oes

Isso nos fornece um total de:

 6 \cdot 3125 = 18750 \, resultados \, poss\'iveis

Num total de  6^6 = 46656 resultados estatisticamente realizáveis. Logo a probabilidade pedida no problema é dada por:

 P_{exatamente \, um \, 1} = \frac{18750}{46656} \approx 40,6 \%

b) Podemos utilizar dois caminhos distintos para realizar o cálculo pedido por esse item:

  • Notando que a probabilidade de obter ao menos uma face um dentre os dados é dada por:

 P_{ao \, menos \, um \, 1} = P_{exatamente \, um \, 1} + P_{exatamente \, dois \, 1's} + P_{exatamente \, tr\^es \, 1's} + P_{exatamente \, quatro \, 1's} + P_{exatamente \, cinco \, 1's} + P_{exatamente \, seis \, 1's}

 = \sum_{i=1}^{6} P_{exatamente \, i \, 1's}
  • Ou notando que a probabilidade de obter ao menos uma face um dentre os dados é dada, também, por:

 P_{ao \, menos \, um \, 1} = 1 - P_{n\~ao \, tirar \, 1}

Utilizando o primeiro raciocínio, efetuamos cálculos similares aos efetuados no item a), ou seja, após efetuarmos os cálculos, obtemos:

 P_{ao \, menos \, um \, 1} = C_{6,5} \cdot \frac{5^5}{6^6} + C_{6,4} \cdot \frac{5^4}{6^6} + C_{6,3} \cdot \frac{5^3}{6^6} + C_{6,2} \cdot \frac{5^2}{6^6} + C_{6,1} \cdot \frac{5^1}{6^6} + C_{6,0} \cdot \frac{5^0}{6^6} = \sum_{i = 1}^{6} C_{6,6-i} \frac{5^{6-i}}{6^6} = \sum_{i = 1}^{6} \frac{6!}{(6-i)!i!} \frac{5^{(6-i)}}{6^6} = \frac{31031}{46656} \approx 66,5 \%

Utilizando o segundo raciocínio, vemos imediatamente que a probabilidade de não obter 1's é dada por:

 P_{n\~ao \, tirar \, 1} = \left( \frac{5}{6} \right)^6 = C_{6,6} \frac{5^6}{6^6} = \frac{15625}{46656} \approx 33,5 \%

Logo:

 P_{ao \, menos \, um \, 1} = 1 - P_{n\~ao \, tirar \, 1} = 1 - \frac{15625}{46656} = \frac{31031}{46656} \approx 66,5 \%

c) Como já calculado no item anterior:

 P_{exatamente \, dois \, 1's} = C_{6,4} \cdot \frac{5^4}{6^6} = \frac{9375}{46656} \approx 20,1 \%

Exercício 3

Um número randômico entre  0 e  1 é escolhido. Qual é a probabilidade de que exatamente  5 dos  10 primeiros dígitos escolhidos sejam menores do que  5 ?

Solução:

Há já um fato que devemos notar: exatamente 5 dos primeiros 10 dígitos menores do que  5 implica que cinco destes dígitos são menores do que  5 e os outros 5 são maiores ou iguais a  5 .

A situação proposta no problema é a seguinte:

  • Escolhemos um número aleatório do tipo:

 0, \, \underline{\;\,} \, \underline{\;\,} \, \underline{\;\,} \, \underline{\;\,} \, \underline{\;\,} \, \underline{\;\,} \, \underline{\;\,} \, \underline{\;\,} \, \underline{\;\,} \, \underline{\;\,} (\cdots)

com  5 dos  10 primeiros algarismos menores que  5 .

Vamos efetuar um procedimento para dispensar escrever explicitamente as possibilidades:

  • Vamos desconsiderar todos os algarismos posteriores à décima casa decimal - eles são irrelevantes para o problema.
  • Suporemos que os cinco dígitos menores do que  5 estejam nas cinco primeiras casas decimais - note que isso não é o que o problema pede.
  • Multiplicaremos o número de possibilidades pelo número de permutações existentes.

Assim, exigimos que os cinco primeiros algarismos sejam menores que  5 e os cinco últimos algarismos sejam maiores ou iguais a  5 , e obtemos:

 \overset{< 5}{\overbrace{\underline{5} \, \underline{5} \, \underline{5} \, \underline{5} \, \underline{5}}} \; \overset{\ge5}{\overbrace{\underline{5} \, \underline{5} \, \underline{5} \, \underline{5} \, \underline{5}}} = 5^{10} = 9775625 \, possibilidades

O número de permutações dessa situação é:

 C_{10,5} = \binom{10}{5} = \frac{10!}{5!5!} = 252

O que nos fornece um número total de:

 252 \, \cdot \, 9775625 = 2463457500 \, possibilidades \, de \, se \, obter \, 5 \, dos \, 10 \, primeiros \, algarismos \, inferiores \, a \, 5

Como o número total de números de dez algarismos decimais é  10^{10} , logo a probabilidade de que  5 dos  10 primeiros algarismos sejam inferiores a  5 é:

 P = \frac{2463457500}{10000000000} \approx 24,6 \%

Uma maneira um pouco diferente de se chegar ao mesmo resultado é perceber que a probabilidade de que uma seqüência particular de  10 dígitos possua cinco dígitos maiores ou iguais a  5 e possua cinco dígitos menores que  5 , é:

 \left( \frac{5}{10} \right)^5 \left( \frac{5}{10} \right)^5 = \left( \frac{1}{2} \right)^5 \left( \frac{1}{2} \right)^5

Então multiplicando pelo número de permutações - já obtido acima - temos a probabilidade pedida:

 P = \frac{10!}{5!5!} \left( \frac{1}{2} \right)^5 \left( \frac{1}{2} \right)^5 = \frac{10!}{5!5!} \left( \frac{1}{2} \right)^{10} = \frac{3628800}{14745600} \approx 24,6 \%

O mesmo resultado obtido anteriormente.

Dilbert.jpg

Exercício 4

Um bêbado começa a caminhar a partir de um poste localizado no meio de uma quarteirão, dando passos de mesmo comprimento para direita ou para esquerdea com igual probabilidade. Qual é a probabilidade de que o bêbado esteja exatamente na posição do poste após dar um número N de passos se...

a) se N for par

b) se N for ímpar

Solução:

a) Sabe-se que a distribuição binomial é dada por:

 W_N(n)= \frac{N!}{n!(N-n)!} \, p^n (1-p)^{N-n}

com N sendo o número total de passos, n o número de passos à direita - portanto, N-n passos para esquerda, já que o número de passos à direita somado ao número de passos à esquerda deve ser igual a N - e probabilidade p de dar um passo à direita (portanto probabilidade 1-p de dar um passo à esquerda). Podemos computar o deslocamento liquido para direita, m utilizando:

 x = ml com,  m = 2n-N

 x denota a distância do bêbado ao poste para um determinado caminho aleatório (e suas permutações), x>0 se o bêbado se encontra à direita do poste. Vamos convencionar que o poste se encontra na posição  x=0 (ou seja, para que x seja igual a zero, é necessário que  m=0 .

Note, entretanto que,  m = 2n-N, o que implica que a paridade de  m e a paridade de  N é a mesma, isto é, quando  N é par,  m será par e quando  N é ímpar,  m é ímpar.

Sabemos, também, que podemos reescrever a distribuição binomial em termos de m, já que m=2n-N:

 W_N(m)=P_N(m)=\frac{N!}{(\frac{N+m}{2})! (\frac{N-m}{2})!} \, p^{\frac{N+m}{2}} (1-p)^{\frac{N-m}{2}}

Como:

 p = q = (1-p) = \frac{1}{2}

Podemos simplificar um pouco a expressão:

P_N(m)=\frac{N!}{(\frac{N+m}{2})! (\frac{N-m}{2})!} \left (\frac{1}{2} \right)^N

Assim, o exercício requer que  x seja nulo, o que implica que  m = 0, o que é possível apenas se o número total de passos é par. Assim, se  N é par:

P_\text{x=0}= P_N(0)=\frac{N!}{\left(\left(\frac{N}{2}\right)! \right)^2}  \left(\frac{1}{2}\right)^N

b) Notemos que na questão anterior, explicitamos o fato de que paridade de  m e de N é a mesma. Mas para que  x seja nulo é necessário que m=0, assim, se N é ímpar, é impossível que m=0, ou seja é impossível, nesse caso, que  x=0 . Daí a probabilidade de encontrarmos o bêbado na origem, se  N é ímpar é nula:

P_\text{x=0}=0

Exercício 5

No 'jogo' da roleta russa, não recomendado pelos autores desse artigo, coloca-se um cartucho no tambor de um revólver (suponha que este revólver possua 6 culatras), deixando as outras cinco culatras vazias. O jogador gira o tambor (de forma tal que o resultado seja aleatório), mira na própria cabeça e aperta o gatilho uma vez.

Uma versão muito mais segura do jogo ao qual se refere o enunciado.

a) Qual é a probabilidade de permanecer vivo após N 'jogadas'?

b) Qual é a probabilidade de se sobreviver (N-1) 'jogadas' e morrer na N-ésima jogada?

c) Qual é número médio de jogadas que um jogador tera a 'oportunidade' de puxar o gatilho neste 'jogo'?

Solução:

a) A probabilidade de sobreviver após uma 'jogada' é de:

P_\text{sobreviver a uma jogada}= (1-p) = q = \frac{5}{6}

após N 'jogadas', a probabilidade de sobreviver será, portanto:

P_\text{sobreviver a N jogadas} = (1-p)^N = q^N = \left(\frac{5}{6}\right)^N

b) A probabilidade de sobreviver (N-1) 'jogadas' é - a partir do resultado do exercício anterior:

P_\text{sobreviver a (N-1) jogadas} = \left(\frac{5}{6}\right)^{N-1}

A probabilidade de morrer numa determinada rodada é:

P_\text{morrer numa determinada jogada} = p = \frac{1}{6}

Assim a probabilidade de se sobreviver (N-1) 'jogadas' e morrer na N-ésima jogada será:

 P_\text{morrer na jogada N} = p(1-p)^N = pq^N = \left(\frac{5}{6}\right)^{N-1}\left(\frac{1}{6}\right)=\frac{5^{N-1}}{6^N}

c) Podemos definir o número médio de jogadas desse jogo como:

\left \langle \mathfrak{N} \right \rangle = \frac{\displaystyle \sum_{n=1}^{\infty} n \, p \, (1-p)^{n-1}}{\displaystyle \sum_{n=1}^{\infty} p \, (1-p)^{n-1}}

Apenas para simplificar a notação, denotaremos:

 p_n = p \, (1-p)^{n-1}

Essa distribuição de probabilidades é chamada distribuição geométrica.

Como  p_n é probabilístico, sabemos que \sum_{n=0}^{\infty} p_n=1, como podemos verificar:

 \sum_{n=1}^{\infty} p_n = \sum_{n=1}^{\infty} p \, (1-p)^{n-1}= p \sum_{n=1}^{\infty} \, (1-p)^{n-1}

Denotando  (1-p)=q e  n-1=m , e lembrando que a soma de uma progressão geométrica infinita cuja razão q é tal que  \left|q\right|\leq 1 e cujo primeiro termo seja a_0 é dada por:

 \sum_{m=0}^{\infty} a_0 \, q^m = \frac{a_0}{1-q}

Assim:

 \sum_{n=1}^{\infty} p_n=p \sum_{m=0}^{\infty} q^{m} = \frac{p}{1-q} = \frac {p}{1-(1-p)} = \frac{p}{p}=1

Portanto:

 \left \langle \mathfrak{N} \right \rangle = \sum_{n=1}^{\infty} n \, p \, (1-p)^{n-1}

Utilizando novamente  n-1=m e  q=(1-p)

 \left \langle \mathfrak{N}\right \rangle = \sum_{m=0}^{\infty} (m+1) \, p \, q^{m} = p \sum_{m=0}^{\infty} (m+1) \, q^{m} = p \left(\sum_{m=0}^{\infty} \frac{\mathrm{d}}{\mathrm{d} \omega} \omega^{m+1} \right|_{\omega=q} \left)= p \left(\frac{\mathrm{d}}{\mathrm{d} \omega} \left(\frac{\omega}{1-\omega}\right) \right|_{\omega=q}\right)

= p \left(\frac{1}{1-q}+\frac{q}{(1-q)^2}\right) = p \left(\frac{1-q+q}{(1-q)^2}\right)= \frac{p}{(1-q)^2} = \frac{p}{p^2} = \frac{1}{p}

Como  p = \frac{1}{6} , temos:

 \left \langle \mathfrak{N} \right \rangle = \frac{1}{p} = 6

Dessa forma, cada jogador 'joga' em média 6 vezes, ou seja, em média, cada jogador morre na 6ª 'jogada'.

Outra maneira (função geradora):

Exercício 6

Considere o problema da caminhada aleatória unidimensional no qual  p = q = 1/2 e defina  m = n_1 - n_2 como sendo o 'número líquido de passos à direita'. Para um total de  N passos, calcule os seguintes valores médios:  \langle m \rangle ,  \langle m^2 \rangle ,  \langle m^3 \rangle e  \langle m^4 \rangle .

Solução:

NOTA: Já poderíamos afirmar que, como o caso  p = q = 1/2 é simétrico,  \langle m \rangle e  \langle m^3 \rangle são nulos sem efetuar contas. Mas, como esse argumento não responde o resto da questão, só mencionarei que é possível utilizar esse argumento, caso você esteja com pregüiça de efetuar os cálculos.

A primeira coisa que devemos notar é que  m = n_1 - n_2 = 2 n_1 - N . Dessa forma, é possível deduzir que deveremos calcular as seguintes quantias médias:  \langle n_1 \rangle ,  \langle n_{1}^2 \rangle ,  \langle n_{1}^3 \rangle e  \langle n_{1}^4 \rangle . Vamos efetuar os cálculos sugeridos, e para fazê-lo vou utilizar métodos diferentes.

 \langle n_1 \rangle \equiv \sum_{n_1 = 0}^{N} n_1 W_{N}(n_1) \equiv \sum_{n_1 = 0}^{N} n_1 \frac{N!}{n_1 ! (N-n_1)!} p^{n_1} (1-p)^{N - n_1} = 0 + \sum_{n_1 = 1}^{N} n_1 \frac{N!}{n_1 ! (N-n_1)!} p^{n_1} (1-p)^{N - n_1} = Np \sum_{n_1 = 1}^{N} \frac{(N-1)!}{(n_1 - 1) ! (N-n_1)!} p^{n_1 - 1} (1-p)^{N - n_1}

Fazendo a mudança de variável  n_1 - 1 = n e supondo  N > 0 - se não for esse o caso, o problema é trivial (vide observação abaixo)... e é fácil notar que o resultado  \langle n \rangle = Np é válido para  N = 0 - temos:

 \langle n_1 \rangle = Np \sum_{n = 0}^{N - 1} \frac{(N-1)!}{n ! ((N-1)-n)!} p^{n} (1-p)^{(N - 1) - n}

Sabemos que:

 \sum_{n_1 = 0}^{N} W_{N}(n_1) = \sum_{n_1 = 0}^{N} \frac{N!}{n_1 ! (N-n_1)!} p^{n_1} (1-p)^{N - n_1} = (p + (1 - p))^N = 1^N = 1

Analogamente (caso não esteja claro para você o porquê faça o batismo  N - 1 \equiv M ):

 \langle n_1 \rangle = Np \sum_{n = 0}^{N - 1} \frac{(N-1)!}{n ! ((N-1)-n)!} p^{n} (1-p)^{(N - 1) - n} = Np (p + (1 - p))^{N - 1} = Np \, (1^{N-1}) = Np

OBSERVAÇÃO: apenas para explicitar que o resultado acima vale para qualquer  N \in \mathbb{N} :

Para  N = 0 :  \langle n_1 \rangle \equiv \sum_{n_1 = 0}^{0} n_1 W_{0}(n_1) = 0 \cdot 1 = 0 = (Np)\Big|_{N=0}

Note que esse método é aplicável para ordens superiores, mas se torna cada vez mais difícil de efetuá-lo. Vou ilustrar isso a seguir:

 \langle n_{1}^2 \rangle \equiv \sum_{n_1 = 0}^{N} n_{1}^2 W_{N}(n_1) \equiv \sum_{n_1 = 0}^{N} n_{1}^2 \frac{N!}{n_1 ! (N-n_1)!} p^{n_1} (1-p)^{N - n_1} \equiv \left(\sum_{n_1 = 0}^{N} n_{1}^2 \frac{N!}{n_1 ! (N-n_1)!} p^{n_1} q^{N - n_1} \right) \Big|_{q = (1 - p)}

 = 0 + \left( Np \sum_{n_1 = 1}^{N} n_{1} \frac{(N - 1) !}{(n_1-1) ! (N-n_1)!} p^{n_1 - 1} q^{N - n_1} \right) \Big|_{q = (1 - p)}

Novamente, faremos a mudança de variável  n_1 - 1 = n (e supondo  N > 0 ), que nos fornecerá:

 \langle n_{1}^2 \rangle = \left( Np \sum_{n = 0}^{N - 1} (n + 1) \frac{(N - 1) !}{n ! ((N - 1) - n)!} p^{n} q^{(N - 1) - n} \right) \Big|_{q = (1 - p)} = \left( Np \sum_{n = 0}^{N - 1} n \frac{(N - 1) !}{n ! ((N - 1) - n)!} p^{n} q^{(N - 1) - n} + Np \sum_{n = 0}^{N - 1} \frac{(N - 1) !}{n ! ((N - 1) - n)!} p^{n} q^{(N - 1) - n} \right) \Big|_{q = (1 - p)}

 = \left( Np \sum_{n = 0}^{N - 1} n \frac{(N - 1) !}{n ! ((N - 1) - n)!} p^{n} q^{(N - 1) - n} + Np (p + q)^{N-1} \right) \Big|_{q = (1 - p)} = \left( 0 + Np \sum_{n = 1}^{N - 1} \frac{(N - 1) !}{(n-1) ! ((N - 1) - n)!} p^{n} q^{(N - 1) - n} + Np (p + q)^{N-1} \right) \Big|_{q = (1 - p)}
 = \left( Np^2(N-1) \sum_{n = 1}^{N - 1} \frac{(N - 2) !}{(n-1) ! ((N - 1) - n)!} p^{n-1} q^{(N - 1) - n} + Np (p + q)^{N-1} \right) \Big|_{q = (1 - p)}

Fazendo a mudança de variável  n - 1 = w (e supondo  N > 1 ), temos:

 \langle n_{1}^2 \rangle = \left( Np^2(N-1) \sum_{w = 0}^{N - 2} \frac{(N - 2) !}{w ! ((N - 2) - w)!} p^{w} q^{(N - 2) - w} + Np (p + q)^{N-1} \right) \Big|_{q = (1 - p)} = \left(Np^2(N-1) (p + q)^{N-2} + Np (p + q)^{N-1} \right) \Big|_{q = (1 - p)}

 = Np^2(N-1) (1^{N-2}) + Np (1^{N-1}) = N^2p^2 - Np^2 + Np = N^2 p^2 + Np(1-p)

De forma análoga à utilizada para resolver a média de  n_1 .

OBSERVAÇÃO: Os casos  N = 0 e  N = 1 também seguem o resultado obtido acima:

Para  N = 0 :  \langle n_1^2 \rangle \equiv \sum_{n_1 = 0}^{0} n_1^2 W_{0}(n_1) = 0 \cdot 1 = 0 = (N^2 p^2 + Np(1-p))\Big|_{N=0}

Para  N = 1 :  \langle n_1^2 \rangle \equiv \sum_{n_1 = 0}^{1} n_1^2 W_{0}(n_1) = 0 + p = p = (N^2 p^2 + Np(1-p))\Big|_{N=1}

Farei a próxima média utilizando outro método, que é bastante usual nos livros-texto; vou dar ênfase à precisão da notação - que é algo simples, mas que os livros evitam fazer para não poluir as expressões, em detrimento de clareza...

 \langle n_{1}^3 \rangle \equiv \sum_{n_1 = 0}^{N} n_{1}^3 W_{N}(n_1) \equiv \sum_{n_1 = 0}^{N} n_{1}^3 \frac{N!}{n_1 ! (N-n_1)!} p^{n_1} (1-p)^{N - n_1} = \left (\sum_{n_1 = 0}^{N} n_{1}^3 \frac{N!}{n_1 ! (N-n_1)!} p^{n_1} q^{N - n_1} \right) \Big|_{q = (1-p)}

 = \left (\sum_{n_1 = 0}^{N} p \frac{\partial}{\partial p} \left\{ p \frac{\partial}{\partial p} \left[ p \frac{\partial}{\partial p} \left( \frac{N!}{n_1 ! (N-n_1)!} p^{n_1} q^{N - n_1} \right) \right] \right\} \right) \Big|_{q = (1-p)} = \left ( p \frac{\partial}{\partial p} \left\{ p \frac{\partial}{\partial p} \left[ p \frac{\partial}{\partial p} \left( \sum_{n_1 = 0}^{N} \frac{N!}{n_1 ! (N-n_1)!} p^{n_1} q^{N - n_1} \right) \right] \right\} \right) \Big|_{q = (1-p)}
 \left ( p \frac{\partial}{\partial p} \left\{ p \frac{\partial}{\partial p} \left[ p \frac{\partial}{\partial p} \left( (p+q)^N \right) \right] \right\} \right) \Big|_{q = (1-p)} = \left ( p \frac{\partial}{\partial p} \left\{ p \frac{\partial}{\partial p} \left[ p N (p+q)^{N-1}  \right] \right\} \right) \Big|_{q = (1-p)} = \left ( p \frac{\partial}{\partial p} \left\{ p N (p+q)^{N-1} + p^2 N (N-1) (p+q)^{N-2} \right\} \right) \Big|_{q = (1-p)}
 = \left ( p N (p+q)^{N-1} + 3 p^2 N (N-1) (p+q)^{N-2} + p^3 N (N-1) (N-2)(p+q)^{N-3} \right) \Big|_{q = (1-p)} = p N (1^{N-1}) + 3 p^2 N (N-1) (1^{N-2}) + p^3 N (N-1) (N-2)(1^{N-3})
 = p N + 3 p^2 N (N-1) + p^3 N (N-1) (N-2)= N^3p^3 - 3 N^2 p^3 + 3 N^2 p^2 + 2 N p^3 - 3N p^2 + Np

Nesta última média, vou utilizar a função geradora:

 \langle n_{1}^4 \rangle \equiv \sum_{n_1 = 0}^{N} n_{1}^4 W_{N}(n_1) \equiv \sum_{n_1 = 0}^{N} n_{1}^4 \frac{N!}{n_1 ! (N-n_1)!} p^{n_1} (1-p)^{N - n_1} =

Note que:

 \langle m \rangle = \langle 2 n_1 - N \rangle = \langle 2 n_1 \rangle - \langle N \rangle = 2 \langle n_1 \rangle - N = 2Np - N

 \langle m^2 \rangle = \langle (2 n_1 - N)^2 \rangle = \langle 4 n_{1}^2 - 4 N n_1 + N^2 \rangle = 4 \langle n_{1}^2 \rangle - 4 N \langle n_1 \rangle + N^2 = 4 N^2 p^2 + 4Np (1-p) - 4N^2 p + N^2

 \langle m^3 \rangle = \langle (2 n_1 - N)^3 \rangle = \langle 8 n_{1}^3 - 12 N n_{1}^2 + 6 N^2 n_1 - N^3 \rangle = 8 \langle n_{1}^3 \rangle - 12 N \langle n_{1}^2 \rangle + 6 N^2 \langle n_1 \rangle - N^3

 = 8 N^3 p^3 - 12 N^3 p^2 + 6 N^3 p - N^3 - 24 N^2 p^3 + 36 N^2 p^2 - 12 N^2 p + 16 N p^3 - 24 N p^2 + 8 N p

 \langle m^4 \rangle = \langle (2 n_1 - N)^4 \rangle = \langle 16 n_{1}^4 - 32 N n_{1}^3 + 24 N^2 n_{1}^2 - 2 N^3 n_1 + N^4 \rangle = 16  \langle n_{1}^4 \rangle - 32 N \langle n_{1}^3 \rangle + 24 N^2 \langle n_{1}^2 \rangle - 2 N^3 \langle n_1 \rangle + N^4

Logo, no caso  p = q = 1/2 , temos:

 \langle m \rangle = \frac{2N}{2} - N = N - N = 0 - como já antecipado anteriormente...

 \langle m^2 \rangle = \frac{4 N^2}{4} + \frac{4N}{4} - \frac{4N^2}{2} + N^2 = N^2 + N - 2 N^2 + N^2 = N

 \langle m^3 \rangle = \frac{8 N^3}{8} - \frac{12 N^3}{4} + \frac{6 N^3}{2} - N^3 - \frac{24 N^2}{8} + \frac{36 N^2}{4} - \frac{12 N^2}{2} + \frac{16 N}{8} - \frac{24 N}{4} + \frac{8 N}{2} = N^3 - 3 N^3 + 3 N^3 - N^3 - 3 N^2 + 9 N^2 - 6 N^2 + 2 N - 6 N + 4 N = 0 (como já mencionado).

Exercício 7

Nos gráficos acima (que foram distorcidos para facilitar a visualização), exemplificamos o que foi pedido no enunciado. No gráfico de cima, as curvas sólidas denotam todas as possibilidades de caminhada aleatória discreta de tempo discreto, para o caso em que  N = 3 . Todas caminhadas começam na origem, sendo que a coordenada com relação a este ponto, que é onde se encontra o 'andarilho', é denotada no eixo vertical. O 'tempo' - ou número do passo, se preferir - é denotado no eixo horizontal. No gráfico de baixo, denotamos com curvas sólidas somente as caminhadas nas quais ocorre apenas um 'sucesso' (sendo que por sucesso, definimos uma caminhada para cima) após  3 passos. Como temos no total  3 passos, certamente todas as caminhadas sólidas possuiram um sucesso e dois fracassos; as caminhadas tracejadas do gráfico de baixo denotam caminhadas que não possuem apenas um sucesso.

(OBSERVAÇÃO: Este enunciado foi adaptado para que fizesse mais sentido. O enunciado do livro foi um pouco mal escrito, pois não dá para entender muito bem o que se pede.)

Derive a distribuição binomial da seguinte forma algébrica, sem envolver qualquer análise combinatória. Estamos interessados em encontrar a probabilidade  W(n) de obter-se  n sucessos num total de  N tentativas estatisticamente independentes. Imponhamos que  w_1 = p denota a probabilidade de sucesso e  w_2 = (1 - p) = q denota a probabilidade de fracasso.

Antes de obter  W(n) , podemos obter a soma sobre todos possíveis cenários estatísticos através de:

 \mathcal{W} = \sum_{\alpha_1 = 1}^{2} \sum_{\alpha_2 = 1}^{2} (\cdots) \sum_{\alpha_N = 1}^{2} w_{\alpha_1} w_{\alpha_2} (\cdots) w_{\alpha_N}

Mostre que, se rearranjarmos as somas acima podemos obter:

 \mathcal{W} = (w_1 + w_2)^N

A partir desse resultado, se utilizarmos a restrição adicional de que admitimos apenas  n sucessos, podemos obter facilmente  W(n) , a partir da soma:

 W(n) = \sum_{apenas \, n \, sucessos} \left( \sum_{\alpha_1 = 1}^{2} \sum_{\alpha_2 = 1}^{2} (\cdots) \sum_{\alpha_N = 1}^{2} w_{\alpha_1} w_{\alpha_2} (\cdots) w_{\alpha_N} \right)

Aqui, cada soma envolve  N fatores e denota a probabilidade de uma particular combinação de  n sucessos e  N - n falhas.

Expandindo o resultado acima e utilizando o teorema binomial, mostre que a soma de todos os termos na soma de  W(n) (que envolve apenas termos proporcionais a  w_1^n ), é, então, simplesmente dada pelo termo da expansão binomial proporcional a  w_1^n , ou seja, mostre que:

 W(n) = \frac{N!}{n! (N-n)!} w_1^n w_2^{(N-n)}

Solução:

Conforme o problema afirma:

 \mathcal{W} = \sum_{\alpha_1 = 1}^{2} \sum_{\alpha_2 = 1}^{2} (\cdots) \sum_{\alpha_N = 1}^{2} w_{\alpha_1} w_{\alpha_2} (\cdots) w_{\alpha_N}

Mas podemos rearranjar os termos de forma a obter:

 \mathcal{W} = \sum_{\alpha_1 = 1}^{2} \sum_{\alpha_2 = 1}^{2} (\cdots) \sum_{\alpha_N = 1}^{2} w_{\alpha_1} w_{\alpha_2} (\cdots) w_{\alpha_N} = \sum_{\alpha_1 = 1}^{2} w_{\alpha_1} \sum_{\alpha_2 = 1}^{2} w_{\alpha_2} (\cdots) \sum_{\alpha_N = 1}^{2} w_{\alpha_N}  = \prod_{i = 1}^{N} \left( \sum_{\alpha_i = 1}^{2} w_{\alpha_i} \right)

Cada termo, da soma vale  (w_1 + w_2) , ou seja, como:

 \sum_{\alpha_i = 1}^{2} w_{\alpha_i} = (w_1 + w_2), \forall i

Temos:

 \mathcal{W} = \sum_{\alpha_1 = 1}^{2} \sum_{\alpha_2 = 1}^{2} (\cdots) \sum_{\alpha_N = 1}^{2} w_{\alpha_1} w_{\alpha_2} (\cdots) w_{\alpha_N} = \prod_{i = 1}^{N} \left( \sum_{\alpha_i = 1}^{2} w_{\alpha_i} \right) = \prod_{i = 1}^{N} (w_1 + w_2) = (w_1 + w_2)^N

Adicionalmente, pelo teorema binomial, sabemos que:

 (w_1 + w_2)^N = \sum_{m = 0}^{N} \frac{N!}{m! (N - m)!} w_1^m w_2^{(N - m)}

Logo, concluímos que:

 \mathcal{W} = \prod_{i = 1}^{N} \left( \sum_{\alpha_i = 1}^{2} w_{\alpha_i} \right) = \prod_{i = 1}^{N} (w_1 + w_2) = (w_1 + w_2)^N = \sum_{m = 0}^{N} \frac{N!}{m! (N - m)!} w_1^m w_2^{(N - m)} = \sum_{m = 0}^{N} c_m

Com  c_m = \frac{N!}{m! (N - m)!} w_1^m w_2^{(N - m)}} .

Conforme o enunciado:

 W(n) = \sum_{apenas \, n \, sucessos} \left( \sum_{\alpha_1 = 1}^{2} \sum_{\alpha_2 = 1}^{2} (\cdots) \sum_{\alpha_N = 1}^{2} w_{\alpha_1} w_{\alpha_2} (\cdots) w_{\alpha_N} \right)

Mas sabemos que:

 \sum_{\alpha_1 = 1}^{2} \sum_{\alpha_2 = 1}^{2} (\cdots) \sum_{\alpha_N = 1}^{2} w_{\alpha_1} w_{\alpha_2} (\cdots) w_{\alpha_N} = \sum_{m = 0}^{N} c_m

Logo, se encontrarmos uma forma matemática de impor apenas  n sucessos, nosso problema está resolvido. Uma maneira de se efetuar tal restrição é utilizar a delta de Kronecker -  \delta_{m,n} - de forma que:

 W(n) = \sum_{apenas \, n \, sucessos} \left( \sum_{m = 0}^{N} c_m \right) = \sum_{m = 0}^{N} \delta_{m,n} c_m = c_n = \frac{N!}{n! (N-n)!} w_1^n w_2^{(N-n)}

Conforme pedido no enunciado.

NOTA: observe que  \mathcal{W} é normalizado, por causa de nossa definição de  w_1 e  w_2 :

 \mathcal{W} = (w_1 + w_2)^N = \sum_{m = 0}^{N} \frac{N!}{m! (N - m)!} w_1^m w_2^{(N - m)} = \sum_{m = 0}^{N} \frac{N!}{m! (N - m)!} p^m (1 - p)^{(N - m)} = (p + (1-p))^N = 1^N = 1

Exercício 8

Dois bêbados começam a caminhar a partir da origem (uma caminhada unidimensional) aleatoriamente de maneira que cada um de seus passos seja simultâneo. Os passos de ambos os bêbados para a esquerda e para a direita possuem tamanhos igual e a probabilidade de ocorrer um passo à direita ou à esquerda é igual (ou seja,  p = q = 1/2 ). Encontre a probabilidade de que eles se reencontrem após  N passos.

Solução:

Vamos supor que o valor absoluto de cada passo seja  1 . A distribuição dos passos do primeiro bêbado é dada por (com o valor do passo à esquerda e a probabilidade de ocorrência à direita):

 x_{1j} = \begin{cases} +1; \, p_1 \\ -1; \, (1 - p_1) \end{cases}

A distribuição dos passos do segundo bêbado é dada por:

 x_{2j} = \begin{cases} +1; \, p_2 \\ -1; \, (1 - p_2) \end{cases}

A distância com relação à origem do bêbado 1:

 S_1 = \sum_{j = 1}^{N_1} x_{1j}

A distância com relação à origem do bêbado 2:

 S_2 = \sum_{j = 1}^{N_2} x_{2j}

Daí definimos a distância em relação ao bêbado 1:

 \Delta S = S_1 - S_2 = \sum_{j = 1}^{N_1} x_{1j} - \sum_{j = 1}^{N_2} x_{2j} = \sum_{j = 1}^{N_1} x_{1j} + \sum_{j = 1}^{N_2} \left( -x_{2j} \right)

Redefinindo  x_{2j} :

 \tilde{x}_{2j} = -x_{2j} = \begin{cases} +1; \, (1 - p_2) \\ -1; \, p_2 \end{cases}

Temos:

 \Delta S = S_1 - S_2 = \sum_{j = 1}^{N_1} x_{1j} + \sum_{j = 1}^{N_2} \tilde{x}_{2j}

O problema nos diz que as probabilidades dos dois bêbados darem passos à direita e à esquerda é igual (ou seja,  p_1 = p_2 ) e que  p_1 = p_2 = 1/2 . Logo:

 x_{1j} = \tilde{x}_{2j}

Assim a distância relativa fica:

 \Delta S = S_1 - S_2 = \sum_{j = 1}^{N_1 + N_2} x_{1j}

Agora vamos pensar no caso de um bêbado apenas. Quando se utiliza o deslocamento líquido do bêbado para expressar a probabilidade de possuir um determinado  m dados  N passos, temos o seguinte:

 P_N(m) = \frac{N!}{\displaystyle \left(\frac{N+m}{2}\right)! \left(\frac{N - m}{2}\right)!} p^{(N+m)/2} (1-p)^{(N-m)/2}

No nosso caso temos a mesma situação (exceto que ao invés de deslocamento líquido temos o deslocamento relativo de um bêbado com relação ao outro)! Logo:

 P(\Delta S) = \frac{(N_1 + N_2)!}{\displaystyle \left(\frac{\left(N_1 + N_2 + \Delta S \right)}{2}\right)! \left(\frac{\left(N_1 + N_2 - \Delta S \right)}{2}\right)!} p^{(N_1+N_2+\Delta S)/2} (1-p)^{(N_1+N_2-\Delta S)/2}

No caso de  N_1 = N_2 = N e  p = 1/2 , temos:

 P(\Delta S) = \frac{(2N)!}{\displaystyle \left(\frac{\left(2N + \Delta S \right)}{2}\right)! \left(\frac{\left(2N - \Delta S \right)}{2}\right)!} \left(\frac{1}{2}\right)^{2N}

Os bêbados só estarão juntos se  \Delta S = 0 , portanto:

 P(\Delta S = 0) = \frac{(2N)!}{(N!)^2} \left(\frac{1}{2}\right)^{2N}

Exercício 9

A probabilidade  W(n) de que um evento caracterizado pela probabilidade  p ocorra  n vezes em  N tentativas é dado pela distribuição binomial:

 W(n) = \frac{N!}{n!(N-n)!} p^n (1-p)^{N-n}

Considere a situação na qual a probabilidade  p é pequena  (p<<1) e na qual estamos interessados em casos nos quais  n << N .

(Note que se  N é grande,  W(n) torna-se muito pequeno no limite no qual  n \rightarrow N por causa da convergência veloz do termo  p^n quando  p<<1 .

Dessa forma  W(n) é apenas apreciável quando  n<<N .)

Várias aproximações podem ser feitas para se obter uma distribuição de probabilidades mais simples do que a binomial, nesse regime.

a) Usando a aproximação de Taylor em primeira ordem para  \ln{(1-p)} \approx -p , mostre que  (1-p)^{N-n} \approx e^{-Np}

b) Mostre que:

 \frac{N!}{(N-n)!} \approx N^n

c) Mostre, finalmente, que a distribuição binomial se torna a chamada distribuição de Poisson, utilizando as aproximações dadas no outros exercícios, no regime proposto anteriormente; sendo a distribuição de Poisson:

 W_{Poisson}(n) = \frac{(Np)^n e^{-Np}}{n!} = \frac{\lambda^n e^{-\lambda}}{n!}

sendo  \lambda \equiv Np o número médio de eventos.

Solução:

a) Sabemos que a expansão de Taylor de  \ln{(1-p)} = - p - p^2/2 - \cdots \approx -p , conforme afirma o enunciado. Assim, se  p <<1 e se  N >> n :

 \ln{(1-p)^{N-n}} = (N-n) \ln{(1-p)} \approx -(N-n)p \approx -Np \Rightarrow \ln{(1-p)^{N-n}} \approx -Np \Rightarrow (1-p)^{N-n} \approx e^{-Np}

b) Há duas maneiras de se chegar ao resultado desejado. Aviso, porém, que as aproximações que faremos são razoáveis, mas não são tão boas...

A maneira mais fácil é considerar o seguinte:

 \frac{N!}{(N-n)!} \equiv N \cdot (N-1) \cdot (\cdots) \cdot (N-(n-2)) \cdot (N-(n-1)) = \prod_{m=0}^{n-1} (N - m)

Como:

 N >> n > n-1 > n-2 > (\cdots) > 2 > 1 \Rightarrow N >> n-1; \, N >> n-2; \, (\cdots); \, N>>2; \, N>>1

 \Rightarrow N -(n-1) \approx N; \, N -(n-2) \approx N; \, (\cdots); \, N - 2 \approx N; \, N - 1 \approx N

Dessa forma, como os termos nos quais se realiza a aproximação são  n , temos:

 \frac{N!}{(N-n)!} \equiv \prod_{m=0}^{n-1} (N - m) \approx N^n

Uma outra maneira de se obter esse resultado é utilizando a aproximação de Stirling:

 \ln{(N!)} \approx N \ln{N} - N

Assim:

 \ln{ \left(\frac{N!}{(N-n)!} \right)} = \ln{(N!)} - \ln{(N-n)!} \approx N \ln{N} - N - ( (N - n) \ln{(N-n)} - (N - n) ) = N \ln{N} - N \ln{(N-n)} + n \ln{(N-n)} - n

Vou realizar mais duas aproximações. Na primeira vou utilizar o fato de que  N >> n \Rightarrow N - n \approx N , de forma a obter:

 \ln{ \left(\frac{N!}{(N-n)!} \right)} \approx N \ln{N} - N \ln{(N-n)} + n \ln{(N-n)} - n \approx N \ln{N} - N \ln{N} + n \ln{N} - n = n \ln{N} - n

Daí:

 \ln{ \left(\frac{N!}{(N-n)!} \right)} \approx n \ln{N} - n

Na segunda aproximação, vou ignorar  n frente a  n \ln{N} , já que  \ln{N} > 1 \Rightarrow n \ln{N} > n , para obter:

\ln{ \left(\frac{N!}{(N-n)!} \right)} \approx n \ln{N} \Rightarrow \frac{N!}{(N-n)!} \approx N^n

c) Assim, no limite no qual  p << 1 e  N>>n , usando os resultados enunciados nos itens anteriores:

 W(n) = \frac{N!}{n!(N-n)!} p^n (1-p)^{N-n} \approx \frac{N^n e^{-Np} p^n}{n!} = \frac{\lambda^n e^{-\lambda}}{n!}

Exercício 10

Considere a distribuição de Poisson:

 W(n) = \frac{\lambda^n e^{-\lambda}}{n!} , com  \lambda = N p

a) Mostre que a distribuição de Poisson é propriamente normalizada, ou seja:

\sum_{n=0}^{N} W(n) = \sum_{n=0}^{N} \frac{\lambda^n e^{-\lambda}}{n!} = 1

(OBSERVAÇÃO: Segundo o livro, \sum_{n=0}^{N} W(n) \approx \sum_{n=0}^{\infty} W(n), pois  W(n) é negligenciavelmente pequeno se  n \gg N )

b) Use a distribuição de Poisson para calcular  \langle n \rangle

c) Use a distribuição de Poisson para calcular  \left \langle \Delta n \right \rangle = \left \langle (n - \, \langle n \rangle)^2 \right \rangle

Solução:

a) Para começar o exercício, vamos esclarecer uma coisa: a distribuição de Poisson é obtida com  n podendo tomar quaisquer valor desde que  n \in \mathbb{N} . Em outras palavras,  n pode, eventualmente, tender ao infinito! Conceitualmente falando, isso parece não fazer sentido, pois o número de tentivas  N é finito sempre! Mas se  \lambda << N , os termos com  n da ordem de  N já são negligenciavelmente pequenos. Assim:

 \sum_{n=0}^{N} W(n) = \sum_{n=0}^{N} \frac{\lambda^n e^{-\lambda}}{n!} \approx \sum_{n=0}^{\infty} W(n), supondo que a condição  \lambda << N seja comprida.

Daí:

 \sum_{n=0}^{N} W(n) \approx \sum_{n=0}^{\infty} W(n) = \sum_{n=0}^{\infty} \frac{\lambda^n e^{-\lambda}}{n!} = e^{-\lambda} \sum_{n=0}^{\infty} \frac{\lambda^n }{n!}

Mas:  \sum_{n=0}^{\infty} \frac{\lambda^n }{n!} = e^{\lambda} , logo:

\sum_{n=0}^{\infty} W(n) = e^{-\lambda} \sum_{n=0}^{\infty} \frac{\lambda^n }{n!} = e^{-\lambda} e^{\lambda} = 1

Conforme o enunciado afirmava.

Note que não faz sentido utilizarmos a distribuição de Poisson em casos nos quais a condição  N >> \lambda não é satisfeita.

b) Sabemos que:

 \langle n \rangle = \sum_{n=0}^{N} n \, W(n) = \sum_{n=0}^{N} n \, \frac{\lambda^n e^{-\lambda}}{n!} = 0 \, + \sum_{n=1}^{N} n \frac{\lambda^n e^{-\lambda}}{n!} = \lambda e^{-\lambda} \sum_{n=1}^{N} n \frac{\lambda^{n-1}}{n!} = \lambda e^{-\lambda} \sum_{n=1}^{N} \frac{\lambda^{n-1}}{(n-1)!} = \lambda e^{-\lambda} \sum_{m=0}^{N-1} \frac{\lambda^{m}}{m!} \approx \lambda e^{-\lambda} \sum_{m=0}^{\infty} \frac{\lambda^{m}}{m!} = \lambda

Com  m = n-1 e  \sum_{m=0}^{\infty} \frac{\lambda^{m}}{m!} = e^{\lambda}

c) Da definição:

 \left \langle \Delta n \right \rangle = \left \langle (n - \, \langle n \rangle)^2 \right \rangle = \left \langle (n^2 - 2 \lambda \langle n \rangle + \langle n \rangle^2) \right \rangle = \langle n^2 \rangle - \lambda^2

Quanto a  \langle n^2 \rangle , se  m = n-1 e se  l = m-1 :

 \langle n^2 \rangle = \sum_{n=0}^{N} n^2 \, W(n) = \sum_{n=0}^{N} n^2 \, \frac{\lambda^n e^{-\lambda}}{n!} = 0 \, + \sum_{n=1}^{N} n^2 \frac{\lambda^n e^{-\lambda}}{n!} = \lambda e^{-\lambda} \sum_{n=1}^{N} n \frac{\lambda^{n-1}}{(n-1)!} = \lambda e^{-\lambda} \sum_{m=0}^{N-1} (m + 1) \, \frac{\lambda^{m}}{m!} = \lambda e^{-\lambda} \left [ \sum_{m=0}^{N-1} m \, \frac{\lambda^{m}}{m!} + \sum_{m=0}^{N-1} \frac{\lambda^{m}}{m!} \right ]

 \approx \lambda e^{-\lambda} \left [ 0 \, + \sum_{m=1}^{N-1} m \, \frac{\lambda^{m}}{m!} + \sum_{m=0}^{\infty} \frac{\lambda^{m}}{m!} \right ] = \lambda e^{-\lambda} \left [ \lambda \sum_{m=1}^{N-1} \frac{\lambda^{m - 1}}{(m - 1)!} + e^{\lambda} \right ] = \lambda e^{-\lambda} \left [ \lambda \sum_{l=0}^{N-2} \frac{\lambda^{l}}{l!} + e^{\lambda} \right ] \approx \lambda e^{-\lambda} \left [ \lambda \sum_{l=0}^{\infty} \frac{\lambda^{l}}{l!} + e^{\lambda} \right ] = \lambda e^{-\lambda} \left [ \lambda e^{\lambda} + e^{\lambda} \right ] = \lambda^2 + \lambda

Id est:

 \left \langle \Delta n \right \rangle = \left \langle (n - \, \langle n \rangle)^2 \right \rangle = \langle n^2 \rangle - \lambda^2 = \lambda^2 + \lambda - \lambda^2 = \lambda

Exercício 11

Assuma que um datilógrafo (afinal o livro é de 1965...) cometa erros de maneira aleatória, dados pela distribuição de Poisson. Suponha que um livro contenha 600 páginas e 600 erros tipográficos no total.

Qual será a probabilidade de que um livro que contém 600 erros tipográficos em 600 páginas, em uma determinada página, não contenha erros? E qual será a probabilidade de que contenha pelo menos 3 erros?

(Ou seja, suponha que  \lambda = N p = \frac{600}{600} = 1 , com  \lambda expressando o número médio de erros por página, num total de  N=600 erros, com probabilidade de ocorrer  p = \frac{1}{600} , que é o inverso do número total de páginas)

Use a distribuição de Poisson para calcular a probabilidade de que:

a) uma página não contenha erros tipográficos

b) uma página contenha pelo menos 3 erros tipográficos

Solução:

a) Propõe-se que  W(n) = \frac{e^{-\lambda} \lambda^n}{n!} seja a distribuição de probabilidade que fornece a probabilidade de se encontrar  n erros numa determinada página do livro.

Assim, a probabilidade de que determinada página desse livro não contenha erros é dada por:

 P_{(0 \, erros)} = W(n)|_{n=0} = W(0) = \frac{e^{-\lambda} \lambda^0}{0!} = e^{-\lambda}

Como  \lambda = 1 :

 P_{(0 \, erros)} = W(0) = e^{-1} \approx 0,37 = 37 \%.

b) A probabilidade de que uma página contenha pelo menos 3 erros é, para  \lambda = 1 , realizando a soma com auxílio de um software (como o Maple ou o Mathematica):

P_{ao\,menos\,3\,erros} = \sum_{n=3}^{600} \frac{e^{-1}}{n!} \approx \sum_{n=3}^{\infty} \frac{e^{-1}}{n!} \approx 0,0803 = 8,03 \%.

Do ponto de vista 'braçal', não é interessante utilizar o procedimento acima para calcular a probabilidade pedida. É mais interessante notar o seguinte:

 P_{ao\,menos\,3\,erros} = \sum_{n=3}^{600} \frac{e^{-1}}{n!} = \sum_{n=0}^{600} \frac{e^{-1}}{n!} \, - \, \sum_{n=0}^{2} \frac{e^{-1}}{n!} \approx \sum_{n=0}^{\infty} \frac{e^{-1}}{n!} \, - \, \sum_{n=0}^{2} \frac{e^{-1}}{n!} = 1 \, - \, \sum_{n=0}^{2} \frac{e^{-1}}{n!} = 1 \, - \, e^{-1} \left (\frac{1}{0!}+\frac{1}{1!}+\frac{1}{2!} \right )

= 1 \, - \, e^{-1} \left(\frac{2+2+1}{2} \right) = 1 - \frac{5}{2} e^{-1} \approx 0,0803 = 8,03 \%.

Exercício 12

Considere as partículas  \alpha emitidas por uma fonte radioativa durante um intervalo de tempo t. Podemos imaginar que esse intervalo de tempo possa ser dividido em vários intervalinhos de duração  \delta t . Como as partículas  \alpha são emitidas em tempos aleatórios, a probabilidade de uma desintegração radioativa ocorrer no intervalinho  \delta t é completamente independente de quaisquer desintegrações ocorridas nos outros tempos.

Além disso, imagine que  \delta t seja escolhido de forma que seja curto o suficiente para que a probabilidade de mais de uma desintegração ocorrer no tempo  \delta t seja insignificante.

Isso significa que existe uma probabilidade  p de que uma desintegração ocorra durante o intervalinho  \delta t (com  p << 1 , desde que  \delta t seja escolhido pequeno o suficiente), e que existe uma probabilidade  (1-p) de não ocorrer desintegração neste intervalo de tempo. Cada um dos intervalinhos  \delta t pode ser tomado como uma tentativa independente, havendo durante o tempo  t .

a) Mostre que a probabilidade  W(n) de que  n desintegrações ocorram no tempo  t é dada por uma distribuição de Poisson.

b) Suponha que uma fonte radiativa seja tão intensa que o número médio de decaimentos é tal que ocorrem em média 24 decaimentos por minuto. Qual é a probabilidade de obtermos  n contagens num intervalo de 10 segundos? Obtenha valores numéricos para todos valores inteiros de  n de 0 a 8.

Solução:

a) Conforme evidenciado pelo exercício 9, para que tenhamos uma distribuição de Poisson, basta que  p << 1 e que  n << N . Vamos mostrar que tais hipóteses estão corretas, o que implica que a distribuição de probabilidade pode ser aproximada por uma distribuição de Poisson.

A cada intervalinho  \delta t é possível que:

  • Ocorra a medida de um único decaimento (se o tempo do intervalinho  \delta t for adequadamente escolhido, é extremamente importante que não ocorra mais de um decaimento ao se detectar o decaimento), com probabilidade  p << 1 .
  • Não ocorra decaimento durante  \delta t , com probabilidade  (1-p) .

A probabilidade de ocorrerem  n decaimentos num tempo  t - com um número de 'tentativas'  N = t/\delta t - será:

 W_{N}(n) = \frac{N!}{n!(N-n)!} p^n (1-p)^{N-n} = P_{n \, decaimentos}

Um argumento qualitativo é que, como  p << 1 , para  n \rightarrow N ,  W_{N}(n) \rightarrow 0 , se  N>>1 , pois  p^n \rightarrow 0 muito mais rapidamente que, por exemplo,  (1-p)^n \rightarrow 0 , se  n \rightarrow N . Isso só significa que as situações que são estatisticamente mais relevantes são as que possuem poucos decaimentos - já que  (1-p)^n converge muito mais lentamente a 0 do que  p^n .

Dessa forma se justifica o fato de que esperamos que poucas das 'tentativas' resultem em decaimentos, ou seja, que  n << N .

Assim:

 W_{N}(n) = \frac{N!}{n!(N-n)!} p^n (1-p)^{N-n} \approx \frac{(Np)^n e^{-Np}}{n!} \equiv \frac{e^{- \lambda} \lambda^{n}}{n!} = P_{n \, decaimentos}

Com  \lambda \equiv Np significando um número médio de eventos (nesse caso, o número médio de decaimentos).

b) O problema nos dá a informação de que ocorrem 24 decaimentos em 60 segundos. Esse número nos informa a taxa de decaimentos por minuto - e é o número médio de eventos no tempo dado). Isso implica que 4 decaimentos ocorrem a cada 10 segundos. Assim:

 \lambda = N p = \frac{t}{\delta t} p , com  \lambda_{10s} = 4 e  t = 10s

 \delta t deve ser escolhido de forma tal que  p<<1

 \Rightarrow \lambda = 4 = N p = \frac{t}{\delta t} p = \frac{10 p}{\delta t} \Rightarrow \frac{4}{10} = \frac{p}{\delta t}

Para que  p = 0,01 << 1 \Rightarrow \delta t = \frac{1}{40}s

Note que a escolha de  \delta t depende da escolha de  p , ou seja, se você escolher outro valor que ainda cumpra o requisito  p << 1 , obterá outro valor de  \delta t , mas isso não alterará em nada as contas posteriores...

Como  p<<1 , é muito improvável que ocorra mais de um decaimento no intervalinho  \delta t .

Dessa forma, é possível construir a distribuição de Poisson ( p <<1 já faz com que - para eventos estatisticamente relevantes -  n << N ), assim:

 W(n) = \frac{e^{-4} 4^n}{n!}

Daí:

 W(0) = \frac{e^{-4} 4^0}{0!} = e^-4 \approx 0,0183 = 1,83 \%

 W(1) = \frac{e^{-4} 4^1}{1!} = 4 e^-4 \approx 0,0733 = 7,33 \%

 W(2) = \frac{e^{-4} 4^2}{2!} = 8 e^-4 \approx 0,1466 = 14,66 \%

 W(3) = \frac{e^{-4} 4^3}{3!} = \frac{32}{3} e^-4 \approx 0,1954 = 19,54 \%

 W(4) = \frac{e^{-4} 4^4}{4!} = \frac{32}{3} e^-4 \approx 0,1954 = 19,54 \%

 W(5) = \frac{e^{-4} 4^5}{5!} = \frac{128}{15} e^-4 \approx 0,1563 = 15,63 \%

 W(6) = \frac{e^{-4} 4^6}{6!} = \frac{256}{45} e^-4 \approx 0,1042 = 10,42 \%

 W(7) = \frac{e^{-4} 4^7}{7!} = \frac{512}{315} e^-4 \approx 0,0596 = 5,96 \%

 W(8) = \frac{e^{-4} 4^8}{8!} = \frac{256}{315} e^-4 \approx 0,0298 = 2,98 \%.

Exercício 13

Um metal é evaporado no vácuo a partir de um filamento quente. Os átomos resultantes da evaporação deste metal incidem numa placa de quartzo a uma certa distância do filamento, o que ocasiona a formação de uma filme metálico fino. A placa de quartzo é mantida a baixa temperatura, de forma tal que qualquer átomo metálico incidente nesta 'gruda' no local de impacto sem sofrer migração. Podemos assumir que os átomos do metal possuem a mesma chance de atingir quaisquer elementos de área da placa.

Se considerarmos um elemento de área do substrato de tamanho  b^2 (sendo  b o diâmetro do átomo do metal), mostre que o número de átomos de metal 'empilhados' nesta área deve se distribuir de acordo com uma distribuição de Poisson. Suponha que evapore-se metal suficiente para formar um filme de espessura média de 6 camadas atômicas.

Qual fração da área do substrato não está coberta por metal? Qual é a fração da área que é coberta, respectivamente, por 3 camadas atômicas e por 6 camadas atômicas?

Solução:

Para que ocorra  p << 1 , é necessário que a área da placa de quartzo ( A ) seja muito maior do que a área que um átomo ocupa (que é algo da ordem de  ~ b^2 ), pois nesse caso é improvável que o número de átomos emitidos que atingem a placa atinjam a mesma região várias vezes, possibilitando a utilização da distribuição de Poisson. Portanto, se:

 A \gg b^2 \Rightarrow p << 1 \Rightarrow n << N

sendo  n o número de átomos que atingem determinada região de área  ~ b^2 e  N o número total de átomos que atinge a placa.

Como foi informado no enunciado, o número médio de eventos  \lambda \equiv N p - que nesse caso é o número médio de 'camadas' atômicas - é de 6 camadas. Ou seja:

 \lambda = 6 \Rightarrow podemos construir a distribuição de Poisson que é dada por  W(n) = \frac{\lambda^n e^{-\lambda}}{n!}

Foto de um evaporador térmico real.

Logo:

 W(n) = \frac{6^n e^{-6}}{n!}

A fração de metal que não está coberta por nenhuma camada atômica é:

 W(0) = \frac{6^0 e^{-6}}{0!} = e^{-6} \approx 0,003 = 0,3 \%

A fração de metal coberta por 3 camadas atômicas é:

 W(3) = \frac{6^3 e^{-6}}{3!} = 36 \, e^{-6} \approx 0,089 = 8,9 \%

A fração de metal coberta por 6 camadas atômicas é:

 W(6) = \frac{6^6 e^{-6}}{6!} = \frac{7776}{120} \, e^{-6} \approx 0,161 = 16,1 \%.

Exercício 14

Qual é a probabilidade de se obter 215 caras em 400 lançamentos de moeda?

Uma moeda é jogada 400 vezes, num jogo de cara e coroa. Encontre a probabilidade de obter 215 caras.

(O livro sugere a utilização da aproximação gaussiana.)

Solução:

Esse problema é exatamente solúvel usando a distribuição binomial. Supondo que cara seja obtida com uma probabilidade  p e coroa seja obtida com uma probabilidade  (1-p) , temos que a probabilidade de obtermos 215 caras é de:

 P_{215 \, caras} = W_{400}(215) = \frac{400!}{215! 185!} p^{215} (1-p)^{185}

Como, para uma moeda 'honesta', vale  p = q = (1-p) = \frac{1}{2} , se utilizarmos um software para calcular a probabilidade, obteremos:

 P_{215 \, caras} = W_{400}(215) = \frac{400!}{215! 185!} \left (\frac{1}{2} \right)^{400} \approx 0,01296 = 1,296 \%.

Entretanto o livro sugere que façamos a aproximação gaussiana, que, como  N = 400 >> 1 deve ser uma boa aproximação. Essa condição é necessária pois, apenas quando esta se cumpre é possível estabelecer a validade local de algo que batizarei de 'condição para validade da aproximação para o contínuo' (em falta de termo mais conciso), que é dada por:

 \frac{\left| W_N (n+1) - W_N (n) \right|}{W_N (n)} << 1

Essa condição apenas significa que a diferença entre  W_N (n+1) e  W_N (n) é muito menor que  W_N (n) , possibilitando a aproximação para o contínuo - para uma determinada região.

Vamos supor que a condição acima seja satisfeita, e vamos proceder de forma a efetuar uma expansão em série de Taylor entorno do máximo de  \ln{W(n)} . Assim procedendo obtemos, sendo  c = N p o máximo de  W(n) :

 W_N (n) \approx W_N (c) \, e^{-|B_2| \eta^2/2} com  |B_2| = (Npq)^{-1}; \eta = n - c ; W_N(c) = \sqrt{\frac{|B_2|}{2 \pi}}

Assim:

 P_N (m) = W_N (n) \approx (2 \pi Npq)^{-1/2} \, e^{-(n - c)^2/(2 Npq)}} = (2 \pi Npq)^{-1/2} \, e^{-(m - N (p - q))^2/(8 Npq)}}

No nosso caso  m = 2n - N = 430 - 400 = 30 e  p = q = \frac{1}{2} , portanto:

 P_{400} (30) \approx \frac{e^{-9/8}}{10 \sqrt{2 \pi}} \approx 0,01295 = 1,295 \%.

Note que o resultado é bastante próximo do obtido utilizando o método 'exato'.

Exercício 15

Quantas linhas telefônicas são necessárias para ligar a cidade A à cidade B de forma que apenas 1% dos usuários falhem ao ter acesso imediato às linhas.

(OBSERVAÇÃO: Penso que este exercício foi um pouco mal redigido e está incompleto. Posteriormente, farei algumas observações do porquê penso assim.)

Um conjunto de linhas telefônicas será instalado entre a cidade A e a cidade B. A cidade A possui  2000 telefones. Se cada um dos usuários da cidade A tivesse acesso imediato a linha ao fazer ligações para a cidade B,  2000 linhas telefônicas teriam que ser instaladas. Isso seria um tanto quanto exagerado...

Suponha que durante a hora com mais ligações cada um dos usuários em A requeira, em média, uma linha por  2 minutos e que as ligações são feitas aleatoriamente.

Encontre o número mínimo  M de linhas telefônicas conectadas à cidade B que devem ser instaladas de forma tal que, no máximo, 1% dos usuários da cidade A falhem ao ter acesso imediato às linhas.

(O livro sugere utilizar a aproximação da distribuição gaussiana para facilitar as contas.)

Solução:

Vou assumir a situação mais simples possível - mesmo que isso não esteja exatamente explicitado no enunciado. É nessas hipóteses que o problema se torna trivial - mas não é trivial se dar conta disso...

Vamos supor que por 'pior hora' entendamos que as  2000 linhas foram utilizadas em uma hora. Como em média as ligações duram dois minutos, o número médio de chamadas será:

 \langle n \rangle = \frac{n\'umero \, de \, chamadas}{n\'umero \, de \, intervalos \, de \, 2 \, minutos \, em \, uma \, hora}

O numerador será, dessa forma,  2000 . O denominador é, claramente:

 \frac{tempo \, total}{tempo \, m\'edio \, de \, uma \, chamada} = \frac{60}{2} = 30

Supondo que a distribuição de probabilidade seja gaussiana (ou binomial):

 \langle n \rangle = \frac{2000}{30} = \frac{200}{3} = N p = \tilde{n} \approx 66,667

Supondo que  N = 2000 , temos que:

 p = \frac{1}{30} \Rightarrow q = \frac{29}{30}

Daí a probabilidade de ocorrerem  n chamadas num determinado intervalo de 2 minutos é (caso se suponha uma distribuição binomial):

 W_N (n) = \frac{N!}{n! (N-n)!} p^n q^{(N-n)}

Assim, como queremos que apenas  \approx 1 \% das chamadas não sejam respondidas:

 \cfrac{\displaystyle \sum_{n=0}^{M} W_N (n)}{\displaystyle \sum_{n=0}^{N} W_N (n)} = \cfrac{\displaystyle \sum_{n=0}^{M} W_N (n)}{1} = \sum_{n=0}^{M} W_N (n) \approx 0,99 = 99 \%

Apesar de ser possível chegar à conclusão de que  M = 85 (utilizando um método computacional, por exemplo), vamos seguir a sugestão do livro, que nos diz para aproximar a soma acima por uma integral, utilizando a distribuição gaussiana na aproximação para o contínuo. Assim:

 \sum_{n=0}^{M} W_N (n) \approx \int_{0}^{M} (2 \pi N p q)^{(-1/2)} e^{-(n - \tilde{n})^2 / 2 N p q} \mathrm{d}n \approx \int_{-\infty}^{M} (2 \pi N p q)^{(-1/2)} e^{-(n - \tilde{n})^2 / 2 N p q} \mathrm{d}n

Utilizando os valores númericos, temos:

 \sum_{0}^{M} \frac{2000!}{n!(2000-n)!} \frac{29^{(2000-n)}}{30^{2000}} \approx \int_{0}^{M} \sqrt{\frac{9}{1160 \pi}} e^{-9(n - 200/3)^2/1160 \pi} \mathrm{d}n = \int_{-\infty}^{M} \sqrt{\frac{9}{1160 \pi}} e^{-9(n - 200/3)^2/1160 \pi} \mathrm{d}n \approx 0,99

Aqui há vários métodos para calcular o valor de  M . Eu optei por simplesmente utilizar um método computacional - pois este é muito mais eficiente. Dessa forma obtêm-se que  M \approx 85 .

(Posteriormente colocarei a - trabalhozíssima - expansão assíntótica da integral gaussiana e calcularei 'no braço', apenas para mostrar quão vantajoso se mostra o método computacional)

Exercício 18

Uma molécula num gás se move em distâncias iguais a  l entre colisões com igual probabilidade para todas as direções, ou seja, a distribuição é uniforme na esfera de raio  l cujo centro é a posição da partícula imediatamente após a colisão.

Depois de  N deslocamentos, qual é o deslocamento quadrático médio  \overline{R^2} da molécula, com relação ao ponto de partida desta.

Solução:

Sabemos que se tratam de deslocamentos vetoriais aleatórios consecutivos. Assim:

 \vec{R} = \sum_{i = 1}^{N} \vec{r_i} ; como  |\vec{r_i}| = l \hat{r}_i:  \vec{R} = \sum_{i=1}^{N} l \hat{r}_i

Portanto:

 \vec{R} \cdot \vec{R} = R^2 = \left( \sum_{i = 1}^{N} \vec{r_i} \right) \cdot \left( \sum_{j = 1}^{N} \vec{r_j} \right) = l^2 \left( \sum_{i = 1}^{N} \hat{r}_i \right) \cdot \left( \sum_{j = 1}^{N} \hat{r}_j \right) = \left( \sum_{i = 1}^{N} \vec{r_i} \right)^2 = l^2 \left( \sum_{i = 1}^{N} \hat{r}_i \right)^2 = l^2 \left[ \sum_{i=1}^{N} (\hat{r}_i)^2 + \underset{(i \neq j)}{\sum_{i=1}^{N} \sum_{j=1}^{N}} (\hat{r}_i \cdot \hat{r}_j) \right]

Daí:

 \overline{\vec{R} \cdot \vec{R}} = \overline{R^2} = \overline{\left( \sum_{i = 1}^{N} \vec{r_i} \right)^2} = l^2 \left[ \sum_{i=1}^{N} \overline{(\hat{r}_i)^2} + \underset{(i \neq j)}{\sum_{i=1}^{N} \sum_{j=1}^{N}} \overline{(\hat{r}_i \cdot \hat{r}_j)} \right] = l^2 \left[ \sum_{i=1}^{N} 1 + \underset{(i \neq j)}{\sum_{i=1}^{N} \sum_{j=1}^{N}} \overline{cos(\theta_{ij})} \right] = l^2 \left[ N + \underset{(i \neq j)}{\sum_{i=1}^{N} \sum_{j=1}^{N}} \overline{cos(\theta_{ij})} \right]

Como  \overline{cos(\theta_{ij})} = 0 já que:

 \overline{cos(\theta_{ij})} = \overline{cos(\theta)} = \frac{\displaystyle \int_{0}^{2 \pi} cos(\theta) \mathrm{d} \theta}{\displaystyle \int_{0}^{2 \pi} \mathrm{d} \theta} = \frac{1}{2 \pi} \cdot 0 = 0

Portanto:

 \overline{R^2} = N l^2

Exercício 20

Considere  N antenas similares emitindo ondas eletromagnéticas linearmente polarizadas de comprimento de onda  \lambda e velocidade c. As antenas são localizadas ao longo do eixo  x com separação  \lambda entre cada uma delas. Um observador está localizado ao longo do eixo  x a uma grande distância das antenas. Quando uma única antena emite radiação, o observador mede uma intensidade  I , que é o mesmo que  \langle \vec{E}^2 \rangle , com  \vec{E} denotando o campo elétrico da onda eletromagnética.

a) Se todas as antenas emitem ondas (cuja freqüência  \nu = c/ \lambda ) em fase, qual é a intensidade medida pelo observador?

b) Se todas as antenas emitem ondas de mesma freqüência  ( \nu = c/ \lambda) , mas com fases aleatórias, qual será a intensidade média medida pelo observador?

(O livro sugere que se representem as amplitudes por vetores e que se deduza a intensidade observada a partir da amplitude resultante.)

Solução:

a) Sabemos que o campo elétrico geral para ondas emitidas de uma fonte com uma polarização num ângulo  \theta_i (medido com relação ao eixo y), é:

 \vec{E_i} = E_0 \, cos(\omega t) [sen(\theta_i) \hat{z} + cos(\theta_i) \hat{y}]

Suponha que a direção de propagação desta onda eletromagnética seja  \hat{x} .

Nesse caso, podemos pensar que as  N antenas emitindo ondas de igual freqüência, amplitude e fase, ao fim das diversas interferências construtivas resultam em:

 \vec{E_T} = \sum_{i = 1}^{N} \vec{E_i} = \vec{E} \sum_{i = 1}^{N} 1 = N \vec{E} \Rightarrow \vec{E_T} = N E_0 \, cos(\omega t) [sen(\theta) \hat{z} + cos(\theta) \hat{y}]

Definimos, apenas por uma questão de comodidade o vetor constante para todo  i ,  \vec{E_i} = \vec{E} , ou seja,  \vec{E} = \vec{E_0} \, cos(\omega t) [sen(\theta) \hat{z} + cos(\theta) \hat{y}] , sendo também constante  \theta_i = \theta .

Logo:

 (\vec{E_T} \cdot \vec{E_T}) = (\vec{E_T})^2 = E_T^2 = N^2 E_0^2 cos^2(\omega t)

O vetor de Pointing é dado, nesse caso, por:

 \vec{S} = c \epsilon_0 (\vec{E_T} \cdot \vec{E_T}) \hat{x}

Se denotarmos por  \langle \vec{S} \rangle_t a média temporal do vetor de Pointing (com  \langle E_T^2 \rangle_t representando a média temporal do campo elétrico ao quadrado), temos:

 \langle \vec{S} \rangle_t = c \epsilon_0 \langle (\vec{E_T})^2 \rangle_t \hat{x} \Rightarrow I_T = \langle \vec{S} \rangle_t \cdot \hat{x} = c \epsilon_0 \langle (\vec{E_T})^2 \rangle_t

Se  b_0 = \frac{c \epsilon_0}{2} , então:

 \langle (\vec{E_T})^2 \rangle_t = \frac{N^2 E_0^2}{2} \therefore I_T = \frac{c \epsilon_0}{2} N^2 E_0^2 = b_0 N^2 E_0^2

Para poder prosseguir, devemos calcular a a intensidade de emissão de uma antena:

 (\vec{E_i} \cdot \vec{E_i}) = (\vec{E_i})^2 = E_i^2 = E^2 = E_0^2 cos^2(\omega t) [sen^2(\theta) + cos^2(\theta)] = E_0^2 cos^2(\omega t) \Rightarrow \vec{S} = c \epsilon_0 (\vec{E_i} \cdot \vec{E_i}) \hat{x} \Rightarrow \langle \vec{S} \rangle_t = c \epsilon_0 \langle (\vec{E})^2 \rangle_t \hat{x}

Dessa forma:

 I = \langle \vec{S} \rangle_t \cdot \hat{x} = c \epsilon_0 \langle (\vec{E})^2 \rangle_t = \frac{c \epsilon_0}{2} E_0^2 = b_0 E_0^2

Daí:

 I_T = b_o N^2 E_0^2 = N^2 I

b) Novamente, as antenas emitem ondas de igual amplitude e freqüência, mas a fase é aleatória (e por aleatória entenda uniformemente distribuída no intervalo  [0, 2 \pi) ). Por conseguinte:

 \vec{E_i} = E_0 \, cos(\omega t + \varphi_i) [ sen(\theta) \hat{z} + cos(\theta) \hat{y} ]

Se denotarmos o campo elétrico total (após as interferências) por  \vec{E_{TA}} , e supondo que  N >>> 1 :

 \vec{E_{TA}} = \sum_{i = 1}^{N} \vec{E_i} \Rightarrow \overline{\vec{E_{TA}}} = E_0 [ sen(\theta) \hat{z} + cos(\theta) \hat{y} ] \sum_{i = 1}^{N} \overline{cos(\omega t + \varphi_i)} = E_0 [ sen(\theta) \hat{z} + cos(\theta) \hat{y} ] \sum_{i = 1}^{N} \left( \overline{cos(\omega t) \, cos(\varphi_i) - sen(\omega t) \, sen(\varphi_i)} \right)

= E_0 [ sen(\theta) \hat{z} + cos(\theta) \hat{y} ] cos(\omega t) \sum_{i = 1}^{N} \overline{cos(\varphi_i)} - E_0 [ sen(\theta) \hat{z} + cos(\theta) \hat{y} ] sen(\omega t) \sum_{i = 1}^{N} \overline{sen(\varphi_i)} = \vec{0}

Já que, se identificarmos  \varphi_i = \varphi por conveniência, vemos que:

 \overline{sen{\varphi}} = \cfrac{\displaystyle \int_{0}^{2 \pi} sen(\varphi) \mathrm{d} \varphi}{\displaystyle \int_{0}^{2 \pi} \mathrm{d} \varphi} = \frac{1}{2 \pi} \int_{0}^{2 \pi} sen(\varphi) \mathrm{d} \varphi = \frac{1}{2 \pi} \left( - cos(\varphi) \right) \Big |_{0}^{2 \pi} = \frac{1}{2 \pi} cos(\varphi) \Big |_{2 \pi}^{0} = \frac{1}{2 \pi} (1 - 1) = 0

E:

 \overline{cos{\varphi}} = \cfrac{\displaystyle \int_{0}^{2 \pi} cos(\varphi) \mathrm{d} \varphi}{\displaystyle \int_{0}^{2 \pi} \mathrm{d} \varphi} = \frac{1}{2 \pi} \int_{0}^{2 \pi} cos(\varphi) \mathrm{d} \varphi = \frac{1}{2 \pi} sen(\varphi) \Big |_{0}^{2 \pi} = \frac{1}{2 \pi} (0 - 0) = 0

Mas:

 \left( \vec{E}_{TA} \cdot \vec{E}_{TA} \right) = \left( \sum_{i = 1}^{N} \vec{E}_i \right)^2 = \sum_{i = 1}^{N} \vec{E_i}^2 + \underset{(i \neq j)}{\sum_{i=1}^{N} \sum_{j=1}^{N}} \vec{E}_i \cdot \vec{E}_j = E_0^2 [sen^2(\theta) + \cos^2(\theta)] \left\{\sum_{i = 1}^{N} cos^2(\omega t + \varphi_i) + \underset{(i \neq j)}{\sum_{i=1}^{N} \sum_{j=1}^{N}} cos(\omega t + \varphi_i) cos(\omega t + \varphi_j) \right\}

 = E_0^2 \left\{\sum_{i = 1}^{N} \left( cos(\omega t) cos(\varphi_i) - sen(\omega t) sen(\varphi_i) \right)^2 + \underset{(i \neq j)}{\sum_{i=1}^{N} \sum_{j=1}^{N}} \left( cos(\omega t) cos(\varphi_i) - sen(\omega t) sen(\varphi_i) \right) \left( cos(\omega t) cos(\varphi_j) - sen(\omega t) sen(\varphi_j) \right) \right\}
 = E_0^2 \left\{ \sum_{i = 1}^{N} \left( cos^2(\omega t) cos^2(\varphi_i) - 2 cos(\omega t) sen(\omega t) cos(\varphi_i) sen(\varphi_i) + sen^2(\omega t) sen^2(\varphi_i) \right)
 + \underset{(i \neq j)}{\sum_{i=1}^{N} \sum_{j=1}^{N}} \left( cos^2(\omega t) cos(\varphi_i) cos(\varphi_j) - cos(\omega t) cos(\varphi_i) sen(\omega t) sen(\varphi_j) - cos(\omega t) cos(\varphi_j) sen(\omega t) sen(\varphi_i) + sen^2(\omega t) sen(\varphi_i) sen(\varphi_j) \right) \Bigg \}

Logo a média será:

 \overline{\left( \vec{E}_{TA} \cdot \vec{E}_{TA} \right)} = \overline{\left( \sum_{i = 1}^{N} \vec{E}_i \right)^2} = \overline{\sum_{i = 1}^{N} \vec{E_i}^2} + \overline{\underset{(i \neq j)}{\sum_{i=1}^{N} \sum_{j=1}^{N}} \vec{E}_i \cdot \vec{E}_j} = \sum_{i = 1}^{N} \overline{\vec{E_i}^2} + \underset{(i \neq j)}{\sum_{i=1}^{N} \sum_{j=1}^{N}} \overline{\vec{E}_i \cdot \vec{E}_j} = \sum_{i = 1}^{N} \overline{\vec{E_i}^2} + \underset{(i \neq j)}{\sum_{i=1}^{N} \sum_{j=1}^{N}} \overline{\vec{E}_i} \cdot \overline{\vec{E}_j}

Já usei o fato de que todas as antenas são completamente descorrelacionadas, o que nos dá:

 \overline{\vec{E}_i \cdot \vec{E}_j} = \overline{\vec{E}_i} \cdot \overline{\vec{E}_j}

OBSERVAÇÃO: Nesse passo poderíamos lembrar que a média dos campos elétricos individuais é nula, o que nos daria:

 \overline{\vec{E}_i} = \overline{\vec{E}_j} = \vec{0}

dispensando o cálculo do segundo termo da média do quadrado do campo elétrico (mas essa conta é simples, então vou fazer mesmo assim...), que é - utilizando o fato de não haver correlação entre antenas distintas:

 E_0^2 \underset{(i \neq j)}{\sum_{i=1}^{N} \sum_{j=1}^{N}} \overline{\left( cos^2(\omega t) cos(\varphi_i) cos(\varphi_j) - cos(\omega t) cos(\varphi_i) sen(\omega t) sen(\varphi_j) - cos(\omega t) cos(\varphi_j) sen(\omega t) sen(\varphi_i) + sen^2(\omega t) sen(\varphi_i) sen(\varphi_j) \right)}

 = E_0^2 \underset{(i \neq j)}{\sum_{i=1}^{N} \sum_{j=1}^{N}} \left( cos^2(\omega t) \overline{cos(\varphi_i) cos(\varphi_j)} - cos(\omega t) sen(\omega t) \overline{cos(\varphi_i) sen(\varphi_j)} - cos(\omega t) sen(\omega t) \overline{cos(\varphi_j) sen(\varphi_i)} + sen^2(\omega t) \overline{sen(\varphi_i) sen(\varphi_j)} \right)
 = E_0^2 \underset{(i \neq j)}{\sum_{i=1}^{N} \sum_{j=1}^{N}} \left( cos^2(\omega t) \overline{cos(\varphi_i)} \; \overline{cos(\varphi_j)} - cos(\omega t) sen(\omega t) \overline{cos(\varphi_i)} \; \overline{sen(\varphi_j)} - cos(\omega t) sen(\omega t) \overline{cos(\varphi_j)} \; \overline{sen(\varphi_i)} + sen^2(\omega t) \overline{sen(\varphi_i)} \; \overline{sen(\varphi_j)} \right) = 0

Já que, como mencionado anteriormente,  \overline{sen(\varphi_i)} = \overline{sen(\varphi_j)} = \overline{cos(\varphi_i)} = \overline{cos(\varphi_j)} = 0 .

Logo:

 \overline{\left( \vec{E}_{TA} \cdot \vec{E}_{TA} \right)} = \overline{\left( \sum_{i = 1}^{N} \vec{E}_i \right)^2} = E_0^2 \sum_{i = 1}^{N} \left( cos^2(\omega t) \overline{cos^2(\varphi_i)} - 2 cos(\omega t) sen(\omega t) \overline{cos(\varphi_i) sen(\varphi_i)} + sen^2(\omega t) \overline{sen^2(\varphi_i)} \right)

 = E_0^2 \sum_{i = 1}^{N} \left( cos^2(\omega t) \overline{cos^2(\varphi_i)} - 2 cos(\omega t) sen(\omega t) \overline{cos(\varphi_i)} \; \overline{sen(\varphi_i)} + sen^2(\omega t) \overline{sen^2(\varphi_i)} \right) = E_0^2 \sum_{i = 1}^{N} \left( cos^2(\omega t) \overline{cos^2(\varphi_i)} + sen^2(\omega t) \overline{sen^2(\varphi_i)} \right)

Como:

 \overline{sen^2{\varphi}} = \cfrac{\displaystyle \int_{0}^{2 \pi} sen^2(\varphi) \mathrm{d} \varphi}{\displaystyle \int_{0}^{2 \pi} \mathrm{d} \varphi} = \cfrac{\displaystyle \int_{0}^{2 \pi} \frac{1 - cos(2\varphi)}{2} \mathrm{d} \varphi}{2 \pi} = \frac{1}{2}

E como:

 \overline{cos^2{\varphi}} = \cfrac{\displaystyle \int_{0}^{2 \pi} cos^2(\varphi) \mathrm{d} \varphi}{\displaystyle \int_{0}^{2 \pi} \mathrm{d} \varphi} = \cfrac{\displaystyle \int_{0}^{2 \pi} \frac{1 + cos(2\varphi)}{2} \mathrm{d} \varphi}{2 \pi} = \frac{1}{2}

Daí:

 \overline{\left( \vec{E}_{TA} \cdot \vec{E}_{TA} \right)} = \frac{E_0^2}{2} \sum_{i = 1}^{N} \left( cos^2(\omega t) + sen^2(\omega t)  \right) = \frac{N E_0^2}{2}

Logo:

 \langle \overline{(\vec{E}_{TA})^2} \rangle_t = \frac{N E_0^2}{2} \therefore I_{TA} = \frac{c \epsilon_0}{2} N E_0^2 = b_0 N E_0^2 = N I

Chegando, finalmente à resposta.

Exercício 22

Considere o problema da caminhada aleatória - supondo que os passos sejam todos estatisticamente independentes entre si - em uma dimensão, cuja probabilidade de um passo qualquer possuir um determinado deslocamento ficar entre  s e  s + \mathrm{d} s é:

Gaussiana em l.jpg

 w(s) \mathrm{d} s = (2 \pi \sigma^2)^{-1/2} e^{-(s-l)^2/2 \sigma^2} \mathrm{d} s

Após  N passos...

a) Qual é o deslocamento médio da origem?

b) Qual é a dispersão  \left \langle(x - \left \langle x \right \rangle)^2 \right \rangle  ?

Solução:

a) Se estabelecermos que  x denota a soma dos diversos passos realizados nessa caminhada aleatória, temos que, por definição:

 x = s_1 + s_2 + (\cdots) + s_n = \sum_{i=0}^{N} s_i

Daí, temos:

 \left \langle x \right \rangle = \left \langle (s_1 + s_2 + (\cdots) + s_n) \right \rangle = \left \langle \sum_{i=0}^{N} s_i \right \rangle = \left \langle s_1 \right \rangle + \left \langle s_2 \right \rangle + (\cdots) + \left \langle s_n \right \rangle = \sum_{i=0}^{N} \left \langle s_i \right \rangle = N \left \langle s_i \right \rangle

Como os passos são todos estatisticamente independentes entre si:

 \left \langle s_i \right \rangle \equiv \left \langle s \right \rangle \equiv \int_{-\infty}^{\infty} s \, w(s) \, \mathrm{d} s = \int_{-\infty}^{\infty} s \, (2 \pi \sigma^2)^{-1/2} \, e^{-(s-l)^2/2 \sigma^2} \mathrm{d} s

Com a substituição de variável:

 s - l = y \Rightarrow s = y - l \Rightarrow \mathrm{d} s = \mathrm{d} y

Temos, portanto:

 \left \langle s_i \right \rangle \equiv \left \langle s \right \rangle \equiv \int_{-\infty}^{\infty} s \, w(s) \, \mathrm{d} s = \int_{-\infty}^{\infty} (y + l) \, (2 \pi \sigma^2)^{-1/2} \, e^{-y^2/ 2 \sigma^2} \mathrm{d} y = \int_{-\infty}^{\infty} y \, (2 \pi \sigma^2)^{-1/2} \, e^{-y^2/ 2 \sigma^2} \mathrm{d} y \, + \int_{-\infty}^{\infty} \, l \, (2 \pi \sigma^2)^{-1/2} \, e^{-y^2/ 2 \sigma^2} \mathrm{d} y

Note que uma das integrais é uma integral de uma função ímpar (com relação a 0), integrada num intervalo simétrico com relação a 0. Portanto a primeira integral é nula, ou seja:

 \int_{-\infty}^{\infty} y \, (2 \pi \sigma^2)^{-1/2} \, e^{-y^2/ 2 \sigma^2} \mathrm{d} y = 0

Assim, conforme já explicitado num artigo do Nerdyard:

\left \langle s_i \right \rangle \equiv \left \langle s \right \rangle \equiv \int_{-\infty}^{\infty} s \, w(s) \, \mathrm{d} s = l \, (2 \pi \sigma^2)^{-1/2} \, \int_{-\infty}^{\infty} e^{-y^2/ 2 \sigma^2} \mathrm{d} y = l \, \frac{(2 \pi \sigma^2)^{1/2}}{(2 \pi \sigma^2)^{1/2}} = l

Dessa forma:

 \left \langle x \right \rangle = \sum_{i=0}^{N} \left \langle s \right \rangle = \sum_{i=0}^{N} \left \langle l \right \rangle = N \left \langle s \right \rangle = N l

b) A dispersão é, por definição (existem outras maneiras de se fazer esse mesmo cálculo):

 \left \langle(x - \left \langle x \right \rangle)^2 \right \rangle = \left \langle(x - N l)^2 \right \rangle = \left \langle(x^2 - 2 Nlx + N^2 l^2 \right \rangle = \left \langle x^2 \right \rangle - 2 Nl \left \langle x \right \rangle + N^2 l^2 = \left \langle x^2 \right \rangle - N^2 l^2

Assim, para achar a dispersão, basta calcular  \left \langle x^2 \right \rangle , portanto:

 \left \langle x^2 \right \rangle \equiv \left \langle \left(\sum_{i=0}^{N} s_i \right)^2 \right \rangle = \left \langle \sum_{i=0}^{N} s_i^2 + \sum_{i=0}^{N} \sum_{i \neq j; j=0}^{N} s_i s_j \right \rangle = \left \langle \sum_{i=0}^{N} s_i^2 \right \rangle + \left \langle \sum_{i=0}^{N} \sum_{i \neq j; j=0}^{N} s_i s_j \right \rangle = \sum_{i=0}^{N} \left \langle s_i^2 \right \rangle + \sum_{i=0}^{N} \sum_{i \neq j; j=0}^{N} \left \langle s_i s_j \right \rangle

Como passos diferentes são estatisticamente independentes:

 \left \langle s_i s_j \right \rangle = \left \langle s_i \right \rangle \left \langle s_j \right \rangle = l^2

Daí:

 \left \langle (x - \left \langle x \right \rangle)^2 \right \rangle = \left \langle x^2 \right \rangle - N^2 l^2 = \sum_{i=0}^{N} \left \langle s_i^2 \right \rangle + \sum_{i=0}^{N} \sum_{i \neq j; j=0}^{N} \left \langle s_i \right \rangle \left \langle s_j \right \rangle - N^2 l^2 = \sum_{i=0}^{N} \left \langle s_i^2 \right \rangle + N(N-1) l^2 - N^2 l^2 = \sum_{i=0}^{N} \left \langle s_i^2 \right \rangle - N l^2 = N \left \langle s_i^2 \right \rangle - N l^2 = N (\left \langle s_i^2 \right \rangle - l^2)

Com  \left \langle s_i^2 \right \rangle sendo, utilizando a mesma mudança de variável já utilizada:

\left \langle s_i^2 \right \rangle \equiv \left \langle s^2 \right \rangle \equiv \int_{-\infty}^{\infty} s^2 \, w(s) \, \mathrm{d} s = \int_{-\infty}^{\infty} (y + l)^2 \, (2 \pi \sigma^2)^{-1/2} \, e^{-y^2/ 2 \sigma^2} \mathrm{d} y = \int_{-\infty}^{\infty} (y^2 + 2 y l + l^2) \, (2 \pi \sigma^2)^{-1/2} \, e^{-y^2/ 2 \sigma^2} \mathrm{d} y

= \int_{-\infty}^{\infty} y^2 \, (2 \pi \sigma^2)^{-1/2} \, e^{-y^2/ 2 \sigma^2} \mathrm{d} y + \int_{-\infty}^{\infty} 2 y l \, (2 \pi \sigma^2)^{-1/2} \, e^{-y^2/ 2 \sigma^2} \mathrm{d} y + \int_{-\infty}^{\infty} l^2 \, (2 \pi \sigma^2)^{-1/2} \, e^{-y^2/ 2 \sigma^2} \mathrm{d} y

Como o segundo termo possui uma função ímpar no integrando, portanto:

 \int_{-\infty}^{\infty} 2 y l \, (2 \pi \sigma^2)^{-1/2} \, e^{-y^2/ 2 \sigma^2} \mathrm{d} y = 0

Dessa forma:

 \left \langle s_i^2 \right \rangle = \int_{-\infty}^{\infty} y^2 \, (2 \pi \sigma^2)^{-1/2} \, e^{-y^2/ 2 \sigma^2} \mathrm{d} y + \int_{-\infty}^{\infty} l^2 \, (2 \pi \sigma^2)^{-1/2} \, e^{-y^2/ 2 \sigma^2} \mathrm{d} y = \int_{-\infty}^{\infty} y^2 \, (2 \pi \sigma^2)^{-1/2} \, e^{-y^2/ 2 \sigma^2} \mathrm{d} y + l^2 \, \frac{(2 \pi \sigma^2)^{1/2}}{(2 \pi \sigma^2)^{1/2}}

= \int_{-\infty}^{\infty} y^2 \, (2 \pi \sigma^2)^{-1/2} \, e^{-y^2/ 2 \sigma^2} \mathrm{d} y + l^2

Conforme feito neste artigo do Nerdyard, temos que a primeira integral vale:

 2 (2 \pi \sigma^2)^{-1/2} I(2) = 2 (2 \pi \sigma^2)^{-1/2} \frac{2!}{2^3 1!} \sqrt{\frac{\pi}{\alpha^3}} \Big |_{\alpha = \frac{1}{2 \sigma^2}} = \sigma^2

Portanto:

 \left \langle s^2 \right \rangle = \sigma^2 + l^2

Após tudo isso, concluímos que:

 \left \langle(x - \left \langle x \right \rangle)^2 \right \rangle = N (\left \langle s_i^2 \right \rangle - l^2) = N (\left \langle s^2 \right \rangle - l^2) = N (\sigma^2 + l^2 - l^2) = N \sigma^2

Exercício 23

Gráfico de  w(s) , com  l > b > 0 .

Considere o problema da caminhada aleatória em uma dimensão. Suponha que em cada passo o deslocamento seja sempre positivo e igualmente distribuído no intervalo entre  l - b e  l+b , com  b<l , ou seja:

 W(s) = \begin{cases} 0, \, se \, s < l-b \, ou \, se \, s > l+b \\ 1/2b, \, se \, s \in [l-b,l+b] \end{cases}

Depois de  N passos, qual é...

a)... O deslocamento médio  \langle x \rangle

b)... A dispersão  \langle (x - \langle x \rangle)^2 \rangle .

Solução:

a) Como cada passo segue a distribuição  W(s) , ou seja, são independentes (estatisticamente):

 x = \sum_{i=0}^{N} s_i \Rightarrow \langle x \rangle = \left \langle \sum_{i=1}^{N} s_i \right \rangle = \sum_{i=1}^{N} \langle s_i \rangle = N \langle s_i \rangle \equiv N \langle s \rangle

Se definirmos:  \langle s_i \rangle \equiv \langle s \rangle

Daí:

 \langle s_i \rangle = \langle s \rangle = \int_{-\infty}^{\infty} s \, W(s) \, \mathrm{d}s = \int_{l-b}^{l+b} \frac{s}{2b} \, \mathrm{d}s = \frac{1}{2b} \int_{l-b}^{l+b} s \, \mathrm{d}s = \frac{s^2}{4b} \Big |_{l-b}^{l+b} = \frac{(l+b)^2 - (l-b)^2}{4b} = \frac{l^2 + 2lb + b^2 - (l^2 - 2lb + b^2)}{4b} = \frac{4lb}{4b} = l

Consequentemente:

 \langle x \rangle = N \langle s \rangle = N l

b) A dispersão é, por definição (há outros caminhos para realização desse cálculo):

 \langle (x - \langle x \rangle)^2 \rangle = \left \langle \left(\left(\sum_{i=1}^{N} s_i \right) - N l\right)^2 \right \rangle = \left \langle \left(\sum_{i=1}^{N} (s_i - l) \right)^2 \right \rangle = \left \langle \sum_{i=1}^{N} (s_i - l)^2 + \sum_{i=1}^{N} \sum_{i \neq j; j = 1}^{N} (s_i - l)(s_j - l) \right \rangle = \sum_{i=1}^{N} \langle (s_i - l)^2 \rangle + \sum_{i=1}^{N} \sum_{i \neq j; j = 1}^{N} \langle (s_i - l)(s_j - l) \rangle

Como os passos consecutivos são independentes:

 \langle (s_i - l)(s_j - l) \rangle = \langle (s_i - l) \rangle \langle(s_j - l) \rangle = (\langle s_i \rangle - l)(\langle s_j \rangle - l)

Mas  \langle s_i \rangle = \langle s_j \rangle \equiv \langle s \rangle = l \Rightarrow \langle s_i \rangle - l = \langle s_j \rangle - l = 0 \Rightarrow \langle (s_i - l)(s_j - l) \rangle = 0

Portanto:

 \langle (x - \langle x \rangle)^2 \rangle = \sum_{i=1}^{N} \langle (s_i - l)^2 \rangle + \sum_{i=1}^{N} \sum_{i \neq j; j = 1}^{N} \langle (s_i - l)(s_j - l) \rangle = \sum_{i=1}^{N} \langle (s_i - l)^2 \rangle = \sum_{i=1}^{N} \langle (s_i^2 - 2 l s_i + l^2) \rangle = \sum_{i=1}^{N} (\langle s_i^2 \rangle - \langle 2 l s_i \rangle + \langle l^2 \rangle) = \sum_{i=1}^{N} (\langle s_i^2 \rangle - l^2 ) = N \langle s^2 \rangle - N l^2

Com  \langle s_i^2 \rangle \equiv \langle s^2 \rangle =  \int_{-\infty}^{\infty} s^2 \, W(s) \, \mathrm{d}s = \int_{l-b}^{l+b} \frac{s^2}{2b} \, \mathrm{d}s = \frac{1}{2b} \int_{l-b}^{l+b} s^2 \, \mathrm{d}s = \frac{s^3}{6b}|_{l-b}^{l+b} = \frac{(l+b)^3 - (l-b)^3}{6b}

= \frac{l^3 + 3 b l^2 + 3 b^2 l + b^3 - (l^3 - 3 b l^2 + 3 b^2 l - b^3)}{6b} = \frac{6 b l^2 + 2 b^3}{6b} = l^2 + \frac{b^2}{3}

De forma tal que:

 \langle (x - \langle x \rangle)^2 \rangle = N \left(l^2 + \frac{b^2}{3} - l^2 \right) = \frac{Nb^2}{3}

Exercício 24

Dê as probabilidades para as situações abaixo:

O elemento de área em coordenadas polares.

a) A probabilidade de uma partícula ser encontrada em algum ponto duma circunferência de raio  l é uniformemente distribuída ao longo desta. Considere como eixo z qualquer reta no plano que passe pelo centro dessa circunferência. Denote por  \theta o ângulo (no sentido horário) entre o eixo z e a linha que conecta o centro do círculo à partícula. Qual é a probabilidade de que esse ângulo esteja entre  {\theta}' e  {\theta}' + \mathmr{d}{\theta}' ?

b) A probabilidade de uma partícula ser encontrada em algum ponto da superfície de uma esfera raio  R é uniformemente distribuída ao longo da superfície desta. Considere como eixo z qualquer reta que passe pelo centro dessa superfície esférica. Denote por  \theta o ângulo (no sentido horário) entre o eixo z e a linha que conecta o centro da esfera à partícula. Qual é a probabilidade de que esse ângulo esteja entre  {\theta}' e  {\theta}' + \mathmr{d}{\theta}' ?

Solução:

a) De acordo com as informações do enunciado, a partícula obedece uma distribuição uniforme para cada ângulo. Assim a distribuição deverá ser do tipo  D(\rho,\theta) = C \delta(\rho-l), com C sendo uma constante de normalização.

Se considerarmos o elemento infinitesimal das coordenadas polares, temos uma densidade de probabilidade dada por:

 D(\rho,\theta)\rho \, \mathrm{d}\rho \, \mathrm{d}\theta

Sabemos que:

 \int_{0}^{\infty} \int_{0}^{2\pi} D(\rho,\theta)\rho \, \mathrm{d}\rho \, \mathrm{d}\theta = 1 = \int_{0}^{\infty} \int_{0}^{2\pi} C \, \delta(\rho-l) \, \rho \, \mathrm{d}\rho \, \mathrm{d}\theta = \int_{0}^{2\pi} C \,l \, \mathrm{d}\theta = 2 \pi l C \rightarrow C = \frac{1}{2\pi l}

Portanto, a probabilidade de encontrar uma partícula entre  {\theta}' e  {\theta}' + \mathmr{d}{\theta}' será:

\int_{0}^{\infty} \int_{{\theta}'}^{{\theta}'+\mathrm{d}{\theta}'} \frac{\delta(\rho-l)}{2\pi l} \rho \, \mathrm{d}\rho \, \mathrm{d}\theta = \int_{{\theta}'}^{{\theta}'+\mathrm{d}{\theta}'} \frac{l}{2\pi l} \, \mathrm{d}\theta = \frac{1}{2\pi} \theta \Big |_{{\theta}'}^{{\theta}'+\mathrm{d}{\theta}'} = \frac{{\theta}'+\mathrm{d}{\theta}' - {\theta}'}{2 \pi} = \frac{\mathrm{d}{\theta}'}{2\pi}

Dessa forma:

 P({\theta}') \mathrm{d}{\theta}' =\frac{\mathrm{d}{\theta}'}{2\pi}

O elemento de volume em coordenadas esféricas.

b) De acordo com as informações do enunciado, a partícula obedece uma distribuição uniforme em toda superfície da esfera de raio R. Assim a distribuição deverá ser do tipo  D(r,\theta,\phi) = B \, \delta(r-R), com B sendo uma constante de normalização.

Se considerarmos o elemento infinitesimal das coordenadas esféricas, temos uma densidade de probabilidade dada por:

 D(r,\theta,\phi) \, r^2 \, \mathrm{d}r \, sen(\theta) \, \mathrm{d}\theta \, \mathrm{d}\phi

Sabemos que:

 \int_{0}^{\infty} \int_{0}^{\pi} \int_{0}^{2\pi} D(r,\theta,\phi) \, r^2 \, \mathrm{d}r \, sen(\theta) \, \mathrm{d}\theta \, \mathrm{d}\phi = 1 = \int_{0}^{\infty} \int_{0}^{\pi} \int_{0}^{2\pi} B \, \delta(r-R) \, r^2 \, \mathrm{d}r \, sen(\theta) \, \mathrm{d}\theta \, \mathrm{d}\phi = \int_{0}^{\pi} \int_{0}^{2\pi} B \, R^2 \, sen(\theta) \, \mathrm{d}\theta \, \mathrm{d}\phi

 = B \, 2 \pi R^2 \int_{0}^{\pi} \, sen(\theta) \, \mathrm{d}\theta = B \, 2 \pi R^2 \, \left(- cos(\theta)\right) \Big |_{0}^{\pi}  = 4\pi R^2 B \rightarrow B = \frac{1}{4\pi R^2}

Portanto, a probabilidade de encontrar uma partícula entre  {\theta}' e  {\theta}' + \mathmr{d}{\theta}' será:

 \int_{0}^{\infty} \int_{{\theta}'}^{{\theta}'+\mathrm{d}{\theta}'} \int_{0}^{2\pi} \frac{\delta(r-R)}{4\pi R^2} \, r^2 \, \mathrm{d}r \, sen(\theta) \, \mathrm{d}\theta \, \mathrm{d}\phi = \int_{{\theta}'}^{{\theta}'+\mathrm{d}{\theta}'} \frac{2 \pi R^2}{4\pi R^2} \, sen(\theta) \, \mathrm{d}\theta = \frac{1}{2} \int_{{\theta}'}^{{\theta}'+\mathrm{d}{\theta}'} sen(\theta) \, \mathrm{d}\theta = \frac{sen({\theta}')\mathrm{d}{\theta}'}{2}

Dessa forma:

 P({\theta}')\mathrm{d}{\theta}' = \frac{sen({\theta}') \, \mathrm{d}{\theta}'}{2}

OBSERVAÇÃO: Há duas maneiras pelas quais é possível calcular a integral:

 \int_{{\theta}'}^{{\theta}'+\mathrm{d}{\theta}'} sen(\theta) \, \mathrm{d}\theta

Maneira 1:

 \int_{{\theta}'}^{{\theta}'+\mathrm{d}{\theta}'} sen(\theta) \, \mathrm{d}\theta = (- cos(\theta)) \Big |_{{\theta}'}^{{\theta}'+\mathrm{d}{\theta}'} = cos(\theta) \Big |_{{\theta}'+\mathrm{d}{\theta}'}^{{\theta}'} = cos({\theta}') - cos({\theta}'+\mathrm{d}{\theta}') = cos({\theta}') - \left[ cos({\theta}') cos(\mathrm{d}{\theta}') - sen({\theta}') sen(\mathrm{d}{\theta}') \right]

 = cos({\theta}') - \left[ cos({\theta}') \left( 1 - \frac{\mathrm{d}{\theta}'^2}{2!} + \frac{\mathrm{d}{\theta}'^4}{4!} - (\cdots) \right) - sen({\theta}') \left( \mathrm{d}{\theta}' - \frac{\mathrm{d}{\theta}'^3}{3!} + (\cdots) \right) \right]
 = cos({\theta}') \left( \frac{\mathrm{d}{\theta}'^2}{2!} - \frac{\mathrm{d}{\theta}'^4}{4!} + (\cdots) \right) + sen({\theta}') \left( \mathrm{d}{\theta}' - \frac{\mathrm{d}{\theta}'^3}{3!} + (\cdots) \right) \approx sen({\theta}') \mathrm{d}{\theta}'

Se desprezarmos os termos de ordem superior a  \mathrm{d}{\theta}' .

Maneira 2: Essa maneira é mais simples, pois apenas se argumenta que, como  \mathrm{d}{\theta}' é infinitesimal, a variação de  \theta na integral é muito pequena, pois o intervalo de integração é infinitesimal. Se nossa função for contínua, podemos dizer que a integral no intervalo dado -  [{\theta}', {\theta}'+\mathrm{d}{\theta}'] - vale o valor da função num ponto do intervalo - por exemplo,  {\theta}' - vezes o intervalo (que é  \mathrm{d}{\theta}'} ), de forma que:

 \int_{{\theta}'}^{{\theta}'+\mathrm{d}{\theta}'} sen(\theta) \, \mathrm{d}\theta \approx sen({\theta}') \mathrm{d}{\theta}'

Exercício 25

Considere uma amostra policristalina de sulfato de cálcio dihidratado ( CaSO_4 \cdot 2 H_2O) num campo magnético externo  \vec{B} que aponta na direção  z . O campo magnético interno (na direção  z ) produzido por um próton vizinho na posição de um dado próton na molécula de água ( H_2O ) é dado por  (\mu (3 cos^2(\theta) - 1) / a^3) se o spin desse próton vizinho apontar na direção do campo aplicado; se o spin desse próton vizinho apontar na direção contrária a do campo aplicado, o campo magnético interno será dado por  -(\mu (3 cos^2(\theta) - 1) / a^3) . Aqui  \mu é o momento magnético do próton e  a é a distância entre dois prótons, enquanto que  \theta denota o ângulo entre a reta que une os prótons e o eixo  z . Nessa amostra de cristais randomicamente orientados, o próton vizinho possui um distribuição estatística uniforme na esfera de raio  a centrada num dado próton.

a) Qual é a probabilidade  W(b) \mathrm{d} b que o campo interno  b esteja no intervalo  [b, b + \mathrm{d}b] se o spin do próton vizinho se orientar paralelamente ao campo  \vec{B} ?

b) Qual é a probabilidade  W(b) \mathrm{d} b que o campo interno  b esteja no intervalo  [b, b + \mathrm{d}b] se o spin do próton vizinho se orientar paralelamente ou antiparalelamente ao campo  \vec{B} com mesma probabilidade? Desenhe um esboço de  W(b) como função de  b ?

(Num experimento de ressonância magnética nuclear a freqüência na qual a energia do campo magnético de radiofreqüência é absorvida é proprocional ao campo magnético local existente na posição do próton; a resposta do item b) dá, portanto, a forma da linha de absorção observada experimentalmente.)

Solução:

a) Conforme o looongo texto acima afirma, o próton vizinho pode ser encontrado em qualquer lugar de uma esfera de raio  a com igual probabilidade - já que os cristais se alinham de forma aleatória com relação à direção do campo magnético. Logo podemos utilizar o resultado do problema anterior, no qual:

 W(\theta) \mathrm{d} \theta = \frac{sen(\theta) \mathrm{d} \theta}{2}

Sendo que o ângulo  \theta \in [0, \pi] .

Sabemos que para o spin paralelo vale a seguinte relação (vide gráfico ao lado):

 b = \frac{\mu}{a^3} (3 cos^2(\theta) - 1)

Portanto  b \in [- \mu / a^3, 2 \mu / a^3] .

Logo é possível ver graficamente que um intervalo infinitesimal em  b corresponde a dois intervalos em  \theta , de forma que (realizando a troca de variáveis  \theta_1 \equiv \theta e  \theta_2 \equiv (\pi - \theta) ):

 |W(b) \mathrm{d} b| = |W(\theta_1) \mathrm{d} \theta_1| + |W(\theta_2) \mathrm{d} \theta_2| = 2 |W(\theta) \mathrm{d} \theta| = 2 W(\theta) \mathrm{d} \theta  \,\,\,\,\,\,\,\,\,\,\,             (1)

Os módulos são necessários, pois probabilidades não podem ser negativas!

(Se você não estiver convencido de que (1) é verdadeiro, vá para o ADENDO.)

Portanto, temos:

 |W(b) \mathrm{d} b| = 2 |W(\theta) \mathrm{d} \theta| = 2 W(\theta) \mathrm{d} \theta

Sendo que  W(\theta) \mathrm{d} \theta denota a probabilidade de encontrar uma partícula no intervalo  [\theta, \theta + \mathrm{d} \theta] na superfície de uma esfera de raio  a . Como temos a dependência de  b(\theta) , podemos encontrar  W(b) \mathrm{d} b , da seguinte forma:

 |W(b) \mathrm{d} b| = 2 \left| W(\theta(b)) \, \frac{\mathrm{d} \theta}{\mathrm{d} b} \, \mathrm{d} b \right| = 2 W(\theta(b)) \, \left| \frac{\mathrm{d} \theta}{\mathrm{d} b} \right| \, \mathrm{d} b

Como:

 b = \frac{\mu}{a^3} (3 cos^2(\theta) - 1) \Rightarrow cos(\theta) = \begin{cases} \sqrt{\frac{b a^3 + \mu}{3 \mu}}, \, se \, \theta \in [0,\pi / 2) \\ -\sqrt{\frac{b a^3 + \mu}{3 \mu}}, \, se \, \theta \in [\pi / 2, \pi] \end{cases} \Rightarrow |cos(\theta)| = \sqrt{\frac{b a^3 + \mu}{3 \mu}}

 b = \frac{\mu}{a^3} (3 cos^2(\theta) - 1) \Rightarrow \mathrm{d} b = -\frac{6 \mu}{a^3} cos(\theta) sen(\theta) \mathrm{d} \theta \Rightarrow \left| \frac{\mathrm{d} \theta}{\mathrm{d} b} \right| = \left|- \frac{a^3}{6 \mu \, cos(\theta) sen(\theta)} \right| = \frac{a^3}{6 \mu |cos(\theta)| |-sen(\theta)|}

 |-sen(\theta)| = |sen(\theta)| = sen(\theta) = \sqrt{1 - cos^2(\theta)} = \sqrt{1 - \frac{b a^3 + \mu}{3 \mu}} = \sqrt{\frac{2 \mu - b a^3}{3 \mu}} para  \theta \in [0, \pi]

Portanto:

 \left| \frac{\mathrm{d} \theta}{\mathrm{d} b} \right| = \frac{a^3}{6 \mu |cos(\theta)| |-sen(\theta)|} = \frac{a^3}{2 \sqrt{(b a^3 + \mu)(2 \mu - b a^3)}}

Como:

 W(\theta) = \frac{sen(\theta)}{2} = \frac{1}{2} \sqrt{\frac{2 \mu - b a^3}{3 \mu}}

Logo:

 |W(b) \mathrm{d} b| = 2 W(\theta(b)) \, \left| \frac{\mathrm{d} \theta}{\mathrm{d} b} \right| \, \mathrm{d} b = \sqrt{\frac{2 \mu - b a^3}{3 \mu}} \frac{a^3}{2 \sqrt{(b a^3 + \mu)(2 \mu - b a^3)}} \mathrm{d} b = \frac{a^3}{2 \sqrt{3 \mu}} \frac{\mathrm{d} b}{\sqrt{b a^3 + \mu}}

Finalmente, para  b \in [- \mu / a^3, 2 \mu / a^3] :

 |W(b) \mathrm{d} b| = \frac{a^3}{2 \sqrt{3 \mu}} \frac{\mathrm{d} b}{\sqrt{b a^3 + \mu}}

b) Sabemos que para o spin antiparalelo vale a seguinte relação (vide gráfico ao lado):

 b = - \frac{\mu}{a^3} (3 cos^2(\theta) - 1)

Portanto  b \in [- 2 \mu / a^3, \mu / a^3] .

Ainda vale o resultado:

 |W(b) \mathrm{d} b| = 2 W(\theta(b)) \, \left| \frac{\mathrm{d} \theta}{\mathrm{d} b} \right| \, \mathrm{d} b

Como:

 b = -\frac{\mu}{a^3} (3 cos^2(\theta) - 1) \Rightarrow cos(\theta) = \begin{cases} \sqrt{\frac{\mu - b a^3}{3 \mu}}, \, se \, \theta \in [0,\pi / 2) \\ -\sqrt{\frac{\mu - b a^3}{3 \mu}}, \, se \, \theta \in [\pi / 2, \pi] \end{cases} \Rightarrow |cos(\theta)| = \sqrt{\frac{\mu - b a^3}{3 \mu}}

 b = - \frac{\mu}{a^3} (3 cos^2(\theta) - 1) \Rightarrow \mathrm{d} b = \frac{6 \mu}{a^3} cos(\theta) sen(\theta) \mathrm{d} \theta \Rightarrow \left| \frac{\mathrm{d} \theta}{\mathrm{d} b} \right| = \left| \frac{a^3}{6 \mu \, cos(\theta) sen(\theta)} \right| = \frac{a^3}{6 \mu |cos(\theta)| |sen(\theta)|}

 |sen(\theta)| = sen(\theta) = \sqrt{1 - cos^2(\theta)} = \sqrt{1 - \frac{\mu - b a^3}{3 \mu}} = \sqrt{\frac{2 \mu + b a^3}{3 \mu}} para  \theta \in [0, \pi]

Portanto:

 \left| \frac{\mathrm{d} \theta}{\mathrm{d} b} \right| = \frac{a^3}{6 \mu |cos(\theta)| |sen(\theta)|} = \frac{a^3}{2 \sqrt{(\mu - b a^3)(2 \mu + b a^3)}}

Como:

 W(\theta) = \frac{sen(\theta)}{2} = \frac{1}{2} \sqrt{\frac{2 \mu + b a^3}{3 \mu}}

Logo:

 |W(b) \mathrm{d} b| = 2 W(\theta(b)) \, \left| \frac{\mathrm{d} \theta}{\mathrm{d} b} \right| \, \mathrm{d} b = \sqrt{\frac{2 \mu + b a^3}{3 \mu}} \frac{a^3}{2 \sqrt{(b a^3 + 2 \mu)(\mu - b a^3)}} \mathrm{d} b = \frac{a^3}{2 \sqrt{3 \mu}} \frac{\mathrm{d} b}{\sqrt{\mu - b a^3}}

Finalmente, para  b \in [- 2 \mu / a^3, \mu / a^3] :

 |W(b) \mathrm{d} b| = \frac{a^3}{2 \sqrt{3 \mu}} \frac{\mathrm{d} b}{\sqrt{\mu - b a^3}}

Como o enunciado afirma que a probabilidade de os spins serem paralelos é a mesma de eles serem antiparalelos ao campo, basta multiplicarmos as densidades de probabilidade por  1/2 e obtemos o seguinte:

 W(b) \mathrm{d} b = \begin{cases} \frac{a^3}{4 \sqrt{3 \mu}} \frac{\mathrm{d} b}{\sqrt{\mu - b a^3}}, \, se \, b \in [- 2 \mu / a^3, - \mu / a^3] \\ \frac{a^3 \mathrm{d} b}{4 \sqrt{3 \mu}} \left( \frac{1}{\sqrt{b a^3 + \mu}} + \frac{1}{\sqrt{\mu - b a^3}} \right), \, se \, b \in [- \mu / a^3, \mu / a^3] \\ \frac{a^3}{4 \sqrt{3 \mu}} \frac{\mathrm{d} b}{\sqrt{b a^3 + \mu}}, \, se \, b \in [ \mu / a^3, 2 \mu / a^3] \end{cases}

ADENDO

Se realizarmos a troca de variável  \theta_1 \equiv \theta , vemos graficamente que  \theta_2 \equiv (\pi - \theta) . Dessa forma:

 |W(b) \mathrm{d} b| = |W(\theta) \mathrm{d} \theta| + |W(\pi - \theta) \mathrm{d} (\pi - \theta)| = |W(\theta) \mathrm{d} \theta| + |- W(\pi - \theta) \mathrm{d} (\theta)|

Como  \theta \in [0,\pi] \Rightarrow W(\theta) = \frac{sen(\theta)}{2} > 0 e como:

 W(\pi - \theta) = \frac{sen(\pi - \theta)}{2} = \frac{1}{2} \left( sen(\pi) cos(\theta) - sen(\theta) cos(\pi) \right) = \frac{sen(\theta)}{2}

Logo:

 |W(b) \mathrm{d} b| = W(\theta) \mathrm{d} \theta + |W(\pi - \theta) \mathrm{d} (\pi - \theta)| = W(\theta) \mathrm{d} \theta + |- W(\pi - \theta) \mathrm{d} (\theta)| = W(\theta) \mathrm{d} \theta + |- W(\theta) \mathrm{d} (\theta)| = 2 W(\theta) \mathrm{d} \theta

OBSERVAÇÃO 1: Podemos chegar à conclusão acima sem necessidade de fazer gráficos se notarmos que  b(\theta) = \alpha (3 cos^2(\theta) - 1) = b(\pi - \theta) , pois:

 (3 cos^2(\pi -\theta) - 1) = \left( 3 \left[ cos(\pi) cos(\theta) + sen(\pi) sen(\theta) \right]^2 - 1 \right) = \left( 3 (-cos(\theta))^2 - 1 \right) = (3 cos^2(\theta) - 1)

OBSERVAÇÃO 2: Poder-se-ia simplesmente argumentar - evitando os cálculos - que, devido à simetria de  b com relação a  \pi / 2 , teríamos:

 |W(b) \mathrm{d} b| = 2 |W(\theta) \mathrm{d} \theta|

Capítulo 2

Exercício 1

Ilustração do potencial tipo poço infinito entre  0 e  L .

Uma partícula de massa  m é livre para mover-se em uma dimensão. Denote a coordenada da posição por  x e o momento linear por  p . Suponha que a partícula esteja confinada numa caixa (ou poço de potencial) de forma a estar sempre localizada entre  x = 0 e  x = L , e suponha que a sua energia esteja entre  E e  E + \delta E . Desenhe o espaço de fase clássico dessa partícula, indicando as regiões do espaço que são acessíveis a esta partícula.

Solução:

Para uma partícula clássica livre, o hamiltoniano do sistema será:

 H = \frac{m \dot{x}^2}{2} + V(x) = \frac{p^2}{2 m} + V(x)

Neste problema o potencial é do tipo caixa entre  0 e  L , ou seja:

 V(x) = \begin{cases} \infty, \, se \, x \leq 0 \, ou \, se \, x \geq L  \\ 0, \, se \, 0 < x < L \end{cases}

Uma ilustração do referido potencial é dada ao lado.

Efetivamente a única coisa que esse potencial realmente faz é informar que as regiões antes de  0 e depois de  L são inacessíveis (aliás, essa afirmação é verdadeira para o caso quântico, também). Dessa forma, apenas o intervalo no qual o potencial é nulo conterá partículas, portanto, no intervalo que vai de  0 até  L , o hamiltoniano será:

 H = \frac{p^2}{2 m}

Como, nesse caso, o hamiltoniano é o mesmo que a energia:

 H \in [E, E + \delta E]

 \frac{p^2}{2 m} = E \Rightarrow p = \pm \sqrt{2 m E}

Logo  p \in [\sqrt{2 m E}, \sqrt{2 m (E + \delta E)}] \cup [- \sqrt{2 m E}, - \sqrt{2 m (E + \delta E)}] .

Assim, o espaço de fase acessível à partícula é denotado pela área cinza no desenho abaixo:

A área cinza é a área do espaço de fase acessível à particula clássica cuja energia esteja entre  E e  E + \delta E , num poço de potencial entre os pontos  0 e  L .

Exercício 3

Considere um ensemble de osciladores harmônicos clássicos unidimensionais.

a) Seja  x o deslocamento de um oscilador em função do tempo  t dado por  x = A cos(\omega t + \varphi) . Assuma que o ângulo  \varphi possa assumir qualquer valor no intervalo  [0, 2 \pi] com mesma probabilidade. A probabilidade  w(\varphi) \mathrm{d} \varphi de que  \varphi esteja no intervalo  [\varphi, \varphi + \mathrm{d} \varphi] é simplesmente  w(\varphi) \mathrm{d} \varphi = (2 \pi)^{-1} \mathrm{d} \varphi . Para um tempo fixo qualquer  t , ache a probabilidade  P(x) \mathrm{d} x de que  x esteja no intervalo  [x, x + \mathrm{d} x] , somando todos  w(\varphi) \mathrm{d} \varphi sobre todos os ângulos  \varphi para os quais  x está nesse intervalo. Expresse  P(x) em termos de  A e  x .

b) Considere o espaço de fase clássico para tal ensemble de osciladores e que se sabe que sua energia está no intervalo  [E , E + \mathrm{d} E] . Calcule  P(x) \mathrm{d} x utilizando a razão entre o 'volume' do espaço de fase que está simultaneamente no intervalo  [E , E + \mathrm{d} E] e no intervalo  [x , x + \mathrm{d} x] e o 'volume' total do espaço de fase que se encontra entre  [E , E + \mathrm{d} E] . Expresse  P(x) em termos de  E e  x . Relacionando  E e  A , mostre que o resultado é o mesmo que o obtido no item anterior.

Solução:

a)  x(\varphi) = A cos(\omega t + \varphi) , para  t e  A fixos, ou, graficamente:

A partir do gráfico acima vemos que:

 P(x) \mathrm{d} x = 2 \omega(\varphi) \mathrm{d} \varphi ; \, \omega(\varphi) = (2 \pi)^{-1} \Rightarrow P(x) \mathrm{d} x = 2 \omega(\varphi(x)) \left| \frac{\mathrm{d} \varphi}{\mathrm{d} x} \right| \mathrm{d} x ; com  \varphi = arccos(x/A) - \omega t

Sendo o módulo justificado pelo fato de que probabilidades são sempre positivas.

Sabemos que:

 \left| \frac{\mathrm{d} \varphi}{\mathrm{d} x} \right| = \left| \frac{\mathrm{d}}{\mathrm{d} x} (arccos(x/A) - \omega t) \right| = \left| \frac{\mathrm{d}}{\mathrm{d} x} (arccos(x/A)) \right| = \left| - \frac{(1 - (x/A)^{2})^{-1/2}}{A} \right| = \frac{1}{A \sqrt{(1 - (x/A)^{2})}}

NOTA: Isso ocorre porque, se  \xi = arccos(\theta) \Rightarrow cos(\xi) = \theta, \, \theta \in [0, \pi] , logo:

 \Rightarrow \frac{\mathrm{d} (cos(\xi(\theta)))}{\mathrm{d} \theta} = \frac{\mathrm{d} \theta}{\mathrm{d} \theta} = 1 = - sen(\xi(\theta)) \frac{\mathrm{d} \xi(\theta)}{\mathrm{d} \theta} = - \sqrt{1 - cos^2(\xi(\theta))} \frac{\mathrm{d} \xi(\theta)}{\mathrm{d} \theta} \Rightarrow \frac{\mathrm{d} \xi(\theta)}{\mathrm{d} \theta} = -\frac{1}{\sqrt{1 - cos^2(\xi(\theta))}} = - \frac{1}{\sqrt{(1 - \theta^2)}} \Rightarrow \left|\frac{\mathrm{d} \xi(\theta)}{\mathrm{d} \theta} \right| = \frac{1}{\sqrt{(1 - \theta^2)}}

se  \theta \in [\pi, 2 \pi] ; \, \xi = 2\pi - arccos(\theta) \Rightarrow cos(2 \pi - \xi) = \theta = cos(\xi) , logo, pelo mesmo raciocínio:

 \frac{\mathrm{d} \xi(\theta)}{\mathrm{d} \theta} = -\frac{1}{\sqrt{1 - cos^2(\xi(\theta))}} = - \frac{1}{\sqrt{(1 - \theta^2)}} \Rightarrow \left|\frac{\mathrm{d} \xi(\theta)}{\mathrm{d} \theta} \right| = \frac{1}{\sqrt{(1 - \theta^2)}}

Logo para  \theta \in [0, 2 \pi] :

 \left|\frac{\mathrm{d} \xi(\theta)}{\mathrm{d} \theta} \right| = \frac{1}{\sqrt{(1 - \theta^2)}}

Continuando... Como:

 \omega(\varphi) = \omega(\varphi(x)) = (2 \pi)^{-1}

 \Rightarrow P(x) \mathrm{d} x = 2 \omega(\varphi(x)) \left| \frac{\mathrm{d} \varphi}{\mathrm{d} x} \right| \mathrm{d} x \Rightarrow P(x) = 2 \omega(\varphi(x)) \left| \frac{\mathrm{d} \varphi}{\mathrm{d} x} \right| \Rightarrow P(x) = (A \pi \sqrt{1 - (x/A)^2} )^{-1}

Espaço de fase de um oscilador harmônico. As áreas infinitesimais estão em cinza claro. A área do espaço de fase entre  E e  E + \delta E , que é  \mathcal{A}' , está indicada na figura, assim como os parâmetros da elipse.

b) Sabemos que:

 H = E = \frac{k x^2}{2} + \frac{p^2}{2m} ; \, x = A cos(\omega t + \varphi)

 \Rightarrow p = m \dot{x} = - m A \omega sen(\omega t + \varphi); \, \omega = \sqrt{\frac{k}{m}}

Logo:

 E = \frac{k}{2} A^2 cos^2(\omega t + \varphi) + \frac{m^2 A^2 \omega^2}{2m} sen^2(\omega t + \varphi) = \frac{k A^2}{2} (cos^2(\omega t + \varphi) + sen^2(\omega t + \varphi)) = \frac{k A^2}{2}

Como:

 E = \frac{k x^2}{2} + \frac{p^2}{2m} \Rightarrow \frac{x^2}{2 E/ k} + \frac{p^2}{2 m E} = 1

Que é a equação da elipse de semi-eixos - vide gráfico ao lado:

 a = \sqrt{\frac{2E}{k}}; \, b = \sqrt{2 m E}

A área de uma região entre  E e  E + \delta E será:

 \frac{2 \pi}{\omega} (E + \delta E - E) = \frac{2 \pi \delta E}{\omega} = \mathcal{A}'

Aproximando o elemento de área do espaço de fase pelo retângulo de área  \mathrm{d} x \mathrm{d} p , temos que a probabilidade de estar numa região entre  x e  x + \mathrm{d} x é dada por - o fator 2 se devendo ao fato de se tratarem de dois elementos de área que cumprem a condição de estar entre  x e  x + \mathrm{d} x :

 P(x) \mathrm{d} x = \frac{2 \mathrm{d} x \mathrm{d} p}{\mathcal{A}'} = \frac{2 \omega \mathrm{d} x \mathrm{d} p}{2 \pi \delta E} \Rightarrow P(x) = \frac{\omega}{\pi} \frac{\mathrm{d}p}{\delta E}

Como:

 p = \sqrt{2 m E - m k x^2} = \sqrt{mkA^2 - m k x^2} = A \sqrt{m k} \sqrt{1 - (x/A)^2} \Rightarrow \mathrm{d} p = \frac{1}{2} \frac{2m}{\sqrt{2 m E - m k x^2}} \delta E

 \Rightarrow \frac{\mathrm{d} p}{\delta E} = \frac{1}{\omega A \sqrt{1 - (x/A)^2}} \Rightarrow P(x) = \frac{\omega}{\pi} \frac{1}{\omega A \sqrt{1 - (x/A)^2}} = (A \pi \sqrt{1 - (x/A)^2})^{-1}

Coincidindo com o resultado obtido em b).

Exercício 4

Considere um sistema isolado consistindo de um grande número ( N ) de partículas de spin  1/2 - fixos em determinadas posições - que interagem fracamente. Cada partícula possui um momento magnético  \mu que pode apontar paralela ou antiparalelamente ao campo aplicado  H . A energia do sistema é então:

 E = - (n_1 - n_2) \mu H

 n_1 é o número de spins alinhados paralelamente e  n_2 é o número de spins alinhados antiparalelamente.

a) Considere o intervalo de energia entre  E e  E + \delta E com  \delta E \ll E , mas \delta E \gg \mu H . Qual é o número total de estados  \Omega(E) no intervalo de energias dado.

b) Escreva a expressão para  \ln{\Omega(E)} como uma função de E. Simplifique essa expressão aplicando a fórmula de Stirling em sua forma mais simples:

 \ln{N!} = N \ln{N} - N

c) Assuma que a energia E nessa região na qual  \Omega(E) é apreciável, id est, que não está próxima dos valores extremos possíveis  (\pm N \mu H) que a energia pode assumir. Nesse caso, aplique uma aproximação gaussiana na parte a) para obter uma expressão simples para  \Omega(E) como função de E.

Solução:

a) Bem, sabemos que pela definição  \Omega(E) é o número de estados com energia entre  E e  E + \delta E , nesse caso  E \gg \delta E \gg \mu H . Podemos aproximar  \Omega(\hat{E},\hat{E} \in [E,E+\delta E]) \equiv \Omega(\hat{E}) por  \Omega(\hat{E}=\breve{E}) , que vou definir como sendo o número de estados com energia exatamente igual a  \breve{E} multiplicados pelo intervalo energético  \frac{\delta E}{2 \mu H} , que é o número de intervalos da menor variação de energia que o sistema pode sofrer, já que:

 \hat{E} = - (n_1 - n_2) \mu H = - (2 n_1 - N) \mu H \Rightarrow \left |\Delta \hat{E} \right | = 2 \Delta n_1 \mu H \Rightarrow \left |\Delta \hat{E}_{min} \right | = 2 \delta (n_{1 \, min}) \mu H

Como  \delta (n_{1 \, min}) = 1 , temos:

 \left |\Delta \hat{E}_{min} \right | = 2 \delta (n_{1 \, min}) \mu H = 2 \mu H

Assim:

 \Omega(\hat{E}) \approx \frac{\partial \Omega(\hat{E})}{\partial \hat{E}} \delta \hat{E} \approx \frac{\Omega{(\breve{E})}}{\left |\Delta \hat{E}_{min} \right |} \delta \hat{E} = \frac{\Omega{(\breve{E})}}{2 \mu H} \delta \hat{E}

 \Omega(\breve{E}) = \Omega(n_1) = \frac{N!}{n_1! n_2!}

Daí:  n_1 = \left( \frac{N}{2} - \frac{\breve{E}}{2 \mu H} \right); n_2 = \left( \frac{N}{2} + \frac{\breve{E}}{2 \mu H} \right)

 \Omega(\breve{E}) = \Omega(n_1) = \frac{N!}{\left( \frac{N}{2} - \frac{\breve{E}}{2 \mu H} \right)! \left( \frac{N}{2} + \frac{\breve{E}}{2 \mu H} \right)!}

Daí:

 \Omega(\hat{E}) = \frac{\Omega(\breve{E})}{2 \mu H} \delta \hat{E} = \frac{N!}{\left( \frac{N}{2} - \frac{\breve{E}}{2 \mu H} \right)! \left( \frac{N}{2} + \frac{\breve{E}}{2 \mu H} \right)!} \frac{\delta \hat{E}}{2 \mu H}

b) Tomando o logarítmo e usando a fórmula de Stirling:

 \ln{\left(\Omega(\hat{E})\right)} = \ln{\left(\frac{N!}{\left( \frac{N}{2} - \frac{\breve{E}}{2 \mu H} \right)! \left( \frac{N}{2} + \frac{\breve{E}}{2 \mu H} \right)!} \frac{\delta \hat{E}}{2 \mu H} \right)} = \ln {\left(\frac{\delta E}{2 \mu H}\right)} + \ln{N!} - \ln{\left(\left(\frac{N}{2} + \frac{\breve{E}}{2 \mu H}\right)!\right)} - \ln{\left(\left(\frac{N}{2} - \frac{\breve{E}}{2 \mu H}\right)!\right)}

\approx \ln {\left(\frac{\delta E}{2 \mu H}\right)} + N \ln{N} - \frac{N}{2} \ln{\left(\left(\frac{N}{2}\right)^2- \left(\frac{\breve{E}}{2 \mu H}\right)^2\right)} + \frac{\breve{E}}{2 \mu H} \ln{\left(\frac{(\frac{N}{2}-\frac{\breve{E}}{2 \mu H})}{(\frac{N}{2}+\frac{\breve{E}}{2 \mu H})}\right)} \approx N \ln{N} - \frac{N}{2} \ln{\left(\left(\frac{N}{2}\right)^2- \left(\frac{\breve{E}}{2 \mu H}\right)^2\right)} + \frac{\breve{E}}{2 \mu H} \ln{\left(\frac{(\frac{N}{2}-\frac{\breve{E}}{2 \mu H})}{(\frac{N}{2}+\frac{\breve{E}}{2 \mu H})}\right)}

c) Podemos proceder de forma semelhante à utilizada na aproximação gaussiana para a distribuição binomial. Por uma questão de praticidade voltarei a trabalhar com a variável  n_1 . Dessa forma, sabemos que:

 \ln{ \left (\Omega(n_1) \right )} = \ln{ \left (\Omega(n_1) \right )}|_{\tilde{n}_1} + \eta \frac{\mathrm{d}}{\mathrm{d}n_1}\left(\ln{\Omega(n_1)}\right)|_{\tilde{n}_1} + \frac{\eta^2}{2!} \frac{\mathrm{d}^2}{\mathrm{d}n_1^2} \left(\ln{\Omega(n_1)}\right)|_{\tilde{n}_1} + (\cdots)

Com  \eta \equiv n_1 - \tilde{n}_1 , sendo  \tilde{n}_1 o ponto no qual  \Omega(n_1) é máximo. Abaixo há uma demonstração desse fato:

Primeiro devemos descobrir o valor de  \tilde{n}_1 . Para isso basta efetuar a derivada primeira em  \ln{\Omega(n_1)} e igualá-la a zero quando calculada em  \tilde{n}_1 (usando a aproximação de Stirling), de forma que obtemos:

 \frac{\mathrm{d}}{\mathrm{d}n_1} \left (\ln{\Omega(n_1)} \right )|_{\tilde{n}_1} \approx \frac{\mathrm{d}}{\mathrm{d}n_1} \left (\ln{\left( \frac{\delta \hat{E}}{2 \mu H} \right )} + N\ln{N} - N - n_1 \ln{n_1} + n_1 - N \ln{(N - n_1)} + n_1 \ln{(N - n_1)} + N - n_1 \right ) \right|_{n_1 = \tilde{n}_1} =

 \frac{\mathrm{d}}{\mathrm{d}n_1} \left (\ln{ \left( \frac{\delta \hat{E}}{2 \mu H} \right)} + N\ln{N} - n_1 \ln{n_1} - N \ln{(N - n_1)} + n_1 \ln{(N - n_1)} \right ) \right|_{n_1 = \tilde{n}_1} = \left(\frac{N}{N - n_1} - \frac{n_1}{N - n_1} - 1 + \ln{\left(\frac{N - n_1}{n_1}\right)}\right) \right|_{n_1 = \tilde{n}_1} = 0
\Rightarrow  \left (\frac{N - n_1}{n_1} \right ) \right |_{n_1 = \tilde{n}_1} = 1 \Rightarrow N - \tilde{n}_1 = \tilde{n}_1 \Rightarrow \tilde{n}_1 = \frac{N}{2}

Vamos analisar a derivada segunda, e definir o valor:

 - |B_2| \equiv \left[\frac{\mathrm{d}^2}{\mathrm{d}n_1^2} \left(\ln{\Omega(n_1)}\right)\right]|_{\tilde{n}_1} \approx \frac{\mathrm{d}}{\mathrm{d}n_1} \left(\frac{N}{N - n_1} - \frac{n_1}{N - n_1} - 1 + \ln{\left(\frac{N - n_1}{n_1}\right)}\right) \right|_{n_1 = \tilde{n}_1} = \frac{\mathrm{d}}{\mathrm{d}n_1} \ln{\left(\frac{N - n_1}{n_1}\right)} \right|_{n_1 = \tilde{n}_1} = - \left( \frac{N}{(N - n_1)n_1} \right) \right|_{n_1 = \tilde{n}_1} = -\frac{4}{N}

Como esperado, negativa, caracterizando um ponto de máximo.

Assim notamos que o máximo ocorre para:

 n_1 (\breve{E})|_{\breve{E} = 0} = \frac{N}{2}

Se voltarmos à nossa expansão de Taylor entorno do máximo, se ignorarmos termos de ordem superior a 2 e notarmos que a derivada primeira no ponto de máximo é nula, teremos:

 \ln{ \left (\Omega(n_1) \right )} = \ln{ \left (\Omega(n_1) \right )}|_{\tilde{n}_1} + \frac{\eta^2}{2!} \frac{\mathrm{d}^2}{\mathrm{d}n_1^2} \left(\ln{\Omega(n_1)}\right)|_{\tilde{n}_1} \Rightarrow \Omega(n_1) = \Omega(\tilde{n}_1) \, e^{-|B_2| \eta^2 / 2}

Com:

 \Omega(\tilde{n}_1) = \frac{\delta \hat{E}}{2 \mu H} \frac{N!}{((N/2)!)^2}

Daí:

\Omega(n_1) = \Omega(\hat{E}) \approx \frac{\delta \hat{E}}{2 \mu H} \frac{N!}{((N/2)!)^2} \, e^{-2(n_1 - N/2)^2 /N} = \frac{\delta \hat{E}}{2 \mu H} \frac{N!}{((N/2)!)^2} \, e^{-2(\breve{E}/2 \mu H)^2 /N} = \frac{\delta \hat{E}}{2 \mu H} \frac{N!}{((N/2)!)^2} \, e^{-\breve{E}^2/(2 N \mu^2 H^2)}

Exercício 7

Considere uma partícula confinada numa caixa com forma de cubo de lado  L = L_x = L_y = L_z . As possíveis energias dessa partícula são dadas por:

 E = \frac{\hbar^2 \pi^2}{2 m} \left(\frac{n_{x}^2}{L_{x}^2} + \frac{n_{y}^2}{L_{y}^2} + \frac{n_{z}^2}{L_{z}^2} \right) = \frac{\hbar^2 \pi^2}{2 m L^2} (n_{x}^2 + n_{y}^2 + n_{z}^2)

a) Suponha que a partícula está num estado especificado pelos inteiros  n_x ,  n_y e  n_z . Considerando como a energia desse estado deve alterar-se quando  L_x é variado quasi-estaticamente por um valor  \mathrm{d}L_x , mostre que aforça exercida pela partícula (nesse estado) na parede perpendicular ao eixo x é dada por:

 F_x = -\frac{\partial E}{\partial L_x}

b) Calcule explicitamente a força por unidade de área, ou seja, a pressão, na parede. Tomando a média sobre todos os estados possíveis, encontre a expressão para a pressão média nessa parede.

(O livro sugere que se explore a propriedade de que  \langle n_x \rangle = \langle n_y \rangle =\langle n_z \rangle , ou seja, use o fato de que as médias dos valores quadráticos devem ser iguais por simetria.)

Mostre que a pressão média pode ser expressa em termos da energia média da partícula,  \bar{E} , e do volume da caixa,  V = L_x L_y L_z .

Solução:

a) Sabe-se que numa interação termodinâmica geral vale:

 Q = W + \Delta \bar{E} \Rightarrow \delta Q = \delta W + \mathrm{d}\bar{E}

Sendo  W o trabalho realizado pelo sistema.

No caso de um sistema isolado num regime quasi-estático:

 \delta Q = 0 \Rightarrow \delta W = - \mathrm{d} \bar{E}

Em geral, para energia de um sistema de uma partícula num estado r , cujos parâmetros externos são  x_1 ,  x_2 ,  (\cdots) ,  x_N , temos:

 E_r = E_r (x_1,(\cdots), x_N) \Rightarrow \mathrm{d}E_r = \sum_{\alpha = 1}^{N} \frac{\partial E_r}{\partial x_{\alpha}} \matrm{d}x_{\alpha}

Assim, para o estado  r :

 \delta W_r = - \mathrm{d} E_r = - \sum_{\alpha = 1}^{N} \frac{\partial E_r}{\partial x_{\alpha}} \matrm{d}x_{\alpha} \equiv \sum_{\alpha = 1}^{N} X_{\alpha r} \matrm{d}x_{\alpha}

Com  - \frac{\partial E_r}{\partial x_{\alpha}} \equiv X_{\alpha r}

No nosso caso,  E_r = E_r(L_x, L_y, L_z)

 \delta W_r = - \frac{\partial E_r}{\partial L_x} \matrm{d}L_x - \frac{\partial E_r}{\partial L_y} \matrm{d}L_y - \frac{\partial E_r}{\partial L_z} \matrm{d}L_z

Mas, por definição:

 \delta W_r = F_x \matrm{d}L_x + F_y \matrm{d}L_y + F_z \matrm{d}L_z

 \Rightarrow F_x = - \frac{\partial E_r}{\partial L_x} \matrm{d}L_x

b) Sabemos que a pressão na parede da caixa será:

 \frac{F_x}{A} = \frac{F_x}{L_y L_z} = p = \frac{-1}{L_y L_z} \frac{\partial E_r}{\partial L_x} = \frac{\hbar^2 \pi^2}{m L_y L_z} \frac{n_x^2}{L_x^3} \Rightarrow \bar{p} = \frac{\hbar^2 \pi^2}{m L_y L_z} \frac{\langle n_x^2 \rangle}{L_x^3} = \frac{\langle F_x \rangle}{L_y L_z} = \frac{-1}{L_y L_z} \frac{\partial \langle E_r \rangle}{\partial L_x}

Com  \langle E_r \rangle = \frac{\hbar^2 \pi^2}{2 m} \left(\frac{\langle n_{x} \rangle^2}{L_{x}^2} + \frac{ \langle n_{y} \rangle^2}{L_{y}^2} + \frac{ \langle n_{z} \rangle^2}{L_{z}^2} \right)

Consideremos  L_x = L_y = L_z = L ;  \langle n_x^2 \rangle = \langle n_y^2 \rangle = \langle n_z^2 \rangle = \langle n^2 \rangle

Como  \langle E \rangle = \frac{3 \hbar^2 \pi^2 \langle n^2 \rangle}{2 m L^2} e  \bar{p} = \frac{\hbar^2 \pi^2 \langle n^2 \rangle}{m L^5} , se lembrarmos que  V = L_x L_y L_z = L^3 , temos:

 \bar{p} = \frac{\hbar^2 \pi^2 \langle n^2 \rangle}{m L^5} = \frac{2}{3} \frac{\langle E_r \rangle}{V} = \frac{2 \bar{E}}{3V}

Exercício 8

Diagrama do exercício 2.8.

Um sistema passa por um processo que aparece no diagrama ao lado - que trata-se de uma curva fechada, de pressão média ( P ) versus volume ( V ). Mostre que o trabalho feito pelo sistema é dado pela área interna à curva fechada.

(Nota: tal processo é dito cíclico, já que o sistema acaba num macroestado final idêntico ao macroestado inicial).

Solução:

Olhando o diagrama ao lado, vemos que, para ir de um macroestado  A = (P_1,V_1) até um macroestado  B = (P_2,V_2) pelo caminho  P_{I}(V) = \varphi_1(V) devemos realizar um trabalho:

 W_{AB}^{\varphi_1} = \underset{\varphi_1}{\int_{A}^{B}} \delta W = \int_{V_1}^{V_2} P_{I}(V) \mathrm{d}V = \int_{V_1}^{V_2} \varphi_1(V) \mathrm{d}V = \mathfrak{a}_{\varphi_1(V)}

Sendo  \mathfrak{a}_{\varphi_1(V)} a área sob a curva  \varphi_1(V) .

Analogamente, vemos que, para ir de um macroestado  B = (P_2,V_2) até um macroestado  A = (P_1,V_1) pelo caminho  P_{II}(V) = \varphi_2(V) devemos realizar um trabalho:

 W_{BA}^{\varphi_2} = \underset{\varphi_2}{\int_{A}^{B}} \delta W = \int_{V_2}^{V_1} P_{II}(V) \mathrm{d}V = \int_{V_2}^{V_1} \varphi_2(V) \mathrm{d}V = - \int_{V_1}^{V_2} \varphi_2(V) \mathrm{d}V = - \mathfrak{a}_{\varphi_2(V)}

Sendo  \mathfrak{a}_{\varphi_2(V)} a área sob a curva  \varphi_2(V) .

Portanto o trabalho realizado no ciclo será:

 W_{TOTAL} = W_{AB}^{\varphi_1} + W_{BA}^{\varphi_2} = \underset{\Gamma}{\oint} \delta W = \int_{V_1}^{V_2} \varphi_1(V) \mathrm{d}V + \left (- \int_{V_1}^{V_2} \varphi_2(V) \mathrm{d}V \right) = \int_{V_1}^{V_2} \varphi_1(V) \mathrm{d}V - \int_{V_1}^{V_2} \varphi_2(V) \mathrm{d}V = \mathfrak{a}_{\varphi_1(V)} - \mathfrak{a}_{\varphi_2(V)} = \mathfrak{a}_{interior}

Exercício 10

A pressão média,  \bar{p} , de uma certa quantia de gás termicamente isolado varia com o volume  V , de acordo com a relação:

 \bar{p} V^{\gamma} = k

com  \gamma e  k constantes.

Encontre o trabalho realizado pelo gás num processo quasi-estático que vai do macroestado caracterizado por  (\bar{p_i}, V_i) , até o macroestado  (\bar{p_f}, V_f) . Expresse seu resultado em termos de  \bar{p_i} ,  V_i , \bar{p_f} ,  V_f e  \gamma .

Solução:

Como o gás está termicamente isolado, não pode trocar calor com o ambiente, portanto, a partir da relação:

 \delta Q = \delta W + \mathrm{d}U

Obtemos a primeira lei da termodinâmica, já que em um processo adiabático  \delta Q = 0 , logo:

 - \delta W = \mathrm{d}U = - \bar{p} \mathrm{d} V

Como:

 \bar{p} V^{\gamma} = k \Rightarrow \bar{p}(V) = \frac{k}{V^{\gamma}} \Rightarrow k = \bar{p_i} V_i^{\gamma} = \bar{p_f} V_f^{\gamma}

Assim, definindo por ponto  A = (\bar{p_i}, V_i) e por ponto  B = (\bar{p_f}, V_f) , temos que  W_{AB} é:

 W_{AB} = \int_A^{B} \delta W = \int_{V_i}^{V_f} \frac{k}{V^{\gamma}} \mathrm{d}V = \begin{cases} k \frac{V^{1-\gamma}}{1-\gamma}|_{V_i}^{V_f} \, se \, \gamma \neq 1  \\ k \ln{V}|_{V_i}^{V_f}, \, se \, \gamma = 1 \end{cases}

Ou seja:

 W_{AB} = \begin{cases} \frac{k}{1-\gamma} (V_f^{1-\gamma} - V_i^{1-\gamma}) = (\frac{\bar{p_f} V_f - \bar{p_i} V_i }{1 - \gamma}), \, se \, \gamma \neq 1  \\ k \ln{\frac{V_f}{V_i}} = \frac{\bar{p_f} V_f + \bar{p_i} V_i}{2} \ln{\frac{V_f}{V_i}}, \, se \, \gamma = 1 \end{cases}

pois para  \gamma \neq 1 valem as relações:

 \bar{p_i} = \frac{k}{V_i^{\gamma}}; \, \bar{p_f} = \frac{k}{V_f^{\gamma}}

e para  \gamma = 1 valem as relações:

 k = \bar{p_i} V_i = \bar{p_f} V_f = \frac{\bar{p_f} V_f + \bar{p_i} V_i}{2}

Exercício 11

Gráfico dos caminhos termodinâmicos do exercício.

Num processo quasi-estático indo de  A \rightarrow B (conforme mostrado no diagrama), no qual não ocorre troca de calor com o ambiente, a pressão média  \bar{p} de uma certa quantia de gás obedece a seguinte relação funcional com o volume  V :

 \bar{p} = \alpha V^{-5/3}

Encontre o trabalho quasi-estático realizado e o calor médio absorvido em cada um dos processos apresentados (todos orientados indo no sentido  A \rightarrow B ; id est, todos levam o sistema do macroestado  A até o macroestado  B ).

Processo a: O sistema é expandido de seu volume original para seu volume final, com calor adicionado de forma a manter a pressão constante. O volume é então mantido constante e calor é extraído de forma a reduzir a pressão para a sua pressão final.

Processo b: O volume é aumentado com calor sendo fornecido de forma a fazer com que a pressão decresça linearmente com o volume.

Processo c: O processo adiabático mencionado no começo do exercício, que leva diretamente o sistema do macroestado  A até o macroestado  B .

Processo d: Os dois passos do processo a em ordem invertida.

Solução:

Vamos calcular primeiro o trabalho realizado para ir de  A \rightarrow B no processo adiabático, pois, neste caso:

\delta Q = \delta W + \mathrm{d}U como  \delta Q = 0 \rightarrow -\delta W = \mathrm{d}U = - \bar{p} \mathrm{d}V

Como  U - energia interna - é função de estado, só depende do estado inicial e final do sistema, realizaremos esse cálculo apenas para esse processo (pelo fato de  U ser função de estado, todos processos termodinâmicos que levam de  A \rightarrow B terão a mesma variação de energia interna).

Vou realizar os calculos de forma literal e, ao final colocarei o valor das constantes no que for obtido.

No processo c, como já dito (pois é o processo adiabático):

\delta Q = 0 \rigtharrow -\delta W = \mathrm{d}U = - \bar{p} \mathrm{d}V com  \bar{p} = \alpha V^{-\gamma}

 W_{AB}^c = \int_A^{B} \delta W = \int_{V_i}^{V_f} \frac{\alpha}{V^{\gamma}} \mathrm{d}V = \begin{cases} \displaystyle \alpha \frac{V^{1-\gamma}}{1-\gamma} \Bigg|_{V_i}^{V_f}, \, se \, \gamma \neq 1 \\ \\ \displaystyle \alpha \ln{V} \Bigg|_{V_i}^{V_f}, \, se \, \gamma = 1 \end{cases} = \begin{cases} \displaystyle \frac{\alpha}{1-\gamma} (V_f^{1-\gamma} - V_i^{1-\gamma}) = \left(\frac{\bar{p}_f V_f - \bar{p}_i V_i }{1 - \gamma}\right), \, se \, \gamma \neq 1 \\ \\ \displaystyle \alpha \ln{\left(\frac{V_f}{V_i}\right)} = \frac{\bar{p}_f V_f + \bar{p}_i V_i}{2} \ln{\left(\frac{V_f}{V_i}\right)}, \, se \, \gamma = 1 \end{cases}

=\int_A^{B} - \mathrm{d} U = - \Delta U_{AB}

Pois:

\begin{cases} \gamma \neq 1 \Rightarrow \bar{p}_i = \displaystyle \frac{\alpha}{V_i^{\gamma}}; \, \bar{p}_f = \frac{\alpha}{V_f^{\gamma}} \\ \displaystyle \gamma = 1 \Rightarrow \alpha = \bar{p}_i V_i = \bar{p}_f V_f = \frac{\bar{p}_f V_f + \bar{p}_i V_i}{2}

Logo, para todos processos, dependendo do valor de  \gamma :

 \Delta U_{AB} = \begin{cases} \displaystyle (\frac{\bar{p}_f V_f - \bar{p}_i V_i }{\gamma - 1}), \, se \, \gamma \neq 1  \\  \displaystyle \frac{\bar{p}_f V_f + \bar{p}_i V_i}{2} \ln{\left(\frac{V_i}{V_f}\right)}, \, se \, \gamma = 1 \end{cases}

Agora basta calcular o trabalho realizado nos outros processos.

No processo a, simbolizando o caminho pelo subscrito  a :

W_{AB}^a = \underset{a}{\int_A^{B}} \delta W = \int_{A}^{B'} \bar{p}_i \mathrm{d} V + \int_{B'}^{B}  \bar{p}(V) \mathrm{d} V

Note que como não há variação de volume na segunda integral, ela é nula, independentemente de qual seja a função  \bar{p}(V) . Dessa forma:

 W_{AB}^a = \underset{a}{\int_A^{B}} \delta W = \int_{A}^{B'} \bar{p}_i \mathrm{d} V = \bar{p}_i \int_{V_i}^{V_f} \mathrm{d} V = \bar{p}_i (V_f - V_i)

Que é exatamente a área do retângulo sob o segmento de reta  \overline{A B'} .

No processo b:  \bar{p}(V) = \eta V + \delta

Sendo  \eta a inclinação da reta, que é dada pela fração:

 \eta = \left( \frac{\bar{p}_f - \bar{p}_i}{V_f - V_i} \right)

Sabemos que:

 \bar{p}(V_i) = \bar{p}_i = \left( \frac{\bar{p}_f - \bar{p}_i}{V_f - V_i} \right) V_i + \delta \Rightarrow \delta = \bar{p}_i - \left( \frac{\bar{p}_f - \bar{p}_i}{V_f - V_i} \right) V_i

Dessa forma, temos:

 \bar{p}(V) = \left( \frac{\bar{p}_f - \bar{p}_i}{V_f - V_i} \right) V + \bar{p}_i - \left( \frac{\bar{p}_f - \bar{p}_i}{V_f - V_i} \right) V_i

Vamos manter  \eta e  \delta na notação, apenas para manter a notação concisa:

 W_{AB}^b = \underset{b}{\int_A^{B}} \delta W = \int_{V_i}^{V_f} \bar{p}(V) \mathrm{d} V = \int_{V_i}^{V_f} (\eta V + \delta) \mathrm{d} V = \left(\frac{\eta V^2}{2} + \delta V \right)|_{V_i}^{V_f} = \frac{\eta}{2} (V_f^2 - V_i^2) + \delta (V_f - V_i)

= \left( \frac{\bar{p}_f - \bar{p}_i}{2(V_f - V_i)} \right) (V_f^2 - V_i^2) + \left[\bar{p}_i - \left( \frac{\bar{p}_f - \bar{p}_i}{V_f - V_i} \right) V_i \right] (V_f - V_i) = \frac{\bar{p}_f V_f}{2} + \frac{\bar{p}_i V_f}{2} - \frac{\bar{p}_f V_i}{2} - \frac{\bar{p}_i V_i}{2}

(outra maneira de calcular essa integral é notando que ela equivale à área do trapézio sob a reta entre os pontos  (\bar{p}_i, V_i) e  (\bar{p}_f, V_f) )

No processo d:

W_{AB}^d = \underset{d}{\int_A^{B}} \delta W = \int_{A}^{A'}  \bar{p}(V) \mathrm{d} V + \int_{A'}^{B} \bar{p}_f \mathrm{d} V

Note que como não há variação de volume na primeira integral, ela é nula, independentemente de qual seja a função  \bar{p}(V) . Dessa forma:

 W_{AB}^d = \underset{d}{\int_A^{B}} \delta W = \int_{A'}^{B} \bar{p}_f \mathrm{d} V = \bar{p}_f \int_{V_i}^{V_f} \mathrm{d} V = \bar{p}_f (V_f - V_i)

Que é exatamente a área do retângulo sob o segmento de reta  \overline{A' B} .

Como já sabemos o trabalho para todos os processos e a energia interna é possível calcular o calor trocado para todos os processos. Sabemos que para uma processo qualquer que leva de um macroestado  A até um macroestado  B , vale:

 Q_{AB}^{x} = W_{AB}^{x} + \Delta U_{AB}

Lembrando que a energia interna é uma função de estado e não depende do processo x e que no nosso caso  \gamma = \frac{5}{3} \neq 1 .

Daí:

  • No processo a:  Q_{AB}^{a} = W_{AB}^{a} + \Delta U_{AB} = \bar{p}_i (V_f - V_i) + \frac{3}{2} (\bar{p}_f V_f - \bar{p}_i V_i) = \bar{p}_i V_f + \frac{3}{2} \bar{p}_f V_f - \frac{5}{2} \bar{p}_i V_i
  • No processo b:  Q_{AB}^{b} = W_{AB}^{b} + \Delta U_{AB} = \frac{1}{2} \bar{p}_f V_f + \frac{1}{2} \bar{p}_i V_f - \frac{1}{2} \bar{p}_f V_i - \frac{1}{2} \bar{p}_i V_i + \frac{3}{2} (\bar{p}_f V_f - \bar{p}_i V_i) = 2 \bar{p}_f V_f + \frac{1}{2} \bar{p}_i V_f - \frac{1}{2} \bar{p}_f V_i - 2 \bar{p}_i V_i
  • No processo c: Como é o processo adiabático,  Q_{AB}^{c} = 0
  • No processo d:  Q_{AB}^{d} = W_{AB}^{d} + \Delta U_{AB} = \bar{p}_f (V_f - V_i) + \frac{3}{2} (\bar{p}_f V_f - \bar{p}_i V_i) = \frac{5}{2} \bar{p}_f V_f - \bar{p}_f V_i - \frac{3}{2} \bar{p}_i V_i

Dessa forma se convertermos os valores utilizados no livro:

 \frac{1 \, dina}{1 \, cm^2} = \frac{10^{-5} \, N}{(10^{-2})^2 \, m^2} = 0,1 N/m^2

Podemos montar as representações gráficas dos caminhos pelos quais se realiza o trabalho, sendo:

 \bar{p}_i = 32 \cdot 10^5 \, N/m^2

 \bar{p}_f = 1 \cdot 10^5 \, N/m^2

 V_i = 1 \cdot 10^{-3} \, m^3

 V_f = 8 \cdot 10^{-3} \, m^3

Assim:

 \Delta U_{AB} = - 3600 J = - W_{AB}^{c}; \, Q_{AB}^{c} = 0 J

 W_{AB}^{a} = 22400 J \Rightarrow Q_{AB}^{a} = 18800 J

 W_{AB}^{b} = 11550 J \Rightarrow Q_{AB}^{b} = 7950 J

 W_{AB}^{d} = 700 J \Rightarrow Q_{AB}^{d} = - 2900 J

Capítulo 3

Exercício 1

Uma caixa possui uma partição que a dividide em uma proporção 3:1. A maior porção da caixa contém 1000 moléculas de gás neônio ( Ne ), enquanto que a menor porção da caixa possui 100 moléculas de gás hélio ( He ). É furado um pequeno buraco na partição de forma a permitir que os gases se misturem até que, eventualmente, atinja-se o equilíbrio.

a) Encontre o número médio de moléculas de cada tipo em cada um dos 'lados' da partição.

b) Qual é a probabilidade de se encontrar as 1000 moléculas de neônio na porção maior e as 100 moléculas de hélio na porção menor, ou seja, a mesma distribuição molecular inicial? Em outras palavras, qual é a probabilidade de se atingir a distribuição molecular inicial sem que algum agente externo atue na separação molecular?

Solução:

a) Após atingir-se o equilíbrio o gás se torna homogêneo, ou seja, as moléculas estão distribuídas de maneira uniforme no volume total da caixa. Dessa forma, o número de moléculas deve ser proporcional ao volume. Se denotarmos a densidade de moléculas de neônio por  d_{Ne} , a densidade de moléculas de hélio por  d_{He} , o volume da partição maior por  V_{maior} , o volume da partição menor por  V_{menor} , temos:

 V = V_{maior} + V_{menor}; \, V_{maior} = \frac{3 V}{4}; \, V_{menor} = \frac{V}{4}; \, d_{Ne} = \frac{N_{Ne}}{V}; \, d_{He} = \frac{N_{He}}{V}; N_{Ne} = 1000; N_{He} = 100

 \bar{N}_{maior \, Ne} = d_{Ne} V_{maior} = \frac{N_{Ne} V_{maior}}{V} = \frac{3 N_{Ne}}{4} = 750 \, mol\'eculas \, de \, Ne

 \bar{N}_{menor \, Ne} = d_{Ne} V_{menor} = \frac{N_{Ne} V_{menor}}{V} = \frac{N_{Ne}}{4} = 250 \, mol\'eculas \, de \, Ne

 \bar{N}_{maior \, He} = d_{He} V_{maior} = \frac{N_{He} V_{maior}}{V} = \frac{3 N_{He}}{4} = 75 \, mol\'eculas \, de \, He

 \bar{N}_{menor \, He} = d_{Ne} V_{menor} = \frac{N_{He} V_{menor}}{V} = \frac{N_{He}}{4} = 25 \, mol\'eculas \, de \, He

Observação: Poderia-se efetuar o cálculo de  \bar{N}_{menor \, Ne} e de  \bar{N}_{menor \, Ne} de uma maneira alternativa:

 N_{Ne} = N_{maior \, Ne} + N_{menor \, Ne} \Rightarrow \langle N_{Ne} \rangle = N_{Ne} = \langle N_{maior \, Ne} + N_{menor \, Ne} \rangle = \langle N_{maior \, Ne} \rangle + \langle N_{menor \, Ne} \rangle \equiv \bar{N}_{maior \, Ne} + \bar{N}_{menor \, Ne}

 \Rightarrow N_{Ne} - \bar{N}_{maior \, Ne} = \bar{N}_{menor \, Ne} \Rightarrow \bar{N}_{menor \, Ne} = 1000 - 750 = 250 \, mol\'eculas \, de \, Ne

Analogamente:

 N_{He} = N_{maior \, He} + N_{menor \, He} \Rightarrow \langle N_{He} \rangle = N_{He} = \langle N_{maior \, He} + N_{menor \, He} \rangle = \langle N_{maior \, He} \rangle + \langle N_{menor \, He} \rangle \equiv \bar{N}_{maior \, He} + \bar{N}_{menor \, He}

 \Rightarrow N_{He} - \bar{N}_{maior \, He} = \bar{N}_{menor \, He} \Rightarrow \bar{N}_{menor \, He} = 100 - 75 = 25 \, mol\'eculas \, de \, He

b) Como a probabilidade de uma molécula estar no 'lado' maior do recipiente é  3/4 e a probabilidade de uma molécula estar no 'lado' menor do recipiente é  1/4 , então a probabilidade de termos  1000 moléculas de  Ne no 'lado' maior e termos  100 moléculas de  He no 'lado' menor é:

 P = \left(\frac{3}{4}\right)^{1000} \left(\frac{1}{4}\right)^{100} = \frac{3^{1000}}{2^{2200}} \approx 7,166 \cdot 10^{-186}

Exercício 2

Considere um sistema de  N partículas localizadas e fracamente interagentes, cada uma com spin  1/2 e de momento magnético  \mu , sob a ação de um campo magnético  H - este sistema já foi discutido no exercício 4 do capítulo anterior.

a) Usando a expressão para  \ln \left( \Omega(E) \right) calculado no item b do exercício citado e a definição de  \beta :

 \beta = \frac{\partial \ln \Omega}{\partial E}

encontre a relação entre a temperatura  T e a energia total  E do sistema.

b) Sob quais circunstâncias  T é negativo?

c) O momento magnético total  M do sistema é relacionado à sua energia  E . Use o resultado de a) para encontrar  M como função de  H e da temperatura absoluta  T .

Solução:

a) Relembrando o cálculo do exercício citado no enunciado:

 \ln (\Omega(E)) \approx N \ln{N} - \frac{N}{2} \ln{\left(\left(\frac{N}{2}\right)^2- \left(\frac{E}{2 \mu H}\right)^2\right)} + \frac{E}{2 \mu H} \ln{\left(\frac{(\frac{N}{2}-\frac{E}{2 \mu H})}{(\frac{N}{2}+\frac{E}{2 \mu H})}\right)}

Logo:

 \beta = \frac{\partial \ln \Omega}{\partial E} \approx \frac{\partial}{\partial E} \left( N \ln{N} - \frac{N}{2} \ln{\left(\left(\frac{N}{2}\right)^2- \left(\frac{E}{2 \mu H}\right)^2\right)} + \frac{E}{2 \mu H} \ln{\left(\frac{(\frac{N}{2}-\frac{E}{2 \mu H})}{(\frac{N}{2}+\frac{E}{2 \mu H})}\right)} \right)

 = \frac{\partial}{\partial E} \left ( \frac{E}{2 \mu H} \ln{\left(\frac{(\frac{N}{2}-\frac{E}{2 \mu H})}{(\frac{N}{2}+\frac{E}{2 \mu H})}\right)} \right) - \frac{\partial}{\partial E} \left( \frac{N}{2} \ln{\left(\left(\frac{N}{2}\right)^2- \left(\frac{E}{2 \mu H}\right)^2\right)} \right) = \frac{1}{2 \mu H} \ln{\left(\frac{(\frac{N}{2}-\frac{E}{2 \mu H})}{(\frac{N}{2}+\frac{E}{2 \mu H})}\right)}  \Rightarrow T = \frac{2 \mu H}{k} \cfrac{1}{\ln{\left(\frac{(\frac{N}{2}-\frac{E}{2 \mu H})}{(\frac{N}{2}+\frac{E}{2 \mu H})}\right)}}

Outra maneira de se escrever a relação entre  E e  T é:

 2 \alpha = 2 \beta \mu H = \ln{\left(\frac{(\frac{N}{2}-\frac{E}{2 \mu H})}{(\frac{N}{2}+\frac{E}{2 \mu H})}\right)} \Rightarrow e^{2 \alpha} = \frac{(\frac{N}{2}-\frac{E}{2 \mu H})}{(\frac{N}{2}+\frac{E}{2 \mu H})} \Rightarrow e^{\alpha} \left(\frac{N}{2}+\frac{E}{2 \mu H} \right) = e^{-\alpha} \left(\frac{N}{2}-\frac{E}{2 \mu H} \right)

 \frac{N}{2} (e^{\alpha} - e^{-\alpha}) = - \frac{E}{2 \mu H} (e^{\alpha} + e^{-\alpha}) \Rightarrow E = - N \mu H \left( \frac{e^{\alpha} - e^{-\alpha}}{e^{\alpha} + e^{-\alpha}} \right) = - N \mu H \, tanh (\beta \mu H) = - N \mu H \, tanh (\mu H / kT)

Ou seja:

 E = - N \mu H \, tanh \left( \frac{\mu H}{kT} \right)

b) Como:

 T = \frac{2 \mu H}{k} \cfrac{1}{\ln{\left(\frac{(\frac{N}{2}-\frac{E}{2 \mu H})}{(\frac{N}{2}+\frac{E}{2 \mu H})}\right)}}

Para que  T < 0 basta que (lembrando que  H = |\vec{H}| , portanto grandeza escalar não-negativa):

 \frac{2 \mu H}{k} \cfrac{1}{\ln{\left(\frac{(\frac{N}{2}-\frac{E}{2 \mu H})}{(\frac{N}{2}+\frac{E}{2 \mu H})}\right)}} < 0 \Rightarrow \cfrac{1}{\ln{\left(\frac{(\frac{N}{2}-\frac{E}{2 \mu H})}{(\frac{N}{2}+\frac{E}{2 \mu H})}\right)}} < 0 \Rightarrow \ln{\left(\frac{(\frac{N}{2}-\frac{E}{2 \mu H})}{(\frac{N}{2}+\frac{E}{2 \mu H})}\right)} < 0 \Rightarrow \frac{(\frac{N}{2}-\frac{E}{2 \mu H})}{(\frac{N}{2}+\frac{E}{2 \mu H})} < 1 \Rightarrow \frac{N}{2}-\frac{E}{2 \mu H} < \frac{N}{2}+\frac{E}{2 \mu H}

 \Rightarrow -\frac{E}{2 \mu H} < \frac{E}{2 \mu H} \Rightarrow \frac{E}{\mu H} > 0 \Rightarrow E > 0

Ou seja, para que  T < 0 basta que  E < 0 . Apenas para fazer uma observação final, note que por nossa definição inicial  E = - (n_1 - n_2) \mu H , sendo  n_1 o número de spins paralelos e  n_2 o número de spins antiparalelos. Logo para que  E < 0 :

 E = -(n_1 - n_2) \mu H < 0 \Rightarrow -(n_1 - n_2) < 0 \Rightarrow n_2 < n_1

Ou seja, deve haver mais spins orientados antiparalelamente do que paralelamente - o que se trata claramente de uma situação fora de equilíbrio já que popula-se mais o estado de maior energia do que o de menor energia (!) (apenas para comparar com outra situações, quando  T = 0 \Rightarrow n_1 = N; n_2 = 0 , quando  T \to \infty \Rightarrow n_1 = n_2 = N/2 ).

c) O momento magnético total  M do sistema é dado por:

 M = \mu (n_1 - n_2)

A partir de  n_1 + n_2 = N e de  E = - (n_1 - n_2) \mu H , temos:

 n_1 = \frac{N}{2} - \frac{E}{2 \mu H} ; \, n_2 = \frac{N}{2} + \frac{E}{2 \mu H}

Logo:

 M = \mu \left(\frac{N}{2} - \frac{E}{2 \mu H} - \left( \frac{N}{2} + \frac{E}{2 \mu H} \right) \right) = -\frac{E}{H} = N \mu \, tanh \left( \frac{\mu H}{kT} \right)

Logo:

 M = N \mu \, tanh \left( \frac{\mu H}{k T} \right)

Exercício 3

Considere dois sistemas de partículas com spin num campo  H ; batizemo-los de  A e  {A}' . O sistema  A consiste de  N partículas localizadas e fracamente interagentes de spin  1/2 e momento magnético  \mu e  {A}' é similar, com  {N}' localizadas, fracamente interagentes, de spin  1/2 e cujo momento magnético é  {\mu}' . Os dois sistemas, inicialmente isolados com energias totais (respectivamente)  b N \mu H e  {b}' {N}' {\mu}' H , são colocados em contato térmico. Suponha que  |b| \ll 1 e  |{b}'| \ll 1 , de forma que a expressão simples do problema 2.4 (item c) possa ser usada para as densidades de estado dos dois sistemas.

a) Na situação de maior probabilidade, correspondente ao equilíbrio térmico final, como a energia  \tilde{E} de  A se relaciona com  \tilde{{E}'} de  {A}' ?

b) Qual é o valor de  \tilde{E} de  A ?

c) Qual é o calor  Q absorvido pelo sistema  A para ir da situação inicial para a situação final ao atingir o equilíbrio com  {A}' ?

d) Qual é a probabilidade  P(E) \mathrm{d}E que  A tenha sua energia no intervalo entre  E e  E + \mathrm{d}E ?

e) Qual é a dispersão da energia  \left(\Delta^* E \right)^2 = \left \langle (E - \langle E \rangle)^2 \right \rangle \right) de  E do sistema  A na situação final de equilíbrio?

f) Qual é o valor da dispersão relativa de energia - que é dada por  \left|\frac{\Delta^* E}{\tilde{E}} \right| - no caso no qual  {N}' \gg N ?

Solução:

Exercício 4

Suponha que o sistema  A seja posto em contato térmico com o reservatório térmico  {A}' que está à temperatura absoluta  {T}' e que  A absorva uma quantidade de calor  Q no processo. Mostre que o aumento de entropia  \Delta S de  A nesse processo satisfaz a desigualdade  \Delta S \ge {Q}' {T}' , na qual a igualdade é válida apenas se a temperatura inicial de  A difere infinitesimalmente da temperatura  {T}' de  {A}' .

Solução:

Para sistemas a diferentes temperaturas em contato térmico, sabemos que é muito improvável remanescer na configuração inicial do sistema simplesmente porque a quantidade de estados acessíveis nessa situação é muito menor do que a quantidade de estados acessíveis a uma configuração final de equilíbrio. Como, sob certo aspecto, a entropia é uma medida de quantidade de estados acessíveis ao sistema, já que  S = k \, ln(\Omega(E)) , logo a afirmação acima se traduz fisicamente por:

 S(\bar{E}_f) + {S}'(\bar{{E}'}_f) \ge S(\bar{E}_i) + {S}'(\bar{{E}'}_i) \Rightarrow [S(\bar{E}_f) - S(\bar{E}_i)] + [{S}'(\bar{{E}'}_f) - {S}'(\bar{{E}'}_i)] \ge 0  \Rightarrow \Delta S + \Delta {S}' \ge 0

Se, por exemplo,  {A}' for um reservatório térmico, ou seja, se:

 {\beta}' \gg \left| \frac{\partial {\beta}'}{\partial {E}'} {Q}' \right|

Se o sistema  {A}' possui  {\Omega}'({E}') estados acessíveis e absorve uma quantidadede calor  {Q}' = \Delta \bar{{E}'} sendo  {Q}' \ll {E}' , podemos expressar a mudança resultante em uma série de Taylor de  {\Omega}'({E}') ou de  \ln({\Omega}'({E}')) - podemos realizar ambas as expansões, pois o logritmo é uma função monotonicamente crescente, o que implica que o máximo da função e do logritmo da função estão localizados no mesmo local; a única diferença significativa entre as expansões será que a expansão em  \ln({\Omega}'({E}')) convergirá mais rapidamente, sendo esta a razão pela qual utilizamos a expansão no logaritmo.

OBSERVAÇÃO: Pela definição de entropia  S = k \, ln(\Omega(E)) \ge 0 logo não introduziremos singularidades devido à utilização do logaritmo. Consideraremos que  {\Omega}'({E}') seja uma função contínua (o que certamente não é verdadeiro já que a contagem de estados se dá de maneira discreta; entretanto, esse procedimento fornece resultado) de derivada contínua no limite termodinâmico, apenas para poder utilizar a expansão em série de Taylor.

Assim:

 \ln({\Omega}'({E}' + {Q}')) = \ln({\Omega}'({E}')) + \frac{\partial \ln({\Omega}'({E}'))}{\partial {E}'} {Q}' + \frac{1}{2} \frac{\partial^2 \ln({\Omega}'({E}'))}{\partial {E}'^2} {Q}'^2 + \cdots

Como:

 {\beta}' = \frac{\partial \ln({\Omega}'({E}'))}{\partial {E}'}

Logo:


 \ln({\Omega}'({E}' + {Q}')) - \ln({\Omega}'({E}')) = {\beta}' {Q}' + \frac{1}{2} \frac{\partial {\beta}'}{\partial {E}'} {Q}'^2 + \cdots

Se  {A}' for reservatório térmico, podemos desprezar do segundo termo em diante. Logo, ficamos com a condição:

 \ln({\Omega}'({E}' + {Q}')) - \ln({\Omega}'({E}')) \approx {\beta}' {Q}'  = \frac{{Q}'}{k {T}'} \Rightarrow k \ln({\Omega}'({E}' + {Q}')) - k \ln({\Omega}'({E}')) = \Delta {S}' \approx \frac{{Q}'}{{T}'}

Portanto:

 \Delta S + \Delta {S}' \approx \Delta S + \frac{{Q}'}{{T}'} \ge 0 \Rightarrow \Delta S \ge - \frac{{Q}'}{{T}'}

Como  {Q}' é o calor fornecido por  {A}' ,  Q é o calor 'fornecido' por  A e já que o sistema é fechado, temos  {Q}' = - Q . Logo:

 \Delta S \ge - \frac{{Q}'}{{T}'} = \frac{Q}{{T}'} \Rightarrow \Delta S \ge \frac{Q}{{T}'}

Se as temperaturas diferirem entre si de uma quantia infinitesimal, vale a igualdade; logo:

 \Delta S = \frac{Q}{{T}'}

Exercício 5

Um sistema que consiste de  N_1 moléculas do tipo 1 e de  N_2 moléculas do tipo 2 confinadas numa caixa de volume  V . As moléculas interagem fracamente por constituirem uma mistura de gases ideais.

a) Como o número total de estados  \Omega(E) no intervalo entre  E e  E + \mathrm{d} E depende do volume  V do sistema? Você pode tratar o sistema classicamente.

b) Use esse resultado para encontrar a equação de estado do sistema, id est, encontre a pressão média  \bar{p} como uma função de  V e  T .

Solução:

a) O único vínculo existente no problema é que a energia está num intervalo entre  E e  E + \mathrm{d} E . Para o cálculo da energia devemos levar em conta a energia cinética de cada molécula, a energia de interação entre cada molécula e a energia dos graus de liberdade internos da molécula, de forma que:

" E = K + U + E_{int} "

Como o gás é ideal,  U \approx 0 e a parte cinética é:

 K = \sum_{i = 1}^{N_1} \frac{\vec{p_i}^2}{2m_1} + \sum_{j = 1}^{N_2} \frac{\vec{p_j}^2}{2m_2} = \sum_{i = 1}^{N} \frac{\vec{p_i}^2}{2 m_i}

Sendo  N_1 + N_2 = N .

Entretanto não temos nenhuma informação sobre a energia dos graus de liberdade internos - e essa informação pode ser muito difícil de ser conseguida no caso geral...

Para contar estados, teríamos que somar sobre todos os estados disponíveis que cumprem o vínculo de possuirem energias entre  E e  E + \mathrm{d} E - o que, classicamente corresponderia a efetuar o seguinte cálculo (as últimas integrais representam as integrais sobre todos  M graus de liberdade cinéticos e espaciais internos das moléculas):

 \Omega (E) = B \int (\cdots) \int \mathrm{d}^3 r_1 (\cdots) \mathrm{d}^3 r_{N} \int (\cdots) \int \mathrm{d}^3 p_1 (\cdots) \mathrm{d}^3 p_{N} \int (\cdots) \int \mathrm{d}^3 Q_1 (\cdots) \mathrm{d}^3 Q_{M} \int (\cdots) \int \mathrm{d}^3 P_1 (\cdots) \mathrm{d}^3 P_{M}

 = B \left(\prod_{i = 1}^{N} \int \mathrm{d}^3 r_i \right) \int (\cdots) \int \mathrm{d}^3 p_1 (\cdots) \mathrm{d}^3 p_{N} \int (\cdots) \int \mathrm{d}^3 Q_1 (\cdots) \mathrm{d}^3 Q_{M} \int (\cdots) \int \mathrm{d}^3 P_1 (\cdots) \mathrm{d}^3 P_{M}

Como:

 \int \mathrm{d}^3 r_i = V ; \, \forall i

E já que sabemos que os graus de liberdade internos e cinéticos são em geral vinculados com a energia total de alguma maneira, logo assumiremos que:

 \chi_0(E) = \int (\cdots) \int \mathrm{d}^3 p_1 (\cdots) \mathrm{d}^3 p_{N} \int (\cdots) \int \mathrm{d}^3 Q_1 (\cdots) \mathrm{d}^3 Q_{M} \int (\cdots) \int \mathrm{d}^3 P_1 (\cdots) \mathrm{d}^3 P_{M}

Assim:

 \Omega (E) = B \left(\prod_{i = 1}^{N} V \right) \chi_0(E) = B V^N \chi_0(E)

Logo vemos que:

 \Omega = B V^N \chi_0(E) = B V^N \chi(E) {\chi}'(E_0 - E)

b) A definição de  \beta e das forças generalizadas são:

 \beta = \frac{\partial \ln(\Omega(E))}{\partial E} = \frac{1}{k T} ; \, \langle X_{\alpha} \rangle = \frac{1}{\beta} \frac{\partial \ln(\Omega(E))}{\partial \chi_{\alpha}}

Se  \chi_{\alpha} = V é o volume do sistema, a força generalizada média  \bar{\Chi_{\alpha}} é a pressão média dada por:

 \bar{P} = \frac{1}{\beta} \frac{\partial \ln(\Omega(E))}{\partial V}

Como sabemos a expressão de  \Omega , temos:

 \ln(\Omega) = \ln(B) + N \ln(V) + \ln(\chi(E) {\chi}'(E_0 - E))

Logo:

 \frac{\partial \ln(\Omega(E))}{\partial V} = \frac{N}{V}

Assim:

 \bar{P} = \frac{1}{\beta} \frac{\partial \ln(\Omega(E))}{\partial V} = \frac{N}{\beta V} = \frac{N k T}{V}

Exercício 6

Um bulbo de vidro contém ar à temperatura ambiente e à pressão de 1 \, atm. Este bulbo é posto em uma sala cheia de gás hélio à 1 \, atm e à temperatura ambiente. Alguns meses depois, o experimental que construiu o bulbo lê numa revista que aquele tipo particular de vidro que compõe o bulbo é permeável a hélio, mas não a outros gases. Supondo que o equilíbrio já tenha sido atingido depois desse tempo, qual é a pressão de gás que o experimental medirá dentro do bulbo quando ele voltar para checá-lo?

Solução:

Suponhamos que a temperatura dentro e fora do bulbo é igual e é sempre constante.

Como o vidro é impermeável aos outros gases, se estivermos no regime de gás ideal, a pressão parcial de todos os gases que não sejam o hélio não é importante. A condição de equilíbrio será atingida quando o número de colisões do gás hélio com relação às paredes do recipiente, for igual para a parte de dentro e de fora do bulbo, id est, quando as pressões parciais do gás hélio dentro e fora do bulbo forem iguais.

Conforme informado no enunciado, a pressão interna do bulbo é:

 P_0 = \frac{k T}{V_{bulbo}} (N_{N_2} + N_{O_2} + N_{Ar} + N_{H_2 O} + N_{CO_2} + N_{Ne} + N_{He \, d \, I} + (\cdots)) = P_{N_2} + P_{O_2} + P_{Ar} + P_{H_2O} + P_{CO_2} + P_{Ne} + P_{He \, d \, I} + (\cdots) = 1 \, atm

com  N_{He \, d \, I} sendo o número inicial de átomos de hélio dentro do bulbo e  P_{He \, d \, I} a pressão parcial inicial do hélio dentro do bulbo.

Sendo a pressão parcial de cada substância dada por:

 P_{X} = \frac{k T N_X}{V_{bulbo}}

Para o hélio dentro do bulbo, temos inicialmente:

 P_{He \, d \, I} = \frac{k T N_{He \, d \, I}}{V_{bulbo}}

O bulbo está a  1 \, atm - a mesma pressão que a da atmosfera - de forma que podemos calcular essa pressão parcial utilizando diretamente a pressão parcial do hélio na atmosfera terrestre (ou então utilizar a proporção molar, que é de  5,24 \cdot 10^{-3} \% e multiplicar pela pressão dentro do bulbo, que é de  1 \, atm ), o que nos fornece  P_{He \, d \, i} \approx 5,24 \cdot 10^{-5} \, atm .

Mas não é necessário calcular a pressão acima se tivermos em mente que, na atmosfera, há tão pouco hélio que podemos ignorar sua contribuição para a pressão total do gás dentro do bulbo, e, dessa forma,  P_{He \, d \, i} \approx 0 \, atm .

Fora do bulbo:

 P_{fora} = \frac{k T N_{He \, f \, I}}{V_{fora}} = P_{He \, f \, I}

Com  N_{He \, f \, I} sendo o número inicial de átomos de hélio fora do bulbo e  P_{He \, f \, I} a pressão parcial inicial do hélio fora do bulbo.

Supondo que a sala seja lacrada e impermeável:

 N_{He \, d \, I} + N_{He \, f \, I} = N_{He \, total}

Após atingir-se o equilíbrio entre as pressões parciais do hélio:

 P_{He \, f \, F} = P_{He \, d \, F} \Rightarrow \frac{k T N_{He \, f \, F}}{V_{fora}} = \frac{k T N_{He \, d \, F}}{V_{bulbo}} \Rightarrow \frac{N_{He \, f \, F}}{V_{fora}} = \frac{N_{He \, d \, F}}{V_{bulbo}} \Rightarrow N_{He \, d \, F} = \frac{N_{He \, f \, F} V_{bulbo}}{V_{fora}}

com  N_{He \, d \, F} sendo o número final de átomos de hélio dentro do bulbo,  N_{He \, f \, F} sendo o número final de átomos de hélio fora do bulbo,  P_{He \, d \, F} a pressão parcial final do hélio dentro do bulbo e  P_{He \, f \, F} a pressão parcial final do hélio fora do bulbo.

Como:

 N_{He \, d \, I} + N_{He \, f \, I} = N_{He \, total} = N_{He \, f \, F} + N_{He \, d \, F} = N_{He \, f \, F} \left(1 + \frac{V_{bulbo}}{V_{fora}} \right)

O problema dá a entender que:

 V_{bulbo} << V_{fora} \Rightarrow \frac{V_{bulbo}}{V_{fora}} \to 0

Logo:

  N_{He \, total} = N_{He \, f \, F} + N_{He \, d \, F} = N_{He \, f \, F} \left(1 + \frac{V_{bulbo}}{V_{fora}} \right) \approx N_{He \, f \, F} \approx N_{He \, f \, I} \Rightarrow P_{He \, f \, F} \approx P_{He \, f \, I}

Nesse caso a pressão externa não muda, mas devido à condição de equilíbrio:

 P_{He \, f \, F} = P_{He \, d \, F} \approx P_{He \, f \, I} = 1 \, atm

A pressão interna final passará a ser:

 P_0 = \frac{k T}{V_{bulbo}} (N_{N_2} + N_{O_2} + N_{Ar} + N_{H_2 O} + N_{CO_2} + N_{Ne} + N_{He \, d \, I} - N_{He \, d \, I} + N_{He \, f \, F} + (\cdots)) = P_0 - P_{He \, d \, I} + P_{He \, d \, F} \approx P_0 + P_{He \, d \, F} \approx 2 \, atm

Nota: sim, essa questão é mais difícil do que parece devido ao enunciado não ser claro em relação a alguns aspectos (como, por exemplo,  \frac{V_{bulbo}}{V_{fora}} \to 0 ).

Capítulo 6

Exercício 1

O oscilador harmônico quântico unidimensional tem níveis de energia dados pela relação:

 E_n = (n + 1/2) \hbar \omega

sendo  \omega uma freqüência angular característica do oscilador, com  n sendo um número inteiro, ou seja,  n = 0, 1, 2, (\cdots) .

Suponha que tal oscilador esteja em contato térmico com um reservatório térmico à temperatura  T suficientemente baixa para que  \beta \hbar \omega \gg 1 , com  \beta = \frac{1}{k T} .

a) Encontre a razão da probabilidade de o oscilador estar no primeiro estado excitado com relação à probabilidade de estar no estado fundamental.

b) Assuma que apenas o estado fundamental e o primeiro estado excitado são significativamente ocupados e encontre a energia média do oscilador com relação à temperatura  T .

Solução:

a) A função de partição é:

 Z = \sum_{r} e^{-\beta E_r} = \sum_{n = 0}^{\infty} e^{-\beta E_n} = \sum_{n = 0}^{\infty} e^{-\beta (n + 1/2) \hbar \omega} = e^{-\beta \hbar \omega / 2} \sum_{n = 0}^{\infty} e^{-\beta n \hbar \omega} = e^{-\beta \hbar \omega / 2} \frac{1}{1 - e^{-\beta \hbar \omega}}

Sendo que  P_r é dado por:

 P_r = \frac{e^{-\beta E_r}}{Z}

Logo:

 P_0 = \frac{e^{-\beta E_0}}{Z} = e^{-\beta \hbar \omega / 2} \frac{1 - e^{-\beta \hbar \omega}}{e^{-\beta \hbar \omega / 2}} = 1 - e^{-\beta \hbar \omega}

 P_1 = \frac{e^{-\beta E_1}}{Z} = e^{-3 \beta \hbar \omega / 2} \frac{1 - e^{-\beta \hbar \omega}}{e^{-\beta \hbar \omega / 2}} = e^{- \beta \hbar \omega} - e^{-2 \beta \hbar \omega}

Assim:

 \frac{P_1}{P_0} = e^{-\beta \hbar \omega}

OBSERVAÇÃO: Dá o mesmo resultado, mas é mais rápido pensar da seguinte maneira:

 P_r = \frac{e^{-\beta E_r}}{Z} \Rightarrow \frac{P_{r+1}}{P_r} = \displaystyle \frac{ \displaystyle \frac{e^{-\beta E_{r+1}}}{Z}}{ \displaystyle \frac{e^{-\beta E_r}}{Z}} = \frac{e^{-\beta E_{n+1}}}{e^{-\beta E_n}} = \frac{e^{-[(n+1)+ 1/2] \beta \hbar \omega}}{e^{-(n+1/2) \beta \hbar \omega}} = e^{-\beta \hbar \omega}

b) No caso de só se popularem os primeiros dois estados:

 \langle E \rangle = \frac{E_0 e^{-\beta E_0} + E_1 e^{-\beta E_1}}{e^{-\beta E_0} + e^{- \beta E_1}} = \frac{\displaystyle \frac{\hbar \omega}{2} e^{-\beta \hbar \omega / 2} + \displaystyle \frac{3 \hbar \omega}{2} e^{-3\beta \hbar \omega / 2}}{e^{-\beta \hbar \omega / 2} + e^{-3\beta \hbar \omega / 2}} = \frac{\hbar \omega}{2} \frac{ 1 + 3 e^{-\beta \hbar \omega}}{1 + e^{- \beta \hbar \omega}}

Exercício 2

Considere novamente o sistema do problema 3.2, ou seja,  N partículas de spin  1/2 fracamente interagentes e localizadas de momento magnético  \mu imersas em um campo magnético  H . Suponha que esse sistema esteja em contato com um reservatório térmico de temperatura absoluta  T . Calcule a energia média  \bar{E} como função de  T e  H . Compare o resultado obtido com o do problema 3.2 item a).

Solução:

Uma maneira de se resolver esse problema é utilizar o fato de que as partículas são fracamente interagentes, de forma que a energia é simplesmente a soma das energias de cada partícula. Logo a energia média por partícula se relaciona com a energia média - nesse problema - por  \bar{E} = N \bar{\epsilon} .

Para calcular  \bar{\epsilon} basta efetuar:

 \bar{\epsilon} = \frac{\sum_{n} \epsilon_n e^{\beta \epsilon_n}}{\sum_{n} e^{\beta \epsilon_n}} = \frac{ \mu H e^{- \mu H / k T} - \mu H e^{\mu H / k T}}{e^{- \mu H / k T} + e^{\mu H / k T}} = - \mu H \, tanh \left( \frac{\mu H}{k T} \right)

Logo:

 \bar{E} = N \bar{\epsilon} = - N \mu H \, tanh \left( \frac{\mu H}{k T} \right)

De acordo com o resultado encontrado no exercício 3.2.

Exercício 3

Um sólido à temperatura absoluta  T é posto num campo magnético externo  H = 3 T . O sólido contém átomos paramagnéticos de spin  1/2 fracamente interagentes, de forma tal que a energia de cada átomo é  \pm \mu H - dependendo do estado.

a) Se o momento magnético  \mu é igual a um magneton de Bohr, ou seja, se  \mu = 9,27 \cdot 10^{-24} J/T , sob qual temperatura deve estar o sólido para que mais de  75 \% dos átomos estejam polarizados com seus spins alinhados paralelamente ao campo externo?

b) Suponha um sólido sem átomos paramagnéticos livres, mas que contenha muuitos prótons (exempli gratia, parafina). Cada próton tem spin  1/2 e momento magnético  \mu = 1,41 \cdot 10^{-27} J/T . Sob qual temperatura deve estar o sólido para que mais de  75 \% dos prótons estejam polarizados com seus spins alinhados paralelamente ao campo externo?

Solução:

Exercício 4

Uma amostra de óleo mineral é posta num campo magnético externo  H . Cada próton tem spin  1/2 e momento magnético  \mu ; pode, portanto, assumir duas possíveis energias  \epsilon_{\pm} = \mp \mu H , correspondendo às duas possíveis orientações de spin - a favor do campo (com um número de  n_+ partículas, correspondendo à energia  - \mu H ) e contra o campo (com um número de  n_- partículas, correspondendo à energia  \mu H ). Um campo de rádio-freqüência pode induzir transições entre esses dois níveis de energia se a freqüência  \nu satisfizer à condição de Bohr  h \nu = 2 \mu H = \Delta E = \epsilon_- - \epsilon_+ . A potência absorvida do campo de radiação é então proporcional à diferença no número de núcleos nesses dois níveis de energia. Suponha que os prótons no óleo mineral estão numa temperatura de equilíbrio tão alta que  \mu H \ll k T . Como é a dependência da potência absorvida em relação à temperatura da amostra?

Solução:

Conforme afirma o enunciado:

 Pot = A (n_+ - n_-) \propto (n_+ - n_-)

Para este sistema sabemos, a partir de exercícios anteriores, que:

 E = - (n_+ - n_-) \mu H \Rightarrow (n_+ - n_-) = - \frac{E}{\mu H}

Sabemos - a partir do 6.2 - que:

 E = - N \, \mu H \, tanh \left( \frac{\mu H}{k T} \right)

Logo:

 Pot = A (n_+ - n_-) = A \frac{E}{\mu H} = A \, N \, tanh \left( \frac{\mu H}{k T} \right)

Se fizermos a mudança de variável  \alpha = \frac{\mu H}{k T} , virmos que  \mu H \ll k T \Rightarrow \alpha = \frac{\mu H}{k T} \ll 1 , e notarmos que:

 tanh(\alpha) = \sum_{n = 0}^{\infty} \frac{\partial^n tanh(\alpha)}{\partial \alpha^n} \Big|_{\alpha = 0} \frac{\alpha^n}{n!} = tanh(\alpha) \Big|_{\alpha = 0} + \frac{\partial tanh(\alpha)}{\partial \alpha} \Big|_{\alpha = 0} \alpha + \frac{\partial^2 tanh(\alpha)}{\partial \alpha^2} \Big|_{\alpha = 0} \frac{\alpha^2}{2!} + \cdots

 = 0 + (1 - tanh^2(\alpha)) \Big|_{\alpha = 0} \alpha - \left(2 tanh(\alpha) (1 - tanh^2(\alpha))\right) \Big|_{\alpha = 0} \frac{\alpha^2}{2!} + \left((2 cosh(2 \alpha) - 4) sech^4(\alpha) \right) \Big|_{\alpha = 0} \frac{\alpha^3}{3!} + \cdots = \alpha - \frac{\alpha^3}{3} + \cdots

Logo se  \alpha \ll 1 ; \, \tanh(\alpha) \approx \alpha , assim:

 Pot = A (n_+ - n_-) = A \, N \, tanh \left( \frac{\mu H}{k T} \right) \approx \frac{A \, N \, \mu \, H}{k T} \propto T^{-1}

Portanto a potência absorvida é proporcional a  T^{-1} .

OBSERVAÇÃO: poderíamos calcular  (n_+ - n_-) sem usar a relação acima, usando a relação - na qual  P_i denota a probabilidade de uma partícula estar no i-ésimo estado e  \beta = 1 / k T :

 n_i = N P_i = N \frac{e^{-\beta E_i}}{\sum_{i} e^{-\beta E_i}}

O que nos forneceria:

 n_+ = N P_+ = N \frac{e^{\beta \mu H}}{e^{\beta \mu H} + e^{-\beta \mu H}} ; \, n_- = N P_- = N \frac{e^{-\beta \mu H}}{e^{\beta \mu H} + e^{-\beta \mu H}} \Rightarrow (n_+ - n_-) = N \left(\frac{e^{\beta \mu H}}{e^{\beta \mu H} + e^{-\beta \mu H}} - \frac{e^{-\beta \mu H}}{e^{\beta \mu H} + e^{-\beta \mu H}} \right) = N \, tanh(\beta \mu H) = N \, tanh \left(\frac{\mu H}{kT} \right)

De acordo com o obtido antes.

Note que há outra vantagem em se utilizar o procedimento acima. Se usarmos a expansão em série da exponencial até termos de ordem linear, obtemos:

 (n_+ - n_-) = N \left(\frac{e^{\beta \mu H}}{e^{\beta \mu H} + e^{-\beta \mu H}} - \frac{e^{-\beta \mu H}}{e^{\beta \mu H} + e^{-\beta \mu H}} \right) = N \left(\frac{1 + \beta \mu H + \cdots}{1 + \beta \mu H + \cdots + 1 - \beta \mu H + \cdots} - \frac{1 - \beta \mu H + \cdots}{1 + \beta \mu H + \cdots + 1 - \beta \mu H + \cdots} \right) \approx \frac{N \, \mu \, H}{k T} \propto T^{-1}

Conforme já obtido.

Exercício 5

Considere um gás ideal a temperatura absoluta  T num campo gravitacional uniforme cuja aceleração é  g . Aplicando a equação de equilíbrio hidrostático a uma fatia entre as alturas  z e  z + \mathrm{d} z , derive a expressão para  n(z) - o número de móleculas por  m^3 à altura  z . Compare seu resultado com:

 P(z) = P(0) \, e^{-m g z/k T}

que foi derivada a partir de física estatística. Utilize  m como a massa de cada partícula.

Solução:

Vamos começar analisando as forças envolvidas no problema. A força total exercida numa fatia de ar possui componentes devido à pressão imediatamente acima da fatia (que 'empurra' a fatia para 'baixo'), à pressão imediatamente abaixo da fatia (que 'empurra' a fatia para 'cima') e do peso da fatia (que 'empurra' a fatia para 'baixo'), o que se traduz pela expressão:

 \vec{F}_{total} = \vec{F}_{z + \mathrm{d} z} + \vec{F}_{z} + m_{fa} \vec{g} = - P(z + \mathrm{d} z) A \, \mathrm{d} z \hat{z} + P(z) A \, \mathrm{d} z \hat{z} - m \, n(z) \, A  \, g \, \mathrm{d} z \hat{z} = \left( - \frac{\mathrm{d} P}{ \mathrm{d} z} - m \, n(z) \, g \, \right) A \mathrm{d} z \hat{z}

Pela condição de equilíbrio hidrostático (fluido em repouso ou com 'velocidade' constante):

 \vec{F}_{total} = \vec{0} = \left( - \frac{\mathrm{d} P}{ \mathrm{d} z} - m \, n(z)  \, g \, \right) A \mathrm{d} z \hat{z} \Rightarrow \frac{\mathrm{d} P}{ \mathrm{d} z} = - m \, n(z)  \, g

Como  P = n(z) k T :

 \frac{\mathrm{d} n(z)}{ \mathrm{d} z} = - \frac{m \, n(z)  \, g}{k T} \Rightarrow \frac{\mathrm{d} n(z)}{n(z)} = - \frac{mg}{k T} \mathrm{d} z \Rightarrow \int_{n(0)}^{n(z)} \frac{\mathrm{d} n(z')}{n(z')} = - \int_{0}^{z} \frac{mg}{k T} \mathrm{d} z' \Rightarrow \ln(n(z)) - \ln(n(0)) = - \frac{mg}{k T} z \Rightarrow \ln(n(z)) = \ln(n(0)) - \frac{mg}{k T} z \Rightarrow n(z) = n(0) e^{-mgz/k T}

Logo:

 n(z) = n(0) e^{-mgz/k T}

Se multiplicarmos ambos os lados por  k T obteremos o resultado anunciado no enunciado:

 P(z) = P(0) e^{-mgz/k T}

Exercício 6

Considere um sistema que consista de  N partículas fracamente interagentes, cada qual podendo estar apenas em um de dois estados energéticos cujas energias são  \epsilon_1 e  \epsilon_2 , com  \epsilon_1 < \epsilon_2 .

a) Sem cálculo explicito, faça um gráfico qualitativo da energia média  \bar{E} do sistema em função de sua temperatura  T . Qual é a dependência de  \bar{E} no limite de altas e baixas temperaturas? Perto de qual temperatura  \bar{E} passa de um regime de temperaturas para o outro?

b) Usando o resultado de a), faça um gráfico qualitativo de  C_V como função da temperatura  T .

c) Calcule explicitamente a energia média  \bar{E}(T) e a capacidade térmica  C_{V} (T) do sistema. Verifique que suas expressões possuem as características qualitativas obtidas nos itens anteriores.

Solução:

Exercício 7

Os núcleos de certo sólido cristalino possuem spin  1 . De acordo com a teoria quântica, cada átomo pode, portanto, estar em um dos três estados indexados pelo número quântico  m , com  m = -1, \, 0, \, 1 . Esse número quântico mede a projeção do spin nuclear ao longo de um eixo cristalino do sólido. Como a distribuição de carga do núcleo não é esfericamente simétrica - possui uma distribuição elipsoidal - a energia de um núcleo depende de sua orientação com respeito a um campo elétrico interno presente na sua localização. Assim o núcleo possui a energia  E = \epsilon se está no estado  m = -1 ou se está no estado  m =1 , mas possui energia  E = 0 se está no estado  m = 0 . Considere o ensemble canônico.

a) Encontre uma expressão da contribuição nuclear para a energia interna molar do sólido como função da temperatura absoluta  T .

b) Encontre uma expressão da contribuição nuclear para a entropia molar do sólido como função de  T .

c) Através da contagem direta do número de estados acessíveis calcule a contribuição nuclear para a entropia molar do sólido para temperaturas muito baixas e também para temperaturas muito altas. Mostre que a expressão em b) cai nos valores calculados neste item no limite de  T \to 0^+ e no limite de  T \to \infty .

d) Faça um gráfico qualitativo mostrando a dependência com a temperatura da contribuição nuclear do calor específico molar do sólido. Calcule a dependência com a temperatura explicitamente. Qual é a dependência para altas temperaturas?

Solução:

Como as partículas estão no ensemble canônico - temperatura bem definida - e como as partículas são distingüíveis (na minha notação  \beta = 1/kT ):

 Z = z_0^N

Sendo:

 z_0 = \sum_{\epsilon_{i \, m_i}} e^{- \beta \epsilon_{i \, m_i}} = \sum_{m_j = -1}^{1} e^{- \beta |m_j| \epsilon} = (2 e^{-\beta \epsilon} + 1)

já que o próprio problema fornece a informação que:

 \epsilon_{i \, m_i} = |m_i| \epsilon

OBSERVAÇÃO: É facil mostrar que:

 Z = z_0^N

Primeiro, notemos que pela definição de função de partição:

 Z = \sum_{\forall r} e^{- \beta E_r}

No caso do exercício,  E_r se refere apenas às energias dos núcleos - todo o resto das interações são para nós irrelevantes. Logo, se denotarmos por  \epsilon_{i \, m_i} a contribuição energética do i-ésimo núcleo, cujo número do estado é  m_i :

 E_r = \epsilon_{1 \, m_1} + \epsilon_{2 \, m_2} + \cdots = \sum_{i = 1}^{N} \epsilon_{i \, m_i}

sendo o estado  r caracterizado pelos números quânticos  m_i, \, \forall i \in \mathbb{N}| i \in [1, N]

Logo:

 Z = \sum_{\forall r} e^{- \beta E_r} = \sum_{\forall r} e^{- \beta \sum_{i = 1}^{N} \epsilon_{i \, m_i}} = \sum_{m_1 = -1}^{1} (\cdots) \sum_{m_N = -1}^{1} \left( e^{- \beta \sum_{i = 1}^{N} |m_i| \epsilon} \right) = \sum_{m_1 = -1}^{1} (\cdots) \sum_{m_N = -1}^{1} \left(\prod_{i = 1}^{N} e^{- \beta |m_i| \epsilon} \right) = \sum_{m_1 = -1}^{1} (\cdots) \sum_{m_N = -1}^{1} \left(e^{- \beta |m_1| \epsilon} (\cdots) e^{- \beta |m_N| \epsilon} \right)

 = \prod_{j = 1}^{N} \sum_{m_j = -1}^{1} e^{- \beta |m_j| \epsilon} = \prod_{j = 1}^{N} (2 e^{-\beta \epsilon} + 1) = (2 e^{-\beta \epsilon} + 1)^N = z_0^N

a) Esse item pode ser feito de três maneiras ligeiramente diferentes... Vou apresentá-los em ordem decrescente de facilidade (o objetivo disto é apenas salientar como é mais fácil utilizar os métodos usuais de se realizar essa conta - na minha notação  U \equiv \langle E \rangle ):

  • Método 1:

Sabemos que:

 U \equiv \langle E \rangle = -\frac{\partial \ln(Z)}{\partial \beta} = - N \frac{\partial \ln(z_0)}{\partial \beta} = - N \frac{\partial}{\partial \beta} \left(\ln(2 e^{-\beta \epsilon} + 1) \right) = \frac{2 N \epsilon e^{-\beta \epsilon}}{(2 e^{-\beta \epsilon} + 1)}

  • Método 2:

Como sabemos que:

 E = \epsilon_{1 \, m_1} + \epsilon_{2 \, m_2} + \cdots = \sum_{i = 1}^{N} \epsilon_{i \, m_i}

Logo:

 \langle E \rangle = \langle \epsilon_{1 \, m_1} + \epsilon_{2 \, m_2} + \cdots \rangle = \left \langle \sum_{i = 1}^{N} \epsilon_{i \, m_i} \right \rangle = \langle \epsilon_{1 \, m_1} \rangle + \cdots + \langle \epsilon_{N \, m_N} \rangle = \sum_{i = 1}^{N} \langle \epsilon_{i \, m_i} \rangle = N \langle \epsilon_{i \, m_i} \rangle

Sendo:

 \langle \epsilon_{i \, m_i} \rangle = \cfrac{\sum_{\epsilon_{i \, m_i}} \epsilon_{i \, m_i} e^{- \beta \epsilon_{i \, m_i}}}{\sum_{\epsilon_{i \, m_i} e^{- \beta \epsilon_{i \, m_i}} }} = \cfrac{\sum_{m_i = -1}^{1} |m_i| \epsilon e^{ - \beta |m_i| \epsilon}}{\sum_{m_i = -1}^{1} e^{ - \beta |m_i| \epsilon} } = \frac{1}{z_0} 2 \epsilon e^{-\beta \epsilon} = \frac{2 \epsilon e^{-\beta \epsilon}}{(2 e^{-\beta \epsilon} + 1)}

Assim:

 \langle E \rangle = \frac{2 N \epsilon e^{-\beta \epsilon}}{(2 e^{-\beta \epsilon} + 1)}

  • Método 3 (respire primeiro, este é longo):

Vamos resolver isso na força bruta!!!

 \langle E \rangle = \cfrac{ \sum_{\forall r} E_r e^{- \beta E_r}}{ \sum_{\forall r} e^{- \beta E_r}} = \frac{1}{Z} \sum_{\forall r} E_r e^{- \beta E_r} = \frac{1}{Z} \sum_{\forall r} \left( \sum_{i = 1}^{N} \epsilon_{i \, m_i}  e^{- \beta \sum_{i = 1}^{N} \epsilon_{i \, m_i}} \right) = \frac{1}{Z} \sum_{m_1 = -1}^{1} (\cdots) \sum_{m_N = -1}^{1} \left( \epsilon \left[ \sum_{i = 1}^{N} |m_i| \right] e^{- \beta \epsilon \left[ \sum_{j = 1}^{N} |m_j| \right]} \right)

 = \frac{\epsilon}{Z} \sum_{m_1 = -1}^{1} (\cdots) \sum_{m_N = -1}^{1} \left( \sum_{i = 1}^{N} |m_i| e^{- \beta \epsilon \left[ \sum_{j = 1}^{N} |m_j| \right]} \right) = \frac{\epsilon}{Z} \sum_{m_1 = -1}^{1} (\cdots) \sum_{m_N = -1}^{1} \left( |m_1| e^{- \beta \epsilon \left[ \sum_{j = 1}^{N-1} |m_j| \right]} e^{- \beta \epsilon |m_N|} + (\cdots) + |m_N| e^{- \beta \epsilon \left[ \sum_{j = 1}^{N-1} |m_j| \right]} e^{- \beta \epsilon |m_N|} \right)
 = \frac{\epsilon}{Z} \sum_{m_1 = -1}^{1} (\cdots) \sum_{m_{N-1} = -1}^{1} \left( \sum_{m_{N} = -1}^{1} |m_1| e^{- \beta \epsilon \left[ \sum_{j = 1}^{N-1} |m_j| \right]} e^{- \beta \epsilon |m_N|} + (\cdots) + \sum_{m_{N} = -1}^{1} |m_N| e^{- \beta \epsilon \left[ \sum_{j = 1}^{N-1} |m_j| \right]} e^{- \beta \epsilon |m_N|} \right)

Logo, temos  N somas acima que serão feitas sobre todos  m_{i} . Note que:

 \sum_{m_{N} = -1}^{1} |m_N| e^{- \beta \epsilon \left[ \sum_{j = 1}^{N-1} |m_j| \right]} e^{- \beta \epsilon |m_N|} = e^{- \beta \epsilon \left[ \sum_{j = 1}^{N-1} |m_j| \right]} \sum_{m_{N} = -1}^{1} |m_N| e^{- \beta \epsilon |m_N|} = e^{- \beta \epsilon \left[ \sum_{j = 1}^{N-1} |m_j| \right]} 2 e^{- \beta \epsilon}

 \sum_{m_{N} = -1}^{1} |m_1| e^{- \beta \epsilon \left[ \sum_{j = 1}^{N-1} |m_j| \right]} e^{- \beta \epsilon |m_N|} = |m_1| e^{- \beta \epsilon \left[ \sum_{j = 1}^{N-1} |m_j| \right]} \sum_{m_{N} = -1}^{1} e^{- \beta \epsilon |m_N|} = |m_1| e^{- \beta \epsilon \left[ \sum_{j = 1}^{N-1} |m_j| \right]} (2 e^{- \beta \epsilon} + 1)

Veja que a primeira soma acontece apenas no último termo, enquanto a segunda ocorre nos outros  N-1 termos. Vou fazer a soma sobre  m_{N-1} apenas para tornar mais claro o que acontecerá no resultado final:

 \langle E \rangle = \frac{\epsilon}{Z} \sum_{m_1 = -1}^{1} (\cdots) \sum_{m_{N-1} = -1}^{1} \left( \sum_{m_{N} = -1}^{1} |m_1| e^{- \beta \epsilon \left[ \sum_{j = 1}^{N-1} |m_j| \right]} e^{- \beta \epsilon |m_N|} + (\cdots) + \sum_{m_{N} = -1}^{1} |m_N| e^{- \beta \epsilon \left[ \sum_{j = 1}^{N-1} |m_j| \right]} e^{- \beta \epsilon |m_N|} \right)

 = \frac{\epsilon}{Z} \sum_{m_1 = -1}^{1} (\cdots) \sum_{m_{N-1} = -1}^{1} \left( |m_1| e^{- \beta \epsilon \left[ \sum_{j = 1}^{N-1} |m_j| \right]} (2 e^{- \beta \epsilon} + 1) + (\cdots) + |m_{N-1}| e^{- \beta \epsilon \left[ \sum_{j = 1}^{N-1} |m_j| \right]} (2 e^{- \beta \epsilon} + 1) + e^{- \beta \epsilon \left[ \sum_{j = 1}^{N-1} |m_j| \right]} 2 e^{- \beta \epsilon} \right)
 = \frac{\epsilon}{Z} \sum_{m_1 = -1}^{1} (\cdots) \sum_{m_{N-1} = -1}^{1} \left( |m_1| e^{- \beta \epsilon \left[ \sum_{j = 1}^{N-1} |m_j| \right]} (2 e^{- \beta \epsilon} + 1) + (\cdots) + |m_{N-1}| e^{- \beta \epsilon \left[ \sum_{j = 1}^{N-1} |m_j| \right]} (2 e^{- \beta \epsilon} + 1) + e^{- \beta \epsilon \left[ \sum_{j = 1}^{N-1} |m_j| \right]} 2 e^{- \beta \epsilon} \right)
 = \frac{\epsilon}{Z} \sum_{m_1 = -1}^{1} (\cdots) \sum_{m_{N-2} = -1}^{1} \left( \sum_{m_{N-1} = -1}^{1} |m_1| e^{- \beta \epsilon \left[ \sum_{j = 1}^{N-1} |m_j| \right]} (2 e^{- \beta \epsilon} + 1) + (\cdots) + \sum_{m_{N-1} = -1}^{1} |m_{N-1}| e^{- \beta \epsilon \left[ \sum_{j = 1}^{N-1} |m_j| \right]} (2 e^{- \beta \epsilon} + 1) + \sum_{m_{N-1} = -1}^{1} e^{- \beta \epsilon \left[ \sum_{j = 1}^{N-1} |m_j| \right]} 2 e^{- \beta \epsilon} \right)

Análogamente ao que ocorreu nas somas anteriores, podemos colocar os termos com  m_{N-1} em evidência e obtemos:

 \langle E \rangle = \frac{\epsilon}{Z} \sum_{m_1 = -1}^{1} (\cdots) \sum_{m_{N-2} = -1}^{1} \left( |m_1| e^{- \beta \epsilon \left[ \sum_{j = 1}^{N-2} |m_j| \right]} (2 e^{- \beta \epsilon} + 1)^2 + (\cdots) + e^{- \beta \epsilon \left[ \sum_{j = 1}^{N-2} |m_j| \right]} (2 e^{- \beta \epsilon} + 1) 2 e^{- \beta \epsilon} + e^{- \beta \epsilon \left[ \sum_{j = 1}^{N-2} |m_j| \right]} 2 e^{- \beta \epsilon} (2 e^{- \beta \epsilon} + 1) \right)

Portanto, é possível perceber que ao fim o que ocorrerá é que apareceram, em todas as somas,  N-1 termos do tipo  (2 e^{- \beta \epsilon} + 1) multiplicados entre si e apenas um termo do tipo  2 e^{- \beta \epsilon} , enquanto que  e^{- \beta \epsilon \left[ \sum_{j = 1}^{n} |m_j| \right]} , com  n \in \mathbb{N} | n \in [1,N] vai tendo seu índice superior diminuindo, de unidade em unidade, até que este termo se torne  e^{- \beta \epsilon \left[ \sum_{j = 1}^{1} |m_j| \right]} . Por fim teremos  N termos do tipo  2 e^{- \beta \epsilon} (2 e^{- \beta \epsilon} + 1)^{N-1} , assim, usando  Z calculado acima:

 \langle E \rangle = \frac{\epsilon}{Z} \left( 2 e^{- \beta \epsilon} (2 e^{- \beta \epsilon} + 1)^{N-1} + (\cdots) + 2 e^{- \beta \epsilon} (2 e^{- \beta \epsilon} + 1)^{N-1} \right) = \frac{N \epsilon}{Z} 2 e^{- \beta \epsilon} (2 e^{- \beta \epsilon} + 1)^{N-1} = \frac{N \epsilon}{(2 e^{- \beta \epsilon} + 1)^{N}} 2 e^{- \beta \epsilon} (2 e^{- \beta \epsilon} + 1)^{N-1} = \frac{2 N \epsilon e^{- \beta \epsilon}}{(2 e^{- \beta \epsilon} + 1)}

Que coincide com os dois métodos (muito mais simples) anteriores! Eu tenho quase certeza de que você nunca mais vai querer fazer uma média dessa maneira denovo! (Aproveite, pois essa é a única vez que farei essa conta por esse método 'violento'.)

b) Como sabemos:

 S = k (\ln(Z) + \beta U) = N k \left(\ln(2 e^{- \beta \epsilon} + 1) + \beta \frac{2 \epsilon e^{- \beta \epsilon}}{(2 e^{- \beta \epsilon} + 1)} \right) = N k \left(\ln(2 e^{- \beta \epsilon} + 1) + \beta \frac{2 \epsilon}{(2 + e^{\beta \epsilon})} \right)

Note que no limite de  T \to 0^+ - que é o mesmo que  \beta \to \infty - temos:

 S(\beta \to \infty) \equiv \lim_{\beta \to \infty} N k \left(\ln(2 e^{- \beta \epsilon} + 1) + \beta \frac{2 \epsilon}{(2 + e^{\beta \epsilon})} \right) = 0

Note que no limite de  T \to \infty - que é o mesmo que  \beta \to 0^+ - temos:

 S(\beta \to 0^+) \equiv \lim_{\beta \to 0^+} N k \left(\ln(2 e^{- \beta \epsilon} + 1) + \beta \frac{2 \epsilon}{(2 + e^{\beta \epsilon})} \right) = N k \ln(3)

c) Uma maneira de se fazer esse item é retornar à definição de entropia no ensemble microcanônico e contar estados usando apenas os conceitos - quase sem fazer contas.

Se lembrarmos que quando  T \to 0^+ todas partículas estão nos seus respectivos estados fundamentais (e este é o estado fundamental 'global' do sistema, que constitui a menor energia possível que o sistema assume), logo há apenas uma configuração possível para o sistema - o estado no qual todas as partículas possuem  m = 0 (ou  m_i = 0, \, \forall i \in \mathbb{N}| i \in [1, N] ) -, assim  \Omega(E_0) = 1 e pela definição de entropia no ensemble microcanônico, temos:

 S = k \ln(\Omega(E_0)) = k \ln(1) = 0

Outra maneira aceitável - mas, pessoalmente, não a minha favorita - de se chegar ao resultado acima é argumentar que, para um cristal perfeito (nosso caso), se o estado fundamental não possuir degenerescência (nosso caso), pela Terceira Lei da Termodinâmica a entropia deve ser nula no zero absoluto, id est,  T \to 0^+ .

Se notarmos que quando  T \to \infty todos os estados possíveis são igualmente prováveis de serem ocupados, vemos que há  3^N configurações possíveis para o sistema, assim  \Omega(E) = 3^N e pela definição de entropia no ensemble microcanônico, temos:

 S = k \ln(\Omega(E)) = k \ln(3^N) = N k \ln(3)

Também é possível chegar nesse resultado pesando que o número de estados acessíveis para uma dada configuração - na qual temos  n_+ núcleos cujo  m = + 1 ,  n_- núcleos cujo  m = - 1 e  n_0 núcleos cujo  m = 0 - é:

 \frac{N!}{n_+!n_0!n_-!}; \, N = n_+ + n_0 + n_- \Rightarrow n_0 = N - n_+ - n_-

quando  T \to \infty todos os estados possíveis são igualmente prováveis de serem ocupados, logo todas as configurações são admissíveis, de forma que o número de estados será:

 \Omega(E) = \sum_{n_+ = 0}^{N} \sum_{n_- = 0}^{N} \frac{N!}{n_+!(N - n_+ - n_-)!n_-!} = 3^N

Calculado a partir de uma propriedade da pirâmide de Pascal, e coincidindo com o resultado obtido anteriormente.

Ambos resultados em conformidade com o previsto no item b).

Exercício 8

Essa questão descreve um modelo bidimensional simples de uma situação física de interesse. Um sólido à temperatura  T contém  N íons de impurezas negativamente carregadas por  cm^{3} ; esses íons ocupam o lugar no qual deveriam estar os átomos que constituem o sólido. O sólido como um todo é eletricamente neutro. Isso ocorre porque para cada íon negativamente carregado de carga  - e tem em sua vizinhança um outro íon com carga  + e . Esse íon positivo é pequeno, portanto livre para se mover para os sítios vizinhos. Na ausência de campos elétricos externos ele será encontrado com mesma probabilidade em qualquer um dos quatro sítios equidistantes que ficam entorno do íon estacionário negativamente carregado (vide figura).

Se um pequeno campo elétrico  \boldsymbol{\varepsilon} é aplicado ao longo da direção  x , calcule a polarização elétrica, id est, o momento de dipolo elétrico médio por unidade de volume ao longo do eixo  x .

Solução:

Exercício 9

Um fio de raio  r_0 coincide com o eixo de um cilindro de metal de raio  R e tamanho  L . O fio é mantido num potencial  V positivo em relação ao cilindro. O sistema como um todo está a uma alta temperatura  T . Como resultado, elétrons são emitidos dos metais quentes, formando um gás diluído que preenche o cilindro (este gás está em equilíbrio). A densidade dos elétrons é tão baixa que a interação eletrostática mútua pode ser desprezada.

a) Use o teorema de Gauss para obter uma expressão para o campo eletrostático que existe para  r no intervalo  [r_0,R] . Assuma que o cilindro de comprimento  L seja muito longo, ou seja, use a aproximação de cilindro infinito.

b) No equilíbrio, os elétrons formam um gás de densidade variável que preenche todo o espaço entre o cilindro e o fio. Usando o resultado da parte a), encontre a dependência da densidade de carga elétrica com relação à distância radial  r .

Solução:

Exercício 10

Uma solução diluída de macromoléculas à temperatura  T é posta numa ultracentrífuga que roda com velocidade angular  \omega . A aceleração centrípeta  r \omega^2 agindo numa partícula de massa  m pode ser substituída por uma força centrífuga  m r \omega^2 equivalente no referencial girante de coordenadas.

a) Encontre como a densidade relativa de molécula  \rho(r) varia com a distância radial  r do eixo de rotação.

b) Mostre quantitativamente como o peso molecular das macromoléculas pode ser determinado se a razão das densidades  \frac{\rho_1}{\rho_2} nos raios  r_1 e  r_2 é medido oticamente.

Solução:

Exercício 13

Suponha que a expressão:

 S = - k \sum_q P_q \ln{(P_q)}

é aceita como definição geral da entropia dum sistema. Os problemas a seguir ilustram que a entropia assim definida possue algumas propriedades muito interessantes mostrando que  S é uma medida da desordem e aleatoreidade num sistema.

Imagine que um sistema  A_1 possui uma probabilidade  P_r de ser encontrado num estado  r e que um sistema  A_2 possui uma probabilidade  P_s de ser encontrado num estado  s , de forma que:

 S_1 = - k \sum_r P_r \ln{(P_r)}; \,  S_2 = - k \sum_s P_s \ln{(P_s)} .

Cada um dos estados do sistema composto  A consistindo de  A_1 e  A_2 pode ser indexado pelo par de números  r, \, s ; suponha que a probabilidade de se encontrar  A nesse estados seja denotada por  P_{rs} . Então a entropia final é definida por:

 S = - k \sum_{rs} P_{rs} \ln{(P_{rs})}

Se  A_1 e  A_2 são fracamente interagentes, então, são estatisticamente independentes, de forma tal que  P_{rs} = P_r P_s . Mostre que sob tais circunstâncias a entropia é simplesmente aditiva, id est,  S = S_1 + S_2 .

Solução:

Conforme o enunciado:

 S = - k \sum_{rs} P_{rs} \ln{(P_{rs})} = - k \sum_{r} \sum_{s} P_{rs} \ln{(P_{rs})} = - k \sum_{r} \sum_{s} P_{r} P_{s} \ln{(P_{r} P_{s})} = - k \sum_{r} \sum_{s} P_{r} P_{s} \left( \ln{P_{r}} + \ln {P_{s}} \right)

 = - k \sum_{r} \sum_{s} P_{r} P_{s} \ln{(P_{r})} - k \sum_{r} \sum_{s} P_{r} P_{s} \ln{(P_{s})} = \left(- k \sum_{r} P_{r} \ln{(P_{r})} \right) \sum_{s} P_{s} - k \sum_{r} P_{r} \sum_{s} P_{s} \ln{(P_{s})}
 = S_1 \sum_{s} P_{s} + \sum_{r} P_{r} \left(- k \sum_{s} P_{s} \ln{(P_{s})} \right) = S_1 \sum_{s} P_{s} + \sum_{r} P_{r} S_2 = S_1 \sum_{s} P_{s} + S_2 \sum_{r} P_{r}

Como:

 \sum_{s} P_{s} = 1 = \sum_{r} P_{r}

Logo:

 S = S_1 \sum_{s} P_{s} + S_2 \sum_{r} P_{r} = S_1 + S_2

Capítulo 7

Exercício 1

Considere uma mistura de gases monoatômicos ideais inertes à temperatura absoluta  T num recipiente de volume  V . Denotemos por  \nu_n o número de moles do n-ésimo gás, com  n \in \mathbb{N} e  n = 1, 2, \cdots, k .

a) Considerando a função de partição clássica do sistema, derive sua equação de estado, ou seja, encontre a expressão para a pressão média do sistema  \bar{P} .

b) Como a pressão total  \bar{P} do gás se relaciona com com a pressão parcial  p_i que o i-ésimo gás produziria se estivesse sozinho ocupando todo o volume do recipiente à temperatura  T ?

Solução:

Exercício 2

 N partículas de um gás ideal monoatômico, cada uma com massa  m , estão em equilíbrio térmico à temperatura  T . O gás está dentro de uma caixa cúbica de lado  L , cujas faces do topo e do fundo do cubo são paralelas à superfície da Terra. O efeito do campo gravitacional uniforme da Terra deve ser considerado, com a aceleração gravitacional sendo denotada por  g .

a) Qual é a energia cinética média de uma partícula?

b) Qual é a energia potencial média de uma partícula?

Solução:

Exercício 3

Um recipiente termicamente isolado é dividido por uma partição em dois compartimentos, sendo o compartimento da direita  b vezes mais volumoso que o da esquerda. O compartimento da esquerda contém  \nu moles de um gás ideal à temperatura  T e à pressão  \bar{P} . O compartimento da direita contém  \nu moles de um gás ideal à temperatura  T .

A partição é removida. Calcule:

a) a pressão final da mistura de gases em termos de  \bar{P} ;

b) a mudança total de entropia se os gases são diferentes;

c) a mudança total de entropia se os gases são idênticos;

Solução:

Exercício 4

Um recipiente termicamente isolado é dividido em duas partes por uma partição adiabática. Ambas partes contém gases ideais de capacidade térmica  C_V . Uma das partes contém  \nu_1 moles de gás à temperatura  T_1 e à pressão  \bar{P_1} ; a outra contém  \nu_2 moles de gás à temperatura  T_2 e à pressão  \bar{P_2} . A partição é agora removida e os gases podem agora entrar em equilíbrio.

a) Encontre a pressão final.

b) Encontre a variação de entropia total  \Delta S se os gases são diferentes.

c) Encontre a variação de entropia total  \Delta S se os gases são idênticos.

Solução:

Exercício 6

Considere um gás não ideal no qual as moléculas interagem umas com as outras. Esse gás está em equilíbrio térmico à temperatura absoluta  T . Suponha que os graus de liberdade translacionais do gás possam ser tratados classicamente. Qual é a energia cinética média de translação (do centro de mass) de uma molécula nesse gás?

Solução:

Exercício 7

Moléculas monoatômicas adsorvidas numa superfície podem se mover livremente nessa superfície e podem ser tratadas com um gás bidimensional. Qual é a capacidade térmica molar das moléculas adsorvidas nessa superfície de tamanho fixo à temperatura  T ?

Solução:

Exercício 8

A resistividade elétrica  \rho de um metal à temperatura ambiente é proporcional à probabilidade de que um elétron seja espalhado pelos átomos vibrantes da rede, e essa probabilidade é por sua vez proporcional à média do quadrado da amplitude de vibração desses átomos. Assumindo que a estatística clássica seja válida nesse intervalo de temperatura, qual é a dependência da resistividade elétrica  \rho na temperatura absoluta  T ?

Solução:

Exercício 9

Um sistema de  N partículas fracamente interagentes à temperatura  T suficientemente alta de forma tal que a estatística clássica seja aplicável. Cada partícula clássica tem massa  m e é livre para oscilar entorno de uma posição de equilíbrio (no caso unidimensional). Calcule a capacidade térmica desse sistema nessa temperatura em cada um dos casos:

a) A força efetiva restauradora é proporcional a  x ;

b) A força efetiva restauradora é proporcional a  x^3 ;

Solução:

Exercício 10

Solução:

Exercício 11

Utilize o seguinte modelo altamente simplificado para calcular a capacidade térmica do grafite, que possui um estrutura cristalina altamente anisotrópica (composta por várias camadas cristalinas sobrepostas como grades empilhadas - vide figura).

Cada carbono na estrutura pode ser pensado como um oscilador harmônico simples em três dimensões, cujas forças restauradoras nas direções paralelas a uma 'camada' são muito altas, portanto as freqüências de oscilação nas direções  x e  y - que estão no plano de cada camada - valem  \omega_{\parallel} e são tão altas que  \hbar \omega_{\parallel} \gg 300 k . Por outro lado, a força restauradora perpendicular a cada camada é pequena, de forma que a freqüência de oscilação nessa direção ( \omega_{\perp} ) - que batizaremos de  z - é pequena o suficiente para que  \hbar \omega_{\perp} \ll 300 k .

Com base nesse modelo, qual é o calor específico molar (a volume constante) do grafite a  300 K ?

Solução:

Exercício 12

Solução:

Exercício 14

Considere um conjunto de  N átomos magnéticos fracamente interagentes por unidade de volume à temperatura  T e descreva a situação classicamente... Dessa forma, cada momento magnético,  \mu pode assumir qualquer valor arbitrário de  \theta com relação a uma dada direção - chamemo-la de  z . Na ausência de campo magnético, a probabilidade de que esse ângulo esteja no intervalo  [\theta, \theta + \mathrm{d} \theta] é simplesmente proporcional ao ângulo sólido  2 \pi sen(\theta) \mathrm{d} \theta . Na presença de campo magnético  H na direção  z , essa probabilidade deve ser também proporcional ao fator de Boltzmann  e^{- \beta E} , no qual  E é a energia magnética do momento magnético  \mu que faz um ângulo  \theta com o eixo  z . Use esse resultado para calcular a expressão para o momento magnético médio  \bar{M}_z clássico desses  N átomos.

Solução:

Exercício 16

Uma solução aquosa à temperatura  T contém uma pequena concentração de átomos magnéticos, cada um dos quais possui spin total  1/2 e um momento magnético  \mu . A solução é colocada num campo magnético externo  H apontado para a direção  z . A magnetude desse campo é inomogênea sobre o volume da solução. Para ser específico,  H = H(z) é uma função de  z monotonicamente crescente, assumindo o valor  H_1 no fundo da solução, onde  z = z_1 e assumindo o valor maior  H_2 no topo da solução, onde  z = z_2 .

a) Se  n_+(z) \mathrm{d} z denota o número médio de átomos magnéticos cujo spin aponta na direção  z e que estão localizados no intervalo  [z, z + \mathrm{d} z] , qual é a razão  n_+(z_2)/n_+(z_1) ?

b) Se  n(z) \mathrm{d} z denota o número total médio de átomos magnéticos (de ambas orientações de spin) localizados no intervalo  [z, z + \mathrm{d} z] , qual é a razão  n(z_2)/n(z_1) ? Esta é maior, igual ou menor que a unidade?

c) Use o fato de que  \mu H \ll kT para simplificar as respostas encontradas nos itens anteriores.

Solução:

Exercício 17

Qual é a fração de moléculas de um gás ideal que possui a compoenente  x da velocidade entre  - \tilde{v} e  \tilde{v} , sendo  \tilde{v} a velocidade mais provável das moléculas?

(O livro sugere que se consulte o apêndice A5 ou uma tabela da função erro.)

Solução:

Exercício 18

Use os resultados do problema 5.9 para expressar a velocidade do som de um gás ideal em termos da velocidade mais provável das moléculas no gás,  \tilde{v} e da razão do calor específico:

 \gamma \equiv \frac{C_P}{C_V}

No caso do gás hélio ( He ), qual é a fração de moléculas que têm velocidades moleculares menores que a velocidade do som no gás?

Solução:

Exercício 19

Um gás de moléculas, cujas moléculas tem massa  m , está em equilíbrio a temperatura absoluta  T . Denote a velocidade de uma molécula por  v , e suas componentes cartesianas por  v_x ,  v_y e  v_z . Calcule os seguintes valores médios -  b é apenas uma constante:

a)  \langle v_x \rangle

b)  \langle v_z^2 \rangle

c)  \langle v^2 v_x \rangle

d)  \langle v_x^3 v_y \rangle

e)  \langle (v_x + b v_y)^2 \rangle

f)  \langle v_x^2 v_y^2 \rangle

(O livro faz uma observação com o seguinte espírito: 'Não é necessário fazer nenhuma integral.'. De fato, em todos os ítens, é possível evitar o cálculo das integrais, mas para agradar as pessoas que acreditam que contas 'formam caráter' ou que 'física entra pelos dedos', efetuei as contas das integrais)

Solução:

Para começar façamos algumas observações:

 E = \frac{ \vec{p}^2}{2m} = \frac{p_x^2}{2m} + \frac{p_y^2}{2m} + \frac{p_z^2}{2m}

Definiremos  \beta = 1 / kT . Com isso, podemos construir as distribuições de probabilidade de Maxwell-Boltzmann:

 P_{MB} = \frac{e^{- \beta E}}{\displaystyle \iiint e^{- \beta E} \mathrm{d}^3v}

Como:

 \iiint  e^{- \beta E} \mathrm{d}^3v = \int_{-\infty}^{\infty} \int_{-\infty}^{\infty} \int_{-\infty}^{\infty} \mathrm{d}v_x \mathrm{d}v_y \mathrm{d}v_z e^{-\beta m v_x^2/2} e^{-\beta m v_y^2/2} e^{-\beta m v_z^2/2} = \left( \int_{-\infty}^{\infty} \mathrm{d}v_x e^{-\beta m v_x^2/2kT} \right)^3 = \left( \int_{-\infty}^{\infty} \mathrm{d}w e^{-\alpha w^2} \right)^3 = \left( \sqrt{\frac{\pi}{\alpha}} \right)^3 = \left( \sqrt{\frac{2 \pi}{\beta m}} \right)^3 = \sqrt{\frac{8 \pi^3 (kT)^3}{m^3}}

(Sendo  \alpha = \beta m / 2; \, v_x \equiv w .)

Para ver como calcular a integral acima vide este artigo do Nerdyard.

Portanto temos:

 P_{MB} = \sqrt{\frac{m^3}{8 \pi^3 (kT)^3}} e^{- \beta E}


a) Utilizando a distribuição acima, temos:

 \langle v_x \rangle \equiv \sqrt{\frac{m^3}{8 \pi^3 (kT)^3}} \iiint \mathrm{d}^3v v_x e^{- \beta E} = \sqrt{\frac{m}{2 \pi kT}} \int_{-\infty}^{\infty} \mathrm{d}v_x v_x e^{- \beta m v_x^2/2} = 0

Já que o integrando é uma função ímpar integrada num intervalo simétrico.

b) Método 1 (por definição):

 \langle v_z^2 \rangle \equiv \sqrt{\frac{m^3}{8 \pi^3 (kT)^3}} \iiint \mathrm{d}^3v v_z^2 e^{- \beta E} = \sqrt{\frac{m}{2 \pi kT}} \int_{-\infty}^{\infty} \mathrm{d}v_z v_z^2 e^{- \beta m v_z^2/2} = \sqrt{\frac{m}{2 \pi kT}} \int_{-\infty}^{\infty} \mathrm{d}v_z v_z^2 e^{- \beta m v_z^2/2}

Sendo  \alpha = \beta m / 2 e  v_z \equiv w , temos:

 \langle v_z^2 \rangle = \sqrt{\frac{m}{2 \pi kT}} \int_{-\infty}^{\infty} \mathrm{d}w w^2 e^{- \alpha w^2} = - \sqrt{\frac{m}{2 \pi kT}} \frac{\mathrm{d}}{\mathrm{d}\alpha} \left( \int_{-\infty}^{\infty} \mathrm{d}w e^{- \alpha w^2} \right) = - \sqrt{\frac{m}{2 \pi kT}} \frac{\mathrm{d}}{\mathrm{d}\alpha} \left( \sqrt{\frac{\pi}{\alpha}} \right) = \sqrt{\frac{m}{2 \pi kT}} \frac{1}{2} \sqrt{\frac{\pi}{\alpha^3}} = \frac{1}{2} \sqrt{\frac{m}{2 \pi kT}} \sqrt{\frac{8 \pi}{\beta^3 m^3}} = \frac{1}{2} \sqrt{\frac{m}{2 \pi kT}} \sqrt{\frac{8 (kT)^3 \pi}{m^3}} = \frac{1}{2} \sqrt{\frac{4 (kT)^2}{m^2}} = \frac{kT}{m}

Método 2 (teorema da equipartição):

O teorema da equipartição afirma que o valor médio de cada termo quadrático independente na energia é igual a  kT/2 . Logo:

 \left \langle \frac{m v_z^2}{2} \right \rangle  = \frac{kT}{2} \Rightarrow \langle v_z^2 \rangle = \frac{kT}{m}

c) Por definição:

 \langle v^2 v_x \rangle \equiv \sqrt{\frac{m^3}{8 \pi^3 (kT)^3}} \iiint \mathrm{d}^3v v^2 v_x e^{- \beta E} = \sqrt{\frac{m^3}{8 \pi^3 (kT)^3}} \iiint \mathrm{d}^3v \left( v_x^3 + v_x v_y^2 + v_x v_z^2 \right) e^{- \beta E}  = \sqrt{\frac{m^3}{8 \pi^3 (kT)^3}} \int_{-\infty}^{\infty} \int_{-\infty}^{\infty} \int_{-\infty}^{\infty} \mathrm{d}v_x \mathrm{d}v_y \mathrm{d}v_z \left( v_x^3 + v_x v_y^2 + v_x v_z^2 \right) e^{-\beta m v_x^2/2} e^{-\beta m v_y^2/2} e^{-\beta m v_z^2/2}  = \sqrt{\frac{m}{2 \pi kT}} \int_{-\infty}^{\infty} \mathrm{d}v_x v_x^3 e^{-\alpha v_x^2} + \sqrt{\frac{m^2}{4 \pi^2 (kT)^2}} \int_{-\infty}^{\infty} \mathrm{d}v_x v_x e^{-\beta m v_x^2/2} \int_{-\infty}^{\infty} \mathrm{d}v_y v_y^2 e^{-\beta m v_y^2/2} + \sqrt{\frac{m^2}{4 \pi^2 (kT)^2}} \int_{-\infty}^{\infty} \mathrm{d}v_x v_x e^{-\beta m v_x^2/2} \int_{-\infty}^{\infty} \mathrm{d}v_z v_z^2 e^{-\beta m v_z^2/2}  = - \sqrt{\frac{m}{2 \pi kT}} \frac{\mathrm{d}}{\mathrm{d} \alpha} \left( \int_{-\infty}^{\infty} \mathrm{d}v_x v_x e^{-\alpha v_x^2} \right) + \left \langle v_x \right \rangle \left \langle v_y^2 \right \rangle + \left \langle v_x \right \rangle \left \langle v_z^2 \right \rangle

Sendo os dois últimos termos nulos, de acordo com o item a). Agora podemos argumentar de duas maneiras para obtermos o resultado:

  •  \langle v^2 v_x \rangle = \sqrt{\frac{m}{2 \pi kT}} \int_{-\infty}^{\infty} \mathrm{d}v_x v_x^3 e^{-\alpha v_x^2} = 0

Já que  v_x^3 e^{-\alpha v_x^2} é uma função ímpar integrada num intervalo simétrico.

Ou...:

  •  \langle v^2 v_x \rangle = - \frac{\mathrm{d}}{\mathrm{d} \alpha} \left( \langle v_x \rangle \right) = 0

'Método Alternativo':

Nesse caso, em particular, é possível chegar a essa mesma conclusão por um 'caminho mais fácil' apenas "por notação":

 \langle v^2 v_x \rangle = \left \langle \left( v_x^2 + v_y^2 + v_z^2\right) v_x \right \rangle = \left \langle \left( v_x^3 + v_x v_y^2 + v_x v_z^2 \right) \right \rangle = \left \langle v_x^3 \right \rangle + \left \langle v_x v_y^2 \right \rangle + \left \langle v_x v_z^2 \right \rangle = \left \langle v_x^3 \right \rangle + \left \langle v_x \right \rangle \left \langle v_y^2 \right \rangle + \left \langle v_x \right \rangle \left \langle v_z^2 \right \rangle = 0

Já que pelo item a) vemos que  \langle v_x \rangle = 0 . Também devido à paridade da função algo análogo ocorre (como já vimos) com  \langle v_x^3 \rangle = 0 .

NOTA: Só é possível 'separar' as médias, exempli gratia:  \langle v_x v_y^2 \rangle = \langle v_x \rangle \langle v_y^2 \rangle , pois não há 'termos cruzados' em  E , como poderia acontecer se, por exemplo,  E' = m v_x v_y , caso no qual.

d) Método 1 (por definição):

 \langle v_x^3 v_y \rangle \equiv \sqrt{\frac{m^3}{8 \pi^3 (kT)^3}} \iiint \mathrm{d}^3v v_x^3 v_y e^{- \beta E} = \sqrt{\frac{m^2}{4 \pi^2 (kT)^2}} \int_{-\infty}^{\infty} \mathrm{d}v_x v_x^3 e^{-\beta m v_x^2/2} \int_{-\infty}^{\infty} \mathrm{d}v_y v_y  e^{-\beta m v_y^2/2} = 0

Devido à paridade dos integrandos.

Método 2 ("por notação"):

Como  E não possue termos cruzados:

 \langle v_x^3 v_y \rangle = \langle v_x^3 \rangle \langle v_y \rangle = 0

Conforme podemos concluir a partir de analogia com os itens a) e c).

e) Método 1 (por definição):

 \langle (v_x + b v_y)^2 \rangle \equiv \sqrt{\frac{m^3}{8 \pi^3 (kT)^3}} \iiint \mathrm{d}^3v (v_x + b v_y)^2 e^{- \beta E} = \sqrt{\frac{m^2}{4 \pi^2 (kT)^2}} \int_{-\infty}^{\infty} \int_{-\infty}^{\infty} \mathrm{d}v_x \mathrm{d}v_y (v_x + b v_y)^2 e^{-\beta m v_x^2/2} e^{-\beta m v_y^2/2}

Método 2 ("por notação" e utilizando o teorema de equipartição):

Como  E não possue termos cruzados e (conforme o item a))  \langle v_i \rangle = 0, \, \forall i \in \{x,y,z\} :

 \langle (v_x + b v_y)^2 \rangle = \langle (v_x^2 + b^2 v_y^2 + 2 b v_x v_y) \rangle = \langle v_x^2 \rangle + b^2 \langle v_y^2 \rangle + 2 b \langle v_x v_y \rangle = \langle v_x^2 \rangle + b^2 \langle v_y^2 \rangle + 2 b \langle v_x \rangle \langle v_y \rangle = \langle v_x^2 \rangle + b^2 \langle v_y^2 \rangle = \frac{(1 + b^2) kT}{m}

Já que, pelo item b), vemos que  \langle v_i^2 \rangle = kT/m, \, \forall i \in \{x,y,z\} .

f) Método 1 (por definição):

 \langle v_x^2 v_y^2 \rangle \equiv \sqrt{\frac{m^3}{8 \pi^3 (kT)^3}} \iiint \mathrm{d}^3v v_x^2 v_y^2 e^{- \beta E} = \sqrt{\frac{m^3}{8 \pi^3 (kT)^3}} \int_{-\infty}^{\infty} \int_{-\infty}^{\infty} \int_{-\infty}^{\infty} \mathrm{d}v_x \mathrm{d}v_y \mathrm{d}v_z v_x^2 v_y^2 e^{- \beta m v_x^2/2} e^{- \beta m v_y^2/2} e^{- \beta m v_z^2/2}  = \sqrt{\frac{m^2}{4 \pi^2 (kT)^2}} \int_{-\infty}^{\infty} \mathrm{d}v_x v_x^2 e^{- \beta m v_x^2/2} \int_{-\infty}^{\infty} \mathrm{d}v_y v_y^2 e^{- \beta m v_y^2/2} = \langle v_x^2 \rangle \langle v_y^2 \rangle = \frac{(kT)^2}{m^2}

Sendo o último resultado obtido no item b).

Método 2 ("por notação" e utilizando o teorema de equipartição):

Como  E não possue termos cruzados e vemos que  \langle v_i^2 \rangle = kT/m, \, \forall i \in \{x,y,z\} pelo item b):

 \langle v_x^2 v_y^2 \rangle = \langle v_x^2 \rangle \langle v_y^2 \rangle = \frac{(kT)^2}{m^2}

OBSERVAÇÃO: Não foi necessário considerar os graus de liberdade translacionais, pois são irrelevantes nesse contexto físico. Isso pode ser mostrado matematicamente:

Exercício 20

Um gás monoatômico ideal em equilíbrio térmico a temperatura ambiente  T é tal que a distribuição de velocidades moleculares é maxwelliana - id est, clássica.

a) Se  v denota a velocidade de uma molécula, calcule:

 \left \langle \frac{1}{v} \right \rangle

Compare este resultado com:

 \frac{1}{\langle v \rangle}

b) Encontre o número de moléculas por unidade de volume cuja energia está no intervalo  [E, E + \mathrm{d} E] .

Solução:

Exercício 21

Qual é a energia cinética mais provável  \langle E \rangle de moléculas com distribuição de velocidades maxwelliana? O valor encontrado é igual a  m \tilde{v}^2/2 , na qual  \tilde{v} é a velocidade mais provável das moléculas?

Solução:

Exercício 22

Um gás de átomos, sendo  m a massa de cada átomo, é mantido a temperatura absoluta  T num determinado recipiente. Os átomos emitem luz que passa (na direção  x ) através de uma janela do recipiente e pode ser observada como uma linha espectral num espectroscópio. Um átomo estacionário emite luz numa freqüência única  \nu_0 . Mas, por causa do efeito Doppler, a freqüência da luz 'observada' por um átomo com componente  x da velocidade  v_x não é simplesmente igual a freqüência  \nu_0 , mas é aproximadamente dada por:

 \nu = \nu_0 \left( 1 + \frac{v_x}{c} \right)

sendo  c a velocidade da luz. Como resultado, nem toda a luz que chega no espectroscópio está numa freqüência  \nu_0 ; ao invés disso é caracterizada por uma distribuição de intensidade  I(\nu) \mathrm{d} \nu especificando a fração de intensidade de luz no intervalo  [\nu, \nu + \mathrm{d} \nu] . Calcule:

a) A freqüência média da luz  \bar{\nu} observada no espectroscópio.

b) A raiz quadrada da média do quadrado (rms) do deslocamento da freqüência da luz observada no espectroscópio, ou seja,  \Delta \nu_{rms} = \sqrt{\left \langle \left( \nu - \langle \nu \rangle \right)^2 \right \rangle} , medida a partir da freqüência média.

c) A distribuição da intensidade relativa  I(\nu) \mathrm{d} \nu da luz observada no espectroscópio.

Solução:

Exercício 23

Solução:

Exercício 24

Solução:

Exercício 26

Um reservatório é 'tampado' por uma partição porosa pela qual gases podem passar por efusão e são posteriormente bombeados para uma câmara coletora. O reservatório é preenchido por gases de dois tipos de moléculas que diferem entre si apenas por conter isótopos diferentes de um determinado átomo, de forma que uma molécula tenha massa  m_1 e a outra tenha massa  m_2 . As concentraões de cada uma destas moléculas no reservatório são  c_1 e  c_2 e são mantidas constantes através de constante bombeamento de gás 'fresco' neste.

a) Sendo  c_1' e  c_2' as concentrações na câmara coletora, qual é a razão  c_2'/c_1' ?

b) Utilizando o gás  U F_6 pode-se separar por efusão os isótopos  U^{235} de  U^{238} sendo o primeiro útil para iniciar reações de fissão nuclear. As moléculas do gás são, portanto,  U^{235} F_{6}^{19} e  U^{238} F_{6}^{19} - as concentrações dessas moléculas, correspondem à abundância natural desses dois isótopos, que são  c_{238} = 99.3 \% e  c_{235} = 0.7 \% . Calcule a correspondente razão  c_{235}' / c_{238}' das moléculas coletadas após a efusão em termos de  c_{235} / c_{238} .

Solução:

Exercício 27

Um recipiente possuicomo uma de suas paredes uma membrana constituída de muitos buraquinhos. Se o recipiente é preenchido com gás a uma pressão moderada  P_0 , este gás irá escapar por efusão para o vácuo que cerca o recipiente. É descoberto que quando o recipiente é preenchido com hélio  He à temperatura ambiente e à pressão  P_0 , a pressão cai pela metade após uma hora.

Suponha que o recipiente seja preenchido à temperatura ambiente e à pressão  P_0 por uma mistura de hélio-neônio, cuja concentração atômica de cada gás seja de  50 \% . Qual será a razão  n_{Ne} / n_{He} das concentrações atômicas de hélio e neônio após uma hora? Expresse sua resposta em termos das massas atômicas do hélio e do neônio (respectivamente,  \mu_{He} e  \mu_{Ne} ).

Solução:

Exercício 28

Uma caixa de volume  V contendo um gás ideal de massa molecular  \mu à temperatura  T , é dividida em duas metades iguais por uma partição. Inicialmente a pressão no lado esquerdo é  P_1(0) e a pressão no lado direito é  P_2(0) . Uma pequeno furo de área  A é então introduzido na partição através da abertura de uma válvula de forma tal que as moléculas possam efundir através do furo.

a) Encontre a pressão  P_1(t) do gás no lado esquerdo da caixa como função do tempo.

b) Calcule a mudança de entropia  \Delta S de todo gás após o equilíbrio final ser atingido.

Solução:

Exercício 29

Um recipiente contém um gás diluído à temperatura  T . Algumas moléculas podem escapar por efusão através de um pequeno buraco numa das paredes do recipiente. Escolha a direção  z de forma tal que esta coincida com a normal do buraco. A massa de cada molécula é denotada por  m e a velocidade ao longo da direção  z é denotada por  v_z .

a) Quanto vale  \langle v_z \rangle de uma molécula dentro do recipiente?

a) Quanto vale  \langle v_z \rangle de uma molécula efusora?

Solução:

Exercício 30

As moléculas de um gás monoatômico ideal escapam por efusão através de um buraquinho na parede dum recipiente mantido a temperatura  T .

a) Fisicamente (sem efetuar cálculos explícitos) você espera que a energia cinética média  \bar{E}_0 de uma molécula no feixe efusor ser igual, maior ou menor do que a energia cinética média de uma molécula dentro do recipiente,  \bar{E} ?

b) Calcule  \bar{E}_0 para uma molécula no feixe efusor. Expresse sua resposta em termos de  \bar{E} .

Solução:

Exercício 31

Uma caixa contém gás a pressão  \bar{P} e possui um pequeno buraco de área  A em uma de suas paredes, através do qual moléculas podem passar para o exterior (vácuo) por efusão. Neste vácuo, à distancia  L , em frente ao buraco, há um disco circular suspenso de raio  R . Este disco está orientado de forma tal que a normal de sua superfície aponta para o centro do buraco (vide figura). Supondo que as moléculas do feixe se espalhem elasticamente, calcule a força exercida no disco.

Solução:

Ferramentas pessoais