Upload
others
View
4
Download
0
Embed Size (px)
Citation preview
Instituto Superior Tecnico
Licenciatura em Matematica Aplicada e Computacao
Complementos de Probabilidades e Estatıstica
2o Semestre 2014/2015
Resolucao dos Exercıcios da Colectanea
Joao Pedro Ribeiro Brazuna
Resumo
O presente documento resulta na compilacao das resolucoes dos exercıcios da colectanea 2014/2015de Complementos de Probabilidades e Estatıstica, unidade curricular leccionada pelas professorasIsabel Rodrigues e Rita Pimentel. Versoes de anos seguintes podem conter enunciadosligeiramente diferentes.
Os capıtulos estao ordenados pela ordem em que foram leccionados, comecando pelos Tes-tes Nao-Parametricos, seguindo para a Fiabilidade e Analise de Sobrevivencia, passando pelaSimulacao Estocastica e terminando no Processo de Poisson.
O ponto surge como separador decimal em detrimento da vırgula, para que seja claro o numerode parametros de cada distribuicao.
Parte das resolucoes apresentadas requerem comentarios adicionais, que geralmente se encon-tram em alıneas semelhantes. Podem igualmente conter gralhas.
Sugestoes e comentarios devem ser enviados para [email protected].
Conteudo
5 Testes Nao-Parametricos 15.1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25.3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
(a) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3(b) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
5.4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55.5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65.6 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75.7 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
3 Fiabilidade e Analise de Sobrevivencia 93.1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
(a) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9(b) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10(c) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
3.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11(a) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11(b) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11(c) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
3.3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123.4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
(a) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12(b) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12(c) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3.5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13(a) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13(b) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13(c) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13(d) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3.6 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14(a) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14(b) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14(c) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3.7 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153.8 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153.9 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153.10 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
(a) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16(b) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3.11 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16(a) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
i
(b) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17(c) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18(d) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18(e) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.12 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20(a) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20(b) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20(c) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.13 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213.14 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
(a) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22(b) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.15 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24(a) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24(b) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.16 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 263.17 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 273.18 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 283.19 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 293.20 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 313.21 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 323.22 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
4 Simulacao Estocastica 364.1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 364.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 374.3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 384.4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 394.5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
(a) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40(b) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.6 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 414.7 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
(a) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42(b) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.8 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 454.9 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
(a) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46(b) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46(c) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47(d) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47(e) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.10 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 484.11 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
(a) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50(b) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51(c) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.12 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52(a) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52(b) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52(c) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.13 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54(a) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54(b) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
ii
(c) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 554.14 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
(a) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56(b) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56(c) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.15 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 574.16 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 574.17 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 584.18 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 584.19 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
(a) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59(b) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59(c) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59(d) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60(e) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
4.20 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61(a) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61(b) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61(c) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.21 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63(a) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63(b) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.22 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 654.23 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 664.24 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 674.25 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
(a) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67(b) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
4.26 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 694.27 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
(a) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70(b) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
4.28 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
2 Processos de Poisson 732.1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
(a) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73(b) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73(c) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
2.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 742.3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
(a) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75(b) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75(c) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
2.4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76(a) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76(b) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
2.5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 772.6 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 782.7 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
(a) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78(b) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
2.8 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80(a) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
iii
2.9 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81(a) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81(b) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
2.10 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 822.11 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
(a) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83(b) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83(c) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84(d) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
iv
Capıtulo 5
Testes Nao-Parametricos
Exercıcio 5.1
Seja Xi a alteracao na pressao arterial do paciente i, com i ∈ {1, 2, ..., 18}, na amostra aleatoria(X1, X2, ...X18) da variavel aleatoria X, que supomos ter uma distribuicao contınua.
Pretendıamos testar se a mediana e menor ou igual a zero, o que nao e uma hipotese simples.Assim, vamos testar o pior caso: a mediana ser zero.
Teste dos Sinais (Unilateral a Direita) para a Mediana de uma Populacao
• Hipoteses:
H0 : χ 12
= 0 vs. H1 : χ 12> 0
• Estatıstica de Teste:
S18 =
18∑i=1
I (Xi − 0) ∼sob H0
Bin
(18,
1
2
)com valor observado s18 = 5.
• Valor-p:
p = P (S18 ≥ s18) = P (S18 ≥ 5) = 1− P (S18 ≤ 4) = 1− FBin(18, 12 )(4) =
= 1− 0.0154 = 0.9846
• Decisao:
Deverıamos rejeitar H0 para nıveis de significancia α ≥ 98.46%, o que e um valor demasiadoelevado para a probabilidade de rejeitar H0, sendo H0 verdadeira, logo nao devemos rejeitarH0.
Pagina 1 de 84
CPE CAPITULO 5. TESTES NAO-PARAMETRICOS
Exercıcio 5.2
Suponhamos que a variavel aleatoria X e tambem simetrica.
Teste de Wilcoxon (Unilateral a Direita) para a Mediana de uma Populacao
• Hipoteses:
H0 : χ 12
= 0 vs. H1 : χ 12> 0
• Estatıstica de Teste:
T+ =
18∑i=1
Ri I (Xi − 0)
com valor observado t+ = 3 + 8.5 + 1.5 + 6 + 4 = 23, que nao esta tabelado.
Porem, como n = 18 > 15, temos que
Z0 =T+ − E
(T+)√
V ar (T+)=
T+ − n(n+1)4√
n(n+1)(2n+1)24
=T+ − 18×19
4√18×19×37
24
=T+ − 85.5√
527.25
a∼ N(0, 1)
e tambem estatıstica de teste, com valor observado z0 = t+−85.5√527.25
' −2.72.
xi di = xi − 0 |di| ri ri : di > 0−5 −5 5 6 −−1 −1 1 1.5 −2 2 2 3 38 8 8 8.5 8.5−25 −25 25 18 −
1 1 1 1.5 1.55 5 5 6 6−12 −12 12 12 −−16 −16 16 14 −−9 −9 9 10 −−8 −8 8 8.5 −−18 −18 18 15 −−5 −5 5 6 −−22 −22 22 17 −
4 4 4 4 4−21 −21 21 16 −−15 −15 15 13 −−11 −11 11 11 −
Tabela 5.1: Valor Observado da Estatistica do Teste de Wilcoxon
• Valor-p:
p = P (Z0 ≥ z0) = P (Z0 ≥ −2.72) = P (Z0 ≤ 2.72) = Φ(2.72) ' 0.9967
• Decisao:
Deverıamos rejeitar H0 para nıveis de significancia α ≥ 99.67%, o que e um valor demasiadoelevado, logo nao devemos rejeitar H0.
Pagina 2 de 84
CAPITULO 5. TESTES NAO-PARAMETRICOS CPE
Exercıcio 5.3
Seja Xi o diametro da peca medido com o nonio I pelo inspector i, com i ∈ {1, 2, ..., 12} naamostra aleatoria (X1, X2, ...X12) da variavel aleatoria X.
Seja Yi o diametro da peca medido com o nonio II pelo inspector i, com i ∈ {1, 2, ..., 12} naamostra aleatoria (Y1, Y2, ...Y12) da variavel aleatoria Y .
Sejam tambem µX = E(X) e µY = E(Y ).
(a)
Suponhamos que a variavel aleatoria D = X − Y e simetrica e contınua.
Teste dos Sinais e Teste de Wilcoxon (Bilaterais) para a Comparacao de DuasPopulacoes
• Hipoteses:
H0 : µX = µY ⇔ µX − µY = 0 vs. H1 : µX 6= µY ⇔ µX 6= µY = 0
• Estatısticas de Teste:
Ha 4 inspectores para os quais os valores observados das medicoes foram iguais com os doisnonios, logo e necessario remove-los da amostra, reduzindo a dimensao para n = 12− 4 = 8.Suponhamos, sem perda de generalidade, que esses inspectores sao ultimos quatro (do 9o ao12o).
S8 =
8∑i=1
I(Di) =
8∑i=1
I(Xi − Yi) ∼sob H0
Bin
(8,
1
2
)e a estatıstica do teste dos sinais, com valor observado s8 = 6.
T+ =
8∑i=1
Ri I(Di)
8∑i=1
Ri I(Xi − Yi)
e a estatıstica do teste de Wilcoxon, com valor observado t+ = 2+4.5+2+6.5+4.5+2 = 21.5.
di = xi − yi |di| ri ri : di > 00.001 0.001 2 20.002 0.002 4.5 4.50.001 0.001 2 2−0.003 0.003 6.5 −0.003 0.003 6.5 6.50.002 0.002 4.5 4.50.001 0.001 2 2−0.004 0.004 8 −
Tabela 5.2: Valor Observado da Estatistica do Teste de Wilcoxon
• Valores-p:
Para o teste dos sinais,
p = 2 min
{P (S8 ≤ s8), P (S8 ≥ s8),
1
2
}=
= 2 min
{P (S8 ≤ 6), 1− P (S8 ≤ 5),
1
2
}= 2 min {0.9648, 1− 0.8555, 0.5} = 0.289
Pagina 3 de 84
CPE CAPITULO 5. TESTES NAO-PARAMETRICOS
Para o teste de Wilcoxon,
p = 2 min
{P (T+ ≤ t+), P (T+ ≥ t+),
1
2
}=
= 2 min
{P (T+ ≤ 21), 1− P (T+ ≤ 21),
1
2
}= 2 min {0.6797, 1− 0.6797, 0.5} = 0.6406
• Decisao:
Segundo o teste dos sinais, devemos rejeitar H0 para nıveis de significancia α ≥ 28.9% e,segundo o teste de Wilcoxon, devemos faze-lo para α ≥ 64.06%. Em ambos os casos, naodevemos rejeitar H0 aos nıveis de significancia inferiores aos respectivos valores-p, o queinclui os nıveis de significancia usuais.
(b)
Suponhamos que a variavel aleatoria Y e simetrica e contınua.
Teste dos Sinais e Teste de Wilcoxon (Bilaterais) para a Mediana de uma Populacao
• Hipoteses:
H0 : χ 12
= 0.266 vs. H1 : χ 126= 0.266
• Estatısticas de Teste:
Ha 1 inspector cuja medicao foi 0.266 (suponhamos, sem perda de generalidade, que foi o 12o
inspector), logo e necessario remove-lo da amostra, reduzindo a dimensao para n = 12− 1 =11.
S11 =
11∑i=1
I(Yi − 0.266) ∼sob H0
Bin
(11,
1
2
)e a estatıstica do teste dos sinais, com valor observado s11 = 5.
T+ =
11∑i=1
Ri I(Yi − 0.266)
e a estatıstica do teste de Wilcoxon, com valor observado t+ = 3 + 8 + 3 + 8 + 11 = 33.
yi di = yi − 0.266 |di| ri ri : di > 00.264 −0.002 0.002 8 −0.265 −0.001 0.001 3 −0.264 −0.002 0.002 8 −0.267 0.001 0.001 3 30.268 0.002 0.002 8 80.264 −0.002 0.002 8 −0.265 −0.001 0.001 3 −0.265 −0.001 0.001 3 −0.267 0.001 0.001 3 30.268 0.002 0.002 8 80.269 0.003 0.003 11 11
Tabela 5.3: Valor Observado da Estatistica do Teste de Wilcoxon
Pagina 4 de 84
CAPITULO 5. TESTES NAO-PARAMETRICOS CPE
• Valores-p:
Para o teste dos sinais,
p = 2 min
{P (S11 ≤ s11), P (S11 ≥ s11),
1
2
}=
= 2 min
{P (S11 ≤ 5), 1− P (S11 ≤ 4),
1
2
}= 2 min {0.5, 1− 0.2744, 0.5} = 1
Para o teste de Wilcoxon,
p = 2 min
{P (T+ ≤ t+), P (T+ ≥ t+),
1
2
}=
= 2 min
{P (T+ ≤ 33), 1− P (T+ ≤ 32),
1
2
}= 2 min {0.5171, 1− 0.4829, 0.5} = 1
• Decisao:
Em ambos os casos, nao devemos rejeitar H0.
Exercıcio 5.4
Seja Xi a pressao diastolica do paciente i, com i ∈ {1, 2, ..., 26}, na amostra aleatoria(X1, X2, ...X26) da variavel aleatoria X, que supomos ter uma distribuicao contınua.
Teste dos Sinais (Bilateral) para o 1o Quartil de uma Populacao
• Hipoteses:
H0 : χ 14
= 78 vs. H1 : χ 146= 78
• Estatıstica de Teste:
Como ha 2 homens com pressao diastolica igual a 78, e necessario remove-los da amostra,redimensionando-a para n=26-2=24. Suponhamos, sem perda de generalidade, que essesdois homens sao o 25o e o 26o.
S24 =
24∑i=1
I (Xi − 78) ∼sob H0
Bin
(24,
3
4
)com valor observado s24 = 14.
• Valor-p:
p = 2 min
{P (S24 ≤ s24), P (S24 ≥ s24),
1
2
}=
= 2 min
{P (S24 ≤ 14), 1− P (S24 ≤ 13),
1
2
}= 2 min {0.0547, 1− 0.0213, 0.5} =
= 0.1094
• Decisao:
Devemos rejeitar H0 para nıveis de significancia α ≥ 10.94% e nao rejeitar caso contrario.Desta forma, nao devemos rejeitar H0 aos nıveis de significancia usuais.
Pagina 5 de 84
CPE CAPITULO 5. TESTES NAO-PARAMETRICOS
Exercıcio 5.5
Seja Xi o numero de bacterias por unidade de volume na avaliacao i da cultura A, comi ∈ {1, 2, ..., 6}, na amostra aleatoria (X1, X2, ...X6) da variavel aleatoria X.
Seja analogamente Yi o numero de bacterias mortas por unidade de volume na avaliacao i dacultura B, com i ∈ {1, 2, ..., 8}, na amostra aleatoria (Y1, Y2, ...Y8) da variavel aleatoria Y .
Suponhamos que X e Y sao variaveis aleatorias contınuas e independentes, com distruibuicoesda mesma forma e com a mesma dispersao.
Sejam tambem µX = E(X) e µY = E(Y ).
Teste de Mann-Whitney-Wilcoxon (Bilateral) para a Comparacao de DuasPopulacoes Independentes
• Hipoteses:
H0 : µX = µY vs. H1 : µX 6= µY
• Estatıstica de Teste:
T6,8 =∑
ordens dos elementos da amostra aleatoria de X na amostra conjunta
com valor observado t6,8 = 1 + 2 + 5 + 6 + 7 + 14 = 35.
Observacoes 27 29 30 31 32 33 34 35 36 38 39 40 42 47Ordens da amostra de X 1 2 − − 5 6 7 − − − − − − 14
Tabela 5.4: Amostra Ordenada
• Valor-p:
p = 2 min
{P (T6,8 ≤ t6,8), P (T6,8 ≥ t6,8),
1
2
}=
= 2 min
{P (T6,8 ≤ 35), 1− P (T6,8 ≤ 34),
1
2
}= 2 min {0.1142, 1− 0.0906, 0.5} =
= 0.2284
• Decisao:
Devemos rejeitar H0 para nıveis de significancia α ≥ 22.84% e nao rejeitar caso contrario.Desta forma, nao devemos rejeitar H0 aos nıveis de significancia usuais.
Pagina 6 de 84
CAPITULO 5. TESTES NAO-PARAMETRICOS CPE
Exercıcio 5.6
Seja Xi o numero de insectos mortos na colonia i pelo insecticida A na amostra aleatoria(X1, X2, ...X5) da variavel aleatoria X. Sejam Yi e Zi analogos a Xi para os insecticidas B e C,respectivamente.
Suponhamos que X, Y e Z sao variaveis aleatorias contınuas e independentes.Sejam tambem µX = E(X), µY = E(Y ) e µZ = E(Z).
Teste de Kruskall-Wallis para a Comparacao de Tres Populacoes Independentes
• Hipoteses:
H0 : µX = µY = µZ vs. H1 : Os tres insecticidas nao tem o mesmo efeito mortıfero
• Estatıstica de Teste:
T5,5,5 =12
15× 16
3∑i=1
R2i
5− 3× 16
a∼sob H0
χ2(3−1)
onde Ri e a soma das ordens dos elementos da amostra da colonia i na amostra conjunta,com valor observado
t5,5,5 = 0.05[
(11.5+4+6+14.5+2)2
5 + (6+14.5+3+8.5+13)2
5 + (8.5+6+1+11.5+10)2
5
]− 48 = 0.38
A 11.5 4 6 14.5 2 R1 = 38B 6 14.5 3 8.5 13 R2 = 45C 8.5 6 1 11.5 10 R3 = 37
Tabela 5.5: Ordens dos Respectivos Elementos da Amostra na Amostra Conjunta
• Valor-p:
1− p = Fχ2(2)
(0.38)⇔ 0.38 = F−1χ2(2)
(1− p)
0.15 < 1− p < 0.2⇔ p ∈]0.8, 0.85[
• Decisao:
Devemos rejeitar H0 para nıveis de significancia α ≥ 85% e nao rejeitar para α ≤ 80%.Desta forma, nao devemos rejeitar H0 aos nıveis de significancia usuais.
Pagina 7 de 84
CPE CAPITULO 5. TESTES NAO-PARAMETRICOS
Exercıcio 5.7
Seja Ai o pH registado na analise a agua i extraıda da barragem 1, com i ∈ 1, ..., 8 naamostra aleatoria (A1, ..., A8) de A. Sejam Bi, Ci e Di analogos a Ai para as barragens 2, 3 e 4,respectivamente.
Suponhamos que A, B, C e D sao variaveis aleatorias contınuas e independentes.Sejam tambem µA = E(A), µB = E(B), µC = E(C) e µD = E(D).
Teste de Kruskall-Wallis para a Comparacao de Quatro Populacoes Independentes
• Hipoteses:
H0 : µA = µB = µC = µD vs. H1 : O pH nao e o mesmo nas quatro barragens
• Estatıstica de Teste:
T8,8,8,8 =12
32× 33
4∑i=1
R2i
8− 3× 33
a∼sob H0
χ2(4−1)
onde Ri e a soma das ordens dos elementos da amostra da populacao i na amostra conjunta,com valor observado
t8,8,8,8 = 188
[552
8 + 132.52
8 + 1752
8 + 165.52
8
]− 99 ' 12.6428.
Barragem 1 1 2 3.5 3.5 8 10 10 17 R1 = 55Barragem 2 6 10 13.5 13.5 20 20 23.5 26 R2 = 132.5Barragem 3 13.5 16 18 20 23.5 26 28 30 R3 = 175Barragem 4 6 6 13.5 22 26 29 31 32 R4 = 165.5
Tabela 5.6: Ordens dos Respectivos Elementos da Amostra na Amostra Conjunta
• Valor-p:
1− p = Fχ2(3)
(12.6428)⇔ 12.6428 = F−1χ2(3)
(1− p)
0.99 < 1− p < 0.995⇔ p ∈]0.005, 0.01[
• Decisao:
Devemos rejeitar H0 para nıveis de significancia α ≥ 1%, o que inclui os nıveis de significanciausuais, e nao rejeitar para α ≤ 0.5%.
Pagina 8 de 84
Capıtulo 3
Fiabilidade e Analise deSobrevivencia
Exercıcio 3.1
Γ(α) =
∫ ∞0
tα−1e−t dt , α > 0
(a)
Γ(1) = 1 e Γ(α+ 1) = αΓ(α)
Γ(1) =
∫ ∞0
t1−1e−t dt = −∫ ∞
0
−e−t dt = −[e−t]t=∞t=0
= −(0− 1) = 1
Γ(α+ 1) =
=
∫ ∞0
tα+1−1e−t dt =
∫ ∞0
tαe−t dt =[−tαe−t
]t=∞t=0
+
∫ ∞0
αtα−1e−t dt =
= limt→∞
(−tαe−t
)− 0 + α
∫ ∞0
tα−1e−t dt = − limt→∞
1et
tα
+ αΓ(α) = − 1
∞+ αΓ(α) = −0 + αΓ(α) =
=αΓ(α)
Q.E.D.
Pagina 9 de 84
CPE CAPITULO 3. FIABILIDADE E ANALISE DE SOBREVIVENCIA
(b)
Γ(n) = (n− 1)! , ∀n ∈ N
Demonstracao por Inducao em n
Base:
Γ(1)a)= 1 = 0! = (1− 1)!
Passo de Inducao:
Hipotese: Γ(n) = (n− 1)! , para algum n ∈ N .
A provar: Γ(n+ 1) = n! , para o mesmo n ∈ N .
Γ(n+ 1)a)= nΓ(n)
hip= n(n− 1)!
def= n!
Logo, Γ(n) = (n− 1)! , ∀n ∈ N.
Q.E.D.
(c)
Γ
(1
2
)=√π
Γ
(1
2
)=
∫ ∞0
t−12 e−t dt =
∫ ∞0
e−t√tdt
Seja u =√t. Entao, t = u2 e
dt
du= 2u.∫ ∞
0
e−t√tdt =
∫ ∞0
e−u2
u2u du =
∫ ∞0
2e−u2
du =
∫ ∞0
√π√
2π 12
2e− (u−0)2
2× 12 du =
=2√π
∫ ∞0
1√2π 1
2
e− (u−0)2
2× 12 du = 2
√π
∫ ∞0
fN(0, 12 )(u) du =
=2√π
[FN(0, 12 )(∞)− FN(0, 12 )(0)
]= 2√π
(1− 1
2
)= 2√π
1
2=√π
Q.E.D.
Pagina 10 de 84
CAPITULO 3. FIABILIDADE E ANALISE DE SOBREVIVENCIA CPE
Exercıcio 3.2
fGama(α,λ)(t) = λe−λt(λt)α−1
Γ(α)
(a)
E(T r) =
∫ ∞0
trfT (t) dt =
∫ ∞0
trλe−λt(λt)α−1
Γ(α)dt =
∫ ∞0
λαe−λttα+r−1
Γ(α)dt =
=Γ(α+ r)
λrΓ(α)
∫ ∞0
λe−λt(λt)α+r−1
Γ(α+ r)dt =
Γ(α+ r)
λrΓ(α)
∫ ∞0
fGama(α+r,λ)(t) dt =Γ(α+ r)
λrΓ(α).1 =
Γ(α+ r)
λrΓ(α),
pois o suporte da distribuicao Gama e R+, logo a funcao densidade de probabilidade integradanesse intervalo e igual a 1.
(b)
E(T ) =α
λe V ar(T ) =
α
λ2
E(T ) = E(T 1)a)=
Γ(α+ 1)
λ1Γ(α)
3.1.=
αΓ(α)
λΓ(α)=α
λ
V ar(T ) = E(T 2)− E2(T )a)=
Γ(α+ 2)
λ2Γ(α)−(α
λ
)23.1.=
(α+ 1)Γ(α+ 1)
λ2Γ(α)− α2
λ2
3.1.=
(α+ 1)αΓ(α)
λ2Γ(α)− α2
λ2=
=(α+ 1)α− α2
λ2=α2 + α− α2
λ2=
α
λ2
Q.E.D.
(c)
X ∼ Exp(λ)⇔ X ∼ Gama(1, λ) e Z ∼ χ2(n) ⇔ Z ∼ Gama
(n
2,
1
2
)fχ2
(n)(z) =
1
2n2 Γ(n2
)z n2−1e−z2
A funcao densidade de probabilidade caracteriza univocamente a distribuicao de uma variavelaleatoria, logo, se duas variaveis aleatorias tiverem a mesma funcao densidade, entao sao iguais.
fGama(1,λ)(x) = λe−λx(λx)(1−1)
Γ(1)
3.1.= λe−λx
1
1= λe−λx = fExp(λ)(x)
Logo, X ∼ Exp(λ)⇔ X ∼ Gama(1, λ)
fGama(n2 ,12 )(z) =
1
2e−
z2
( z2 )(n2−1)
Γ(n2
) =1
2n2 Γ(n2
)z n2−1e−z2 = fχ2
(n)(z)
Logo, Z ∼ χ2(n) ⇔ Z ∼ Gama
(n2 ,
12
)Q.E.D.
Pagina 11 de 84
CPE CAPITULO 3. FIABILIDADE E ANALISE DE SOBREVIVENCIA
Exercıcio 3.3
X ∼ Gama(n, λ)⇒ T = 2λX ∼ χ2(2n)
Tal como a funcao densidade de probabilidade, a funcao de distribuicao tambem caracterizaunivocamente a distribuicao da variavel aleatoria, isto e, se duas variaveis aleatorias tiverem amesma funcao de distribuicao e porque sao a mesma.
FX(x) = P (X ≤ x) = P (2λX ≤ 2λx) = P (T ≤ 2λx) = FT (2λx)
FX(x) = FT (2λx)⇔ d
dxFX(x) =
d
dxFT (2λx)⇔ fX(x) = 2λfT (2λx)
Pela alınea c) do exercıcio 3.2., devidamente instanciada, temos que T ∼ χ2(2n) se e so se
T ∼ Gama(n, 1
2
).
fX(x) = fGama(n,λ)(x) = λe−λx(λx)n−1
Γ(n)= 2λ
1
2e−2λx
2
(2λx
2
)n−1
Γ(n)
=
= 2λfχ2(2n)
(2λx) = 2λfT (2λx)
Logo, FX(x) = FT (2λx) e X ∼ Gama(n, λ)⇔ T = 2λX ∼ χ2(2n).
Q.E.D.
Exercıcio 3.4
T ∼ Gama(20, 2)
(a)
Pelo exercıcio 3.3., como T ∼ Gama(20, 2), entao 2× 2T = 4T ∼ χ2(40).
RT (5) = P (T > 5) = 1− P (T ≤ 5) = 1− P (4T ≤ 20) = 1− Fχ2(40)
(20)
0.001 < Fχ2(40)
(20) < 0.005⇔ 0.995 < 1− Fχ2(40)
(20) < 0.999⇔ RT (5) ∈]0.995, 0.999[
(b)
HT (5) =
∫ 5
0
hT (t)dt = − logRT (5)
0.995 < RT (5) < 0.999⇔ 0.001 < − logRT (5) < 0.005⇔ HT (5) ∈]0.001, 0.005[
(c)
E(T )3.2.=
α
λ=
20
2= 10
V ar(T )3.2.=
α
λ2=
20
22=
20
4= 5
Pagina 12 de 84
CAPITULO 3. FIABILIDADE E ANALISE DE SOBREVIVENCIA CPE
Exercıcio 3.5
fW (α,λ)(x) = αλα xα−1 e−(λx)α
T ∼W (2, 4.5)
(a)
RT (t) = 1− FT (t) = 1−∫ t
0
2× 4.52x2−1e−(4.5x)2dx = 1 +
∫ t
0
−2× 4.52t e−(4.5x)2dx =
=1 +[e−(4.5x)2
]x=t
x=0= 1 +
[e−(4.5t)2 − 1
]= e−(4.5t)2
RT (0.5) = e−(4.5×0.5)2 ' 0.00633
(b)
X ∼W (α, λ)⇒ E(X) =1
λΓ
(1
α+ 1
)e V ar(X) =
1
λ2
[Γ
(2
α+ 1
)− Γ2
(1
α+ 1
)]
E(X) =
∫ ∞0
x fX(x) dx =
∫ ∞0
xαλαxα−1e−(λx)αdx =
∫ ∞0
α(λx)αe−(λx)αdx
Seja u = (λx)α. Entao, x =(uλα
) 1α e dx
du = 1α
(uλα
) 1α−1 1
λα = 1αλα
u1α−1
λ1−α = u1α−1
αλ .
E(X) =
∫ ∞0
αu e−uu
1α−1
αλdu =
1
λ
∫ ∞0
e−uu( 1α+1)−1 du =
1
λΓ
(1
α+ 1
)
E(X2) =
∫ ∞0
x2 fX(x) dx =
∫ ∞0
x2 αλαxα−1e−(λx)αdx =
∫ ∞0
α(λx)αxe−(λx)αdx
Utilizando novamente a mudanca de variavel anterior...
E(X2) =
∫ ∞0
αuu
1α
λe−u
u1α−1
αλdu =
1
λ2
∫ ∞0
e−uu( 2α+1)−1 du =
1
λ2Γ
(2
α+ 1
)Assim,
V ar(X) = E(X2)− E2(X) =1
λ2Γ
(2
λ+ 1
)−
[1
λΓ
(1
α+ 1
)]2
=1
λ2
[Γ
(2
α+ 1
)− Γ2
(1
α+ 1
)]
Q.E.D.
(c)
E(T )b)=
1
4.5Γ
(1
2+ 1
)=
2
9Γ
(3
2
)=
2
9
(1
2
)Γ
(1
2
)3.1.=
√π
9
χ 12(T ) : FT
(χ 1
2(T ))
= 0.5⇔∫ χ 1
2(T )
0
2× 4.52 t e−(4.5t)2 = 0.5⇔ −[e−(4.5t)2
]t=χ 12
(T )
t=0= 0.5⇔
⇔ e−(4.5χ 1
2(T ))2
= 0.5⇔ −(
4.5χ 12(T ))2
= log(0.5)⇔ χ 12(T ) =
√log(2)
4.5
Pagina 13 de 84
CPE CAPITULO 3. FIABILIDADE E ANALISE DE SOBREVIVENCIA
(d)
hT (t) =fT (t)
RT (t)
a)=
2× 4.52t2−1e−(4.5t)2
e−(4.5t)2=
40.5t e−(4.5t)2
e−(4.5t)2= 40.5t
Assim, hT e uma funcao afim de declive positivo, logo e crescente (I.H.R).
Exercıcio 3.6
T ∼ Rayleigh(σ2)
fT (t) =t
σ2e−
t2
2σ2
(a)
RT (t) = 1−∫ t
0
u
σ2e−
u2
2σ2 du = 1 +
∫ t
0
− 2u
2σ2e−
u2
2σ2 du = 1 +
[e−
u2
2σ2
]u=t
u=0
=
=1 +
(e−
t2
2σ2 − 1
)= e−
t2
2σ2
RT (2) = 0.99⇔ e−22
2σ2 = 0.99⇔ e−4
2σ2 = 0.99⇔ − 2
σ2= log(0.99)⇔ σ =
√− 2
log(0.99)⇔
⇔σ ' 14.1
Logo, T ∼ Rayleigh(14.1).
FT (t) =
∫ t
0
u
σ2e−
u2
2σ2 du =
∫ t
0
2
(1√2σ
)2
u2−1 e−(
1√2σu)2
du = FW(
2, 1√2σ
)(t)
Entao, T ∼ Rayleigh(σ2)⇔ T ∼W
(2, 1√
2σ
).
Como σ ' 14.1, entao 1√2σ' 0.05 e T ∼W (2, 0.05).
(b)
Como T ∼W (2, 0.05), podemos usar o resultado do exercıcio anterior.
E(T )3.5.=
1
0.05Γ
(1
2+ 1
)= 20× 1
2Γ
(1
2
)3.1.= 10
√π
(c)
hT (t) =fT (t)
RT (t)
a)=
tσ2 e− t2
2σ2
e−t2
2σ2
=t
σ2
Como 1σ2 > 0, hT e uma funcao afim de declive positivo, logo e I.H.R.
Neste caso, hT (t) = 114.12 t ' 0.005t.
Pagina 14 de 84
CAPITULO 3. FIABILIDADE E ANALISE DE SOBREVIVENCIA CPE
Exercıcio 3.7
X ∼W (α, λ)⇒ T = Xα ∼ Exp (λα)
FX(x) = P (X ≤ x) = P (Xα ≤ xα) = P (T ≤ xα) = FT (xα) , para α ≥ 1.
FX(x) = FT (xα)⇔ d
dxFX(x) =
d
dxFT (xα)⇔ fX(x) = α xα−1fT (xα)
fX(x) = αλα xα−1 e−(λx)α = αxα−1(λα e−λ
αxα)
= αxα−1 fExp(λα) (xα) = αxα−1 fT (xα)
Logo, FX(x) = FT (xα) e X ∼W (α, λ)⇔ T = Xα ∼ Exp (λα), com α ≥ 1.
Q.E.D
Exercıcio 3.8
X ∼W (3, 2) e T = X3
Para uma variavel aleatoria qualquer de distribuicao exponencial com parametro λ, a respectivafuncao de fiabilidade e dada por:
RExp(λ)(t) = 1− FExp(λ)(t) = 1 +
∫ t
0
−λe−λudu = 1 +[e−λu
]u=t
u=0= 1 + e−λt − 1 = e−λt
Como X ∼W (3, 2), temos, por 3.7., que T = X3 ∼ Exp(23).
RT (2) = e−8×2 = e−16
Exercıcio 3.9
X ∼ N(µ, σ2
)e T = eX
FX(x) = P (X ≤ x) = P(eX ≤ ex
)= P (T ≤ ex) = FT (ex)
FX(x) = FT (ex)⇔ d
dxFX(x) =
d
dxFT (ex)⇔ fX(x) = ex fT (ex)
fX(x) =1√2πσ
e−(x−µ)2
2σ2 = ex
(1√
2πσexe−
(log(ex)−µ)2
2σ2
)= ex fLN(µ,σ2) (ex) = ex fT (ex)
Logo, T = eX ∼ LN(µ, σ2
). Mais ainda, temos que a funcao de fiabilidade de T e dada por:
RT (t) = 1− P (T ≤ t) = 1− P (log T ≤ log t) = 1− P[
log (T )− µσ
≤ log (t)− µσ
]=
=1− Φ
[log (t)− µ
σ
]X ∼ N(12, 4)
RT (10) = 1− Φ
[log (10)− 12
2
]' 1− Φ(−4.85) = Φ(4, 85) ' 1
Pagina 15 de 84
CPE CAPITULO 3. FIABILIDADE E ANALISE DE SOBREVIVENCIA
Exercıcio 3.10
T ∼ LN (4.2, 1)
(a)
RT (30)3.9.= 1− Φ
[log(30)− 4.2
]' 1− Φ(−0.8) = Φ(0.8) ' 0.7881
HT (30) = − logRT (30) ' − log(0.7881) ' 0.23813
(b)
A expressao geral do quantil de probabilidade p de T e
FT(χp(T )
)= p⇔ 1−RT
(χp(T )
)= p⇔ Φ
[log(χp(T )
)− 4.2
]= p⇔
⇔ log(χp(T )
)− 4.2 = Φ−1(p)⇔ χp(T ) = eΦ−1(p)+4.2
Logo...
χ 12
= eΦ−1(0.5)+4.2 = e0+4.2 = e4.2
χ 14
= eΦ−1(0.25)+4.2 = e−Φ−1(1−0.25)+4.2 ' e−0.6745+4.2 = e3.5255
Exercıcio 3.11
T ∼ Exp(λ) ,
20∑i=1
ti = 164 , t = 8.2
(a)
hT (t) =fT (t)
RT (t)=
fT (t)
1− FT (t)=
λe−λt
1−∫ t
0λe−λudu
=λe−λt
e−λt= λ
Assim, hT (t) = λ, pela propriedade de invariancia dos estimadores de maxima verosimilhanca.
λ = arg max L (λ; t1, ..., tn)
L (λ; t1, ..., tn) = f(T1,...,Tn)(t1, ..., tn|λ) =i.i.d.
n∏i=1
fT (ti|λ) =
n∏i=1
λe−λti = λne−λ∑ni=1 ti
log L (λ; t1, ..., tn) = log λne−λ∑ni=1 ti = n log λ− λ
n∑i=1
ti , que e C2 quando derivada em ordem a λ
d log L (λ; t1, ..., tn)
dλ= 0⇔ n
λ−
n∑i=1
ti = 0⇔ λ =n∑ni=1 ti
d2 log L (λ; t1, ..., tn)
dλ2= − 1
λ2< 0 , ∀λ > 0
Logo, λ = n∑ni=1 ti
e o maximo da funcao de verosimilhanca e, consequentemente, e a estimativa
de maxima verosimilhanca de λ. Neste caso, como n = 20 e∑20i=1 ti = 164, temos que:
λ =20∑20i=1 ti
=20
164' 0.122 e hT (t) = λ ' 0.122
Pagina 16 de 84
CAPITULO 3. FIABILIDADE E ANALISE DE SOBREVIVENCIA CPE
Pela propriedade de invariancia dos estimadores de maxima verosimilhanca, temos que RT (t) =
e−λt.
RT (20) = e−20λ ' e−20×0.122 = e−2.44 ' 0.087
Para um quantil-p com p qualquer, novamente pela propriedade da invariancia dos estimadoresde maxima verosimilhanca...
χp(T ) = p⇔ FT (χp(T )) = p⇔ 1− e−λχp(T ) = p3.7.⇔ e−λχp(T ) = 1− p⇔
⇔− λχp(T ) = log (1− p)⇔ χp(T ) = − log(1− p)λ
⇔
⇔χp(T ) ' − log(1− p)0.122
Entao os dois primeiros quartis tem como estimativa de maxima verosimilhanca:
χ 14(T ) = − log(1− 0, 25)
0.122' 2.358
χ 12(T ) = − log(1− 0, 5)
0.122' 5.682
(b)
Seja Ti o tempo de espera ate a intervencao cirurgica do paciente i, com i ∈ {1, 2, ..., 20} naamostra aleatoria (T1, T2, ...T20). Temos que cada Ti e identicamente distribuıdo a T (e indepen-dente dos restantes por definicao de amostra aleatoria).
Ti ∼ Exp(λ)⇔20∑i=1
Ti ∼ Gama(20, λ)⇔ 2λ
20∑i=1
Ti ∼ χ2(2×20) ⇔ 2× 20λT ∼ χ2
(40)
Temos tambem que E(T ) = 1λ .
Intervalo de Confianca a 95% para a Media de uma Populacao Exponencial
• Variavel Fulcral:
Q = 40λT ∼ χ2(40)
• Quantis:a : Fχ2(40)
(a) = 0.052
b : Fχ2(40)
(b) = 1− 0.052
⇔
a = F−1χ2(40)
(0.025)
b = F−1χ2(40)
(0.975)⇔
{a = 24.43
b = 59.34
• Intervalo de Confianca Aleatorio:
P (a ≤ Q ≤ b) = 0.95⇔ P(
24.43 ≤ 40λT ≤ 59.34)
= 0.95⇔
⇔P(
24.43
40T≤ λ ≤ 59.34
40T
)= 0.95⇔ P
(40T
59.34≤ 1
λ≤ 40T
24.43
)= 0.95⇔
⇔ICA95%
[E(T )
]=
[40T
59.34,
40T
24.43
]
• Intervalo de Confianca:
IC95%
[E(T )
]=
[40t
59.34,
40t
24.43
]=
[40× 8.2
59.34,
40× 8.2
24.43
]' [5.527, 13.426]
Pagina 17 de 84
CPE CAPITULO 3. FIABILIDADE E ANALISE DE SOBREVIVENCIA
(c)
Sabemos que RT (t) = e−λt, que e uma funcao monotona descrescente. Na alınea anterior,obtivemos, num passo intermedio, um intervalo de confianca aleatorio a 95% para λ.
Intervalo de Confianca a 95% para a Funcao de Sobrevivencia de uma PopulacaoExponencial
• Intervalo de Confianca Aleatorio:
P
(24.43
40T≤ λ ≤ 59.34
40T
)= 0.95⇔
(e−
59.3440T
t ≤ e−λt ≤ e−24.4340T
)= 0.95⇔
⇔ICA95%[RT (t)] =[e−
59.3440T
t, e−24.4340T
t]
• Intervalo de Confianca:
ICA95%[RT (t)] =[e−
59.3440t
t, e−24.4340t
t]
=[e−
59.3440×8.2 t, e−
24.4340×8.2 t
]'[e−0.1809t, e−0.0745t
](d)
Seja T(1) o mınimo da amostra aleatoria (T1, T2, ...Tn).
FT(1)(t) = P (T(1) ≤ t) = 1− P (T(1) > t) = 1− P (T1 > t, T2 > t, ..., Tn > t) =
indep.
=1− P (T1 > t)P (T2 > t)...P (Tn > t) =i.d.
1− [P (T > t)]n = 1− [1− FT (t)]n =
=1− [1− (1− e−λt)]n = 1− e−nλt = FExp(nλ)
T(1) ∼ Exp(nλ)
Intervalo de Confianca a 95% para o Mınimo de uma Populacao Exponencial
• Variavel Fulcral:
Q = T(1) ∼ Exp(20λ) e E(T(1)) = 120λ
Como ja obtivemos um intervalo de confianca para 1λ , para 1
20λ basta dividir os extremospor 20, pois a funcao g : R+ → R+ de expressao geral g(x) = x
20 e contınua e monotonacrescente.
• Intervalo de Confianca Aleatorio:
P
(40T
59.34≤ 1
λ≤ 40T
24.43
)= 0.95⇔ P
(40T
20× 59.34≤ 1
20λ≤ 40T
20× 24.43
)= 0.95⇔
⇔ICA95%
(1
20λ
)=
[40T
20× 59.34,
40T
20× 24.43
]=
[2T
59.34,
2T
24.43
]
• Intervalo de Confianca:
IC95%
(1
20λ
)=
[2t
59.34,
2t
24.43
]=
[2× 8.2
59.34,
2× 8.2
24.43
]= [0.2764, 0.6713]
Pagina 18 de 84
CAPITULO 3. FIABILIDADE E ANALISE DE SOBREVIVENCIA CPE
(e)
Teste dos Hipoteses (Unilateral a Direita) para a Media de uma PopulacaoExponencial
• Hipoteses:
H0 : E(T ) =1
λ≤ 10 vs. H1 : E(T ) =
1
λ> 10
• Estatıstica de Teste:
Q = 2nλT ∼ χ2(2n)
e variavel fulcral, que, sob a validade de H0 e a estatıstica de teste
Q0 =2× 20λ
10T = 4T ∼
sob H0
χ2(40)
com valor observado q0 = 4× 8.2 = 32.8.
• Valor-p:
p = P (Q0 ≥ q0) = P (Q0 ≥ 32.8) = 1− P (Q0 < 32.8)
0.2 < P (Q0 < 32.8) < 0.3⇔ 0.7 < 1− P (Q0 < 32.8) < 0.8⇔ p ∈]0.7, 0.8[
• Decisao:
Devemos rejeitar H0 a nıveis de significancia α ≥ 80% e nao rejeitar para α ≤ 70%, o queinclui os nıveis de significancia usuais.
Pagina 19 de 84
CPE CAPITULO 3. FIABILIDADE E ANALISE DE SOBREVIVENCIA
Exercıcio 3.12
fX(x) =λ
2e−λ|x| , x ∈ R , λ > 0
40∑i=1
|xi| = 47.5408
(a)
Seja (X1, X2, ..., Xn) uma amostra aleatoria de X.
λ = arg max L (λ;X1, X2, ..., Xn)
L (λ;X1, X2, ..., Xn) =i.i.d.
n∏i=1
fX(Xi|λ) =
n∏i=1
λ
2e−λ|Xi| =
(λ
2
)ne−λ
∑ni=1 |Xi|
log L (λ;X1, X2, ..., Xn) = n log
(λ
2
)− λ
n∑i=1
|Xi| , que e C2 quando derivada em ordem a λ
d log L (λ;X1, X2, ..., Xn)
dλ= 0⇔ n
λ−
n∑i=1
|Xi| = 0⇔ λ =n∑n
i=1 |Xi|
d2 log L (λ;X1, X2, ..., Xn)
dλ2= − n
λ2< 0 , ∀λ > 0
Logo, λ = n∑ni=1 |Xi|
e o estimador de maxima verosimilhanca de λ e, neste caso, a correspondente
estimativa e λ = 40∑ni=1 |xi|
= 4047.5408 ' 0.8414
(b)
T = |X|
FT (t) = P (T ≤ t) = P (|X| ≤ t) = P (−t ≤ X ≤ t) =
∫ t
−t
λ
2e−λ|x|dx =
1
2
∫ t
−tλ e−λ|x|dx =
=1
2
∫ t
0
λ e−λxdx+1
2
∫ 0
−tλ e−λ|x|dx =
1
2FExp(λ)(t)−
1
2
∫ −t0
λ e−λ|x|dx =
=1
2FExp(λ)(t) +
1
2
∫ t
0
λ e−λxdx =1
2FExp(λ)(t) +
1
2FExp(λ)(t) = FExp(λ)(t)
Logo, T ∼ Exp(λ) e a variavel fulcral Q = 2nλT ∼ χ2(2n) permite fazer inferencias sobre λ,
como visto na alınea b) do exercıcio 3.11.
(c)
Teste dos Hipoteses (Bilateral) para o Parametro de uma Populacao Exponencial
• Hipoteses:
H0 : λ = 1 vs. H1 : λ 6= 1
• Estatıstica de Teste:
Q = 2nλT ∼ χ2(2n)
e variavel fulcral, que, sob a validade de H0 e a estatıstica de teste
Q0 = 80T ∼sob H0
χ2(80)
com valor observado q0 = 95.0816.
Pagina 20 de 84
CAPITULO 3. FIABILIDADE E ANALISE DE SOBREVIVENCIA CPE
• Valor-p:
p = 2 min{P (Q0 ≤ q0), P (Q0 ≥ q0)
}= 2 min
{P (Q0 ≤ 95.0816), 1− P (Q0 < 95.0816)
}0.85 < P (Q0 ≤ 95.0816) < 0.9⇔ 0.1 < 1− P (Q0 < 95.0816) < 0.15⇔ p ∈]0.2, 0.3[
• Decisao:
Devemos rejeitar H0 a nıveis de significancia α ≥ 30% e nao rejeitar para α ≤ 20%, o queinclui os nıveis de significancia usuais.
Exercıcio 3.13
Teste de Ajustamento do Qui-Quadrado de Pearson
• Hipoteses:
H0 : T ∼ Exp(λ) vs. H1 : T 6∼ Exp(λ)
• Estatıstica de Teste:
Q0 =
3∑i=1
(Oi − Ei)2
Ei
a∼sob H0
χ2(3−1−1)
pois ha tres classes (e necessario agrupar duas por o valor esperado de menos de 80% das
classes ser superior a 5) e um parametro estimado: λ = 1849 , que corresponde ao inverso da
media da amostra observada, como visto no exercıcio 3.11.
i Classe p0i = P (T ∈ classe i|H0) ei = n× p0
i Oi1 < 1500 p0
1 = FExp( 1849 )(1500) ' 0.8291 e1 = 82.91 70
2 [1500, 2000[ p02 = FExp( 1
849 )(2000)− FExp( 1849 )(1500) ' 0.0761 e2 = 7.61 15
a) [2000, 2500[ p0a = FExp( 1
849 )(2500)− FExp( 1849 )(2000) ' 0.0422 ea = 4.22 < 5 5
b) ≥ 2500 p0b = 1− FExp( 1
849 )(2500) ' 0.0526 eb = 5.26 10
3 ≥ 2000 p03 = p0
a + p0b = 1− FExp( 1
849 )(2000) ' 0.0422 + 0.0526 = 0.0948 e3 = ea + eb = 9.48 15
n 100
Tabela 3.1: Valor Observado da Estatistica de Teste
Assim, o valor observado da estatıstica de teste e
q0 = (70−82.91)2
82.91 + (15−7.61)2
7.61 + (15−9.48)2
9.48 ' 12.4
• Valor-p:
p = P (Q0 ≥ q0) = 1− P (Q0 < 12.4) = 1− Fχ2(1)
(12.4)
0.995 < Fχ2(1)
(12.4) < 1⇔ 0 < 1− Fχ2(1)
(12.4) < 0.005⇔ p ∈]0, 0.005[
• Decisao:
Devemos rejeitar H0 para nıveis de significancia α ≥ 0.5%, o que inclui os nıveis de signi-ficancia usuais, e nao rejeitar para α = 0%.
• Nota:
O resultado difere das solucoes da colectanea, tendo sido comunicado e revisto.
Pagina 21 de 84
CPE CAPITULO 3. FIABILIDADE E ANALISE DE SOBREVIVENCIA
Exercıcio 3.14
Sejam T a variavel aleatoria “tempo de vida”de um transistor e T = (T1, T2, ...T30) umaamostra aleatoria de T de dimensao n = 30. A amostra observada
t = (4.1, 7.3, 13.2, 18.8, 24.5, 30.8, 38.1, 45.5, 53, 62.2)
e uma concretizacao de(T(1), T(2), ...T(10)
), ou seja, as r = 10 primeiras componentes com o menor
tempo de vida na amostra aleatoria T.Assim, definimos Θ como o tempo total acumulado em teste:
Θ =
r∑i=1
T(i) + (n− r)T(r) ∼ Gama(r, λ)⇔ 2λΘ ∼ χ2(2r)
com valor observado θ =∑10i=1 t(i) + 20t(10) = 1541.5.
Sabemos que T ∼ Exp(λ) e, pela alınea a) do exercıcio 3.11., temos que hT (t) = λ.
(a)
Intervalo de Confianca a 95% para o Parametro de uma Populacao Exponencial
• Variavel Fulcral:
Q = 2λΘ ∼ χ2(2×10)
• Quantis:a : Fχ2(20)
(a) = 0.052
b : Fχ2(20)
(b) = 1− 0.052
⇔
a = F−1χ2(20)
(0.025)
b = F−1χ2(20)
(0.975)⇔
{a = 9.591
b = 34.17
• Intervalo de Confianca Aleatorio:
P (a ≤ Q ≤ b) = 0.95⇔ P (a ≤ 2λΘ ≤ b) = 0.95⇔ P
(a
2Θ≤ λ ≤ b
2θ
)= 0.95⇔
⇔ICA95%(λ) =
[a
2Θ,b
2Θ
]⇔ ICA95%(λ) =
[9.591
2Θ,
34.17
2Θ
]• Intervalo de Confianca:
IC95%(λ) =
[9.591
2× 1541.5,
34.17
2× 1541.5
]= [0.0031, 0.0111]
Pagina 22 de 84
CAPITULO 3. FIABILIDADE E ANALISE DE SOBREVIVENCIA CPE
(b)
Seja µ = E(T ) = 1λ .
Teste de Hipoteses (Bilateral) para a Media de uma Populacao Exponencial
• Hipoteses:
H0 : µ = 150 vs. H1 : µ 6= 150
• Estatıstica de Teste:
Q = 2λΘ ∼ χ2(20)
e variavel fulcral para λ, que, sob a validade de H0, permite gerar a estatıstica de teste
Q0 =2
150Θ =
Θ
75∼ χ2
(20)
com valor observado q0 = θ75
a)= 1541.5
75 ' 20.55 .
• Valor-p:
p = 2 min{P (Q0 ≤ q0), P (Q0 ≥ q0)
}= 2 min
{P (Q0 ≤ 20.55), 1− P (Q0 < 20.55)
}0.5 < P (Q0 ≤ 20.55) < 0.6⇔ 0.4 < 1− P (Q0 < 20.55) < 0.5⇔ p ∈]0.8, 1[
• Decisao:
Devemos rejeitar H0 ao nıvel de significancia α = 100% e nao rejeitar para α ≤ 80%, o queinclui os nıveis de significancia usuais.
Pagina 23 de 84
CPE CAPITULO 3. FIABILIDADE E ANALISE DE SOBREVIVENCIA
Exercıcio 3.15
Sejam T a variavel aleatoria “tempo de vida”de um item e T = (T1, T2, ...T30) uma amostraaleatoria de T de dimensao n = 30. A amostra observada
t = (0.35, 0.73, 0.99, 1.40, 1.45, 1.83, 2.20, 2.72)
e uma concretizacao de(T(1), T(2), ...T(8)
), ou seja, as r = 8 primeiras componentes com o menor
tempo de vida na amostra aleatoria T.Assim, definimos Θ como o tempo total acumulado em teste:
Θ =
r∑i=1
T(i) + (n− r)T(r) ∼ Gama(r, λ)⇔ 2λΘ ∼ χ2(2r)
com valor observado θ =∑8i=1 t(i) + 22t(8) = 71.51.
(a)
Sabemos que T ∼ Exp(λ) e que a sua funcao de fiabilidade e dada por RT (t) = e−λt. Comoa funcao que a cada x faz corresponder e−xt e monotona decrescente (para t > 0), entao podemoscomecar por construir um intervalo de confianca para λ.
Intervalo de Confianca a 95% para a Parametro de uma Populacao Exponencial
• Variavel Fulcral:
Q = 2λΘ ∼ χ2(2×8)
• Quantis:a : Fχ2(16)
(a) = 0.052
b : Fχ2(16)
(b) = 1− 0.052
⇔
a = F−1χ2(16)
(0.025)
b = F−1χ2(16)
(0.975)⇔
{a = 6.908
b = 28.85
• Intervalo de Confianca Aleatorio:
P (a ≤ Q ≤ b) = 0.95⇔ P (a ≤ 2λΘ ≤ b) = 0.95⇔ P
(a
2Θ≤ λ ≤ b
2θ
)= 0.95⇔
⇔ICA95%(λ) =
[a
2Θ,b
2Θ
]⇔ ICA95%(λ) =
[6.908
2Θ,
28.85
2Θ
]=
[3.454
Θ,
14.425
Θ
]• Intervalo de Confianca:
IC95%(λ) =
[3.454
θ,
14.425
θ
]=
[3.454
71.51,
14.425
71.51
]' [0.0483, 0.2017]
Logo, IC95%[RT (t)] =[e−0.2017t, e−0.0483
]e o intervalo de confianca a 95% para a funcao de
fiabilidade de T .
Pagina 24 de 84
CAPITULO 3. FIABILIDADE E ANALISE DE SOBREVIVENCIA CPE
(b)
Seja µ = E(T ) = 1λ .
Teste de Hipoteses (Unilateral a Direita) para a Media de uma PopulacaoExponencial
• Hipoteses:
H0 : µ ≤ 10 vs. H1 : µ > 10
• Estatıstica de Teste:
Q = 2λΘ ∼ χ2(16)
e variavel fulcral para λ, que, sob a validade de H0, permite gerar a estatıstica de teste
Q0 =2
10Θ =
Θ
5∼ χ2
(16)
com valor observado q0 = θ5
a)= 71.51
5 = 14.302 .
• Valor-p:
p = P (Q0 ≥ q0) = P (Q0 ≥ 14.302) = 1− P (Q0 < 14.302) = 1− Fχ2(16)
(14.302)
0.4 < Fχ2(16)
(14.302) < 0.5⇔ 0.5 < 1− Fχ2(16)
(14.302) < 0.6⇔ p ∈]0.5, 0.6[
• Decisao:
Devemos rejeitar H0 aos nıveis de significancia α ≥ 60% e nao rejeitar para α ≤ 50%, o queinclui os nıveis de significancia usuais.
• Nota:
O valor-p difere das solucoes da edicao de 2014/2015.
Pagina 25 de 84
CPE CAPITULO 3. FIABILIDADE E ANALISE DE SOBREVIVENCIA
Exercıcio 3.16
Seja T1 a variavel aleatoria que regista os numeros gerados pelo programa I, com amostraaleatoria de dimensao n1 = 7
(T1,1, T1,2, ...T1,7
).
Seja T2 a variavel aleatoria que regista os numeros gerados pelo programa I, com amostraaleatoria de dimensao n2 = 6
(T2,1, T2,2, ...T2,6
).
Temos, por hipotese, que T1 e T2 sao variaveis aleatorias independentes, T1 ∼ Exp(λ1) eT2 ∼ Exp(λ2). Assim,
n1∑i=1
T1,i ∼ Gama(n1, λ1), logo 2λ1
n1∑i=1
T1,i ∼ χ2(2n1) ⇔ 2λ1n1T1 ∼ χ2
(2n1) e 2λ2n2T2 ∼ χ2(2n2)
Logo,
X =2λ1n1T1
n1
2λ2n2T2
n2
=λ1T1
λ2T2
∼ F(2n1,2n2)
pois e o quociente de duas variaveis aleatorias de distribuicao qui-quadrado com n1 e n2 graus deliberdade no numerador e no denominador, respectivamente, sendo variavel fulcral para a razaoentre os parametros de duas populacoes exponenciais.
Teste de Igualdade de duas Populacoes Exponenciais
• Hipoteses:
H0 : λ1 = λ2 ⇔λ1
λ2= 1 vs. H1 : λ1 6= λ2 ⇔
λ1
λ26= 1
• Estatıstica de Teste:
X =λ1T1
λ2T2
∼ F(2×7,2×6)
e variavel fulcral que, sob a validade de H0, permite gerar a estatıstica de teste
X0 =T1
T2
∼sob H0
F(14,12)
com valor observado x0 = t1t2' 2.527
4,713 ' 0.5362.
• Regiao Crıtica:
RC5% = [0, a] ∪ [b,+∞[ , onde{a : FF(14,12)
(a) = 0.052
b : FF(14,12)(b) = 1− 0.05
2
⇔
a = F−1F(14,12)
(0.025)
b = F−1F(14,12)
(0.975)⇔
{a =?
b = 3.21
Quando Y ∼ F(n,m), temos que 1Y ∼ F(m,n). Neste caso...
a : FF(14,12)(a) =
0.05
2⇔ P (X0 ≤ a) = 0.025⇔ P
(1
X0≥ 1
a
)= 0.05⇔
⇔1− P(
1
X0<
1
a
)= 0.05⇔ P
(1
X0<
1
a
)= 0.975⇔ FF(12,14)
(1
a
)= 0.975⇔
⇔1
a= F−1
F(12,14)(0.975)⇔ 1
a' 3.05⇔ a ' 0.328
RC5% = [0, 0.328] ∪ [3.21,+∞[
• Decisao:
Como x0 /∈ RC5%, nao devemos rejeitar H0 ao nıvel de significancia de 5%.
Pagina 26 de 84
CAPITULO 3. FIABILIDADE E ANALISE DE SOBREVIVENCIA CPE
Exercıcio 3.17
Seja T1 a variavel aleatoria que contabiliza o tempo de falha em minutos da componente detipo I, com amostra aleatoria de dimensao n1 = 7
(T1,1, T1,2, ...T1,7
).
Seja T2 a variavel aleatoria que contabiliza o tempo de falha em minutos da componente detipo II, com amostra aleatoria de dimensao n2 = 7
(T2,1, T2,2, ...T2,7
).
Temos, por hipotese, que T1 e T2 sao variaveis aleatorias independentes, T1 ∼ Exp(λ1) eT2 ∼ Exp(λ2). Assim,
n1∑i=1
T1,i ∼ Gama(n1, λ1), logo 2λ1
n1∑i=1
T1,i ∼ χ2(2n1) ⇔ 2λ1n1T1 ∼ χ2
(2n1)
e, de forma analoga,2λ2n2T2 ∼ χ2
(2n2)
Assim,
X =2λ1n1T1
n1
2λ2n2T2
n2
⇔ X =λ1T1
λ2T2
∼ F(2n1,2n2)
e a variavel fulcral para a razao entre os parametros de duas populacoes exponenciais.
Teste de Igualdade de duas Populacoes Exponenciais
• Hipoteses:
H0 : λ1 = λ2 ⇔λ1
λ2= 1 vs. H1 : λ1 6= λ2 ⇔
λ1
λ26= 1
• Estatıstica de Teste:
X =λ1T1
λ2T2
∼ F(2×7,2×7)
e variavel fulcral que, sob a validade de H0, permite gerar a estatıstica de teste
X0 =T1
T2
∼sob H0
F(14,14)
com valor observado x0 = t1t2' 123.03
89.51 .
• Regiao Crıtica:
RC10% = [0, a] ∪ [b,+∞[ , onde{a : FF(14,14)
(a) = 0.12
b : FF(14,14)(b) = 1− 0.1
2
⇔
a = F−1F(14,14)
(0.05)
b = F−1F(14,14)
(0.95)⇔
{a =?
b = 2.48
Quando Y ∼ F(n,m), temos que 1Y ∼ F(m,n). Neste caso...
a : FF(14,14)(a) =
0.1
2⇔ P (X0 ≤ a) = 0.05⇔ P
(1
X0≥ 1
a
)= 0.05⇔
⇔1− P(
1
X0<
1
a
)= 0.05⇔ P
(1
X0<
1
a
)= 0.95⇔ FF(14,14)
(1
a
)= 0.95⇔
⇔1
a= F−1
F(14,14)(0.95)⇔ 1
a' 2.48⇔ a ' 0.403
RC10% = [0, 0.403] ∪ [2.48,+∞[
• Decisao:
Como x0 /∈ RC10%, nao devemos rejeitar H0 ao nıvel de significancia de 10%.
Pagina 27 de 84
CPE CAPITULO 3. FIABILIDADE E ANALISE DE SOBREVIVENCIA
Exercıcio 3.18
Seja X = (X1, X2, X3, X4) tal que
Xi =
{1, se a componente i funcionar
0, caso contrario, com i ∈ {1, 2, 3, 4}
e a funcao estrutura e dada por
φ(X) =
{1, se o sistema funcionar
0, caso contrario
O sistema dado pode ser encarado como tres partes, independentes por hipotese, instaladasem serie, logo o sistema funciona se e so se todas as partes funcionarem. Assim, a primeira partee constituıda apenas pela componente 1, a segunda parte apenas pela componente 2 e a terceirapelas componentes 3 e 4.
Seja S1 a variavel aleatoria tal que
S1 =
{1, se a parte 1 funcionar
0, caso contrario=
{1, se a componente 1 funcionar
0, caso contrario= X1
Seja S2 a variavel aleatoria tal que
S1 =
{1, se a parte 2 funcionar
0, caso contrario=
{1, se a componente 2 funcionar
0, caso contrario= X2
Seja S3 a variavel aleatoria tal que
S3 =
{1, se a parte 3 funcionar
0, caso contrario
A terceira parte pode ser vista como um sistema de duas componentes instalado em paralelo,que funciona se e so se pelo menos uma das componentes funcionar. Por outras palavras, so naofunciona se ambas as componentes nao funcionarem. Assim,
S3 = P (pelo menos uma componente funcionar) = P (as duas componentes nao funcionarem) =
= 1− P (as duas componentes nao funcionarem) = 1− P (X3 = 0, X4 = 0) =indep.
= 1− P (X3 = 0)P (X4 = 0) = 1− (1−X3)(1−X4)
Por fim, a expressao da funcao estrutura e:
φ(X) = P (S1 = 1, S2 = 1, S3 = 1) =indep.
P (S1 = 1)P (S2 = 1)P (S3 = 1) =
= S1S2S3 = X1X2[1− (1−X3)(1−X4)]
1 2
3
4
Figura 3.1: Representacao Grafica do Sistema
Pagina 28 de 84
CAPITULO 3. FIABILIDADE E ANALISE DE SOBREVIVENCIA CPE
Exercıcio 3.19
Seja X = (X1, X2, X3, X4, X5) um vector aleatorio tal que
Xi =
{1, se a componente i funcionar
0, caso contrario, com i ∈ {1, 2, 3, 4, 5}
A funcao estrutura φ e tal que
φ(X) =
{1, se o sistema funcionar
0, caso contrario
Um caminho mınimo e o conjunto de componentes todas relevantes para que o sistema funcione.Neste caso, temos como caminhos mınimos
• P1 = {1, 3, 4};
• P2 = {1, 5};
• P3 = {2, 3, 4};
• P4 = {2, 5},
pois basta remover apenas uma componente a qualquer um destes quatro caminhos para o sistemadeixar de funcionar.
Um corte mınimo e o conjunto de componentes todas relevantes que, quando retiradas, osistema deixa de funcionar. Neste caso, temos como cortes mınimos
• C1 = {1, 2};
• C2 = {3, 5};
• C3 = {4, 5},
pois, removendo qualquer um destes tres conjuntos de componentes, o sistema deixa de funcionar.
O sistema funciona se pelo menos um dos caminhos mınimos funcionar. Assim, seja αj , comj ∈ {1, 2, 3, 4} tal que
αj =
{1, se o o caminho Pj funcionar
0, caso contrario
logo
αj =∏i∈Pj
Xi
pois, desta forma, αj = 1 se e so se todas as componentes do caminho Pj funcionarem. Nestecaso,
• α1 = X1X3X4;
• α2 = X1X5;
• α3 = X2X3X4;
• α4 = X2X5.
Pagina 29 de 84
CPE CAPITULO 3. FIABILIDADE E ANALISE DE SOBREVIVENCIA
Isto permite reescrever a funcao estrutura do sistema como
φ(X) =
{1, se αj = 1, para algum j ∈ {1, 2, 3, 4}0, se αj = 0, qualquer que seja j ∈ {1, 2, 3, 4}
= maxjαj
o que, neste caso, leva a...
φ(X) = max {X1X3X4, X1X5, X2X3X4, X2X5} = max{X1 max {X3X4, X5} , X2 max {X3X4, X5}
}=
= max {X1, X2}max {X3X4, X5}
ou seja, ao produto da probabilidade da primeira parte do sistema funcionar e da segundaparte do mesmo funcionar.
Temos tambem que se Xi ∈ {0, 1}, com i ∈ {1, 2, ..., n}, entao
maxi{X1, X2, ..., Xn} = 1−
n∏i=1
(1−Xi)
Por fim,φ(X) = [1− (1−X1)(1−X2)][1− (1−X3X4)(1−X5)]
Pagina 30 de 84
CAPITULO 3. FIABILIDADE E ANALISE DE SOBREVIVENCIA CPE
Exercıcio 3.20
Uma estrutura diz-se 2-de-3 se, para funcionar, 2 das suas 3 componentes, Xi, com i ∈ {1, 2, 3}tiverem de estar a funcionar.
Seja X = (X1, X2, X3). Assim,
Xi =
{1, se a componente i funcionar
0, caso contrario, com i ∈ {1, 2, 3}
Sao caminhos mınimos todas as combinacoes possıveis de 3 componentes 2 a 2.
• P1 = {1, 2}
• P2 = {1, 3}
• P3 = {2, 3}
αj =∏i∈Pj
Xi, j ∈ {1, 2, 3}
• α1 = X1X2
• α2 = X1X3
• α3 = X2X3
Como cada Xi, com i ∈ {1, 2, 3} e uma Bernoulli, X2i tambem o e.
φ(X) = maxjαj
3.19.= 1−
3∏j=1
(1− αj) = 1− (1−X1X2)(1−X1X3)(1−X2X3) =
=1− (1−X1X2 −X1X3 +X21X2X3)(1−X2X3) = 1− (1−X1X2 −X1X3 +X1X2X3)(1−X2X3) =
=1− [(1−X1X2 −X1X3 +X1X2X3)−X2X3(1−X1X2 −X1X3 +X1X2X3)] =
=1− [(1−X1X2 −X1X3 +X1X2X3)− (X2X3 −X1X22X3 −X1X2X
23 +X1X
22X
23 )] =
=1− [(1−X1X2 −X1X3 +X1X2X3)− (X2X3 −X1X2X3 −X1X2X3 +X1X2X3)] =
=X1X2 +X1X3 −X1X2X3 +X2X3 −X1X2X3 −X1X2X3 +X1X2X3 =
=X1X2 +X1X3 +X2X3 − 2X1X2X3 =
Seja p = (p1, p2, p3), tal que pi e a fiabilidade de Xi, com i ∈ {1, 2, 3}. A fiabilidade do sistemae dada por
r(p) = P [φ(X) = 1] = E[φ(X)], pois φ e uma Bernoulli e P (Xi = 1) = E(Xi) = pi
r(p) = E(X1X2 +X1X3 +X2X3 − 2X1X2X3) =indep.
=indep.
E(X1)E(X2) + E(X1)E(X3) + E(X2)E(X3)− 2E(X1)E(X2)E(X3)
=p1p2 + p1p3 + p2p3 − 2p1p2p2p3
Q.E.D.
Pagina 31 de 84
CPE CAPITULO 3. FIABILIDADE E ANALISE DE SOBREVIVENCIA
Exercıcio 3.21
Uma estrutura diz-se 3-de-4 se, para funcionar, 3 das suas 4 componentes, Xi, com i ∈{1, 2, 3, 4} tiverem de estar a funcionar.
Seja X = (X1, X2, X3, X4). Assim,
Xi =
{1, se a componente i funcionar
0, caso contrario, com i ∈ {1, 2, 3, 4}
Sao caminhos mınimos todas as combinacoes possıveis de 4 componentes 3 a 3.
• P1 = {1, 2, 3}
• P2 = {1, 2, 4}
• P3 = {1, 3, 4}
• P4 = {2, 3, 4}
αj =∏i∈Pj
Xi, j ∈ {1, 2, 3, 4}
• α1 = X1X2X3
• α2 = X1X2X4
• α3 = X1X3X4
• α4 = X2X3X4
Como cada Xi, com i ∈ {1, 2, 3, 4} e uma Bernoulli, X2i tambem o e.
φ(X) = maxjαj
3.19.= 1−
4∏j=1
(1− αj) =
= 1− (1−X1X2X3)(1−X1X2X4)(1−X1X3X4)(1−X2X3X4) =
= 1− (1−X1X2X3 −X1X2X4 +X21X
22X3X4)(1−X1X3X4 −X2X3X4 +X1X2X
23X
24 ) =
= 1− (1−X1X2X3 −X1X2X4 +X1X2X3X4)(1−X1X3X4 −X2X3X4 +X1X2X3X4) =
= 1− [1−X1X2(X3 +X4 −X3X4)][1−X3X4(X1 +X2 −X1X2)] =
= 1− [1−X3X4(X1 +X2 −X1X2)−X1X2(X3 +X4 −X3X4)+
+X1X2(X3 +X4 −X3X4)X3X4(X1 +X2 −X1X2)] =
= 1− [1−X1X3X4 −X2X3X4 +X1X2X3X4 −X1X2X3 −X1X2X4 +X1X2X3X4+
+X1X2X3X4(X1 +X2 −X1X2)(X3 +X4 −X3X4)] =
= 1− [1−X1X3X4 −X2X3X4 +X1X2X3X4 −X1X2X3 −X1X2X4 +X1X2X3X4+
+ (X21X2X3X4 +X1X
22X3X4 −X2
1X22X3X4)(X3 +X4 −X3X4)] =
= 1− [1−X1X3X4 −X2X3X4 +X1X2X3X4 −X1X2X3 −X1X2X4 +X1X2X3X4+
+ (X1X2X3X4 +X1X2X3X4 −X1X2X3X4)(X3 +X4 −X3X4)] =
= 1− [1−X1X3X4 −X2X3X4 +X1X2X3X4 −X1X2X3 −X1X2X4 +X1X2X3X4+
+X1X2X3X4(X3 +X4 −X3X4)] =
= 1− (1−X1X3X4 −X2X3X4 +X1X2X3X4 −X1X2X3 −X1X2X4 +X1X2X3X4+
+X1X2X23X4 +X1X2X3X
24 −X1X2X
23X
24 ) =
= 1− (1−X1X3X4 −X2X3X4 +X1X2X3X4 −X1X2X3 −X1X2X4 +X1X2X3X4+
+X1X2X3X4 +X1X2X3X4 −X1X2X3X4) =
= 1− (1−X1X2X3 −X1X2X4 −X1X3X4 −X2X3X4 + 3X1X2X3X4) =
= X1X2X3 +X1X2X4 +X1X3X4 +X2X3X4 − 3X1X2X3X4
Pagina 32 de 84
CAPITULO 3. FIABILIDADE E ANALISE DE SOBREVIVENCIA CPE
Seja p = (p1, p2, p3, p4), tal que pi e a fiabilidade de Xi, com i ∈ {1, 2, 3, 4}. A fiabilidade dosistema e dada por
r(p) = P [φ(X) = 1] = E[φ(X)], pois φ e uma Bernoulli e P (Xi = 1) = E(Xi) = pi
r(p) = E(X1X2X3 +X1X2X4 +X1X3X4 +X2X3X4 − 3X1X2X3X4) =indep.
=indep.
E(X1)E(X2)E(X3) + E(X1)E(X2)E(X4) + E(X1)E(X3)E(X4)+
+E(X2)E(X3)E(X4)− 3E(X1)E(X2)E(X3)E(X4) =
=p1p2p3 + p1p2p4 + p1p3p4 + p2p3p4 − 3p1p2p3p4
Pagina 33 de 84
CPE CAPITULO 3. FIABILIDADE E ANALISE DE SOBREVIVENCIA
Exercıcio 3.22
Seja X = (X1, X2, X3) tal que
Xi =
{1, se a componente i funcionar
0, caso contrario, com i ∈ {1, 2, 3}
e a funcao estrutura e dada por
φ(X) =
{1, se o sistema funcionar
0, caso contrario
O sistema dado pode ser encarado como duas partes, independentes por hipotese, instaladasem serie, logo o sistema funciona se e so se ambas as partes funcionarem. Assim, a primeira partee constituıda apenas pela componente 1 e a segunda parte e constituıda pelas componentes 2, 3 e4.
Seja S1 a variavel aleatoria tal que
S1 =
{1, se a parte 1 funcionar
0, caso contrario=
{1, se a componente 1 funcionar
0, caso contrario= X1
Seja S2 a variavel aleatoria tal que
S2 =
{1, se a parte 2 funcionar
0, caso contrario
A segunda parte do sistema pode ser vista como um sistema 1-de-3, pois funciona se e sose pelo menos uma das tres componentes funcionar. Assim, os caminhos mınimos sao apenascompostos por uma componente cada e, como consequencia, cada αj e igual ao respectivo Xj ,com j ∈ {2, 3, 4}.
αj = Xj , j ∈ {2, 3, 4}
• P1 = {2} ⇒ α2 = X2
• P2 = {3} ⇒ α3 = X3
• P3 = {4} ⇒ α4 = X4
S2 = maxjαj
3.19.= 1−
4∏j=2
(1− αj) = = 1− (1−X2)(1−X3)(1−X4)
φ(X) = S1S2 = X1[1− (1−X2)(1−X3)(1−X4)]
Seja p = (p1, p2, p3, p4), tal que pi e a fiabilidade de Xi, com i ∈ {1, 2, 3, 4}. A fiabilidade dosistema e dada por
r(p) = P [φ(X) = 1] = E[φ(X)], pois φ e uma Bernoulli e P (Xi = 1) = E(Xi) = pi
r(p) = E{X1[1− (1−X2)(1−X3)(1−X4)]
}=
indep.E(X1)E[1− (1−X2)(1−X3)(1−X4)] =
indep.∗
=indep.∗
E(X1)[E(1)− E(1−X2)E(1−X3)E(1−X4)] = p1[1− (1− p2)(1− p3)(1− p4)]
No passo assinalado com *, foi assumido que se X1 e X2 forem variaveis aleatorias indepen-dentes com distribuicao Bernoulli de parametros p1 e p2, respectivamente, entao Y1 = 1 − X1 eY2 = 1−X2 tambem sao independentes. Isto e, se
P (X1 = x1, X2 = x2) = P (X1 = x1)P (X2 = x2)
Pagina 34 de 84
CAPITULO 3. FIABILIDADE E ANALISE DE SOBREVIVENCIA CPE
entaoP (Y1 = y1, Y2 = y2) = P (Y1 = y1)P (Y2 = y2)
P (Y1 = y1, Y2 = y2) = P (1−X1 = y1, 1−X2 = y2) = P (X1 = 1− y1, X2 = 1− y2) =indep.
=indep.
P (X1 = 1− y1)P (X2 = 1− y2) = P (1−X1 = y1)P (1−X2 = y2) = P (Y1 = y1)P (Y2 = y2)
Como querıamos demonstrar.
Pagina 35 de 84
Capıtulo 4
Simulacao Estocastica
Exercıcio 4.1
U ∼ Unif(0, 1) , λ > 0⇒ X = − 1
λlog (U) ∼ Exp(λ)
fU (u) =
{1, se u ∈]0, 1[
0, caso contrario, FU (u) =
∫ u
−∞fU (x) dx =
u∈]0,1[
∫ u
0
1 dx = u− 0 = u
A funcao de distribuicao de probabilidades caracteriza univocamente a distribuicao de umavariavel aleatoria, isto e, se duas variaveis aleatorias tiverem a mesma funcao de distribuicao,entao sao iguais.
O mesmo ocorre com a funcao densidade de probabilidade.
FX(x) = P (X ≤ x) = P
(− 1
λlogU ≤ x
)= P (logU ≥ −λx) =
= P(U ≥ e−λx
)= 1− P
(U < e−λx
)= 1− FU
(e−λx
)FX(x) = 1− FU
(e−λx
)⇔ dFX(x)
dx=d[1− FU
(e−λx
)]dx
⇔
⇔ fX(x) = fU
(e−λx
)λe−λx ⇔ fX(x) =
1
1− 0λe−λx ⇔ fX(x) = λe−λx ⇔
⇔ fX(x) = fExp(λ)(x)
Logo, X = − 1λ logU ∼ Exp(λ).
Pagina 36 de 84
CAPITULO 4. SIMULACAO ESTOCASTICA CPE
Exercıcio 4.2
T ∼ Exp(1)
Temos que V=5 se a componente falhar antes do instante t=3, isto e,
T < 3⇒ V = 5
Ja se a componente falhar a partir do instante t=3, V=2T.
T ≥ 3⇒ V = 2T
Assim, V apenas toma o valor 5 ou valores a partir de 6 (se T=3, entao V=6). Logo, o suporteda variavel aleatoria V e SV = {5} ∪ [6,+∞[.
Para x < 5, temos que FV (x) = P (V ≤ x) = 0, pois V nao pode tomar valores inferiores a 5.Para x = 5, pela Lei das Probabilidades Totais, temos
FV (5) = P (V ≤ 5) = P (V ≤ 5, T < 3) + P (V ≤ 5, T ≥ 3) =
= P (V ≤ 5|T < 3)P (T < 3) + P (V ≤ 5|T ≥ 3)P (T ≥ 3) =
= P (5 ≤ 5|T < 3)P (T < 3) + P (2T ≤ 5|T ≥ 3)P (T ≥ 3) =
= 1.P (T < 3) + 0.P (T ≥ 3) = P (T < 3) = FExp(1)(3) = 1− e−3
Para 5 < x < 6, temos FV (x) = P (V ≤ x) = FV (5) = 1− e−3, pois ]5, 6[ 6⊂ SV .Para x ≤ 6, aplicando novamente a Lei das Probabilidades Totais, temos
FV (x) = P (V ≤ x) = P (V ≤ x, T < 3) + P (V ≤ x, T ≥ 3) =
= P (V ≤ x|T < 3)P (T < 3) + P (V ≤ x|T ≥ 3)P (T ≥ 3) =
= P (5 ≤ x|T < 3)P (T < 3) + P (2T ≤ x|T ≥ 3)P (T ≥ 3) =
= 1.P (T < 3) + P
(T ≤ x
2|T ≥ 3
)P (T ≥ 3) =
= P (T < 3) + P
(T ≤ x
2, T ≥ 3
)=
= P (T < 3) + P
(3 ≤ T ≤ x
2
)=
= P (T < 3) + P
(T ≤ x
2
)− P (T < 3) =
= P
(T ≤ x
2
)=
= FExp(1)
(x
2
)= 1− e− x2
Por fim, a funcao densidade de probabilidade de V e dada por
FV (x) =
0, se x < 5
1− e−3, se 5 ≤ x < 6
1− e− x2 , se x ≥ 6
Pagina 37 de 84
CPE CAPITULO 4. SIMULACAO ESTOCASTICA
Exercıcio 4.3
X ∼ Unif(−a, a) , Y = X2
Comecemos por considerar a funcao g que a cada x faz corresponder x2, que nao e bijectiva nointervalo [−a, a] (o suporte de X), para um dado a ∈ R+. Porem, podemos decompo-lo em doisintervalos disjuntos, S1 = [−a, 0[ e S2 = [0, a], nos quais a restricao da funcao g e bijectiva. Sejag1 a restricao de g a S1 e g2 a correspondente para S2.
y = x2 ⇔ x = ±√yS1 : −a ≤ x < 0⇒ 0 < x2 ≤ a2 ⇔ 0 < y ≤ a2
S2 : 0 ≤ x ≤ a⇒ 0 ≤ x2 ≤ a2 ⇔ 0 ≤ y ≤ a2
g−11 (y) = −√y, para 0 < y ≤ a2
g−12 (y) =
√y, para 0 ≤ y ≤ a2
d
dyg−1
1 (y) =1
2√y
d
dyg−1
2 (y) = − 1
2√y
Aplicando agora o Teorema da Transformacao:
fY (y) = fX [g−11 (y)]
∣∣∣∣ ddy g−11 (y)
∣∣∣∣+ fX [g−12 (y)]
∣∣∣∣ ddy g−12 (y)
∣∣∣∣ =
= fX(−√y)χ]0,a2](y)
∣∣∣∣∣ 1
2√y
∣∣∣∣∣+ fX(√y)χ[0,a2](y)
∣∣∣∣∣− 1
2√y
∣∣∣∣∣ =
=1
2aχ]0,a2](y)
1
2√y
+1
2aχ[0,a2](y)
1
2√y
=
=1
4a√y
(χ]0,a2](y) + χ[0,a2](y)) =
=
1
2a√y , se y ∈]0, a2]
14a√y , se y = 0, o que e impossıvel
0, caso contrario
=
=
12a√y , se y ∈]0, a2]
0, caso contrario
onde χI e a funcao caracterıstica do conjunto I.
Pagina 38 de 84
CAPITULO 4. SIMULACAO ESTOCASTICA CPE
Exercıcio 4.4
Y =
(X − 1
θ
)2
, X ∼ Exp(θ)
A funcao densidade de probabilidade de X e dada por
fX(x) =
{θe−θx , se x > 0
0, caso contrariologo o suporte de X e SX =]0,+∞[
A funcao de expressao geral y = g(x) =(x− 1
θ
)2nao e bijectiva em SX , pois e uma funcao
quadratica, cujo grafico e uma parabola de mınimo y = 0 no ponto de abcissa x = 1/θ.Tomemos SX = S1∪S2, com S1 =]0, 1/θ[ e S2 = [1/θ,+∞[ dois intervalos disjuntos, nos quais
a funcao g e bijectiva, decompondo-a em g1 e g2 para os respectivos intervalos.
y =
(x− 1
θ
)2
⇔ x− 1
θ= ±√y ⇔ x =
1
θ±√y
S1 : 0 < x <1
θ⇔ −1
θ< x− 1
θ< 0⇒ 0 <
(x− 1
θ
)2
<1
θ2⇔ 0 < y <
1
θ2
S2 : x ≥ 1
θ⇔ x− 1
θ≥ 0⇒
(x− 1
θ
)2
≥ 0⇔ y ≥ 0
g−11 (y) =
1
θ−√y, para 0 < y <
1
θ2
g−12 (y) =
1
θ+√y, para y ≥ 0
d
dyg−1
1 (y) = − 1
2√y
d
dyg−1
2 (y) =1
2√y
Entao, pelo Teorema da Transformacao:
fY (y) = fX [g−11 (y)]
∣∣∣∣ ddy g−11 (y)
∣∣∣∣+ fX [g−12 (y)]
∣∣∣∣ ddy g−12 (y)
∣∣∣∣ =
= fX
(1
θ−√y
)χ]0,1/θ2[(y)
∣∣∣∣∣− 1
2√y
∣∣∣∣∣+ fX
(1
θ+√y
)χ[0,+∞](y)
∣∣∣∣∣ 1
2√y
∣∣∣∣∣ =
=1
2√y
[θe−θ(
1θ−√y)χ]0,1/θ2[(y) + θe−θ(
1θ+√y)χ[0,+∞[(y)
]=
=θ
2√y
[e−(1−θ√y)χ]0,1/θ2[(y) + e−(1+θ
√y)χ[0,+∞[(y)
]=
=
0, se y ≤ 0
02√y
[e−(1−θ√y) + e−(1+θ
√y)]
, se 0 < y < 1θ2
θ2√y e−(1+θ
√y), y ≥ 1
θ2
onde χI e a funcao caracterıstica do conjunto I.
Pagina 39 de 84
CPE CAPITULO 4. SIMULACAO ESTOCASTICA
Exercıcio 4.5
X ∼ N(0, 1)
(a)
Y = eX
FY (y) = P (Y ≤ y) = P(eX ≤ y
)= P (X ≤ log y) = FX(log y)
FY (y) = FX(log y)⇔ fY (y) =fX(log y)
y
fY (y) =fN(0,1)(log y)
y=
1√2πe−
(log y)2
2
y=
1√2πy
e−(log y)2
2 , se y > 0
Portanto, a funcao densidade de probabilidade de Y e:
fY (y) =
1√2πy
e−(log y)2
2 , se y > 0
0 , caso contrario
(b)
Y = 2X2 + 1
FY (y) = P (Y ≤ y) = P(
2X2 + 1 ≤ y)
= P
(X2 ≤ y − 1
2
)Comecemos por mostrar que Z = X2 ∼ χ2
(1).
FZ(z) = P (Z ≤ z) = P(X2 ≤ z
)= P
(−√z ≤ X ≤
√z)
=
= FX(√z)− FX(−
√z) = Φ(
√z)− Φ(−
√z) = Φ(
√z)− 1 + Φ(
√z) = 2Φ(
√z)− 1
FZ(z) = 2Φ(√z)− 1⇔ fZ(z) = −ϕ(
√z)√z
FZ(z) = −1√2πe−
(√z)2
2
√z
= − 1√2πz
e−z2 =
=1
21/2Γ(1/2)z(1/2)−1e−
z2 = fχ2
(1)(z)
Retomemos a deducao da distribuicao de Y = X2 + 1.
FY (y) = P
(X2 ≤ y − 1
2
)= FZ
(y − 1
2
)
FY (y) = FZ
(y − 1
2
)⇔ fY (y) =
fZ
(y−1
2
)2
fY (y) =
1√
2π√
( y−12 )
e−y−14
2=
=1
2√π(y − 1)
e−y−14 , se
y − 1
2≥ 0
Portanto, a funcao densidade de probabilidade de Y e:
fY (y) =
1
2√π(y−1)
e−y−14 , se y ≥ 1
0 , caso contrario
Pagina 40 de 84
CAPITULO 4. SIMULACAO ESTOCASTICA CPE
Exercıcio 4.6
X,Y ∼i.i.d.
Unif(0, 1)
f(X,Y )(x, y) =indep.
fX(x)fY (y) =
{1 , se 0 < x, y < 1
0 , caso contrario
O suporte da distribuicao conjunta e S(X,Y ) =]0, 1[×]0, 1[.
• Distribuicao de X + Y
{Z1 = X + Y
Z2 = Y⇔
{X = Z1 − Z2
Y = Z2
⇔
{g−1
1 (Z1, Z2) = Z1 − Z2 , 0 < z1 − z2 < 1
g−12 (Z1, Z2) = Z2 , 0 < z2 < 1
pois 0 < x < 1⇒ 0 < z1 − z2 < 1 e 0 < y < 1⇒ 0 < z2 < 1
J(g−11 ,g−1
2 )(z1, z2) =
∣∣∣∣∣∣∂g−1
1 (z1,z2)∂z1
∂g−11 (z1,z2)∂z2
∂g−12 (z1,z2)∂z1
∂g−12 (z1,z2)∂z2
∣∣∣∣∣∣ =
∣∣∣∣1 −10 1
∣∣∣∣ = 1
Entao, pelo Teorema da Transformacao, a funcao densidade de probabilidade conjunta deZ1 e Z2 e dada por:
f(Z1,Z2)(z1, z2) = f(X,Y )
[g−1
1 (z1, z2), g−12 (z1, z2)
]∣∣∣J(g−11 ,g−1
2 )
∣∣∣ = f(Z1,Z2)(z1 − z2, z2)|1| =
=
{1 , se 0 < z1 < 2 e z1 < z2 < z1 − 1
0 , caso contrario
Entao, a funcao densidade marginal da variavel aleatoria Z1 = X + Y , para 0 < z1 < 1,onde 0 < z2 < z1, tem a expressao geral
fZ1(z1) =
∫ z1
0
1 dz2 = z1
e para 1 ≤ z1 < 2, onde z1 − 1 < z2 < 1, tem a forma
fZ1(z1) =
∫ 1
z1−1
1 dz2 = 2− z1
logo,
fZ1(z1) =
z1 , se 0 < z1 < 1
2− z1 , se 1 ≤ z1 < 2
0 , caso contrario
• Distribuicao de XY{Z1 = XY
Z2 = Y⇔
{X = Z1
Z2
Y = Z2
⇔
{g−1
1 (Z1, Z2) = Z1
Z2, 0 < z1 − z2 < 1
g−12 (Z1, Z2) = Z2 , 0 < z2 < 1
pois 0 < x, y < 1⇒ 0 < xy < 1⇒ 0 < z1 < 1 e 0 < y < 1⇒ 0 < z2 < 1
J(g−11 ,g−1
2 )(z1, z2) =
∣∣∣∣∣∣∂g−1
1 (z1,z2)∂z1
∂g−11 (z1,z2)∂z2
∂g−12 (z1,z2)∂z1
∂g−12 (z1,z2)∂z2
∣∣∣∣∣∣ =
∣∣∣∣∣ 1z2− z1z22
0 1
∣∣∣∣∣ =1
z2
Pagina 41 de 84
CPE CAPITULO 4. SIMULACAO ESTOCASTICA
Entao, pelo Teorema da Transformacao, a funcao densidade de probabilidade conjunta deZ1 e Z2 e dada por:
f(Z1,Z2)(z1, z2) = f(X,Y )
[g−1
1 (z1, z2), g−12 (z1, z2)
]∣∣∣J(g−11 ,g−1
2 )
∣∣∣ = f(Z1,Z2)
(z1
z2, z2
)∣∣∣∣ 1
z2
∣∣∣∣ =
=
{1z2
, se 0 < z1z2< 1 e 0 < z2 < 1⇔ 0 < z1 < z2 < 1
0 , caso contrario
Entao, a funcao densidade marginal da variavel aleatoria Z1 = XY , para 0 < z1 < 1 tem aexpressao geral
fZ1(z1) =
∫ 1
z1
1
z2dz2 = [log (z2)]z2=1
z2=z1 = − log (z1) = log
(1
z1
)
logo,
fZ1(z1) =
log(
1z1
), se 0 < z1 < 1
0 , caso contrario
Exercıcio 4.7
(a)
T1, T2 ∼i.i.d.
Exp(α)
Seja Y1 o tempo de vida do sistema.
f(T1,T2)(t1, t2) =indep.
fT1(t1)fT2
(t2)
fTi(ti) =
{αe−αti , se ti > 0
0, caso contrario, ∀i ∈ {1, 2}
f(T1,T2)(t1, t2) =i.i.d.
{αe−αt1αe−αt2 = α2e−α(t1+t2) , se t1, t2 > 0
0 , caso contrario
Logo, o suporte da distribuicao conjunta e S(T1,T2) = R+ × R+.
Pelo Teorema da Transformacao, necessitamos de uma outra variavel aleatoria Y2, que podemostomar igual a T1.{
Y1 = T1 + T2
Y2 = T1
⇔
{T2 = Y1 − T1
T1 = Y2
⇔
{T1 = Y2
T2 = Y1 − Y2
⇔
⇔
{g−1
1 (Y1, Y2) = Y2 , y2 > 0
g−12 (Y1, Y2) = Y1 − Y2 , y1 > y2 > 0
pois t1 > 0⇒ y2 > 0 e t2 > 0⇒ y1 − y2 > 0⇒ y1 > y2
J(g−11 ,g−1
2 )(y1, y2) =
∣∣∣∣∣∣∂g−1
1 (y1,y2)∂y1
∂g−11 (y1,y2)∂y2
∂g−12 (y1,y2)∂y1
∂g−12 (y1,y2)∂y2
∣∣∣∣∣∣ =
∣∣∣∣0 11 −1
∣∣∣∣ = −1
Pagina 42 de 84
CAPITULO 4. SIMULACAO ESTOCASTICA CPE
Entao, pelo Teorema da Transformacao, a funcao densidade de probabilidade conjunta de Y1
e Y2 e dada por:
f(Y1,Y2)(y1, y2) = f(T1,T2)
[g−1
1 (y1, y2), g−12 (y1, y2)
]∣∣∣J(g−11 ,g−1
2 )
∣∣∣ = f(T1,T2)(y2, y1 − y2)|−1| =
= α2e−α(y2+y1−y2) = α2e−αy1 , para y1 > y2 > 0
f(Y1,Y2)(y1, y2) =
{α2e−αy1 , se y1 > y2 > 0
0 , caso contrario
Entao, a funcao densidade marginal da variavel aleatoria Y1 = T1 + T2, para y1 > 0 tem aexpressao geral
fY1(y1) =
∫ +∞
−∞f(Y1,Y2)(y1, y2) dy2 =
∫ +∞
−∞α2e−αy1 dy2 =
∫ y1
0
α2e−αy1 dy2 =
= α2e−αy1∫ y1
0
1 dy2 = α2y1e−αy1
f(T1+T2)(t) =
{α2 t e−αt , se t > 0
0 , caso contrario
Logo, T1 + T2 ∼ Gama(2, α).
P (T1 + T2 > t) = 1− P (T1 + T2 ≤ t) = 1− F(T1+T2)(t) = 1−∫ t
0
f(T1+T2)(x) dx =
= 1−∫ t
0
α2x e−αx dx = 1 + α
([x e−αx
]x=t
x=0−∫ t
0
e−αx dx
)=
= 1 + α t e−α t +
∫ t
0
−α e−αx dx = 1 + α t e−α t +[e−αx
]x=t
x=0=
= 1 + α t e−α t + e−α t − 1 = (α t+ 1) e−α t se t > 0
E a probabilidade pedida.
(b)
Repetindo o procedimento da alınea anterior, obtemos
f(T1,T2)(t1, t2) =indep.
fT1(t1)fT2
(t2)
fTi(ti) =
{αe−αti , se ti > 0
0, caso contrario, ∀i ∈ {1, 2}
f(T1,T2)(t1, t2) =
{α2e−α(t1+t2) , se t1, t2 > 0
0 , caso contrario
S(T1,T2) = R+ × R+
Pelo Teorema da Transformacao, necessitamos de uma outra variavel aleatoria Y2, que podemos
Pagina 43 de 84
CPE CAPITULO 4. SIMULACAO ESTOCASTICA
tomar igual a T2.{Y1 = T1 − T2
Y2 = T2
⇔
{T1 = Y1 + T2
T2 = Y2
⇔
{T1 = Y1 + Y2
T2 = Y2
⇔
⇔
{g−1
1 (Y1, Y2) = Y1 + Y2 , y1 + y2 > 0
g−12 (Y1, Y2) = Y2 , y2 > 0
pois t2 > 0⇒ y2 > 0 e t1 > 0⇒ y1 + y2 > 0⇔ y2 > −y1
J(g−11 ,g−1
2 )(y1, y2) =
∣∣∣∣∣∣∂g−1
1 (y1,y2)∂y1
∂g−11 (y1,y2)∂y2
∂g−12 (y1,y2)∂y1
∂g−12 (y1,y2)∂y2
∣∣∣∣∣∣ =
∣∣∣∣1 10 1
∣∣∣∣ = 1
Entao, pelo Teorema da Transformacao, a funcao densidade de probabilidade conjunta de Y1
e Y2 e dada por:
f(Y1,Y2)(y1, y2) = f(T1,T2)
[g−1
1 (y1, y2), g−12 (y1, y2)
]∣∣∣J(g−11 ,g−1
2 )
∣∣∣ = f(T1,T2)(y1 + y2, y2)|1| =
= α2e−α(y1+y2+y2) , para y1 + y2 > 0 = α2e−αy1+2y2 , y1 + y2 > 0
Entao, como para y1 > 0, y2 pode variar entre 0 e +∞, mas para y1 ≤ 0, y2 apenas podevariar entre −y1 e +∞, a funcao densidade marginal da variavel aleatoria Y1 = T1−T2 tem comoexpressao geral:
fY1(y1) =
∫ +∞
−∞f(Y1,Y2)(y1, y2) dy2 =
∫ +∞
−∞α2e−α(y1+2y2) dy2 =
=
{∫ +∞0
α2e−α(y1+2y2) dy2 , se y1 > 0∫ +∞−y1 α
2e−α(y1+2y2) dy2 , se y1 ≤ 0=
=
{−α2 e
−αy1∫ +∞
0−2α e−2αy2 dy2 , se y1 > 0
−α2 e−αy1
∫ +∞−y1 −2α e−2αy2 dy2 , se y1 ≤ 0
=
=
−α2 e−αy1[e−2αy2
]y2=+∞y2=0
, se y1 > 0
−α2 e−αy1
[e−2αy2
]y2=+∞y2=−y1
, se y1 ≤ 0=
=
{−α2 e
−αy1 (0− 1) , se y1 > 0
−α2 e−αy1
(0− e2αy1
), se y1 ≤ 0
=
=
{α2 e−αy1 , se y1 > 0
α2 e
αy1 , se y1 ≤ 0=
=α
2e−α|y1| , se y1 ∈ R
f(T1−T2)(t) =α
2e−α|t| , se t ∈ R
Logo, T1 − T2 segue uma distribuicao de Laplace ou Dupla Exponencial de parametro α.
P (T1 > T2) = P (T1 − T2 > 0) = 1− P (T1 − T2 ≤ 0) = 1− F(T1−T2)(0) =
= 1−∫ 0
−∞f(T1−T2)(t) dt = 1−
∫ 0
−∞
α
2e−α|t| dt = 1−
∫ 0
−∞
α
2eα t dt =
= 1− 1
2
∫ 0
−∞α eα t dt = 1− 1
2
[eα t]t=0
t=−∞ = 1− 1
2(1− 0) =
1
2
E a probabilidade pedida.
Pagina 44 de 84
CAPITULO 4. SIMULACAO ESTOCASTICA CPE
Exercıcio 4.8
X1, X2 ∼i.i.d
Unif(0, 1)
Logo, o suporte da distribuicao conjunta e S(X1,X2) =]0, 1[×]0, 1[.
f(X1,X2)(x1, x2) =indep.
fX1(x1)fX2
(x2)
fXi(xi) =
{1, se 0 < xi < 1
0, caso contrario, ∀i ∈ {1, 2}
Consideremos as seguintes transformacoes para aplicarmos o Teorema da Transformacao:{Y1 = X1 +X2
Y2 = X1 −X2
⇔
{X1 = Y1 −X2
X2 = X1 − Y2
⇔
{X1 = Y1 −X1 + Y2
X2 = X1 − Y2
⇔
⇔
{X1 = Y1+Y2
2
X2 = X1 − Y2
⇔
{X1 = Y1+Y2
2
X2 = Y1−Y2
2
⇔
{g−1
1 (Y1, Y2) = Y1+Y2
2 , 0 < y1+y22 < 1
g−12 (Y1, Y2) = Y1−Y2
2 , 0 < y1−y22 < 1
pois 0 < x1 < 1⇒ 0 <y1 + y2
2< 1 e 0 < x2 < 1⇒ 0 <
y1 − y2
2< 1
J(g−11 ,g−1
2 )(y1, y2) =
∣∣∣∣∣∣∂g−1
1 (y1,y2)∂y1
∂g−11 (y1,y2)∂y2
∂g−12 (y1,y2)∂y1
∂g−12 (y1,y2)∂y2
∣∣∣∣∣∣ =
∣∣∣∣∣ 12 12
12 − 1
2
∣∣∣∣∣ = −1
2
Entao, pelo Teorema da Transformacao, a funcao densidade de probabilidade conjunta de Y1
e Y2 e dada por:
f(Y1,Y2)(y1, y2) = f(X1,X2)
[g−1
1 (y1, y2), g−12 (y1, y2)
]∣∣∣J(g−11 ,g−1
2 )
∣∣∣ = f(X1,X2)
(y1 + y2
2,y1 − y2
2
)∣∣∣∣−1
2
∣∣∣∣ =
= 1× 1× 1
2=
1
2, para 0 <
y1 + y2
2< 1, 0 <
y1 − y2
2< 1
f(Y1,Y2)(y1, y2) =
{12 , se 0 < y1+y2
2 < 1, 0 < y1−y22 < 1
0 , caso contrario
Pagina 45 de 84
CPE CAPITULO 4. SIMULACAO ESTOCASTICA
Exercıcio 4.9
Y =
n∑i=1
Xi , Xi⊥⊥ Xj , ∀i 6= j
(a)
Xi ∼ Exp(λ)
Comecemos por calcular a funcao geradora de momentos de Xi, ∀i ∈ {1, 2, ..., n}.
MXi(t) = E(etXi
)=
∫ +∞
−∞etxfXi(x) dx =
∫ ∞0
etxλe−λx dx = λ
∫ ∞0
e(t−λ)x dx =
=λ
t− λ
∫ ∞0
(t− λ)e(t−λ)x dx =λ
t− λ
[e(t−λ)x
]x=∞
x=0=
=λ
t− λ
(e(t−λ)∞ − 1
)=t<λ
λ
t− λ(0− 1) =
λ
λ− tCalculemos agora a funcao geradora de momentos de Y .
MY (t) = E(etY)
= E(et∑ni=1Xi
)= E
(e∑ni=1 tXi
)=
= E
n∏i=1
etXi
=indep.
n∏i=1
E(etXi
)=
n∏i=1
λ
λ− t=
(λ
λ− t
)n(b)
Xi ∼ N(µi, σ
2i
)Seja Zi = Xi−µi
σi∼ N(0, 1). Entao, Xi = µi+σiZi. Comecemos por calcular a funcao geradora
de momentos de Zi, ∀i ∈ {1, 2, ..., n}.
MZi(t) = E(etZi
)=
∫ +∞
−∞etzfZi(z) dz =
∫ +∞
−∞etz
1√2πe−
z2
2 dz =
=
∫ +∞
−∞etz−
z2
21√2π
dz = et2
2
∫ +∞
−∞
1√2πe−
12 (z2−2tz+t2) dz =
= et2
2
∫ +∞
−∞
1√2πe−
12 (z−t)2 dz = e
t2
2
∫ +∞
−∞fN(t,1)(z) dz =
= et2
2 × 1 = et2
2
Calculemos agora a funcao geradora de momentos de Xi.
MXi(t) = E(etXi
)= E
[et(µi+σiZi)
]= E
(etµietσiZi
)= etµiE
(etσiZi
)=
= etµiMZi(tσi) = etµie(tσi)
2
2 = etµi+(tσi)
2
2
Por fim, podemos obter a funcao geradora de momentos de Y .
MY (t) = E(etY)
= E(et∑ni=1Xi
)= E
(e∑ni=1 tXi
)=
= E
n∏i=1
etXi
=indep.
n∏i=1
E(etXi
)=
n∏i=1
etµi+(tσi)
2
2 =
= e
∑ni=1
[tµi+
(tσi)2
2
]
Pagina 46 de 84
CAPITULO 4. SIMULACAO ESTOCASTICA CPE
(c)
Xi ∼ Gama(αi, β)
Da alınea a), dado que a soma de n variaveis aleatorias de distribuicao exponencial de parametroλ e uma Gama(n, λ), supondo que αi sao inteiros (ou recorrendo ao formulario), tiramos que
MXi(t) =
(λ
λ− t
)αio que nos permite calcular a funcao geradora de momentos de Y .
MY (t) = E(etY)
= E(et∑ni=1Xi
)= E
(e∑ni=1 tXi
)=
= E
n∏i=1
etXi
=indep.
n∏i=1
E(etXi
)=
n∏i=1
(λ
λ− t
)αi=
(λ
λ− t
)∑ni=1 αi
(d)
Xi ∼ Poi(λi)Comecemos por calcular a funcao geradora de momentos de Xi, ∀i ∈ {1, 2, ..., n}.
MXi(t) = E(etXi
)=
∞∑x=0
etxP (Xi = x) =
∞∑x=0
etxe−λiλxix!
= e−λi∞∑x=0
(etλi)x
x!=
= e−λie(etλi) = e(et−1)λi
Calculemos agora a funcao geradora de momentos de Y .
MY (t) = E(etY)
= E(et∑ni=1Xi
)= E
(e∑ni=1 tXi
)=
= E
n∏i=1
etXi
=indep.
n∏i=1
E(etXi
)=
n∏i=1
e(et−1)λi = e(e
t−1)∑ni=1 λi
(e)
Xi ∼ Geom(p)
Comecemos por calcular a funcao geradora de momentos de Xi, ∀i ∈ {1, 2, ..., n}.
MXi(t) = E(etXi
)=
∞∑x=1
etxP (Xi = x) =∞∑x=1
etx(1− p)x−1p =p
1− p
∞∑x=1
[et(1− p)
]x=
=p
1− pet(1− p)
1− (1− p)et=
p et
1− (1− p)et,
se et(1− p) < 1⇔ t < log1
1− pe p 6= 1
Calculemos agora a funcao geradora de momentos de Y .
MY (t) = E(etY)
= E(et∑ni=1Xi
)= E
(e∑ni=1 tXi
)=
= E
n∏i=1
etXi
=indep.
n∏i=1
E(etXi
)=
n∏i=1
p et
1− (1− p)et=
[p et
1− (1− p)et
]n
Pagina 47 de 84
CPE CAPITULO 4. SIMULACAO ESTOCASTICA
Exercıcio 4.10{X1 =
√−2 logU1 cos (2πU2)
X2 =√−2 logU1 sen (2πU2)
com U1, U2 ∼i.i.d.
Unif(0, 1)
Para podermos aplicar o Teorema da Transformacao, temos de encontrar funcoes g1 e g2
bijectivas tais que:{x1 = g1(u1, u2) =
√−2 log u1 cos (2πu2)
x2 = g2(u1, u2) =√−2 log u1 sen (2πu2)
⇔
⇔
{u1 = g−1
1 (x1, x2)
u2 = g−12 (x1, x2)
⇔ g−1(x1, x2) = (u1, u2)
Para tal, comecemos por calcular x2
x1para explicitar u2 a custa de x1 e x2 apenas.
x2
x1=g2(u1, u2)
g1(u1, u2)=
√−2 log u1 sen (2πu2)√−2 log u1 cos (2πu2)
=sen (2πu2)
cos (2πu2)=
= tg (2πu2)⇒ 2πu2 = arctg
(x2
x1
)⇔ u2 =
arctg(x2
x1
)2π
Calculemos agora x21 + x2
2 para obter u1 em funcao de x1 e x2.
x21 + x2
2 = g21(u1, u2) + g2
2(u1, u2) = −2 log (u1)[sen2 (2πu2) + cos2 (2πu2)
]=
= −2 log u1 ⇒ log u1 = −x21 + x2
2
2⇔ u1 = e−
x21+x222
Assim,
g−1(x1, x2) =
e− x21+x222 ,
arctg(x2
x1
)2π
J(g−11 ,g−1
2 )(x1, x2) =
∣∣∣∣∣∣∂g−1
1 (x1,x2)∂x1
∂g−11 (x1,x2)∂x2
∂g−12 (x1,x2)∂x1
∂g−12 (x1,x2)∂x2
∣∣∣∣∣∣ =
=
∣∣∣∣∣∣∣∣−x1 e
− x21+x222 −x2 e
− x21+x222
−(x2/x21)
2π
[1+(x2x1
)2] 1/x1
2π
[1+(x2x1
)2]∣∣∣∣∣∣∣∣ =
∣∣∣∣∣∣−x1 e− x
21+x222 −x2 e
− x21+x222
− x2
2π(x21+x2
2)x1
2π(x21+x2
2)
∣∣∣∣∣∣ =
=−x2
1 e− x
21+x222
2π(x21 + x2
2)− x2
2 e− x
21+x222
2π(x21 + x2
2)=−(x2
1 + x22)e−
x21+x222
2π(x21 + x2
2)=
= −e− x
21+x222
2π
Entao, pelo Teorema da Transformacao, a funcao densidade de probabilidade conjunta de X1
e X2 e dada por:
f(X1,X2)(x1, x2) = f(U1,U2)
[g−1
1 (x1, x2), g−12 (x1, x2)
]∣∣∣Jg(x1,x2)
∣∣∣ =
= f(U1,U2)
e− x21+x222 ,
arctg(x2
x1
)2π
∣∣∣∣∣∣−e
− x21+x222
2π
∣∣∣∣∣∣Pagina 48 de 84
CAPITULO 4. SIMULACAO ESTOCASTICA CPE
Como U1 e U2 sao variaveis aleatorias independentes e identicamente distribuıdas, a sua funcaodensidade de probabilidade conjunta e dada por:
f(U1,U2)(u1, u2) =indep.
fU1(u1)fU2
(u2) =i.d.
{1 , se 0 < u1, u2 < 1
0 , caso contrario
Como e−x21+x22
2 e arctg (x2/x1)2π tomam valores no intervalo ]0, 1[, temos que:
f(X1,X2)(x1, x2) = 1.e−
x21+x222
2π=e−
x21+x222
2π
Assim, as funcoes densidade marginais de X1 e X2 sao dadas por:
fX1(x1) =
∫ +∞
−∞
e−x21+x22
2
2πdx2 =
e−x212
√2π
∫ +∞
−∞
e−x222
√2π
dx2 =e−
x212
√2π
∫ +∞
−∞fN(0,1)(x2)dx2 =
=e−
x212
√2π
.1 =e−
x212
√2π
= fN(0,1)(x1)
fX2(x2) =
∫ +∞
−∞
e−x21+x22
2
2πdx1 =
e−x222
√2π
∫ +∞
−∞
e−x212
√2π
dx1 =e−
x222
√2π
∫ +∞
−∞fN(0,1)(x1)dx1 =
=e−
x222
√2π
.1 =e−
x222
√2π
= fN(0,1)(x2)
Logo, X1, X2 ∼ N(0, 1).Sabemos que duas variaveis aleatorias sao independentes se e so se o produto das funcoes
densidade de probabilidade marginais for igual a funcao densidade de probabilidade conjunta.
fX1(x1)fX2
(x2) =e−
x212
√2π
e−x222
√2π
=e−
x21+x222
2π= f(X1,X2)(x1, x2)
Logo, X1 e X2 sao variaveis aleatorias independentes e identicamente distribuıdas a N(0, 1).E assim definida a transformacao de Box-Muller, importante na geracao de numeros pseudo-
aleatorios da distribuicao exacta N(0, 1) a partir de numeros pseudo-aleatorios da distribuicaoUnif(0, 1).
Pagina 49 de 84
CPE CAPITULO 4. SIMULACAO ESTOCASTICA
Exercıcio 4.11
Xi ∼i.i.d.
Exp(λ), i ∈ {1, ..., n} , Y =
n∑i=1
Xi
(a)
Pretendemos determinar a distribuicao de Y , bem como o seu valor esperado e a sua variancia.Comecemos por determinar a funcao geradora de momentos de cada Xi.
MXi(t) = E(etXi
)=
∫ ∞0
et xiλe−λxi dxi = λ
∫ ∞0
e−xi(λ−t) dxi =
= λ
[−e−xi(λ−t)
λ− t
]xi=∞xi=0
=λ
λ− t, λ > t
Tendo ja obtido a funcao geradora de momentos de cada Xi, podemos agora obter a mesmade Y .
MY (t) = E(et Y
)= E
(et∑ni=1Xi
)= E
(e∑ni=1 tXi
)=
= E
n∏i=1
etXi
=indep.
n∏i=1
E(etXi
)=i.d.
[E(etXi
)]n=
(λ
λ− t
)nObtivemos a funcao geradora de uma distribuicao Gama(n, λ), logo, como a funcao geradora
de momentos caracteriza univocamente a distribuicao de uma variavel aleatoria, Y ∼ Gama(n, λ).
E(Y ) = M ′Y (0) =
[n
(λ
λ− t
)n−1λ
(λ− t)2
]t=0
=
[nλn
(λ− t)n+1
]t=0
=
= n
(λ
λ
)n−1λ
λ2=n
λ
e o valor esperado de Y .
E(Y 2)
= M ′′Y (0) =
[nλn(n+ 1)(λ− t)n
(λ− t)2n+2
]t=0
=
[nλn(n+ 1)
(λ− t)n+2
]t=0
=
=nλn(n+ 1)
λn+2=n (n+ 1)
λ2
V ar(Y ) = E(Y 2)− E2(Y ) =
n (n+ 1)
(λ)2−(n
λ
)2
=
=n2 + n− n2
λ2=
n
λ2
e a variancia de Y .
Pagina 50 de 84
CAPITULO 4. SIMULACAO ESTOCASTICA CPE
(b)
Tomemos X ∼ Exp(λ) independente e identicamente distribuıda as restantes Xi.Apliquemos o Metodo da Transformacao Inversa.X = F−1
X (U), com U ∼ Unif(0, 1)
x = F−1X (u)⇔ u = FX(x)⇔ u = 1− e−λx ⇔ e−λx = 1− u⇔
⇔− λx = log (1− u)⇔ x = − log (1− u)
λmas como U ∼ Unif(0, 1), entao (1− U) ∼ Unif(0, 1) logo
x = − log (u)
λcom u pseudo-aleatorio.
1. Gerar um numero pseudo-aleatorio de U : u2. Obter um numero de uma distribuicao Exp(λ), aplicando a transformacao
x = − log (u)
λ
(c)
Sejam ui n numeros pseudo-aleatorios da distribuicao uniforme no intervalo (0,1).
xi = − log (ui)
λ⇒
n∑i=1
xi =
n∑i=1
− log (ui)
λ= − 1
λlog
n∏i=1
ui
1. Gerar n numeros pseudo-aleatorios de U : ui, com i ∈ {1, ..., n}2. Obter um numero de uma distribuicao Gama(n, λ), por cada n numeros ui, aplicando a
transformacao
y = − 1
λlog
n∏i=1
ui
Pagina 51 de 84
CPE CAPITULO 4. SIMULACAO ESTOCASTICA
Exercıcio 4.12
Xi ∼i.i.d.
N(0, 1)
(a)
Y =
n∑i=1
Xi
Comecemos por obter a funcao geradora de momentos de X ∼ N(0, 1).
MX(t) = E(etX)
=
∫ +∞
−∞et x
1√2πe−
x2
2 dx =
=
∫ +∞
−∞
1√2πet x−
x2
2 dx =
∫ +∞
−∞
1√2πe−
12 (x2−2t x+t2)+ t2
2 dx =
= et2
2
∫ +∞
−∞
1√2πe−
12 (x−t)2 dx =
= et2
2
∫ +∞
−∞fN(t,1)(x) dx = e
t2
2 × 1 =
= et2
2
Como a funcao geradora de momentos caracteriza univocamente a distribuicao de uma variavelaleatoria, podemos utiliza-la para encontrar a distribuicao de Y .
MY (t) = E(etY)
= E(et∑ni=1Xi
)=
= E
n∏i=1
etXi
=i.i.d.
n∏i=1
E(etX)
=
[E(etX)]n
=
=
(et2
2
)n= e
n t2
2
Obtivemos a funcao geradora de momentos de Y ∼ N(0, n).
M ′Y (t) = n t en t2
2 ⇒ E(Y ) = M ′Y (0) = 0
M ′′Y (t) = n en t2
2 + (n t)2en t2
2 ⇒ V ar(Y ) = E(Y 2) + E2(Y ) = M ′′Y (0)− 0 = n
(b)
Consideremos as variaveis aleatorias Ui ∼i.i.d.
U , com i ∈ {1, ..., n} e U ∼ Unif(0, 1). Logo,
E(U) = 12 e V ar(U) = 1
12 .Tomemos Z =
∑ni=1 Ui.
E(Z) = E
n∑i=1
Ui
=
n∑i=1
E(Ui) =i.d.
nE(U) =n
2
V ar(Z) = V ar
n∑i=1
Ui
=indep.
n∑i=1
V ar(Ui) =i.d.
nV ar(U) =n
12
Como Z =∑ni=1 Ui, com Ui ∼
i.i.d.U , E(Z) < +∞ e V ar(Z) < +∞, o Teorema do Limite
Central garante que, para n suficientemente grande,
Z − E(Z)√Z
=Z − n
2√n12
a∼ N(0, 1)
Pagina 52 de 84
CAPITULO 4. SIMULACAO ESTOCASTICA CPE
Desta forma, um algoritmo para simular valores aproximados de X e o seguinte:1. Gerar n valores de U ∼ Unif(0, 1), com n suficientemente grande: ui;2. Aplicar a transformacao para obter um valor aproximado de X ∼ N(0, 1):
x =
∑ni=1 ui −
n2√
n12
(c)
W = eX ⇔ X = logW
Consideremos a transformacao bijectiva g : R → R+ dada por g(x) = ex. Entao, a respectivainversa tem expressao geral g−1(x) = log x. Podemos aplicar o Teorema da Transformacao.
fW (w) = fX
[g−1(w)
]∣∣∣∣ ddwg−1(w)
∣∣∣∣ = fX(logw)
∣∣∣∣ 1
w
∣∣∣∣ =
=1√2πe−
(logw)2
21
|w|w>0=
1√2πw
e−(logw)2
2 =
= fLN(0,1)(w)
Logo, W ∼ LN(0, 1). Podemos simular valores desta variavel aleatoria recorrendo ao seguintealgoritmo:
1. Simular 1 valor de X ∼ N(0, 1): x1:1.1. Gerar 2 valores de Ui ∼
i.i.d.Unif(0, 1): u1, u2;
1.2. Aplicar a transformacao de Box-Muller:
x =√−2 log u1 cos (2πu2) ou x =
√−2 log u1 sen (2πu2)
2. Obter um valor de W ∼ LN(0, 1), calculando:
w = ex
Pagina 53 de 84
CPE CAPITULO 4. SIMULACAO ESTOCASTICA
Exercıcio 4.13
(a)
X ∼ Bin(n, p), n ∈ N, 0 < p < 1
Recordemos que o suporte de X ∼ Bin(n, p) e {0, 1, ..., n} e o binomio de Newton:
(x+ y)n =
n∑k=0
(n
k
)xkyn−k
PX(s) = E(sX)
=
∞∑x=0
sxP (X = x) =
n∑x=0
sx(n
x
)px(1− p)n−x =
n∑x=0
(n
x
)(p s)x(1− p)n−x =
= (p s+ 1− p)n = (1− p+ p s)n
E(X) = P ′X(1) =d
ds
[(1− p+ p s)n
]∣∣∣∣s=1
=[n p(1− p+ p s)n−1
] ∣∣∣∣s=1
=
= n p(1− p+ p)n−1 = n p
E(X2 −X) = E(X2)− E(X) = P ′′X(1) =d2
ds2
[(1− p+ p s)n
]∣∣∣∣s=1
=
=d
ds
[n p(1− p+ p s)n−1
]∣∣∣∣s=1
=[n(n− 1) p2(1− p+ p s)n−2
]∣∣∣∣s=1
=
= n(n− 1) p2(1− p+ p s)n−2 = n(n− 1) p2
V ar(X) = E(X2)− E2(X) = E(X2)− E(X) + E(X)− E2(X) = n(n− 1) p2 + n p− (n p)2 =
= n p[(n− 1)p+ 1− n p] = n p[n p− p+ 1− n p] = n p(1− p)
(b)
X ∼ Poi(λ), λ > 0
PX(s) = E(sX)
=
∞∑x=0
sxP (X = x) =
∞∑x=0
sxe−λλx
x!=
∞∑x=0
sxe−λλx
x!=
= e−λ∞∑x=0
(sλ)x
x!= e−λesλ = e(s−1)λ = e−λ(1−s)
E(X) = P ′X(1) =d
ds
[e−λ(1−s)
]∣∣∣∣s=1
=[λ e−λ(1−s)
] ∣∣∣∣s=1
= λ
E(X2 −X) = E(X2)− E(X) = P ′′X(1) =d2
ds2
[e−λ(1−s)
]∣∣∣∣s=1
=
=d
ds
(λ e−λ(1−s)
)∣∣∣∣s=1
=[λ2 e−λ(1−s)
]∣∣∣∣s=1
= λ2
V ar(X) = E(X2)− E2(X) = E(X2)− E(X) + E(X)− E2(X) = λ2 + λ− λ2 = λ
Pagina 54 de 84
CAPITULO 4. SIMULACAO ESTOCASTICA CPE
(c)
X ∼ Geom(p), 0 < p < 1
PX(s) = E(sX)
=
∞∑x=1
sxP (X = x) =
∞∑x=1
sxp(1− p)x−1 =
= p
∞∑x=1
sx(1− p)x
1− p=
p
1− p
∞∑x=1
[s(1− p)]x =p
1− ps(1− p)
1− s(1− p)=
=p s
1− (1− p)s, se
∣∣s(1− p)∣∣ < 1
E(X) = P ′X(1) =d
ds
(p s
1− (1− p)s
)∣∣∣∣s=1
=p[1− (1− p)s] + p s(1− p)
[1− (1− p)s]2
∣∣∣∣s=1
=
=p
[1− (1− p)s]2
∣∣∣∣s=1
=p
[1− (1− p)]2=
p
p2=
1
p
E(X2 −X) = E(X2)− E(X) = P ′′X(1) =d2
ds2
(p s
1− (1− p)s
)∣∣∣∣s=1
=
=d
ds
(p
[1− (1− p)s]2
)∣∣∣∣s=1
=−2p[1− (1− p)s](p− 1)
[1− (1− p)s]4
∣∣∣∣s=1
=
=−2p[1− (1− p)](p− 1)
[1− (1− p)]4=−2p(p− 1)
[1− (1− p)]3=
2p(1− p)p3
V ar(X) = E(X2)− E2(X) = E(X2)− E(X) + E(X)− E2(X) =2p(1− p)
p3+
1
p− 1
p2=
=2p(1− p) + p2 − p
p3=
2p− 2p2 + p2 − pp3
=p− p2
p3=
1− pp2
Pagina 55 de 84
CPE CAPITULO 4. SIMULACAO ESTOCASTICA
Exercıcio 4.14
Y =
n∑i=1
Xi
A funcao geradora de probabilidades caracteriza univocamente a distribuicao de uma variavelaleatoria, logo se duas variaveis aleatorias tiverem a mesma funcao geradora de probabilidades eporque sao a mesma.
PX(s) = E(sX)
PY (s) = E(sY)
= E(s∑ni=1Xi
)= E
n∏i=1
sXi
=i.i.d.
[E(sX)]n
(a)
Xi ∼i.i.d.
Bin(n, p), n ∈ N, 0 < p < 1
PX(s) = E(sX)
= (1− p+ p s)n
PY (s) = E(sY)
=
[E(sX)]n
=[(1− p+ p s)n
]n= (1− p+ p s)n
2
Obtivemos a funcao geradora de probabilidades de uma variavel aleatoria com distribuicaobinomial de parametros n2 e p, logo
Y ∼ Bin(n2, p
)(b)
Xi ∼i.i.d.
Poi(λ), λ > 0
PX(s) = E(sX)
= e−λ(1−s)
PY (s) = E(sY)
=
[E(sX)]n
=[e−λ(1−s)
]n= e−nλ(1−s)
Obtivemos a funcao geradora de probabilidades de uma variavel aleatoria com distribuicaoPoisson de parametro nλ, logo
Y ∼ Poi(nλ)
(c)
Xi ∼i.i.d.
Geom(p), 0 < p < 1
PX(s) = E(sX)
=p s
1− (1− p)s
PY (s) = E(sY)
=
[E(sX)]n
=
[p s
1− (1− p)s
]nObtivemos a funcao geradora de probabilidades de uma variavel aleatoria com distribuicao
binomial negativa de parametros n e p, logo
Y ∼ BinNeg(n, p)
Pagina 56 de 84
CAPITULO 4. SIMULACAO ESTOCASTICA CPE
Exercıcio 4.15
X ∼ BinNeg(
5,1
4
)Seja W uma variavel aleatoria com distribuicao BinNeg(r, p). Entao, W conta o numero de
tentativas (provas de Bernoulli independentes com probabilidade de sucesso constante) realizadasate se obter r sucessos.
FW (n) = P (W ≤ n) = P (“no de tentativas para obter r sucessos ser no maximo n”) =
= P (“em n tentativas haver pelo menos r sucessos”) =
= P (Y ≥ r) = 1− P (Y ≤ r − 1) = 1− FY (r − 1)
com Y ∼ Bin(n, p).Logo,
FBinNeg(r,p)(n) = 1− FBin(n,p)(r − 1)
P (X = 12) = P (X ≤ 12)− P (X ≤ 11) = FBinNeg(5, 14 )(12)− FBinNeg(5, 14 )(11)
Sejam Y1 ∼ Bin(12, 1
4
)e Y2 ∼ Bin
(11, 1
4
)P (X ≤ 12) = FBinNeg(5, 14 )(12) = 1− FBin(12, 14 )(4) = 1− 0.8424
P (X ≤ 11) = FBinNeg(5, 14 )(11) = 1− FBin(11, 14 )(4) = 1− 0.8854
Logo,
P (X = 12) = P (X ≤ 12)− P (X ≤ 11) = 1− 0.8424− 1 + 0.8854 = 0.043
e a probabilidade pedida.
Exercıcio 4.16
Seja X a variavel aleatoria que conta o numero de pessoas observadas ate serem encontradas 30com a doenca. Como cada pessoa observada e uma prova de Bernoulli independente das restantes,com probabilidade de sucesso (ter a doenca) constante p = 0.005, temos que
X ∼ BinNeg(30, 0.005)
Portanto, a funcao de probabilidade do numero de pessoas que e necessario observar ate seencontrar 30 doentes para realizar o ensaio e
fX(x) = P (X = x) =
(x− 1
30− 1
)0.00530(1− 0.005)x−30 =
(x− 1
29
)0.005300.995x−30
e o valor esperado e
E(X) =30
0.005= 6000 .
Pagina 57 de 84
CPE CAPITULO 4. SIMULACAO ESTOCASTICA
Exercıcio 4.17
Seja X a variavel aleatoria que conta o numero de pacotes cheios ate surgir o 3o com defeito.Como cada saco e uma prova de Bernoulli independente dos restantes com probabilidade de sucesso(ter defeito) constante p = 0.2, temos que
X ∼ BinNeg(3, 0.2)
e, recorrendo ao resultado do exercıcio 4.15., obtemos
P (X < 7) = P (X ≤ 6) = FBinNeg(3,0.2)(6) = 1− FBin(6,0.2)(3− 1) = 1− 0.9011 = 0.0989
que e a probabilidade pedida.
Exercıcio 4.18
Λ ∼ Gama(n, α), n ∈ N(X|Λ) ∼ Poi(λ)
Queremos mostrar que X tem uma distribuicao binomial negativa*.Uma variavel aleatoria que conta o numero de insucessos ate obter r sucessos diz-se ter distri-
buicao BinNeg ∗ (r, p), onde p e a probabilidade de sucesso.
fBinNeg∗(r,p)(k) =
(k + r − 1)
r − 1
)pr(1− p)k
Procuramos a funcao de probabilidade da variavel aleatoria X. Sabemos que, para uma variavelaleatoria Y qualquer,
E[E(X|Y )] = E(X)
P (X = x|Λ = λ) = fPoi(λ)(x)
Entao,
P (X = x) = E(χ{X=x}) , onde χ{X=x} =
{1 , se X = x
0 , caso contrario
Tomando E(χ{X=x}|Λ) como uma funcao g que dependa apenas de Λ,
P (X = x) = E(χ{X=x}) = E[E(χ{X=x}|Λ)] =
∫ ∞0
E(χ{X=x}|Λ = λ)fΛ(λ)dλ =
=
∫ ∞0
P (X = x|Λ = λ)fΛ(λ)dλ =
∫ ∞0
fPoi(λ)(x)fΛ(λ)dλ =
=
∫ ∞0
e−λλx
x!αe−αλ
(αλ)n−1
Γ(n)dλ =
=αn
x!(n− 1)!
∫ ∞0
e−λ(α+1)λx+n−1dλ =
=Γ(x+ n)
x!(n− 1)!(α+ 1)x+n
∫ ∞0
(α+ 1)e−λ(α+1) [λ(α+ 1)]x+n−1
Γ(x+ n)dλ =
=Γ(x+ n)
x!(n− 1)!(α+ 1)x+n
∫ ∞0
fGama(x+n,α+1)(λ)dλ =
=
(x+ n− 1
n− 1
)αn(
1
α+ 1
)x+n
=
(x+ n− 1
n− 1
)(α
α+ 1
)n(1
α+ 1
)=
= fBinNeg∗(n, αα+1 )(x)
Logo, X ∼ BinNeg ∗(n, α
α+1
).
Pagina 58 de 84
CAPITULO 4. SIMULACAO ESTOCASTICA CPE
Exercıcio 4.19
(a)
A experiencia e repetida n vezes de forma independente, existem r possibilidades de resul-tados em cada realizacao e cada variavel aleatoria Xi conta o numero de vezes que se obtem apossibilidade i nas n realizacoes da experiencia, 0 < pi < 1 e
∑ri=1 pi = 1, com i ∈ {1, ..., r}, entao
X = (X1, ..., Xr) ∼Multinomial(n, p1, ..., pr)
Assim, definindo ni como o numero de possibilidades i obtidas, temos que∑ri=1 ni = n. Logo, a
funcao massa de probabilidade de X e dada por
P [X = (n1, ..., nr)] =
{n!
n1!...nr!pn11 ...pnrr , se ni ∈ {0, 1, ..., n} ,
∑ri=1 ni = n
0 , caso contrario
(b)
Como X = (X1, ..., Xr−1, Xr) ∼Multinomial(n, p1, ..., pr−1, pr), entao pr = 1−∑r−1i=1 pi. Entao,
para r = 2, temos
(X1, X2) ∼Multinomial(n, p1, 1− p1)
onde p1 e a probabilidade de obter a possibilidade 1 numa realizacao da experiencia.
fMultinomial(n,p1,1−p1)(n1, n− n1) = P [(X1, X2 = (n1, n− n1)] =
=
{n!
n1!(n−n1)!pn11 (1− p1)n−n1 , se n1 ∈ {0, 1, 2}
0 , caso contrario=
=
{(nn1
)pn1
1 (1− p1)n−n1 , se n1 ∈ {0, 1, 2}0 , caso contrario
=
= fBin(n,p1)(n1)
(c)
Comecemos por determinar a distribuicao de cada Xi. Sem perda de generalidade, suponhamosque i = 1.
fX1(n1) = P (X1 = n1) =
=
n−n1∑n2=0
n−n1−n2∑n3=0
...
n−...−nk−3∑nk−2=0
n−...−nk−2∑nk−1=0
(n
n1
)(n− n1
n2
)...
(n− n1 − ...− nk−2
nk−1
)pn1
1 pn22 ...p
nk−1
k−1 pn−n1−...−nk−1
k =
=
n−n1∑n2=0
n−n1−n2∑n3=0
...
n−...−nk−3∑nk−2=0
(n
n1
)(n− n1
n2
)...
(n− n1 − ...− nk−3
nk−2
)pn1
1 pn22 ...p
nk−2
k−2 (1− p1 − ...− pk−2)n−n1−...−nk−2 =
=
(n
n1
)pn1
1
n−n1∑n2=0
n−n1−n2∑n3=0
...
n−...−nk−4∑nk−3=0
(n− n1
n2
)...
(n− n1 − ...− nk−4
nk−3
)pn2
2 ...pnk−3
k−3 (1− p1 − ...− pk−3)n−n1−...−nk−3 =
= ... =
(n
n1
)pn1
1 (1− p1)n−n1 =
= fBin(n,p1)(n1)
pois, pelo binomio de Newton, (x+ y)n =
n∑k=0
(n
k
)xkyn−k
Pagina 59 de 84
CPE CAPITULO 4. SIMULACAO ESTOCASTICA
Logo, X1 ∼ Bin(n, p1). Como o raciocınio seguiu sem perda de generalidade, temos que
Xi ∼ Bin(n, pi) , ∀i ∈ {1, 2, ..., k}
eE(Xi) = npi e V ar(Xi) = npi(1− pi) , ∀i ∈ {1, ..., k}
(d)
Pela alınea anterior, temos que Xi ∼ Bin(n, pi) e Xj ∼ Bin(n, pj), ∀i, j ∈ {1, ..., k}. Conside-remos as variaveis aleatorias seguintes:
Ziα =
{1 , se na α
arealizacao da experiencia sair o resultado i
0 , caso contrario
Zjβ =
{1 , se na β
arealizacao da experiencia sair o resultado j
0 , caso contrario
Assim, Ziα e Zjβ tem distribuicao Bernoulli de parametros pi e pj , respectivamente. Logo,Xi =
∑nα=1 Ziα e Xj =
∑nβ=1 Zjβ .
Cov(Xi, Xj) = Cov
n∑α=1
Ziα,
n∑β=1
Zjβ
=
=
n∑α=1
n∑β=1
Cov(Ziα, Zjβ)
Como as realizacoes das experiencias sao independentes, Cov(Ziα, Zjβ) = 0 para α 6= β.Para α = β,
Cov(Ziα, Zjβ) = Cov(Ziα, Zjα) =
= E(ZiαZjα)− E(Ziα)E(Zjα) = 0− pipj = −pipj
pois se se obtiver o resultado i, nao se pode obter o resultado j na mesma realizacao da experiencia,logo ZiαZjα = 0.
Logo,
Cov(Xi, Xj) =
n∑α=1
−pipj = −npipj
(e)
Xi e Xj nao sao variaveis aleatorias independentes para i 6= j pois Cov(Xi, Xj) 6= 0.
Pagina 60 de 84
CAPITULO 4. SIMULACAO ESTOCASTICA CPE
Exercıcio 4.20
(a)
Como a experiencia tem 3 resultados possıveis e cada resultado ocorre com probabilidadesque, somadas, dao 1 e sao feitas 20 repeticoes independentes, temos que X = (X1, X2, X3) ∼Multinomial(20, 0.01, 0.04, 0.95).
Assim, pelo exercıcio 4.19, temos que:
X1 ∼ Bin(20, 0.01)⇒ E(X1) = 20× 0.01 = 0.2 e V ar(X1) = 20× 0.01× (1− 0.01) = 0.198
X2 ∼ Bin(20, 0.04)⇒ E(X2) = 20× 0.04 = 0.8 e V ar(X2) = 20× 0.04× (1− 0.04) = 0.768
X1 ∼ Bin(20, 0.95)⇒ E(X3) = 20× 0.95 = 19 e V ar(X3) = 20× 0.95× (1− 0.95) = 0.95
Cov(X1, X2) = Cov(X2, X1) = −20× 0.01× 0.04 = −0.008
Cov(X1, X3) = Cov(X3, X1) = −20× 0.01× 0.95 = −0.19
Cov(X2, X3) = Cov(X3, X2) = −20× 0.04× 0.95 = −0.76
Entao, o valor esperado e a matriz de co-variancias do vector aleatorio X = (X1, X2, X3) sao,respectivamente
E(X) =
0.20.819
e Σ =
0.198 -0.008 -0.19-0.008 0.768 -0.76-0.19 -0.76 0.95
(b)
Para um vector aleatorio X = (Xi, Xj , Xl), temos que
(Xi|Xj = nj , Xl = nl) ∼ Bin
(n− nj − nl,
pi1− pj − pl
)
(Xi|Xj = nj) ∼ Bin
(n− nj ,
pi1− pj
)Assim, para X = (X1, X2, X3) ∼Multinomial(20, 0.01, 0.04, 0.95) temos
(X3|X2 = 0) ∼ Bin(
20− 0,0.95
1− 0.04
)P (X1 = 2) = fBin(20,0.01)(2) ' 0.0159
P (X1 = 0, X2 = 1, X3 = 19) = P [(X1, X2, X3) = (0, 1, 19)] =20!
0!1!19!0.0100.0410.9519 = 0.3019
P (X3 = 18|X2 = 0) = fBin(20, 0.950.96 )(18) ' 0.0171
(c)
Como (X1, X2, X3) ∼Multinomial(20, 0.01, 0.04, 0.95), X1 ∼ Bin(20, 0.01), (X2|X1 = n1) ∼Bin
(20− n1,
0.041−0.01
)e∑3i=1 ni = n.
1. Simular 1 valor de X1 ∼ Bin(20, 0.01): x1:1.1. Gerar 20 valores de Ui ∼
i.i.d.Unif(0, 1): u1,...,u20;
1.2. Para cada i ∈ {1, ..., 20}, atribuir
yi =
{0 , se ui > 0.01
1 , se ui ≤ 0.01
Pagina 61 de 84
CPE CAPITULO 4. SIMULACAO ESTOCASTICA
1.3. Calcular
x1 =
20∑i=1
yi
2. Simular 1 valor de (X2|X1 = x1) ∼ Bin(20− x1,
499
): x2:
2.1. Gerar 20− x1 valores de Uj ∼i.i.d.
Unif(0, 1): v1,...,v20−x1;
2.2. Para cada j ∈ {1, ..., 20− x1}, atribuir
zj =
{0 , se vj >
499
1 , se ui ≤ 499
2.3. Calcular
x2 =
20−x1∑j=1
zj
3. Simular 1 valor de (X3|X1 = x1, X2 = x2), atribuindo
x3 = 20− x1 − x2
4. Construir o vector x = (x1, x2, x3).
Pagina 62 de 84
CAPITULO 4. SIMULACAO ESTOCASTICA CPE
Exercıcio 4.21
f(X,Y )(x, y) =1
2πσ1σ2
√1− ρ2
e− 1
2(1−ρ2)
[(x−µ1σ1
)2−2ρ
x−µ1σ1
y−µ2σ2
(y−µ2σ2
)2]
(a)
X ∼ N(µ1, σ21) e Y ∼ N(µ2, σ
22)
fX(x) =
∫ +∞
−∞f(X,Y )(x, y)dy =
=
∫ +∞
−∞
1
2πσ1σ2
√1− ρ2
e− 1
2(1−ρ2)
[(x−µ1σ1
)2−2ρ
x−µ1σ1
y−µ2σ2
+(y−µ2σ2
)2]dy =
=
∫ +∞
−∞
1
2πσ1σ2
√1− ρ2
e− 1
2(1−ρ2)
[(y−µ2σ2−ρ x−µ1σ1
)2+(x−µ1σ1
)2(1−ρ2)
]dy =
=e− 1
2
(x−µ1σ1
)2
√2πσ1
∫ +∞
−∞
1√
2πσ2
√1− ρ2
e− 1
2(1−ρ2)
[(y−µ2)σ1−ρσ2(x−µ1)
σ1σ2
]2dy =
=e− 1
2
(x−µ1σ1
)2
√2πσ1
∫ +∞
−∞
1√
2πσ2
√1− ρ2
e− 1
2
[y−µ2−ρ
σ2σ1
(x−µ1)
σ2
√1−ρ2
]2
dy =
=e− 1
2
(x−µ1σ1
)2
√2πσ1
∫ +∞
−∞fN(µ2+ρ
σ2σ1
(x−µ1),σ22(1−ρ2)
)(y)dy =
=e− 1
2
(x−µ1σ1
)2
√2πσ1
.1 =1√
2πσ1
e− 1
2
(x−µ1σ1
)2
=
= fN(µ1,σ21)(x)
fY (y) =
∫ +∞
−∞f(X,Y )(x, y)dx =
=
∫ +∞
−∞
1
2πσ1σ2
√1− ρ2
e− 1
2(1−ρ2)
[(x−µ1σ1
)2−2ρ
x−µ1σ1
y−µ2σ2
+(y−µ2σ2
)2]dx =
=
∫ +∞
−∞
1
2πσ1σ2
√1− ρ2
e− 1
2(1−ρ2)
[(x−µ1σ1−ρ y−µ2σ2
)2+(y−µ2σ2
)2(1−ρ2)
]dx =
=e− 1
2
(y−µ2σ2
)2
√2πσ2
∫ +∞
−∞
1√
2πσ1
√1− ρ2
e− 1
2(1−ρ2)
[(x−µ1)σ2−ρσ1(y−µ2)
σ1σ2
]2dx =
=e− 1
2
(y−µ2σ2
)2
√2πσ2
∫ +∞
−∞
1√
2πσ1
√1− ρ2
e− 1
2
[x−µ1−ρ
σ1σ2
(y−µ2)
σ1
√1−ρ2
]2
dx =
=e− 1
2
(y−µ2σ2
)2
√2πσ2
∫ +∞
−∞fN(µ1+ρ
σ1σ2
(y−µ2),σ21(1−ρ2)
)(x)dx =
=e− 1
2
(y−µ2σ2
)2
√2πσ2
.1 =1√
2πσ2
e− 1
2
(y−µ2σ2
)2
=
= fN(µ2,σ22)(y)
Como a funcao densidade de probabilidade caracteriza univocamente a distribuicao de umavariavel aleatoria, X ∼ N(µ1, σ
21) e Y ∼ N(µ2, σ
22).
Pagina 63 de 84
CPE CAPITULO 4. SIMULACAO ESTOCASTICA
(b)
X⊥⊥ Y ⇔ ρ = 0
(⇐) Suponhamos que ρ = 0.
f(X,Y )(x, y) =1
2πσ1σ2e− 1
2
[(x−µ1σ1
)2+(y−µ2σ2
)2]
=1
2πσ1σ2e− 1
2
(x−µ1σ1
)2
e− 1
2
(y−µ2σ2
)2
=
=1√
2πσ1
e− 1
2
(x−µ1σ1
)2 1√2πσ2
e− 1
2
(y−µ2σ2
)2a)= fX(x)fY (y)
Como a funcao densidade de probabilidade conjunta do par aleatorio (X,Y ) e igual ao produtodas funcoes densidade de probabilidade marginais de X e Y , temos que X e Y sao variaveisaleatorias independentes se ρ = 0.
(⇒) Suponhamos que X⊥⊥ Y .
ρ =Cov(X,Y )√V ar(X)V ar(Y )
Cov(X,Y ) = E(XY )− E(X)E(Y ) =indep.
E(X)E(Y )− E(X)E(Y ) = 0⇒ ρ = 0 para σ1, σ2 6= 0
Logo, quando X e Y sao variaveis aleatorias independentes, o coeficiente de correlacao e nulo.A primeira implicacao demonstrada e valida apenas para a distribuicao normal, enquanto que
a segunda e geral e valida quaisquer que sejam as variaveis aleatorias X e Y independentes.
Pagina 64 de 84
CAPITULO 4. SIMULACAO ESTOCASTICA CPE
Exercıcio 4.22
f(X,Y )(x, y) =1
2πσXσY√
1− ρ2e− 1
2(1−ρ2)
[(x−µXσX
)2−2ρ
(x−µXσX
)(y−µYσY
)(y−µYσY
)2]
µ =
[510
], Σ =
[1 σ12
σ21 25
]
ρ =Cov(X,Y )√V ar(X)V ar(Y )
=σ12√
25=σ12
5
Comecemos por identificar a distribuicao de (Y |X = x). Sabemos do exercıcio anterior queX ∼ N(µX , σ
2X) e que Y ∼ N(µY , σ
2Y ).
fY |X=x(y) =f(X,Y )(x, y)
fX(x, y)=
=
1
2πσXσY√
1−ρ2e− 1
2(1−ρ2)
[(x−µXσX
)2−2ρ
(x−µXσX
)(y−µYσY
)(y−µYσY
)2]
1√2πσX
e− 1
2
(x−µXσX
)2 =
=1
√2πσY
√1− ρ2
e− 1
2(1−ρ2)
[(x−µXσX
)2−2ρ
(x−µXσX
)(y−µYσY
)+(y−µYσY
)2−(1−ρ2)
(x−µXσX
)2]
=
=1
√2πσY
√1− ρ2
e− 1
2(1−ρ2)
[ρ2(x−µXσX
)2−2ρ
(x−µXσX
)(y−µYσY
)+(y−µYσY
)2]
=
=1
√2πσY
√1− ρ2
e− 1
2(1−ρ2)
[(y−µYσY
)−ρ(x−µXσX
)]2=
=1
√2πσY
√1− ρ2
e− 1
2(1−ρ2)
[y−µY −ρ
σYσX
(x−µX )
σY
]2
=
=1
√2πσY
√1− ρ2
e− 1
2
y−(µY +ρσYσX
(x−µX )
)σY
√1−ρ2
2
=
= fN(µY +ρ
σYσX
x−µXσX
,σ2Y (1−ρ2)
)(y)
Logo, (Y |X = x) ∼ N(µY + ρ σYσX
x−µXσX
, σ2Y
(1− ρ2
)).
Neste caso, (Y |X = 5) ∼ N(
10 + σ12
5
√251
5−51 , 25
(1− σ2
12
25
)), ou seja,
(Y |X = 5) ∼ N(
10, 25− σ212
)Pagina 65 de 84
CPE CAPITULO 4. SIMULACAO ESTOCASTICA
P (4 < Y < 16|X = 5) = 0.954⇔ P (Y < 16|X = 5)− P (Y < 4|X = 5) = 0.954⇔
⇔P
(Y − 10√25− σ2
12
<16− 10√25− σ2
12
| X = 5
)− P
(Y − 10√25− σ2
12
<4− 10√25− σ2
12
| X = 5
)= 0.954⇔
⇔Φ
(6√
25− σ212
)− Φ
(−6√
25− σ212
)= 0.954⇔
⇔Φ
(6√
25− σ212
)− 1 + Φ
(6√
25− σ212
)= 0.954⇔
⇔2Φ
(6√
25− σ212
)− 1 = 0.954⇔ Φ
(6√
25− σ212
)= 0.977⇔
⇔ 6√25− σ2
12
= Φ−1(0.977)⇔√
25− σ212 =
6
Φ−1(0.977)⇒
⇒25− σ212 =
(6
Φ−1(0.977)
)2
⇔ σ12 = ±
[25−
(6
Φ−1(0.977)
)2]⇔
⇔σ12 ' ±
[25−
(6
1.9954
)2]⇔ σ12 ' ±3.9958
Logo, ρ = ±3.99585 ' ±0.799.
Exercıcio 4.23
X ∼ Unif(0, 1) , Y = 1−X
FY (y) = P (Y ≤ y) = P (1−X ≤ y) = P (X ≥ 1− y) = 1− P (X < 1− y) = 1− FX(1− y)
FY (y) = 1− FX(1− y)⇔ dFYdy
(y) = −dFXdy
(1− y)⇔ fY (y) = fX(1− y)⇔
⇔ fY (y) =
{1 , se 0 < 1− y < 1
0 , caso contrario=
{1 , se 0 < y < 1
0 , caso contrario= fUnif(0,1)(y)
Como esperado, se X ∼ Unif(0, 1), entao Y = 1−X ∼ Unif(0, 1).
Cov(X,Y ) = E(XY )− E(X)E(Y ) = E[X(1−X)]− E(X)E(Y ) =
= E(X −X2
)− E(X)E(Y ) = E(X)− E
(X2)− E(X)E(Y ) =
=1
2−∫ 1
0
x2 dx− 1
2
1
2=
1
2−
[x3
3
]x=1
x=0
− 1
4=
=1
2− 1
3− 1
4= − 1
12
Logo, a Cov(X,Y ) = − 112 .
Pagina 66 de 84
CAPITULO 4. SIMULACAO ESTOCASTICA CPE
Exercıcio 4.24
Apliquemos o metodo de aceitacao-rejeicao. Consideremos a variavel aleatoria Y ∼ Unif {1, 2, 3, 4}.
P (Y = y) =
{14 , se y ∈ {1, 2, 3, 4}0 , caso contrario
y =
1 , se 0 < u ≤ 1
4
2 , se 14 < u ≤ 1
2
3 , se 12 < u ≤ 3
4
4 , se 34 < u ≤ 1
⇔ y =
1 , se 0 < 4u ≤ 1
2 , se 1 < 4u ≤ 2
3 , se 2 < 4u ≤ 3
4 , se 3 < 4u ≤ 4
⇔ y = b4uc+ 1
c = maxP (X = y)
P (Y = y)= max
P (X = y)
1/4= 4× 0.35 = 1.4
1. Gerar um numero pseudo-aleatorio de U ∼ Unif(0, 1): u1.2. Atribuir y = b4uc+ 1.3. Gerar outro numero pseudo-aleatorio de U ∼ Unif(0, 1): u2.
4. Se u2 ≤ P (X=y)1.4P (Y=y) , entao atribuir x = y, valor de X. Caso contrario, voltar ao passo 1.
Exercıcio 4.25
(a)
Comecemos por mostrar que X =∑ri=1 Yi ∼ BinNeg(r, p) com Yi ∼
i.i.d.Geom(p).
PX(s) = E(sX)
= E(s∑ri=1 Yi
)=
= E
r∏i=1
Yi
=indep.
r∏i=1
E(sYi)
=i.d.
[E(sY)]r
=
= [PY (s)]r =form.
=
[p s
1− (1− p)s
]rObtivemos a expressao a funcao geradora de probabilidades de uma variavel aleatoria com
distribuicao Binomial Negativa com parametros r e p.Procuremos agora simular valores de Y ∼ Geom(p).
P (Y = k) = p(1− p)k−1 , k ∈ {1, 2, ...}
FY (k) = P (Y ≤ k) =
k∑i=1
P (Y = i) =
k∑i=1
p(1− p)i−1 =
= p
k∑i=1
(1− p)i−1 =p[1− (1− p)k]
1− (1− p)= 1− (1− p)k
Assim, tomando U ∼ Unif(0, 1),
Y = k se FY (k − 1) < U ≤ FY (k)⇔ 1− (1− p)k−1 < U ≤ 1− (1− p)k ⇔⇔(1− p)k ≤ 1− U < (1− p)k−1
Mas (1− U) ∼ Unif(0, 1), logo Y = k se (1− p)k ≤ U < (1− p)k−1.
Y = min{i : U > (1− p)i
}= min
{i : logU > i log (1− p)
}=
= min
{i :
logU
log (1− p)< i
}=
⌊logU
log (1− p)
⌋+ 1
Pagina 67 de 84
CPE CAPITULO 4. SIMULACAO ESTOCASTICA
Podemos entao construir o seguinte algoritmo para gerar numeros pseudo-aleatorios de X ∼BinNeg(r, p).
1. Gerar r valores de Ui ∼i.i.d.
Unif(0, 1): u1,...,ur;
2. Para cada i ∈ {1, ..., r}, gerar valores de Yi ∼i.i.d.
Geom(p), atribuindo
yi =
⌊log ui
log (1− p)
⌋+ 1
3. Calcular
x =
r∑i=1
yi
(b)
P (X = j) =
(j − 1
r − 1
)pr(1− p)j−r , j ∈ {r, r + 1, ...}
P (X = j) =(j − 1)!
(r − 1)![(j − 1)− (r − 1)]!pr(1− p)j−r =
(j − 1)!
(r − 1)!(j − r)!pr(1− p)j−r
P (X = j + 1) =j!
(r − 1)!(j + 1− r)!pr(1− p)j+1−r =
j(1− p)j + 1− r
(j − 1)!
(r − 1)!(j − r)!pr(1− p)j−r =
=j(1− p)j + 1− r
P (X = j)
Entao, com U ∼ Unif(0, 1),
X =
r, 0 < U ≤ FX(r)
r + 1, FX(r) < U ≤ FX(r + 1) = FX(r) + P (X = r + 1)
r + 2, FX(r + 1) < U ≤ FX(r + 2) = FX(r + 1) + P (X = r + 2)...
Podemos entao construir o seguinte algoritmo para gerar recursivamente numeros pseudo-aleatorios de X ∼ BinNeg(r, p).
1. Gerar um valor de U ∼ Unif(0, 1): u;2. Inicializar as variaveis:
i← r
q ← pr
F ← q
3. Se u < F ,3.1 entao x = i.3.2 Caso contrario, atribuir
q ← i(1− p)i+ 1− r
q
F ← F + q
i← i+ 1
e regressar ao passo 3.
Pagina 68 de 84
CAPITULO 4. SIMULACAO ESTOCASTICA CPE
Exercıcio 4.26
Um sistema de n componentes ligadas em serie funciona se e so se todas as componentesfuncionarem. Suponhamos que o funcionamento de cada componente e independente das restantes.Entao, a fiabilidade do sistema e
r(p) = E[φ(X)] = E(X1....Xn) =indep.
E(X1)...E(Xn) = p1...pn =
n∏i=1
pi
que e o valor que pretendemos estimar, usando a tecnica das variaveis antiteticas. O objectivoe gerar duas amostras aleatorias de φ(X) identicamente distribuıdas, mas nao independentes, enegativamente correlacionadas.
Nao estando identificada a distribuicao de cada componente, Xi, i ∈ {1, ...n}, podemos suporque Xi ∼ Unif(0, 1). Entao, para gerar uma amostra de φ(X), basta gerar n valores da distri-buicao U ∼ Unif(0, 1) e aplicar a funcao φ, isto e, fazer o seu produto (no caso geral, podemosusar esta tecnica sempre que a funcao seja monotona).
Sabemos tambem que (1 − U) ∼ Unif(0, 1), porem U 6⊥⊥ (1 − U), pois Cov(U, 1 − U) =−V ar(U) = − 1
12 , logo ρ < 0.Podemos definir Y1 =
∏ni=1 Ui e Y2 =
∏ni=1 (1− Ui), com Ui ∼
i.i.d.Unif(0, 1). Entao, Y =
Y1+Y2
2 e o estimador pretendido de φ(X).Para simular E[φ(X)], estimamos E(Y ), utilizando o metodo de simulacao de Monte Carlo:
simula-se m valores de Y e calcula-se a media. E, na realidade, necessario simular m valores deY1 e m valores de Y2 para esse fim.
Assim,
E[φ(X)] =1
2E(Y1) +
1
2E(Y2)
Portanto, um possıvel algoritmo e:1. Gerar n×m valores de U ∼ Unif(0, 1) e n×m de (1−U) ∼ Unif(0, 1), com i ∈ {1, ..., n}
e j ∈ {1, ...,m}:uij
u∗ij = 1− uij2. Simular valores de Y1j e Y2j , calculando:
y1j =
n∏i=1
uij
y2j =
n∏i=1
u∗ij
3. Obter amostras concretas de Y1 e Y2, atribuindo:
y1 =
m∑j=1
y1j
m
y2 =
m∑j=1
y2j
m
4. Atribuir
y =y1 + y2
2
Pagina 69 de 84
CPE CAPITULO 4. SIMULACAO ESTOCASTICA
Exercıcio 4.27
E(X) = E(W ) = θ
(a)
T = αX + (1− α)W
Como
E(T ) = αE(X) + (1− α)E(W ) = αθ + (1− α)θ = θ
o estimador T e centrado.
V ar(T ) = V ar[αX + (1− α)W ] = V ar(αX) + V ar[(1− α)W ] + 2Cov[αX, (1− α)W ] =
= α2V ar(X) + (1− α)2V ar(W ) + 2α(1− α)Cov(X,W ) =
= α2V ar(X) + (1− 2α+ α2)V ar(W ) + (2α− 2α2)Cov(X,W ) =
= α2[V ar(X) + V ar(W )− 2Cov(X,W )]− 2α[V ar(W )− Cov(X,W )] + V ar(W ) =
= α2V ar(X −W ) + 2α[Cov(X,W )− V ar(W )] + V ar(W )
dV ar(T )
dα= 0⇔ 2αV ar(X −W ) + 2[Cov(X,W )− V ar(W )] = 0⇔
⇔ α = −Cov(X,W )− V ar(W )
V ar(X −W )
d2V ar(T )
dα2= 2V ar(X −W ) > 0, ∀α 6= 0
Logo, o valor de α que minimiza a variancia de T e
α = −Cov(X,W )− V ar(W )
V ar(X −W )− Cov(X −W,W )
V ar(X −W )
(b)
T ∗ = (1− c)X + c(X − Y − µY )
Tomemos Y = X −W .
µY = E(Y ) = E(X −W ) = E(X)− E(W ) = θ − θ = 0
T ∗ = (1− c)X + c(X +X −W − 0) = (1− c)X + c(2X −W ) = (1 + c)X − cWT = T ∗ ⇔ αX + (1− α)W = (1 + c)X − cW ⇔
⇔
{α = 1 + c
1− α = −c⇔ α = 1 + c
Pagina 70 de 84
CAPITULO 4. SIMULACAO ESTOCASTICA CPE
Exercıcio 4.28
Seja X ∼ Exp(λ) com funcao densidade de probabilidade gX , dada por gX(x) = λ e−λx. SejaGX a respectiva funcao de distribuicao, de expressao geral GX(x) = 1 − e−λx. Consideremos huma funcao de X qualquer.
Pf (X > a) = Ef (χ{X>a})
Ef [h(X)] =
∫ ∞0
h(x)f(x) dx =
∫ ∞0
h(x)f(x)
g(x)g(x) dx = Eg
[h(X)f(X)
g(X)
]Pf (X > a) = Eg
[χ{X>a}f(X)
g(X)
]χ{X>a}f(X)
g(X)=
{f(X)g(X) , se X > a
0 , caso contrario
Tomemos agora h(X) =χ{X>a}f(X)
g(X) e A o acontecimento X > a.
E[h(X)] =
∫ ∞0
h(x)g(x) dx =
∫ ∞0
h(x)g(x|A)Pg(A) dx+
∫ ∞0
h(x)g(x|A)Pg(A) dx =
= Eg[h(X)|A]Pg(A) + Eg[h(X)|A]Pg(A) =
= Eg
[χ{X>a}f(X)
g(X)|X > a
]Pg(X > a) + Eg
[χ{X>a}f(X)
g(X)|X ≤ a
]Pg(X ≤ a) =
= Eg
[χ{X>a}f(X)
g(X)|X > a
]Pg(X > a) =
= Eg
[f(X)
g(X)|X > a
]Pg(X > a)
Uma vez que g e a funcao densidade de probabilidade de uma variavel aleatoria de distribuicaoexponencial, obtemos:
Pg(X > a) = 1− Pg(X ≤ a) = 1−G(a) = e−λ a
Temos de encontrar a distribuicao de (X|X > a).
Pg(X ≤ x|X > a) =Pg(X ≤ x,X > a)
Pg(X > a)=Pg(a < X ≤ x)
Pg(X > a)=
=G(x)−G(a)
1−G(a)=
1− e−λx −(1− e−λ a
)1−
(1− e−λ a
) =
=e−λ a − e−λx
e−λ a= 1− e−λ(x−a) = G(x− a)
Pg(X ≤ x|X > a) = P (X ≤ x− a) = P (X + a ≤ x)
Entao (X|X > a) tem a mesma distribuicao de X + a e Eg[h(X)|X > a] = Eg[h(X + a)].
Eg[h(X)|X > a] = Eg[h(X + a)]⇔ Eg
[f(X)
g(X)|X > a
]= Eg
[f(X + a)
g(X + a)
]Por fim, podemos retomar o calculo principal, obtendo:
Pf (X > a) = Eg
[f(X + a)
g(X + a)
]P (X > a) = Eg
[f(X + a)
λ e−λ(X+a)
]e−λ a =
=1
λEg
[eλXf(X + a)
]Pagina 71 de 84
CPE CAPITULO 4. SIMULACAO ESTOCASTICA
Um possıvel algoritmo para simular valores de Pf (X > a) e o seguinte:1. Simular n valores de X ∼ Exp(λ): xi1.1 Gerar n valores de U ∼ Unif(0, 1): ui;1.2 Obter n valores de X ∼ Exp(λ) pelo metodo da transformacao inversa, atribuindo:
xi = − log uiλ
2. Atribuir:
Pf (X > a) =1
λ
1
n
n∑i=1
e−λxif(xi + a)
Pagina 72 de 84
Capıtulo 2
Processos de Poisson
Exercıcio 2.1
N(t) : “numero de impulsos ruidosos que ocorrem no intervalo [0,t[, com t medido em horas”{N(t) : t ≥ 0
}∼ PP (5)
N(t) ∼ Poi(5t)
(a)
Como 24 minutos sao 25 de hora, temos que
N
(2
5
)∼ Poi(2)
o que nos permite calcular a probabilidade pedida.
P
[N
(2
5
)≤ 5
]= FPoi(2)(5) ' 0.9834
(b)
N
(1
2
)∼ Poi
(5
2
)
P
[N
(1
2
)> 3
]= 1− P
[N
(1
2
)≤ 3
]= 1− FPoi( 5
2 )(3) ' 1− 0.7576 = 0.2424
(c)
Suponhamos que os intervalos descritos no enunciado sao abertos a esquerda e fechados adireita.
P
[6 < N
(1
2
)≤ 10
]= FPoi( 5
2 )(10)− FPoi( 52 )(6) ' 0.9999− 0.9858 = 0.0141
Pagina 73 de 84
CPE CAPITULO 2. PROCESSOS DE POISSON
Exercıcio 2.2
Sejam B o tempo de espera, em minutos, para cortar a barba e C o tempo de espera, tambemem minutos para cortar o cabelo.
B ∼ Exp(λ1)⊥⊥ C ∼ Exp(λ2)
P (C < B) = E(χ{C<B}) = E[E(χ{C<B}|B)] =
= E[P (C < B|B)] =
∫ ∞0
P (C < B|B = b)fB(b) db =indep.
=
∫ ∞0
P (C < b)fB(b) db =
∫ ∞0
FExp(λ2)(b)fExp(λ1)(b) db =
=
∫ ∞0
(1− e−λ2b
)λ1e−λ1b db =
= −∫ ∞
0
−λ1e−λ1b db−
∫ ∞0
λ1e−(λ1+λ2)b db =
= −[e−λ1b
]b=∞b=0
+λ1
λ1 + λ2
∫ ∞0
−(λ1 + λ2)e−(λ1+λ2)b db =
= −(0− 1) +λ1
λ1 + λ2
[e−(λ1+λ2)b
]b=∞b=0
=
= 1 +λ1
λ1 + λ2(0− 1) = 1− λ1
λ1 + λ2=
=λ2
λ1 + λ2
Com λ1 = 20 e λ2 = 15, o valor pedido e
P (C < B) =15
15 + 20=
3
7
Pagina 74 de 84
CAPITULO 2. PROCESSOS DE POISSON CPE
Exercıcio 2.3
TA : “duracao do atendimento do cliente A em minutos”
TB : “duracao do atendimento do cliente B em minutos”
TC : “duracao do atendimento do cliente C em minutos”
(a)
TA = TB = TC = 10
P (TA > TB + TC) = P (10 > 10 + 10) = P (10 > 20) = 0
(b)
TA, TB , TB ∼i.i.d.
Unif {1, 2, 3}
Como TA, TB , TC ∈ {1, 2, 3}, temos a seguinte tabela para os valores de TB + TC .
TB
1 2 3
TC
1 2 3 42 3 4 53 4 5 6
Como TA toma valores em {1, 2, 3} e TB + TC pode tomar, no mınimo, o valor 2, TA tem detomar o valor 3 para ser superior a TB + TC . Logo, a probabilidade pedida e
P (TA > TB + TC) = P (TA = 3, TB + TC = 2) =indep.
P (TA = 3)P (TB + TC = 2) =1
3× 1
9=
1
27
(c)
TA, TB , TB ∼i.i.d.
Exp(λ)
Como TB , TC ∼i.i.d.
Exp(λ), sabemos que TB + TC ∼ Gama(2, λ).
P (TA > TB + TC) = E[P (TA > TB + TC |TB + TC)] =
=
∫ ∞0
P (TA > TB + TC |TB + TC = t)fTB+TC (t) dt =indep.
=
∫ ∞0
P (TA > t)fGama(2,λ)(t) dt =
∫ ∞0
[1− FExp(λ)(t)]fGama(2,λ)(t) dt =
=
∫ ∞0
e−λtλe−λt(λt)2−1
Γ(2)dt =
= −λ2
∫ ∞0
−2λe−2λtt dt =
= −λ2
([e−2λtt
]t=∞t=0−∫ ∞
0
e−2λt dt
)=
= −λ2
[1e2λt
t
]t=∞t=0
+λ
2× 1
−2λ
[e−2λt
]t=∞t=0
=
= −λ2
(0− 0)− 1
4(0− 1) =
1
4
Pagina 75 de 84
CPE CAPITULO 2. PROCESSOS DE POISSON
Exercıcio 2.4
N(t) : “numero de sinais emitidos no intervalo [0,t[”{N(t) : t ≥ 0
}∼ PP (λ)
N(t) ∼ Poi(λt)
X(t) : “numero de sinais registados pelo receptor”
(a)
Seja Yi uma variavel aleatoria tal que
Yi =
{1 , se o sinal i for registado
0 , caso contrario, ∀i ∈
{1, ..., N(t)
}Como cada sinal e registado com probabilidade p (ou nao, com probabilidade 1 − p), entao
Yi ∼i.i.d.
Bern(p). Como cada sinal e ou nao registado independentemente dos restantes,
X(t) =
N(t)∑i=1
Yi (soma aleatoria de variaveis aleatorias)
(X(t)|N(t) = n) =
n∑i=1
Yi ∼ Bin(n, p)
(b)
P (X(t) = k) =
∞∑n=k
P [X(t) = k,N(t) = n] =
=
∞∑n=k
P [X(t) = k|N(t) = n]P [N(t) = n] =
∞∑n=k
fBin(n,p)(k)fPoi(λt)(n)
=
∞∑n=k
n!
k!(n− k)!pk(1− p)n−ke−λt (λt)
n
n!=
=e−λt
k!(λ t p)k
∞∑n=k
[(1− p)λt]n−k
(n− k)!
j:=n−k=
e−λt
k!(λ t p)k
∞∑j=0
[(1− p)λt]j
j!=
=e−λt
k!(λ t p)ke(1−p)λ t =
e−λ p t
k!(λ t p)k =
= fPoi(λ t p)(k)
X(t) ∼ Poi(λ t p)
Pagina 76 de 84
CAPITULO 2. PROCESSOS DE POISSON CPE
Exercıcio 2.5
T1 : “tempo de funcionamento da componente 1”
T2 : “tempo de funcionamento da componente 2”
T1 ∼ Exp(λ1), T2 ∼ Exp(λ2), T1⊥⊥ T2
T : “tempo de adicional de funcionamento do sistema”
Comecamos por definir T .
T =
{T1 − T2 , se T1 ≥ T2
T2 − T1 , se T1 < T2
Entao, pela Lei das Probabilidades Totais,
E(T ) = E(T1 − T2|T1 ≥ T2)P (T1 ≥ T2) + E(T2 − T1|T2 > T1)P (T2 > T1)
Pelo exercıcio 2.2., temos que
P (T1 > T2) =λ2
λ1 + λ2
portanto, encontrar a distribuicao de (T1 − T2|T1 ≥ T2) e de (T2 − T1|T1 < T2).
P (T1 − T2 > x|T1 ≥ T2) = E{P [T1 − T2 > x|(T1 ≥ T2, T2)]
}=
=
∫ ∞0
P [T1 − T2 > x|(T1 ≥ T2, T2 = t)]fT2(t) dt =indep.
=
∫ ∞0
P (T1 > x+ t|T1 ≤ t)λ2e−λ2t dt
falta=
memoria
=
∫ ∞0
P (T1 > x)λ2e−λ2t dt =
∫ ∞0
e−λ1xλ2e−λ2t dt =
= e−λ1x
∫ ∞0
λ2e−λ2t dt = e−λ1x
∫ ∞0
fExp(λ2)(t) dt =
= e−λ1x × 1 = e−λ1x =
= 1− FExp(λ1)(x)
Logo, (T1 − T2|T1 ≥ T2) ∼ Exp(λ1). Analogamente, (T2 − T1|T1 < T2) ∼ Exp(λ2).
E(T ) = E(T1 − T2|T1 ≥ T2)P (T1 ≥ T2) + E(T2 − T1|T2 > T1)P (T2 > T1) =
=1
λ1
λ2
λ1 + λ2+
1
λ2
λ1
λ1 + λ2=
λ21 + λ2
2
λ1λ2(λ1 + λ2)
Pagina 77 de 84
CPE CAPITULO 2. PROCESSOS DE POISSON
Exercıcio 2.6
N(t) : “numero de carros que cruzam a auto-estrada no intervalo [0,t[, com t medido em minutos”{N(t) : t ≥ 0
}∼ PP (3)
N(t) ∼ Poi(3t)
Pretendemos calcular p = P [N(t + s) − N(t) = 0], onde t e o instante em que o indivıduoinicia a travessia. Como, num processo de Poisson, os incrementos sao estacionarios, o numero deeventos depende apenas da amplitude do intervalo e nao dos extremos. Logo, podemos assumirt = 0.
p =P [N(t+ s)−N(t) = 0] = P [N(s)−N(0) = 0] = P [N(s) = 0] = fPoi(3s)(0) =
= e−3s (3s)0
0!= e−3s
Para podermos usar valores de s em segundos, temos entao a seguinte relacao:
p =P [N(t+ s)−N(t) = 0] = e−360 s = e−
s20
Assim, para s = 2, temos p ' 0.9048, para s = 5, p ' 0.7788, para s = 10, p ' 0.6065 e paras = 20, p ' 0.3679.
Exercıcio 2.7
N(t) : “numero de avioes que deslocam do aeroporto no intervalo [0,t[, com t medido em horas”{N(t) : t ≥ 0
}∼ PP (40)
N(t) ∼ Poi(40t)
(a)
Como o processo de Poisson acima definido apenas contempla dois eventos complementares(inıcio de voo domestico ou inıcio de voo internacional), podemos dividi-lo em dois outros processosde Poisson independentes.
ND(t) : “numero de avioes de voo domestico que deslocam do aeroporto no intervalo [0,t[,
com t medido em horas”{ND(t) : t ≥ 0
}∼ PP (40× 0.25)
ND(t) ∼ Poi(10t)
NI(t) : “numero de avioes de voo internacional que deslocam do aeroporto no intervalo [0,t[,
com t medido em horas”{NI(t) : t ≥ 0
}∼ PP (40× 0.75)
NI(t) ∼ Poi(30t)
N(t) = ND(t) +NI(t)
Pagina 78 de 84
CAPITULO 2. PROCESSOS DE POISSON CPE
Assim,
P [ND(1) = t|N(1) = 20] = P [ND(1) = t|ND(1) +NI(1) = 20] =
=P [ND(1) = t,ND(1) +NI(1) = 20]
P [ND(1) +NI(1) = 20]=
=P [ND(1) = t,NI(1) = 20− t]
P [N(1) = 20]=
indep.
P [ND(1) = t]P [NI(1) = 20− t]P [N(1) = 20]
=
=e−10 10t
t! e−30 3020−t
(20−t)!
e−40 4020
20!
=20!
t!(20− t)!10t3020−t
4020=
=
(20
t
)(1
3
)t(3
4
)20
=
(20
t
)(1
3
)t(3
4
)t(3
4
)−t(3
4
)20
=
=
(20
t
)(1
4
)t(3
4
)20−t
= fBin(20, 14 )(t)
Logo,
(ND(1)|N(1) = 20) ∼ Bin(
20,1
4
)e a probabilidade pedida e:
P [ND(1) ≥ 5|N(1) = 20] = 1− P [ND(1) < 5|N(1) = 20] = 1− P [ND(1) ≤ 4|N(1) = 20] =
= 1− fBin(20, 14 )(4) ' 1− 0.4148 = 0.5852
(b)
Vimos na alınea anterior que{NI(t) : t ≥ 0
}∼ PP (40× 0.75)
NI(t) ∼ Poi(30t)
logo,
P [NI(0.25) ≤ 3] = FPoi(7.5)(3) ' 0.05915
e a variavel aleatoria TI , que indica o tempo de espera entre duas descolagens consecutivas deavioes internacionais segue uma distribuicao exponencial de parametro 30.
TI ∼ Exp(30)
Assim, dada a independencia dos eventos intervalos de tempo disjuntos no processo de Poisson,a variavel aleatoria que conta o tempo decorrido ate descolarem 30 avioes segue uma distribuicaoGama de ambos os parametros iguais a 30.
30∑i=1
TI i ∼ Gama(30, 30)
Logo, o valor esperado pedido e:
E
30∑i=1
TI i
form.=
30
30= 1
o que corresponde a esperar 60 minutos.
Pagina 79 de 84
CPE CAPITULO 2. PROCESSOS DE POISSON
Exercıcio 2.8
M(t) : “numero de utentes para ressonancias magneticas no intervalo [0,t[, com t medido em minutos”
A(t) : “numero de utentes para analises sanguıneas no intervalo [0,t[, com t medido em minutos”{M(t) : t ≥ 0
}∼ PP (0.1){
A(t) : t ≥ 0}∼ PP (0.4)
M(t) ∼ Poi(0.1t)A(t) ∼ Poi(0.4t)
a)
Seja TM a variavel aleatoria que conta o tempo decorrido entre a entrada de dois pacientespara ressonancias magneticas. Seja TA analogo para analises sanguıneas. Pelas propriedades doprocesso de Poisson, temos
TM ∼ Exp(0.1)
TA ∼ Exp(0.4)
Como, no processo de Poisson, os eventos nao dependem do intervalo, mas sim do seu com-primento, podemos supor que iniciamos ambos em t = 0. Desta forma, a probabilidade pedidae:
P (TA < TM ) = E[P (TA < TM |TA)] =
∫ ∞0
fTA(t)P (TA < TM |TA = t) dt =
=indep.
∫ ∞0
fTA(t)P (TM > t) dt =
∫ ∞0
fTA(t)RTM (t) dt =
=
∫ ∞0
0.4e−0.4te−0.1t dt =0.4
0.5
∫ ∞0
0.5 e−0.5t dt =
=4
5
∫ ∞0
fExp(0.5)(t) dt =4
5
• Nota
O valor difere das solucoes, mas coincide com a resolucao do teste 12 de Junho de 2013.
(a)
P [M(10) = 2,M(15)−M(5) = 2] =
=
2∑k=0
P [M(5) = k,M(10)−M(5) = 2− k,M(15)−M(5) = 2] =
=
2∑k=0
P [M(5) = k,M(10)−M(5) = 2− k,M(15)−M(10) = k] =
=indep.
2∑k=0
P [M(5) = k]P [M(10)−M(5) = 2− k]P [M(15)−M(10) = k] =
=estac.
2∑k=0
P [M(5) = k]P [M(5)−M(0) = 2− k]P [M(5)−M(0) = k] =
=
2∑k=0
P [M(5) = k]2P [M(5) = 2− k] =
=
2∑k=0
(e−0.50.5k
k!
)2e−0.50.52−k
(2− k)!' 0.0593
Pagina 80 de 84
CAPITULO 2. PROCESSOS DE POISSON CPE
Exercıcio 2.9
N(t) : “numero de clientes que usam a maquina no intervalo [0,t[, com t medido em minutos”{N(t) : t ≥ 0
}∼ PP (0.25)
N(t) ∼ Poi(0.25t)
X(t) : “numero de bebidas frescas retiradas da maquina no intervalo [0,t[ com t medido em minutos”
(a)
Uma vez retirada uma bebida da maquina, esta ou e fresca, com probabilidade 2/3 ou nao o e,com probabilidade 1/3. Assim, cada bebida retirada e uma prova de Bernoulli com probabilidadede sucesso (ser fresca) constante e igual a 2/3.
Sabendo que num perıodo de meia-hora, a maquina forneceu n = 10 bebidas, foram realizadasn = 10 provas de Bernoulli independentes.
Logo, estamos perante uma distribuicao binomial de parametros n = 10 e p = 2/3.
(X(30)|N(30) = 10) ∼ Bin(
10,2
3
)(b)
fX(t)(k) = P [X(t) = k] = E{P [X(t) = k|N(t) = n]
}=
∞∑n=k
P [N(t) = n]P [X(t) = k|N(t) = n] =
a)=
∞∑n=k
e−0.25t (0.25t)n
n!fBin(n, 23 )(k) =
∞∑n=k
e−0.25t (0.25t)n
n!
(n
k
)(2
3
)k (1
3
)n−k=
m=n−k= e−0.25t
∞∑m=0
(0.25t)m+k
(m+ k)!
(m+ k
k
)(2
3
)k (1
3
)m=
= e−0.25t∞∑m=0
(0.25t)m+k
(m+ k)!
(m+ k)!
k!m!
(2
3
)k (1
3
)m=
= e−0.25t (0.25t)k
k!
(2
3
)k ∞∑m=0
(0.25t)m
m!
(1
3
)m=
= e−0.25t (t/6)k
k!
∞∑m=0
(t/12)m
m!= e−0.25t (t/6)k
k!et12 =
= e−t6
(t6
)kk!
= fPoi( t6 )(k)
Pagina 81 de 84
CPE CAPITULO 2. PROCESSOS DE POISSON
Exercıcio 2.10
TA : “tempo de vida da maquina A”
TB : “tempo de vida da maquina B”
T : “instante em que a maquina B inicia o seu funcionamento”
TA ∼ Exp(0.5) , TB ∼ Exp(1) , T ∼ Exp(1)
T ⊥⊥ TA , T ⊥⊥ TB , TA⊥⊥ TB
P (TA < TB + T ) = E[P (TA < TB + T |TA)] =
∫ ∞0
fTA(t)P [TA < TB + T |TA = t] dt =
=indep.
∫ ∞0
fExp(0.5)(t)P (TB + T > t) dt
Sabemos que a soma de duas variaveis aleatorias exponenciais independentes de parametro λe uma variavel aleatoria com distribuicao Gama(2, λ). E o que acontece com TB + T , pois ambastem parametro 1.
P (TA < TB + T ) =
∫ ∞0
fExp(0.5)(t)RGama(2,1)(t) dt
E entao conveniente encontrar a funcao de distribuicao de uma variavel aleatoria Gama(2, 1)no ponto t.
FGama(2,1)(t) =
∫ t
0
e−u u du =
=[−e−u u
]u=t
u=0−∫ t
0
−e−u du =
=
[− 1eu
u
]u=t
u=0
−[e−u
]u=t
u=0=
= −e−t t+ 0− e−t + 1 = 1− e−t(1 + t)
RGama(2,1)(t) = 1− FGama(2,1)(t) = e−t(1 + t)
Retomando o calculo anterior,
P (TA < TB + T ) =
∫ ∞0
0.5e−0.5te−t(1 + t) dt = 0.5
∫ ∞0
e−1.5t(1 + t) dt =
= 0.5
[e−1.5t
−1.5(1 + t)
]t=∞t=0
− 0.5
∫ ∞0
e−1.5t
−1.5dt =
= 0.5
[e−1.5t
−1.5+
1
−1.5
1e1.5t
t
]t=∞t=0
− 0.5
1.52
∫ ∞0
−1.5 e−1.5t dt =
= 0.5
(0 + 0 +
1
1.5− 0
)− 0.5
1.52
[e−1.5t
]t=∞t=0
=
=0.5
1.5− 0.5
1.52(0− 1) =
0.5
1.5+
0.5
1.52=
5
9
Pagina 82 de 84
CAPITULO 2. PROCESSOS DE POISSON CPE
Exercıcio 2.11
N1(t) : “numero de chamadas recebidas na linha 1 no intervalo [0,t[”
N2(t) : “numero de chamadas recebidas na linha 2 no intervalo [0,t[”{N1(t) : t ≥ 0
}∼ PP (1.5){
N2(t) : t ≥ 0}∼ PP (1){
N1(t) : t ≥ 0}⊥⊥{N2(t) : t ≥ 0
}(a)
Seja T1,i a variavel aleatoria que conta o tempo decorrido ate a primeira chamada na linha i,com i ∈ {1, 2}. Como os processos de Poisson sao independentes, temos
T1,1 ∼ Exp(1.5)
T1,2 ∼ Exp(1)
T1,1⊥⊥ T1,2
logo a probabilidade pedida, recorrendo ao resultado do exercıcio 2.2. e:
P (T1,2 > T1,1)2.2.=
1.5
1 + 1.5=
1.5
2.5=
3
5= 0.6
(b)
Seja T1 a variavel aleatoria que conta o tempo decorrido ate a primeira chamada. Entao,
T1 = min{T1,1, T1,2
}Pelo capıtulo 3., sabemos que T1 ∼ Exp(1+1.5). Demonstremos este facto usando parametros
λ1 e λ2 genericos das distribuicoes exponenciais de T1,1 e T1,2, respectivamente. Usemos a funcaode fiabilidade que tambem caracteriza univocamente a distribuicao de uma variavel aleatoria.
RT1(t) = P (T1 > t) = P (T1,1 > t, T1,2 > t) =indep.
P (T1,1 > t)P (T1,2 > t) =
= e−λ1te−λ2t = e−(λ1+λ2)t = RExp(λ1+λ2)(t)
Neste caso,T1 ∼ Exp(2.5)
e a probabilidade pedida e:
P (T1 > 1) = e−2.5×1 = e−2.5 ' 0.082
Alternativamente, poderıamos definir
N(t) : “numero de chamadas recebidas no intervalo [0,t[”
e notar queN(t) = N1(t) +N2(t) e N1(t)⊥⊥ N2(t)
logo, {N(t) : t ≥ 0
}∼ PP (2.5)
de onde tiramos que a distribuicao da variavel aleatoria T1 e uma exponencial de parametro2.5 pelas propriedades do processo de Poisson.
Pagina 83 de 84
CPE CAPITULO 2. PROCESSOS DE POISSON
(c)
P [N(4) = 3, N(5)−N(2) = 4] =
=
3∑k=0
P [N(2) = k,N(4)−N(2) = 3− k,N(5)−N(2) = 4] =
=
3∑k=0
P [N(2) = k,N(4)−N(2) = 3− k,N(5)−N(4) = 4− k] =
=indep.
3∑k=0
P [N(2) = k]P [N(4)−N(2) = 3− k]P [N(5)−N(4) = 4− k] =
=estac.
3∑k=0
P [N(2) = k]P [N(2) = 3− k]P [N(1) = 4− k] =
=
3∑k=0
e−2×2.5(2× 2.5)k
k!
e−2×2.5(2× 2.5)3−k
(3− k)!
e−2.52.54−k
(1− k)!=
= e−5×2.5533∑k=0
2.54−k
(3− k)!k!(1− k)!' 0.0017
(d)
Procuramos a distribuicao de (T1|N(1) = 1). Tentemos encontrar a sua funcao de distribuicao,que caracteriza univocamente a sua distribuicao.
FT1|N(1)=1(t) = P [T1 ≤ t|N(1) = 1] =P [T1 ≤ t,N(1) = 1]
P [N(1) = 1]=
=P (“ocorrer 1 evento em [0,t[ e 0 eventos em [t,1[”)
P [N(1) = 1=
=indep.
P (“ocorrer um 1 evento em [0,t[”)P (“ocorrerem 0 eventos em [t,1[”)
P [N(1) = 1]=
=P [N(t) = 1]P [N(1)−N(t) = 0]
P [N(1) = 1]=
estac.
P [N(t) = 1]P [N(1− t)−N(0) = 0]
P [N(1) = 1]=
=P [N(t) = 1]P [N(1− t) = 0]
P [N(1) = 1]=e−2.5t 2.5t e−2.5(1−t)
e−2.52.5= t =
= FUnif(0,1)(t)
(T1|N(1) = 1) ∼ Unif(0, 1)
Logo, a probabilidade pedida e:
P [T1 = 0.5|N(1) = 1] = FUnif(0,1)(0.5) = 0.5
Pagina 84 de 84