Teoria das Filas e Aplica - PowerPoint PPT Presentation

About This Presentation
Title:

Teoria das Filas e Aplica

Description:

Title: Distribuci n de Bernoulli Author: Administraci n de Redes Last modified by: Celso Created Date: 4/10/1998 7:27:52 PM Document presentation format – PowerPoint PPT presentation

Number of Views:86
Avg rating:3.0/5.0
Slides: 123
Provided by: Administraci
Category:
Tags: aplica | das | filas | teoria

less

Transcript and Presenter's Notes

Title: Teoria das Filas e Aplica


1
Teoria das Filas e Aplicações
  • Celso C. Ribeiro
  • Reinaldo Vallejos
  • PETROBRAS
  • Novembro 1998

2
Programa
  • Teoria da probabilidade
  • Variáveis aleatórias
  • Distribuições discretas
  • Distribuições contínuas
  • Variáveis aleatórias conjuntas e probabilidade
    condicional
  • Teoria das filas
  • Cadeias de Markov discretas
  • ...

3
Programa
  • Cadeias de Markov de tempo contínuo
  • Lei de Little
  • Aplicações da Lei de Little
  • Processos de nascimento e morte
  • Filas M/M/1
  • Filas M/M/C
  • Aplicações

4
Teoria da probabilidade

5
Teoria da probabilidade
  • Modelagem de fenômenos aleatórios
  • quantidades não previsíveis antecipadamente
  • variação inerente que deve ser considerada
  • Permitir que o modelo tenha natureza
    probabilística ? modelo probabilístico

6
Teoria da probabilidade
  • Experimento cujo resultado não seja previsível
    antecipadamente
  • Espaço amostral S resultados possíveis
  • Lançamento de uma moeda S cara,coroa
  • Lançamento de um dado S 1,2,3,4,5,6
  • Lançamento de duas moedas A?cara, B?coroa S
    (A,A),(A,B),(B,A),(B,B)
  • Vida útil de um carro S 0,?)

7
Teoria da probabilidade
  • Evento subconjunto E do espaço amostral S
  • E cara, E coroa
  • E 2,4,6 resultado do lançamento é par
  • E (A,A),(A,B) primeira moeda é cara
  • E 1,2) carro dura pelo menos um ano sem
    completar o segundo

8
Teoria da probabilidade
  • Eventos E e F
  • Evento união E?F
  • Evento interseção E?F
  • Evento vazio ?
  • E e F mutuamente exclusivos E?F ?
  • E cara, F coroa ou dá cara, ou dá coroa
  • Evento complementar Ec S\E

9
Teoria da probabilidade
  • Espaço S, evento E
  • Probabilidade P(E) do evento E
  • 0 ? P(E) ? 1
  • P(S) 1
  • E1?E2 ? ? P(E1?E2) P(E1) P(E2)
  • P(cara) P(coroa) 1/2
  • Moeda viciada, com chance duas vezes maior de dar
    cara P(cara) 2/3, P(coroa) 1/3

10
Teoria da probabilidade
  • P(2,4,6) P(2) P(4) P(6)
    1/6 1/6 1/6 1/2

11
Teoria da probabilidade
  • P(Ec) 1 - P(E)
  • 1 P(S) P(E?Ec) P(E) P(Ec)
  • P(E) P(F) P(E?F) P(E?F)
  • P(E?F) P(E) P(F) - P(E?F)
  • E?F ? ? P(E?F) P(E) P(F)
  • P(E?F?G) P(E) P(F) P(G) - P(E?F) - -
    P(E?G) - P(F?G) P(E?F?G)

12
Teoria da probabilidade
  • Probabilidade condicional probabilidade de que
    um determinado evento ocorra, conhecendo-se a
    ocorrência de outro
  • Dois dados são lançados e todas os 36 pares de
    resultados são equiprováveis. Qual é a
    probabilidade da soma dos dois valores ser igual
    a 10?
  • P(4,6) P(5,5) P(6,4) 3?1/36 1/12

13
Teoria da probabilidade
  • Sabendo-se que a primeira observação é um 4, qual
    é a probabilidade da soma dos dois valores ser
    igual a 10?
  • Resultados possíveis, sendo 4 o primeiro valor
    (4,1), (4,2), (4,3), (4,4), (4,5), (4,6)
  • Se o primeiro valor é 4, a probabilidade
    (condicional) de cada um destes pares é 1/6
  • Probabilidade dos 30 pares restantes zero
  • Probabilidade da soma ser igual a 10 1/6

14
Teoria da probabilidade
  • Probabilidade condicional do evento E dado que o
    evento F ocorre
  • P(EF) P(E?F)/P(F)

F
E
E?F
15
Teoria da probabilidade
  • Uma moeda é lançada 2 vezes. Qual é a
    probabilidade condicional de que sejam observadas
    duas caras, dado que pelo menos uma cara é
    observada?
  • E (cara,cara) (A,A) cara ? A
  • F (A,B),(B,A),(A,A)
  • P(EF) P(E?F)/P(F) P((A,A))/
    P((A,B),(B,A),(A,A)) (1/4)/(3/4) 1/3

16
Teoria da probabilidade
  • Uma urna contém sete bolas pretas e cinco bolas
    brancas. Duas bolas são retiradas. Qual a
    probabilidade de que ambas sejam pretas,
    considerando-se que a primeira bola não é
    devolvida para a urna após ser retirada?
  • F primeira é preta E segunda é preta
  • P(E?F) P(EF) P(F) 6/11?7/12 7/22

17
Teoria da probabilidade
  • Uma urna contém sete bolas pretas e cinco bolas
    brancas. Duas bolas são retiradas. Qual a
    probabilidade de que ambas sejam pretas,
    considerando-se que, neste caso, a primeira bola
    é devolvida para a urna após ser retirada?
  • F primeira é preta E segunda é preta
  • P(E?F) P(EF) P(F) 7/12?7/12 49/144

18
Teoria da probabilidade
  • Cada uma de três pessoas possui uma ficha de cor
    diferente que é lançada em uma urna. Em seguida,
    cada pessoa retira aleatoriamente uma ficha da
    urna. Qual é a probabilidade de que ninguém
    recupere sua ficha original?
  • Idéia calcular a probabilidade do evento
    complementar, isto é, de que pelo menos uma
    pessoa recupere sua ficha original.

19
Teoria da probabilidade
  • Ei i-ésima pessoa recupera sua ficha i1,2,3
  • P(Ei) 1/3, i1,2,3
  • P(Ei?Ej) P(EjEi) P(Ei) 1/2?1/3 1/6
    i?j
  • P(E1?E2?E3) P(E3E1?E2) P(E1?E2) 1/6
  • P(E1?E2?E3) P(E1) P(E2) P(E3) -
    - P(E1?E2) - P(E1?E3) - P(E2?E3)
    P(E1?E2?E3) 3 ? 1/3 - 3 ? 1/6 1/6 2/3
  • P(ninguém recuperar) 1 - 2/3 1/3

20
Teoria da probabilidade
  • E e F independentes P(E?F) P(E) P(F)
  • ? P(EF) P(E)
  • ? P(FE) P(F)

21
Teoria da probabilidade
  • Espaço amostral S, eventos E e F
  • E E?S E?(F?Fc) (E?F) ? (E?Fc)
  • E?F e E?Fc mutuamente exclusivos
  • P(E) P((E?F)?(E?Fc))
  • P(E?F) P(E?Fc)
  • P(EF) P(F) P(EFc) P(Fc)
  • P(EF) P(F) P(EFc) (1-P(Fc))

22
Teoria da probabilidade
  • A primeira de duas urnas contém 2 bolas brancas e
    7 bolas pretas, enquanto a segunda contém 5
    brancas e 6 pretas. Uma moeda é lançada e uma
    bola é retirada da primeira ou da segunda urna,
    dependendo do resultado ter sido cara ou coroa,
    respectivamente. Qual é a probabilidade
    (condicional) de ter ocorrido uma cara, dado que
    a bola retirada foi branca?

23
Teoria da probabilidade
  • Deseja-se calcular P(carabranca)
  • P(carabranca) P(cara e branca) / P(branca)
  • P(brancacara) ? P(cara) / P(branca)
  • P(branca) P(brancacara) ? P(cara)
    P(brancacoroa) ? P(coroa)
  • P(carabranca)
    2/9?1/2/(2/9?1/25/11?1/2)
    22/67

24
Teoria da probabilidade
  • Um teste detecta com 95 de certeza uma
    determinada doença, quando ela está presente.
    Entretanto, este teste aponta falsos positivos
    em 1 das pessoas que não contraíram a doença.
    Sabendo-se que 0.5 da população estão
    contaminados por esta doença, qual é a
    probabilidade de que determinada pessoa tenha a
    doença dado que o resultado de seu teste foi
    positivo?

25
Teoria da probabilidade
  • Deseja-se calcular P(doentepositivo)
  • P(doentepositivo) P(doente e positivo) /
    / P(positivo)
  • P(positivodoente) ? P(doente) / P(positivo)
  • P(positivo) P(positivodoente) ? P(doente)
    P(positivosadia) ? P(sadia)
  • P(doentepositivo)
    0.95?0.05/(0.95?0.0050.01?0.995
    ) 95/294

26
Teoria da probabilidade
  • Fórmula de Bayes
  • eventos F1, F2, , Fn mutuamente exclusivos
  • F1 ? F2 ? ? Fn S
  • P(E) P(E?S) P(E?F1) P(E?Fn)
  • P(EF1) P(F1) P(EFn) P(Fn)
  • P(FjE) P(E?Fj) / P(E) P(EFj) P(Fj) / P(E)
  • P(FjE) P(EFj) P(Fj) /
    / P(EF1) P(F1) P(EFn) P(Fn)

27
Teoria da probabilidade
  • Sabe-se que determinada carta está em uma de três
    pilhas diferentes, com a mesma probabilidade. A
    probabilidade da carta ser encontrada
    examinando-se rapidamente a pilha em que ela
    realmente está é 20. Suponha que a pilha 1 foi
    verificada, mas a carta não foi encontrada. Qual
    a probabilidade da carta efetivamente estar na
    pilha 1?

28
Teoria da probabilidade
  • Fi carta está na i-ésima pilha i1,2,3
  • E carta não encontrada na pilha 1
  • Deseja-se calcular P(F1E)
  • P(F1E) P(EF1) P(F1) /
    / P(EF1)P(F1)P(EF2)P(F2)P(EF3)P(F
    3)
  • P(F1E) 0.8?1/3 / (0.8?1/3 1?1/3 1?1/3)
    0.8/2.8 2/7

29
Variáveis aleatórias

30
Variáveis aleatórias
  • Variável aleatória função real definida sobre o
    espaço amostral
  • soma dos valores obtidos após o lançamento de
    dois dados
  • número de caras após um certo número de
    lançamentos de uma moeda
  • tempo entre duas chegadas sucessivas a uma fila
  • tempo de processamento de uma tarefa

31
Variáveis aleatórias
  • Valor de uma variável aleatória (v.a.) é
    determinado pela saída de um experimento ? é
    possível associar probabilidades aos valores que
    podem ser assumidos por uma
  • X v.a. definida pela soma dos valores obtidos
    após o lançamento de dois dados
  • PX1 P? 0
  • PX2 P(1,1) 1/36
  • PX3 P(1,2),(2,1) 2/36 1/18 ...

32
Variáveis aleatórias
  • Y v.a. definida pelo número de caras observadas
    após dois lançamentos de uma moeda
  • PY0 P(B,B) 1/4 A?cara B?coroa
  • PY1 P(A,B),(B,A) 1/2
  • PY2 P(B,B) 1/4
  • PY0 PY1 PY2 1

33
Variáveis aleatórias
  • N v.a. definida pelo número de lançamentos de
    uma moeda até aparecer a primeira cara, sendo p a
    probabilidade de observar-se cara em cada
    lançamento
  • PN1 PA p
  • PN2 P(B,A) (1-p)p
  • PN3 P(B,B,A) (1-p)2p
  • PNn P(B,B,,B,A) (1-p)n-1p

34
Variáveis aleatórias
  • Função de distribuição acumulada (fda) ou função
    de distribuição F(.) da v.a. X F(b)
    PX ? b -? lt b lt ?
  • F(b) probabilidade de que a v.a. X assuma um
    valor menor ou igual a b
  • Propriedades
  • F(b) é uma função não-decrescente de b
  • limb??F(b) F(?) 1, limb?-?F(b) F(-?) 0
  • paltX?b PX?b - PX?a F(b) - F(a)

35
Variáveis aleatórias
  • Variáveis aleatórias discretas a v.a. assume um
    número finito ou contável de valores possíveis.
  • Variáveis aleatórias contínuas a v.a. assume
    valores dentro de um contínuo de valores
    possíveis.

36
Variáveis aleatórias discretas
  • Variáveis aleatórias discretas a v.a. assume um
    número finito ou contável de valores possíveis.
  • Função de massa de probabilidade
    p(a) PXa
  • Se X pode assumir os valores x1, x2, então
    p(xi) gt 0, i1,2,
    p(x) 0, outros valores de x

37
Variáveis aleatórias discretas
  • Função de distribuição acumulada
    F(a) ? p(xi)
  • Exemplo p(1) 1/2, p(2) 1/3, p(3) 1/6
    0, a lt 1,
    F(a) 1/2, 1 ? a lt
    2 5/6, 2
    ? a lt 3
    1, 3 ? a

?i1,2, xi ? a
38
Variáveis aleatórias discretas
F(a)
1
5/6
1/2
a
1
2
3
39
Variáveis aleatórias discretas
  • Seja X uma v.a. discreta. Então, seu valor
    esperado é dado por

40
Funções de variáveis aleatórias
  • g(X) função da v.a. X
  • Caso discreto
  • Caso contínuo
  • Exemplo a,b ? R
  • Ea.Xb a.EX b

41
Funções de variáveis aleatórias
  • Variância da v.a. X
  • Pelo resultado anterior
  • Logo,

42
Funções de variáveis aleatórias
  • Variância da v.a. ?X

43
Funções de variáveis aleatórias
  • X e Y variáveis aleatórias independentes

44
Distribuições discretas

45
Distribuição de Bernoulli
  • Um experimento de Bernoulli tem somente dois
    resultados aleatórios possíveis
  • sucesso
  • fracasso
  • A variável aleatória que corresponde ao
    experimento anterior é uma variável aleatória de
    Bernoulli.
  • A notação de uma distribuição de Bernoulli é
    Be(p), onde 0 ? p ? 1 é a probabilidade de
    obter-se sucesso.

46
Distribuição de BernoulliExemplos
  • Lançamento de uma moeda
  • Caso obtenha-se uma cara sucesso
  • Caso obtenha-se uma coroa fracasso
  • A direção que segue um veículo em uma bifurcação
    (caminho A ou B)
  • Se segue o caminho A sucesso
  • Se segue o caminho B fracasso
  • (o resultado deste experimento é uma v.a.
    somente para um observador externo, mas não para
    o condutor)

47
Distribuição de Bernoulli
Os resultados possíveis deste experimento podem
ser mapeados nos números reais, logo
  • X v.a. ? Be(p) (X é uma variável aleatória
    discreta do experimento de Bernoulli de parâmetro
    p).
  • Domínio de X
  • X ? 0, 1
  • Função de massa de probabilidade
  • PX 0 P(0) 1 - p
  • PX 1 P(1) p

48
Distribuição de Bernoulli
  • Função de distribuição acumulada
  • Valor esperado

49
Distribuição de BernoulliGráficos
  • Função de massa de probabilidade

p(X)
1
p
1-p
p
0
1
X
EX
  • Função de distribuição acumulada

Graficos 3D
50
Distribuição de BernoulliParâmetros
  • Considerando as funções anteriores tem-se para
    Be(p)

51
Distribuição de BernoulliExemplo em comunicações
info
T
R
  • Um pacote de informações é enviado pelo
    transmissor ao receptor através de uma conexão,
    sendo p a probabilidade de que o pacote chegue
    corretamente ao receptor.
  • info chega corretamente a R X 1
  • info não chega corretamente a R X 0

52
Distribuição binomial
  • Considere n experimentos independentes
    identicamente distribuídos (iid), cada um com
    distribuição Bernoulli de parâmetro p.
  • Se a variável de interesse Y corresponde ao
    número de sucessos obtidos nestes n experimentos,
    então Y é conhecida como uma variável aleatória
    binomial de parâmetros n e p.

53
Distribuição binomial
  • Sejam X1, X2, , Xn, onde as variáveis Xi,
    i1,2,,n são v.a.s iid Be(p). Seja a v.a. Y
    definida por sua soma

Y ? Bi(n, p)
54
Distribuição binomial
  • Uma distribuição binomial de parâmetros n e p se
    denota Bi(n,p), onde
  • n é o número de experimentos de Bernoulli
    independentes realizados.
  • p é a probabilidade de obter um sucesso em cada
    um dos n experimentos, 0 ? p ? 1.

55
Distribuição binomialExemplos
  • Uma moeda é lançada n vezes. Se em cada
    lançamento se obtém cara (sucesso) com
    probabilidade p, qual é a probabilidade de que em
    0 ? i ? n experimentos se obtenha sucesso?
  • Observam-se n veículos em uma bifurcação. Cada
    veículo segue o caminho A (sucesso) com
    probabilidade p. Qual é a probabilidade de que
    0 ? i ? n veículos sigam o caminho A (sucesso)?

56
Distribuição binomial
  • Seja Y v.a. ? Bi(n,p) (Y é v.a. binomial de
    parâmetros n e p), onde n ? N e 0 ? p ? 1
  • Domínio de X
  • Y ? 0, 1, 2, , n
  • Função de massa de probabilidade
  • Função de distribuição acumulada

57

Distribuição binomial
  • Valor esperado
  • EX
  • Seja ki-1, então EX
  • Como
    então, EXnp

58
Distribuição binomialParâmetros
  • Considerando-se as funções anteriores tem-se para
    Bi(n, p)

Valor esperado Variância Desvio padrão Função
geradora de momento n-ésimo momento


E
Y
np


(
)
-
VAR
Y
np
1
p
(
)
s
p
-
np
1
Y
(
)
n
)
(
)
(
f
-

z
p
z
1
1


(
)
k
(k)
E
Y
f
1
59
Distribuição binomial
  • Observando-se a esperança e a variância da
    distribuição binomial se verifica que
    correspondem à soma de v.a.s iid com
    distribuição de Bernoulli.
  • A transformada Z de uma fmp corresponde à sua
    função geradora de momento

60
Distribuição binomialGráficos
?Y 1.449
EY7
EY
2?Y
Graficos 3D
61
Distribuição binomialGráficos
62
Distribuição binomialGráficos
63
Distribuição binomialGráficos
64
Distribuição binomialGráficos
65

Graficos 3D
66
Distribuição binomial
  • Com relação à fmp de uma binomial tem-se que
  • valor máximo se encontra em X EX np
  • estritamente decrescente para X gt EX
  • simétrica em relação a p (e.g., p 0.1 e p
    0.9)
  • Pelo teorema do limite central
  • a v.a. da soma infinita de experimentos
    independentes (com qualquer distribuição) tende à
    distribuição gaussiana

67
Distribuição binomialExemplo em comunicações
  • n pacotes de informação são enviados pelo
    transmissor ao receptor através de uma conexão. A
    probabilidade de cada um dos pacotes chegar
    corretamente a R é igual a p. Qual é a
    probabilidade de que 0 ? i ? n pacotes de
    informação enviados cheguem corretamente ao
    receptor?

68
Distribuição binomialExemplo em comunicações
  • n número de pacotes enviados
  • p probabilidade de cada pacote chegar
    corretamente
  • Y i número de pacotes enviados que chegarão
    corretamente, 0 ? i ? n
  • Y v.a. Bi(n,p), n ? 0,1,2,3, ...

69
Distribuição binomialExemplo em tolerância a
falhas
  • Vários computadores executam um mesmo algoritmo.
    O resultado final do algoritmo se determina por
    votação dos computadores, por maioria simples.
    Por exemplo, se o resultado de dois ou mais
    computadores coincide, então esse é o resultado
    final. Cada computador tem probabilidade de falha
    igual a 1-p. Para que valores de p convém
    escolher 1, 3 ou 5 computadores?

70
Distribuição binomialExemplo em tolerância a
falhas
  • n número total de computadores
  • X número de computadores funcionando
    corretamente (fornecem o resultado correto)
  • X v.a. Bi(n,p), n ? 1,3,5
  • Por exemplo probabilidade de sucesso do sistema
    com n computadores (maioria proporciona o
    resultado correto)
  • m ((n-1)/2)1 número mínimo de computadores
    (n ímpar) que devem dar o resultado correto para
    o sistema ter sucesso

71
Distribuição binomialExemplo em tolerância a
falhas
  • Para n ? 1,3,5
  • Caso n 1
  • Caso n 3
  • Caso n 5

72
Distribuição binomialExemplo em tolerância a
falhas
Probabilidade de sucesso
73
Distribuição geométrica
  • Considere n experimentos de Bernoulli
    independentes, cada um com probabilidade de êxito
    p
  • X v.a. ? Ge(p) representando o número de
    tentativas até conseguir o primeiro êxito
  • Função de massa de probabilidade
  • Função de distribuição

74

Distribuição geométrica
  • Valor esperado
  • EX
  • Fazendo q 1 - p
  • EX
  • Logo, EX

75
Distribuição geométrica
  • Exemplo lançar a moeda até o primeiro êxito
  • Êxito cara Fracasso coroa
  • Exemplo número de automóveis não específicos até
    que um siga o caminho A da bifurcação
  • Êxito A
  • Fracasso B

Experimentos independentes
76
Distribuição geométrica
1
F(n)
0.9
0.8
Função de distribuição
0.7
0.6
0.5
p0.2
0.4
0.3
0.2
Função de massa de probabilidade
0.1
0
0
5
10
15
20
25
n
1
F(n)
0.9
Função de distribuição
0.8
0.7
0.6
p0.6
0.5
0.4
0.3
Função de massa de probabilidade
0.2
0.1
0
0
5
10
15
20
25
n
77
Distribuição geométrica
p(n)
EX3,33 ?x2.79
n
EX
78
Distribuição geométrica
0,9
p(n)
0,8
0.1
0.5
0.9
1
2
3
4
5
6
7
8
9
10
n
79
Distribuição geométrica
80
Distribuição geométrica
PXn
p
n
81
Distribuição geométrica
  • PXn decai mais rápidamente com n quando p
    aumenta
  • Distribuição em função de p varia com n
  • para n 1 é una reta crescente
  • para n lt 7 é crescente e logo decresce
  • para n ?7 é decrescente
  • Função de massa tem dois pontos degenerados
  • p 0 necessárias infinitas tentativas (nunca se
    consegue êxito)
  • p 1 êxito sempre é conseguido na primeira
    tentativa.

82
Distribuição geométricaParâmetros
83
Propriedade falta de memória
  • Elevador em um prédio de três andares
  • Estado n elevador no andar n
  • Sem memória estados 1 e 3
  • Com memória estado 2

84
Propriedade falta de memória
  • Exemplo relacionado com a distribuição
    geométrica, duas situações equivalentes

85
Propriedade falta de memória
  • Distribuição geométrica caracterizada pela
    seguinte propriedade
  • A informação de nenhum sucesso até a tentativa t
    é esquecida nos cálculos subseqüentes.

86
Propriedade falta de memória
87
Propriedade falta de memória
  • Demonstração
  • Logo,

88
Propriedade falta de memória
  • Substituindo-se
  • Logo,
  • com
  • portanto


propriedade de falta de memória
89
Protocolo Stop Wait
  • Protocolo de retransmissão mais simples
  • Idéia básica ter certeza de que cada pacote
    transmitido é recebido corretamente antes de
    transmitir o seguinte
  • Protocolo half-duplex
  • Retransmissão devido a
  • erro na recepção do pacote
  • time-out

90
Protocolo Stop Wait
  • Numeração de pacotes
  • Se ocorre time-out no transmissor, retransmite
    pacote i
  • Receptor não sabe distinguir se é uma
    retransmissão do pacote i ou uma primeira
    transmissão do pacote i1
  • Logo, necessidade de numerar os pacotes, assim
    como os acks/nacks
  • Numeração módulo 2 é suficiente

91
Esquema físico
  • Definições
  • ti tempo de transmissão de um pacote
  • tp tempo de propagação
  • tout tempo máximo de espera de um
    reconhecimento (ack/nack)
  • tproc tempo de processamento do pacote

92
Diagrama temporal
Caso 1
Retransmissão por time-out
t
t
t
proc Tx
out
i
Tx
t
F1
F1
F2
A1
Rx
t
t
t
p
proc Rx
Caso 2
Retransmissão por erro
t
t
proc
Tx
i
Tx
t
F1
F1
F2
A1
N1
Rx
t
t
t
p
proc Rx
  • Fi transmissão do frame i
  • Ni mensagem de frame i recebida com problemas
  • Ai reconhecimento do frame i

93
Diagrama de transição de estados
Transmissor
Receptor
Entradas - Saídas
Q0 Espera Mensagem 0 Q1 Transmite Ack 0 Q2
Transmite Erro Q3 Espera Mensagem 1 Q4
Transmite Ack 1 Q5 Transmite Erro
Q0 Transmite Mensagem 0 Q1 Espera Ack 0 Q2
Transmite Mensagem 1 Q3 Espera Ack 1
94
Tabelas de transição de estados
Q0 Espera Mensagem 0 Q1 Transmite Ack 0 Q2
Transmite Erro Q3 Espera Mensagem 1 Q4
Transmite Ack 1 Q5 Transmite Erro
Q0 Transmite Mensagem 0 Q1 Espera Ack 0 Q2
Transmite Mensagem 1 Q3 Espera Ack 1
95
Medidas de desempenho
  • Desempenho pode ser avaliado sob dois pontos de
    vista
  • do usuário
  • menor tempo de resposta
  • menor buffer
  • do sistema
  • máximo throughput
  • menor memória

96
Máximo throughput
  • Transmissor sempre dispõe de pacotes para
    transmitir
  • Time-out é o menor possível
  • ? Tout 2Tp Tack
  • Existem erros
  • ? Pe gt 0 ? existem retransmissões

97
  • Definições
  • Ii i-ésima tentativa de transmitir o pacote
  • tT ti tout ciclo de operação
  • p probabilidade de receber o pacote com erro
  • n número de tentativas até transmitir um pacote
  • pa probabilidade de transmissão correta na
    n-ésima tentativa
  • tu tempo utilizado nas n tentativas
  • Et tempo médio de recepção com sucesso (1)

98
Diagrama de lógica temporal
p probabilidade de erro no pacote
99
Máximo throughput
  • Certamente,
  • Por definição de valor médio
  • Da figura anterior
  • Como n é uma v.a. com distribuição Ge(1-p)

100
Máximo throughput
  • Substituindo-se (2), (3) e (4) em (1), obtém-se
  • Simplificando (4)
  • Por definição

com
101
Throughput normalizado
102
Máximo throughput
  • O throughput normalizado pode ser interpretado
    como a percentagem do tempo ocupado na
    transmissão efetiva de pacotes
  • Se o tempo para receber um ack ou um nack é
    desprezível, também o é o time-out
  • ? a 1 ? ? (1- p)

103
??maxF(p,a)
p
a
a1 Rede da área local a3 Rede com
enlaces menores a 500 Km a10 Rede de enlace
satelital
104
(No Transcript)
105
??maxF(p,a)
p0
p0.2
p0.4
p0.6
106
Distribuição de Poisson
  • X v.a. discreta com domínio ?????????? e com a
    seguinte função de massa de probabilidade
  • X distribuição de Poisson com parâmetro ? ??
  • Função de distribuição de probabilidade

107
Distribuição de Poisson Função de massa de
probabilidade
108
Distribuição de Poisson Função de distribuição
de probabilidade
109
Distribuição de Poisson
?? 20
Fn. de distribuição
Fn. de massa
110
Distribuição de Poisson Função de massa de
probabilidade
111

Distribuição de Poisson
  • Valor esperado
  • EX
  • Fazendo k i - 1
  • EX
  • Como
  • EX

112
Distribuição de PoissonParâmetros
l

EX

l
VarX
s
x
j
(t)
113
Processo de contagem
  • Processo estocástico N(t), t ? 0 é de contagem
    se N(t) representa o número total de eventos que
    ocorrem entre (0,t
  • Por definição, N(t) satisfaz
  • N(t) ? 0
  • N(t) assume valores inteiros
  • s lt t ? N(s) ? N(t)
  • s lt t ? N(t) - N(s) número de eventos durante o
    intervalo (s,t

114
Processo de contagem
  • Número de pessoas que entraram em um
    supermercado no intervalo de tempo (0,t
  • Número de veículos que entraram em um túnel num
    intervalo dado
  • Número de gols que um determinado jogador fez
    num determinado intervalo (0,t

115
Processo de contagem
  • Incrementos independentes processo de contagem
    no qual o número de eventos ocorridos em
    intervalos de tempos disjuntos são independentes
  • Exemplo o processo de contagem no intervalo
    (5,10 não depende do processo de contagem em
    (0,5

116
Processo de contagem
  • Incrementos independentes
  • Número de pessoas que entraram em um
    supermercado num intervalo de tempo
  • Incrementos não-independentes
  • Número de nascimentos num intervalo de tempo,
    quando existe controle da natalidade

117
Processo de contagem
  • Incrementos estacionários número de eventos em
    (t1s,t2s depende somente da amplitude do
    intervalo (t2-t1)
  • Ou seja, N(t2s)-N(t1s) tem a mesma distribuição
    que N(t2)-N(t1), onde t2 gt t1 e s gt 0

0 t1 t2 st1 st2
118
Processo de contagem
  • Incrementos não-estacionários
  • A quantidade de ligações telefônicas é maior em
    determinadas horas do dia
  • Incrementos estacionários
  • Número de veículos que entram em um túnel num
    ano

119
Processo de Poisson
  • N(t) é um processo de Poisson se
  • N(t) é um processo de contagem
  • N(0) 0 (reset)
  • Tem incrementos independentes e estacionários
  • Número de eventos em qualquer intervalo de
    amplitude t é distribuído como uma variável de
    Poisson com média ?t, ou seja

120
Processo de Poisson
  • A última condição implica em incrementos
    estacionários
  • N(t) não se refere apenas a uma variável
    aleatória com uma distribuição de Poisson, mas
    sim que para cada t gt 0 se tem uma v.a. com uma
    distribuição de Poisson de parâmetro ?t
    (dependente de t)
  • Esta coleção (infinita) de variáveis aleatórias é
    conhecida como um processo de Poisson

121
Processo de PoissonTempo entre chegadas
Seqüência Tn, n1,2,..., onde Tn representa o
tempo entre o evento (chegada) n e o evento n-1
122
Processo de PoissonTempo entre chegadas
  • Evento T1 gt t significa que não aconteceu
    chegada alguma do processo de Poisson no
    intervalo (0,t
  • PT1 gt t PN(t) 0 e-?t
  • Além disso,
  • PT2gtt T1s P0 eventos em (s,st e-?t
  • Repetindo-se o experimento, conclui-se que Tn,
    n1,2,... são v.a. exponenciais independentes e
    identicamente distribuídas
Write a Comment
User Comments (0)
About PowerShow.com