Analisi dei Dati Universit - PowerPoint PPT Presentation

About This Presentation
Title:

Analisi dei Dati Universit

Description:

Title: Ricerca Operativa II Author: Emanuele Borgonovo Last modified by: ulgDoc Created Date: 2/21/2002 6:45:04 PM Document presentation format: Presentazione su ... – PowerPoint PPT presentation

Number of Views:79
Avg rating:3.0/5.0
Slides: 125
Provided by: Emanu7
Category:

less

Transcript and Presenter's Notes

Title: Analisi dei Dati Universit


1
Analisi dei DatiUniversità Carlo
CattaneoEmanuele Borgonovo
2
Capitolo I
3
Introduzione
  • Processo Stocastico un processo stocastico è un
    processo che è costituito da eventi la cui
    realizzazione non è deterministica, ma
    caratterizzata da incertezza
  • Esempio i tempi di arrivo dei clienti in un
    grande centro commerciale o il numero di clienti
    che arriva al centro commerciale nellintervallo
    dt attorno al tempo t.

4
Elementi introduttivi di Teoria della Probabilità
5
Probabilità
  • E possibile definire la Probabilità?
  • Sì, ma ci sono due scuole
  • La prima dice che la probabiltà è una porprietà
    oggettiva degli eventi (Scuola Frequentista)
  • La seconda dice che la Probabilità è una misura
    soggettivadella verosimiglianza degli eventi
    (De Finetti)

6
Gli Assiomi di Kolmogorov
U
B
A
7
Aree e rettangoli?
U
  • Supponete di saltare dentro U a caso. Chiamate
    P(A) la probabilità di saltare in A. Quanto vale?
  • Sarà larea di A diviso larea di U P(A)A/U
  • In questo caso P(U)P(A) P(B) P(C) P(D) P(E)

8
Legge della somma delle probabilità
  • Dati n eventi non mutuamente esclusivi, in
    generale la probabilità dellunione di detti n
    eventi sarà la somma delle probabilità degli
    eventi singoli, cui si sottrarrà la somma delle
    probabilità delle doppie intersezioni, si
    sommeranno le probabilità delle triple
    intersezioni e così via.
  • In termini di aree

9
Legge della somma delle probbilità in termini di
aree
U
  • 2 eventi
  • 3 eventi

B
AB
A
U
B
C
AB
A
10
Probabilità Condizionata
U
  • 2 eventi

B
AB
A
B
AB
11
Probabilità Condizionata
  • Casi

Positivamente Correlati
Negativamente Correlati
Indipendenti
12
(No Transcript)
13
A Vincere lo scudetto
P(AB)P(AB)P(B)
P(AB)P(BA)P(A)
P(AB)0.8 P(B)0.7
P(A)0.8
P(AB)0.56
P(BA)0.7
B Vincere 20 partite
14
Consulente
  • P(DiceSoleSole)89
  • P(DicePioggiaSole)1-8911
  • P(DicePioggiaPioggia)95
  • P(DiceSolePioggia)1-955
  • P(DiceSole) P(DiceSolePioggia)P(Pioggia)
    P(DiceSoleSole)P(Sole)550895047

15
IL teorema della probabilità Totale
U
E
  • Teorema probabilità totale dati N eventi
    mutuamente esclusivi (A1, A2,,AN) e esaustivi,
    la probabilità di un altro evento E in U è data
    da

16
(No Transcript)
17
ESEMPIO
  • P(T)0.1 P(N)0.9
  • P(sTT)0.9
  • P(sNN)0.9
  • (Prob totale)
  • P(sT)P(sTT)P(T)P(sTN)P(N)
  • 0.90.10.10.920,90,1
  • P(TsT)P(sTT)P(T)/P(sT)0,5

18
Funzione di Partizione
  • La funzione di partizione (cumulative
    distribution) di una variabile casuale risponde
    alla definizione di essere la probabilità che il
    valore della variabile casuale sia inferiore ad
    un valore di riefrimento.
  • Scriviamo FX(x)P(Xltx)
  • Per una variabile discreta
  • Per una variabile continua deve esistere una
    funzione f(u) tale che
  • La funzione f(u) è detta densità di probabilità
    di X

19
Esempio
  • Ad una lotteria, si gioca con una scatola che
    contiene cappelli eleganti e sportivi in egual
    proporzione. Il gioco è il seguente. Si estrae
    un cappello. Se è elegante si ha diritto a
    tirare una moneta. Se esce testa, si estrae un
    altro cappello. Non si ha diritto ad altre
    estrazioni. Qual è la probabilità di vincere due
    cappelli eleganti?
  • Soluzione Applichiamo il teorema della
    probabilità totale a P(2 cappelli eleganti)
  • P(2 cappelli eleganti)P(II cap. el.1
    estrazione)P(1estrazione)P(II cap. el.II
    estrazione)P(II estrazioni).
  • Chiaramente P(2 cappelli1 estrazione)0, quindi
  • P(II cappelli elegante)P(II cap. el.II
    estrazione)P(IIestrazione).
  • P(II estrazione) P(II estrazioniI sprt)P(I
    sprt)P(II estrazioneI eleg)P(I eleg)
  • Ora se il primo è sportivo non si ha diritto a
    seconda estrazione.
  • Osserviamo poi che P(II estrazione I eleg)
    P(testa) 1/2
  • Quindi P(II estrazione)1/21/20.25
  • Inoltre P(II cap. el .)P(II cap. el.II
    estrazione)P(II estrazione)1/20.250.125
  • Per esercizio calcolare
  • La probabiltà di uscire con un cappello
  • La probabilità di uscire con un cappello elegante
    e con uno sportivo
  • Ripetere gli stessi calcoli se I cappelli sono in
    proporzione 2/3 sportivi/eleganti

20
X
x
b
a
P(Xltx) P(Xx)0 Non ha senso per un numero
continuo Chiedersi P(Xx), ma ha senso P(Xltx)
21
Relazione tra F(x) ed f(x)
  • Se f(x) è continua, allora vale
  • Esempio. Sia 0ltTlt? una variabile casuale
    caratterizzata da una distribuzione esponenziale,
    ovvero f(t) dt?e- ?tdt è la probabilità che T
    abbia un valore compreso tra t e dt.
  • Qual è la probabilità che Tltt?
  • Soluzione
  • P(Tltt)F(t)

22
Distribuzione Esponenziale
23
(No Transcript)
24
Valore atteso
  • Il valore atteso di una variabile aleatoria
    continua è definito da
  • Esempio
  • Per una variabile discreta
  • Esempio calcolare il valore atteso della
    variabile aleatoria in Tabella a fianco

25
Varianza
  • La varianza esprime lo scostamento quadratico
    medio dal valor medio. E definita da
  • Notiamo la relazione tra VX e EX2. Si ha
  • EX2 è detto momento di ordine 2 o secondo
    momento della distribuzione f(x).

26
Skewness
  • E il parametro che misura il grado di asimmetria
    di una distribuzione.
  • La definiamo come momento centrale del III
    ordine
  • Se la distribuzione è simmetrica la skewness è
    nulIa.
  • Di sotto la skewness delle distribuzioni più
    comuni

27
..alla distribuzione di Poisson
  • P è detta distribuzione di Poisson
  • ? prende il nome di rateo o tasso della
    distribuzione
  • Significato probabilità di avere k eventi, dato
    il tasso ?.

28
Momenti della distribuzione di Poisson
  • Quindi

29
La distribuzione Beta
  • La distribuzione beta della variabile X, con a?x
    ? b è definita come segue
  • ?(q,r) è detta funzione beta.
  • Momenti della distribuzione

30
La distribuzione Beta (2)
  • Grafico per a-10, b10, q2,r3
  • q4,r3
  • Grafico per a-10, b10, q3,r3 (simmetrico)

31
La distribuzione ?
  • Una variabile continua X (X??) segue una
    distribuzione ? se la sua densità di probabilità
    è data da
  • Dove
  • ? (parametro di forma),? (parametro di scala)gt0 e
  • ?(?) è la funzione ?, una funzione notevole, che
    generalizza il concetto di fattoriale ai numeri
    non interi. ?(?) è definita come segue
  • I parametri ? (parametro di locazione) e sono
    legati al valore medio ed alla varianza di ?
    dalle seguenti relazioni

32
Grafici della distribuzione ?
33
Capitolo VIStatistica Multivariata
34
Distribuzioni multivariate
  • Consideriamo un fenomeno casuale in cui si
    combinino due variabili. Ad esempio, I ricavi di
    un supermercato derivano dai clienti che entrano
    nel supermercato e dal tipo di acquisti che i
    clienti effettuano. Modellizziamo il problema
    chiamando X la variabile aleatoria relativa al
    numero di clienti che entrano nel supermercato e
    Y quella relativa al valore dellacquisto.
    Chiaramente quanto si venderà è funzione di X e
    Y.
  • F(x,y) sarà la probabilità che arrivino Xltx
    clienti e che acquistino per un valore pari ad
    Ylty. Se a questa funzione cumulativa corrisponde
    una funzione densità di probabilità, scriveremo
    f(x,y)dxdy la probabilità che arrivino x clienti
    e comperino per un valore y.
  • Qual è la probabilità che i clienti comperino
    Xltx indipendentemente da y?
  • Analogo ragionamento si applica alla
    determinazione della distribuzione marginale
    FY(y).

35
Distribuzioni Multivariate
  • Più formalmente, se xy è il nostro spazio degli
    eventi, dove un evento è una combinazione dei
    valori di xy FXY(x,y) rappresenta la probabilità
    che X sia minore di x e, allo stesso tempo, Y sia
    minore di y
  • FXY(x,y)P(X?x,Ylty) congiunta
  • Per soddisfare gli assiomi della probabilità deve
    essere
  • F(?, ?)1
  • F(?, y)FY(y), F(x, ?)FX(x) marginali
  • F(-?, -?)0,
  • F(-?, y)0, F(x, -?)0
  • F(?, y)FY(y)

36
Distribuzioni multivariate
  • Ora, logicamente ci si aspetta che Y dipenda in
    qualche modo da X. Infatti, più clenti arrivano
    più sarà facile raggiungere valori alti di Y.
    Ma, se per caso, in un mondo poco reale, si
    verificasse che Y non dipende da X, ci troveremmo
    di fronte al fatto che P(Xltx) è indipendente dal
    valore di Y. Dunque
  • P(X,Y)P(Xltx) P(Ylty)
  • Quindi F(X,Y)FX(x) FY(y)
  • od anche f(x,y)dxdyf(x)dx f(y)dy
  • Diremo che X e Y sono indipendenti se
  • fXY(xy)fX(x)

37
Esempio
  • Considerate due variabilie X e Y caratterizzate
    dalla seguente possibile densità
  • Trovate c
  • Sol
  • X e Y sono indipendenti?
  • Sono indipendenti se possiamo scrivere fXY(xy)
    fX(x).
  • Ovvero Nel nostro
    caso è facile verificare che questa condizione
    non può essere verificata e quindi le due
    variabili non sono indipendenti. La ragione è
    legata alla presenza del termine di interazione
    y/x

38
Valore atteso condizionale
  • Si può dimostrare che
  • Nel caso X e Y siano indipendenti

39
Parte IIProcessi stocastici
40
  • Fatturato somma ordini

41
Somma di un Numero Casuale di Variabili casuali
  • Siete i gestori di un supermercato. Ogni cliente
    spende Xi, dove I è il numero che indica
    li-esimo cliente. In media I clienti spendono
    75EUR a testa. Il numero medio di clienti
    giornaliero è una variabile casuale N con valor
    medio 300. Quanto vi aspettate di incassare al
    giorno?
  • Soluzione. Lincasso giornaliero è dato da
  • Dobbiamo quindi calcolare il valore atteso di I
  • Per farlo, condizioniamo sul valore che assumerà
    N. Abbiamo
  • Quindi ci attentiamo un incasso di
    7530022500EUR/Giorno

42
Esercizio
  • Arrivi, N, beta(0,60,2,2)
  • Spesa gamma(100,4).
  • EI3025750.

43
Processi di Poisson
44
Processi di Conteggio
  • Consideriamo un processo stocastico, in cui siamo
    interessati a contare arrivi e tempi di arrivo.
    Per esempio gli arrivi di clienti al
    supermercato, di telefonate ad un centralino etc.
  • Denotiamo con N(t) il numero di eventi che si
    verificano nel tempo t, cioè nellintervallo di
    tempo 0-t.
  • N(t)numero di eventi tra 0 e t.
  • Non è difficile intuire che
  • N(t) è un numero intero non negativo, ?t
  • N(s)ltN(t) se sltt
  • N(t)-N(s) è il numero di eventi che si sono
    verificati nel tempo t-s. Si chiamerà incremento
    dei conteggi tra t e s.
  • Notazione indicheremo con tk il tempo del
    k-esimo arrivo.

45
Processi di Conteggio (2)
  • Il tempo XkTk-Tk-1 è il tempo di attesa tra il
    k-esimo e il k-1-esimo evento
  • Es. Supponete che il supermercato apra alle 9. Il
    primo cliente arriva alle 9.01 e il secondo alle
    9.05. Abbiamo T11min, T25min, X24min
  • Vale che TnX1X2Xn
  • Due proprietà sono di interesse indipendenza e
    stazionarietà degli incrementi
  • Incrementi Indipendenti Un processo viene detto
    ad incrementi indipendenti, se i numeri di eventi
    che si verificano in intervalli di tempo
    disgiunti sono indipendenti tra loro
    PN(ts)-N(t)kN(ts)-N(t) PN(ts)-N(t)k
  • Incrementi Stazionari Un processo viene detto ad
    incrementi stazionari se il numero di eventi che
    si verifica in un intervallo dipende solo dalla
    lunghezza dellintervallo. Sia s la lunghezza
    dellintervallo. In termini di probabilità si
    scrive PN(ts)-N(t)kPN(ts)-N(t)k

46
Processi di Poisson
  • Un processo di conteggio è detto processo di
    Poisson se verifica le seguenti proprietà
  • N(0)0
  • Il processo è a incrementi indipendenti
  • Il processo è a incrementi stazionari e la
    probabilità di k eventi nel tempo s è data da
  • ? è detto intensità o tasso del processo

47
Indipendenti
N(t)
N(t)
N(ts)
N(ts)
s
s
t
t
N(ts)-N(t)
N(ts)-N(t)
P(N(ts)-N(t)k N(ts)-N(t)m) P(N(ts)-N(t)
k)
48
Stazionari
N(t)
N(t)
N(ts)
N(ts)
s
s
t
t
N(ts)-N(t)
N(ts)-N(t)
P(N(ts)-N(t)k) P(N(ts)-N(t)k)
49
Distribuzione dei tempi di arrivo
  • Quanto dobbiamo attendere per il primo arrivo?
  • In termini di probabilità, scriviamo la domanda
    come qual è la probabilità che X1 sia maggiore
    di t) P(X1gtt).
  • P(X1ltt)1-P(X1gtt)
  • La risposta è la distribuzione cumulativa di X1
    P(X1gtt)PN(t)0P(? k0)e-?t P(X1ltt)1- e-?t
  • Qual è la distribuzione di X2?
  • P(X2gttX1s)PN(t-s)0X1s grazie a proprietà
    di intervalli indipendenti PN(t-s)0
    P(?k0)e-?(t-s)
  • Ne segue
  • I tempi di arrivo X1,X2,...,Xn di un processo di
    Poisson sono variabili aleatorie indipendenti con
    legge esponenziale di tasso ?
  • ET1/ ?

50
Distribuzione di Tn
  • La distribuzione del tempo di attesa Tn risponde
    alla domanda come è distribuita la somma degli
    Xi? Infatti TnX1X2Xn
  • DunquePTngttPX1X2Xn gtt
  • Si dimostra che Tn?(n,?)
  • Ricordiamo che I tempi di arrivo sono iid
    esponenziali. Utilizziamo la funzione
    generatrice dei momenti

51
Esempio
  • Gli arrivi orari ad un supermercato sono
    distribuiti secondo una Poisson di media
    1001/ore.
  • Qual è il tempo di attesa perchè arrivino 500
    clenti?
  • Risposta 5 ore
  • Qual è il tempo di attesa tra un cliente e il
    successivo?
  • -------
  • 1) Tn
  • 2) ETn
  • 3) distribuzione di Tn
  • 4)ETnEdi una variabile Gamman/ ?500/1005

52
Esempio
  • Qual è il tempo di attesa tra un cliente e il
    successivo?
  • -------
  • 1) Xk
  • 2) EXk
  • 3) distribuzione di Xk è esponenziale
  • 4)Exk1/ ?1/1001/ore1 centesimo di ora

53
Processi di Poisson con selezione
  • Consideriamo un processo di Poisson con arrivi di
    tasso ?.
  • Ad ogni arrivo associamo un tasso di successo p.
    Per esempio successo è se un cliente compera più
    di tre tipi di prodotto diverso.
  • Indichiamo con M(t) il numero di successi
    ottenuti fino al tempo t.
  • M(t) viene detto processo di Poisson con
    selezione.
  • Si dimostra che
  • M(t) e un processo di Poisson di intensità ?p.
  • EM(s) ?ps ET1/( ?p) ETnn/( ?p)

54
p
?p
?
55
Esempio
  • ?10000/anno
  • p0.8
  • T500 arrivo500/100000,05 18,25gg
  • T500 acquisto500/(100000,8)0,0625 22,812gg

56
Applicazione
  • Supponiamo che se un cliente compera più di tre
    prodotti il guadagno sia G. Se compera meno di
    tre prodotti si ha una perdita L. Quali sono i
    valori del tasso di arrivo dei clienti e della
    probabilità p per avere il break-even, se gli
    arrivi orari seguono un processo di poisson di
    tasso ? e la probabilità che comperino più di tre
    prodotti è p?
  • Processo di guadagno vi dà un valore atteso di
  • EIpiùdi3ENEXlambdapEG ?pG
  • EImenodi3ENEXlambda(1-p)EL ?(1-p)L
  • EIpiùdi3EImenodi3
  • ?(1-p)L?pG
  • (1-p)LpG
  • p/(1-p)L/G
  • Es. G10 L3.
  • p3/130,23

57
Sol.
  • Sol. Poissimo dividere il processo in due
    sottoprocessi di tassi ?p e ?(1-p)
    rispettivamente. Il valore atteso degli acquisti
    in unora è dato rispettivamente da ?p e ?(1-p).
    Affinchè vi sia break even occorre che
  • EGuad EMG?p
  • EPerdite?(1-p)L
  • ?pG ?(1-p)L? p/(1-p)L/G
  • GL implica p0,5
  • GgtL (es. G1,2L) plt0,5 (p0,46)
  • Gltl (es G0,8L) pgt0,5 (p0,56)

58
Processi di Poisson composti
  • Consideriamo un processo in cui gli eventi
    costituiscono un processo di poisson di tasso ?.
    Ogni volta che un evento si realizza, si ha una
    conseguenza Xi . Per esempio I clienti giungono
    al supermercato nei tempi ti ed ognuno spende un
    ammontare Xi. Quanto spendono in totale i
    clienti, e , dunque, quanto incassa il
    supermercato?
  • Il processo X(t) è detto processo di Poisson
    composto. In generale lo caratterizzeranno due
    distribuzioni, quella di Poisson e quella degli
    Xi. La distribuzione degli Xi potrà essere
    continua o discreta.

59
X2
X1
X4
X3
?
60
Valori Attesi
  • I processi che coinvolgono la somma di variabili
    casuali sono più facilmente trattabili in termini
    della funzione generatrice dei momenti. Nel
    nostro caso dobbiamo calcolare

61
Valori Attesi (cont.)
  • Da cui, derivando la funzione generatrice dei
    momenti, è facile verificare che

62
Applicazione
  • I clienti che arrivano al supermercato spendono
    secondo la seguente tabella
  • Arrivano in media 100 clienti allora. Nellarco
    di una giornata (8 ore), quanto incassa il
    supermercato?
  • Risposta 1008Eeuro spesi100891.673280
    EUR
  • Incertezza (vedi esempio Excel)

EUR
p
EUR
p
i
i
25
2
95
5
30
3
100
5
35
3
105
4
40
3
110
4
45
3
115
4
50
4
120
4
55
4
125
4
60
4
130
3
65
4
135
3
70
4
140
3
75
5
145
3
80
5
150
3
85
3
155
3
90
3
160
2
63
La rovina dellassicuratore
  • The compound Poisson process is very important in
    insurance, as a model for the arrival of claims
    at an insurance office. The standard model
    assumes that premiums arrive at a constant rate c
    and looks to find the probability that the
    surplus
  • S(t) S(0) ct - X(t)
  • ever hits 0 (ruin occurs).
  • ES(t) E ct - X(t) E ct -EX(t)
  • ct -EX(t) ct
  • ES(t)0
  • c

64
Capitolo IXProcessi di Markov Discreti e
Omogenei
65
Gestione di Magazzino
  • Siete i gestori di un concessionario di
    automobili di lusso. Avete posto per 7 auto. Il
    tempo di consegna delle automobili è di due
    giorni, per cui se ordinate lauto al Venerdì,
    per il Lunedì mattina sono in vetrina. Se al
    Venerdì della n-esima settimana avete 2 auto o
    meno di 2 in vetrina, ne ordinate altre in modo
    da riportavi a 7. Le vendite arrivano secondo
    una distribuzione di Poisson con media 4 e sono
    pronta consegna.
  • Chiamiamo Xn il numero di auto in vetrina
    allinizio della n-esima settimana. Xn è una
    variabile aleatoria. Infatti, dipendendo dal
    numero di vendite, potremmo avere 7,6,5,4,3 auto
    in vetrina ogni Lunedì mattina. Analizziamo come
    si piò descrivere il comportamento di X
  • Per il nostro problema, notiamo che se mettiamo
    sullasse orizzontale il numero della settimana e
    su quello verticale le auto vendute, abbiamo un
    risultato del tipo

66
Evoluzione temporale Processi Discreti
  • Notiamo che il sistema procede a scatti nel
    tempo, ovvero ogni settimana il sistema si
    evolve.
  • Tale tipo di processo è detto discreto
    (ovviamente dal punto di vista temporale)

X
X
n
7
6
.....
5
4
3
2
1
0
1
2
3
...
...
n-1
n
n1
...
t
67
Stati del sistema ed Evoluzione temporale
  • Chiamiamo stati del sistema (S) i valori che la
    variabile aleatoria X può assumere.
  • Nella figura della pagina precedente, si tratta
    dellasse verticale.
  • Nel nostro caso sono 3,4,5,6,7. Abbiamo quindi 5
    stati possibili.
  • In generale useremo la notazione S1,2,,N per
    indicare gli stati del sistema
  • Dato il sistema in un determinato stato alla
    n-esima settimana, alla n1-esima il sistema può
    rimanere ancora nello stesso stato o passare ad
    un altro stato la settimana successiva
  • Per esempio, se abbiamo 4 auto in vetrina alla
    30-esima settimana (X30), e se non si presentano
    clienti, avremo ancora 4 auto il lunedì della
    n1-esima settimana. Se vendiamo 2 auto, X317.

68
Diagramma degli stati
  • E una rappresentazione grafica degli stati del
    sistema e delle transizioni che il sistema può
    compiere

69
(No Transcript)
70
Probabilità di transizione e Processi di Markov
  • Il sistema si muove da uno stato allaltro con
    della probabilità, che vengono dette probabilità
    di transizione.
  • Le probabilità di transizione rispondono alla
    domanda qual è la probabilità che il sistema si
    muova nello stato j ad n1 dato che al tempo n
    era nello stato i e nei tempi precedenti in
    Xn-1,X0?
  • In notazione probablistica, la probabilità
    cercata è
  • Ora, un processo viene detto Markoviano se la
    probabilità che il sistema passi allo stato j al
    tempo n1, dato che è nello stato i al tempo n,
    dipende solo dal fatto che il sistema è nello
    stato I al tempo n e non dipende dagli stati nei
    quali il sistema si trovava prima di i. Ovvero,
    è indipendente dal modo in cui il sistema è
    arrivato in i.
  • In formule

71
La matrice di Markov
  • Si definisce matrice di Markov una matrice
  • i cui elementi sono le probabilità di transizione
    di un sistema markoviano. La i-esima riga
    descrive lo stato di partenza, la j-esima colonna
    lo stato di arrivo.
  • Si dimostra che gli elementi della matrice
    soddisfano le seguenti proprietà
  • La seconda proprità dice che, se il sistema è in
    i al tempo n, allora con probabilità 1 al tempo
    n1 sarà in uno degli stati del sistema

72
E un magazzino Markoviano?
  • Studiamo se il processo che abbiamo a
    disposizione nella nostra gesione di magazzino è
    un processo di Markov.
  • Innazitutto scriviamo Xn1 in forma matematica
  • Dove Vn rappresenta le vendite della n-esima
    settimana. Ricaviamo poi la probabilità di Xn.
  • P(Vn)s dipende solo da vendite in settimana
    n-esima e non dalle vedntie delle settimane
    precedenti. Quindi possiamo scrivere
  • Si tratta quindi di un processo di Markov.
  • In più notiamo che la probabilità non dipende dal
    fatto di essere nella settimana n-esima. Si
    tratta quindi di un processo di Markov omogeneo.

73
Definizione di Processo di Markov Omogeneo
  • Un processo stocastico sullo spazio degli stati
    S, si dice di Markov discreto se ?n
  • E omogeneo se verifica
  • ovvero la matrice di Markov non dipende dal tempo
    n.

74
La matrice di Markov nel nostro esempio
  • La matrice sarà della forma
  • dove abbiamo catalogato gli stati come
    X13,X24,,X57
  • Si ha

75
Matrice di Markov dellesempio
  • Lultimo passo prima di riempire la matrice è
    quello di calcolare le pij mediante la
    distribuzione di Poisson.
  • Infine

k 0 1 2 3 4 5 6
?4 0.018 0.073 0.146 0.195 0.195 0.156 0.104
76
Evoluzione temporale della matrice di transizione
  • Indichiamo con ai le probabilità iniziali del
    sistema aiP(X0i) (non è condizionale!!!)
  • Qual è la probabilità che al tempo k, Xkj dato
    X0i?
  • Definiamo la matrice delle probabilità di
    transizione a k-passi come
  • Dove
  • Indichiamo la probabilità incondizionale di Xkj
    con a(k)
  • Che differenza cè tra a(k) e P(k)?

77
Evoluzione temporale della matrice di transizione
  • Calcoliamo P(0) e P(1).
  • Per P(0) notiamo che pijP(X0jX0i)1 se ij,
    altrimenti0.
  • Per P(1), notiamo che pij(1)P(X1jX0i)pij.
    Quindi P(1)P

78
Markov a k passi
k
0
1
2

79
Matrice a k Passi P(k)
  • Probabilità che dato che al tempo 0 sono nello
    stato i, mi trovo nello stato j al tempo k

K30
K0
Markov
80
Teorema relazione tra P(k) e P
  • Per un processo markoviano discreto e omogeneo
    vale
  • che in forma matriciale equivale a scrivere
  • Quindi per k2, si vede che
  • per k3,
  • Per ks vale

81
Distribuzione del sistema
  • Probabilità che il sistema si trovi in un dato
    stato

82
(No Transcript)
83
La distribuzione non condizionale
  • Definiamo
  • a(k) è la distribuzione (discreta) della
    probabilità che il sistema si trovi in un
    determinato stato per tk.
  • Infatti, per definizione a(k) è un vettore il cui
    elemento s-esimo è dato da

84
Un esempio
  • Consideriamo il seguente gioco. Una pallina può
    trovarsi sulla metà superiore o inferiore del
    flipper, rimbalzare da una metà allaltra ed
    uscire. Rappresentiamo il problema con i seguenti
    stati
  • j1 la pallina è sulla metà superire
  • j2la pallina è sulla metà inferiore
  • j3 la pallina è uscita
  • Determiniamo gli stati del sistema
  • Lo stato 3 è detto assorbente, perchè il sistema
    può solo entrare in 3 e non uscire

85
Esempio
  • Funzionante parzialmente guasto
  • Se funzionante passa a guasto con probabilità
    0.5 parzialmente funzionante 0.2.
  • Se parzialmente funzionante torna perfettamente
    funzionante con probabilità 0.3, va totalmente
    guasto con probabilità 0.4.
  • Se è guasto, torna perfettamente fuzionante con
    probabilità 0.7, parzialmente funzionante con
    probabilità 0.2
  • - Disegnate il diagramma degli stati
  • - Strutturate la matrice di Markov

86
Equazione di Chapman-Kolmogorv
  • Il teorema di C-K stabilisce che le probabilità
    di transizione a n passi soddisfano la seguente
    equazione
  • E quindi, in forma matriciale

87
Evoluzione Temporale per lesempio
40
30
20
k
88
Esiste una distribuzione di probabilità limite?
  • Dettagliamo la domanda nel titolo in tre punti
  • Per n che tende linfinito, la distribuzione di
    Xn tende ad una distribuzione limite?
  • Se esiste tale distribuzione limite, è unica?
  • Se esiste ed è unica, come si calcola?
  • Notazione indichiamo con
  • Se il limite esiste, ? è detta distribuzione
    limite del processo

89
Calcolo della distribuzione limite
  • Teorema 1 se esiste una distribuzione limite,
    allora soddisfa le seguenti proprietà
  • Dimostriamo la prima.
  • In forma matriciale

90
Esistenza della distribuzione limite
  • Notiamo che dal punto di vista dellalgebra
    lineare la distribuzione limite deve soddisfare
    il sistema lineare
  • Ricordiamo che la condizione necessaria affinchè
    il sistema non possegga la sola soluzione nulla
    è
  • Quindi non è garantita lesistenza della
    distribuzione limite

91
Unicità della distribuzione limite
  • Anche lunicità della distribuzione limite non è
    in genere garantita. Per un esempio vedi
    Kulkarni, p.129.

92
Periodicità, Irriducibilità e Esistenza
  • Un processo di Markov discreto e omogeneo è detto
    periodico di periodo d se gt1 d è lintero più
    grande per cui vale
  • Con n multiplo di d. Se d1 il processo è detto
    aperiodico.
  • In pratica il concetto di periodicità risponde
    alla domanda è possibile tornare ad i dopo
    essere partiti da i? Se il processo è periodico
    di periodo d allora è possibile tornare ad I solo
    ai tempi d,2d,kd. Non è possibile in tempi
    intermedi.
  • Il periodo può essere calcolato per via grafica
    dai diagrammi di transizione. Si deve definire
    un ciclo diretto nel diagramma come il ciclo da
    un nodo a se stesso. Se tutti I cicli diretti
    nel diagramma sono multipli di d allora il
    periodo è d.

93
Periodicità, Irriducibilità e Esistenza
  • Un processo di Markov discreto e omogeneo è detto
    irriducibile se, ?i,j esiste kgt0 tale che
  • La precedente proprietà dice che è possibile
    muoversi dallo stato i allo stato j in uno o più
    passi per tutti gli stati i e j.
  • Condizione sufficiente di esistenza e unicità
  • un processo di Markov irriducibile e aperiodico
    ammette ununica distribuzione limite.

94
Distribuzione Stazionaria
  • Una distribuzione ? è detta stazionaria se
  • per tutti gli stati (?i) e per tutti i tempi n0.
  • Anche la distribuzione stazionaria, se esiste
    soddisferà
  • Ne segue che se esiste una distribuzione limite
    essa è anche una distribuzione stazionaria

95
Costi o ricavi associati agli stati
  • Spesso il fatto che il sistema sia in un
    determinato stato comporta allazienda un
    costo/ricavo gestionale (es. costo di magazzino
    delle parti di ricambio o ricavo da vendite)
  • Per sapere quanto è il costo totale atteso,
    occorre sapere quanto tempo il sistema sta in un
    determinato stato. Ora notiamo che per modelli
    markoviani discreti il sistema scatta da uno
    stato allaltro ogni n. Quindi il tempo totale
    che il sistema trascorre in uno stato non è altro
    che la somma del numero di volte che, passa dallo
    stato di interesse. Denotiamo con j lo stato di
    interesse e con Xkj levento il sistema è nello
    stato j al tempo k. Leghiamo ad Xk la variabile
    Zj(k) definita come segue
  • Il numero di volte in cui il sistema passa per lo
    stato j è proprio la somma delle variabili Zj(k).
    Quindi
  • Saremo interessati al valore atteso di Nj(k)

96
Tempi di occupazione
  • Il sistema patirà dallo stato X0i. Definiamo con
    mij(k) il numero di volte in cui il sistema passa
    per lo stato j partendo dallo stato i al tempo 0.
  • In forma matriciale
  • Si dimostra che
  • In forma matriciale

97
Esempio
  • Esempio. Se k10, scrivere la matrice di
    occupazione dellesempio Pallina da flipper.
  • Utilizziamo la formula precedente
  • Notiamo il risultato. Se partiamo da 3, stiamo in
    3 per 11 voltesempre!

98
Costi condizionali
  • Costi da associare agli stati C(Xj) è il costo
    associato al fatto che il sistema è nello stato
    j.
  • Il costo totale generato nel periodo 0..k, è
  • Il valore atteso è
  • Vettore dei costi condizionale allo stato del
    sistema a k0
  • Possiamo quindi ricavare il valore atteso del
    costo come
  • Forma matriciale
  • Forma vettoriale

99
Esempio
  • Nellesempio del gioco, ogni volta che la pallina
    finisce nello stato 3 si perdono 2EUR, ogni volta
    che siete nello stato 1 o 2 vincete 1 EUR. In 10
    partite, quanti soldi si perdono se si parte
    dallo stato 1? E dallo stato 2? E da 3? E se
    aveste a0.5 0.5 0, vi convene giocare?

100
La distribuzione delloccupazione
  • Sia Nj(k) il numero di volte in cui il sistema
    visita lo stato j nel tempo 0k.
  • Loccupazione dello stato j viene definita da
  • Interpretazione è la frazione di tempo che il
    sistema spende nello stato j.
  • La distribuzione di occupazione (?), se esiste,
    soddisfa le seguenti equazioni
  • Un processo markoviano irriducibile ammette
    ununica distribuzione di occupazione che è
    uguale alla distribuzione stazionaria.

101
Costo per unità di tempo
  • Il costo per unità di tempo è definito come
  • Dove i denota lo stato di partenza.
  • Si dimostra che soddisfa la seguente eguaglianza
    per un processo di Markov irriducibile ed è
    indipendente da i

102
Esempio 1
  • Consideriamo un processo di Markov S1,2,3,4,
    discreto e irriducibile che sia caratterizzato
    dalla seguente distribuzione di occupazione degli
    stati ?0.27 0.45 0.2 0.08 e costi per stato
    c400 500 600 700. Il sistema si muove su base
    settimanale.
  • Quanto vi costa, nel lungo periodo, il sistema
    alla settimana?
  • Sol. 509EUR per settimana

103
Problemi
  • Consideriamo un gioco in cui il sistema ha tre
    stati e può passare da uno stato allaltro con le
    seguenti probabilità, k0,1,
  • E un processo irriducibile?
  • Se lo stato 1 dà un profitto di 10, lo stato 2
    una vincita di 15 e lo stato 3 una perdita di
    -20, vi conviene giocare fino a k10 se le
    probabilità di partenza sono 0.3 0.3 0.4? (Ans.
    1.15, sì)
  • E allinfinito? (0.1667)

104
Capitolo XProcessi di Markov Continui nel Tempo
105
Introduzione
  • Nel caso dei processi di Markov discreti, si
    individuavano una serie di istanti k0,1,,n n
    cui lo stato del sistema veniva osservato.
    Supponiamo ora che il sistema sia osservato con
    continuità.
  • Un esempio può essere quello di un satellite che
    gira nello spazio e può essere in 2 stati,
    funzionante o rotto. Ci chiediamo se al tempo T
    il satellite sia funzionante o rotto.

106
Definizione Markov continuo
  • Processo di Markov continuo nel tempo
  • Un processo stocastico è detto di Markov,
    continuo del tempo se vale
  • dove X(st) indica lo stato del sistema al tempo
    ts. Notiamo che st sostituisce k al pedice
    nella noazione precedente.
  • Interpr. la probabilità che il sistema passi
    dallo stato I che occupava in s allo stato j dopo
    un tempo t dipende solo dallo stato in cui il
    sistema si trovava in s e da s.
  • Matrice delle probabilità di transizione

107
Definizione Markov continuo omogeneo
  • Processo di Markov continuo nel tempo è omogeneo
    se vale
  • Interpr. la probabilità che il sistema passi
    dallo stato i che occupava in s allo stato j dopo
    un tempo t dipende solo di due stati e non dal
    tempo s.
  • Matrice delle probabilità di transizione

108
Proprietà della matrice prob. transizione
  • La matrice delle probailità di transizione
    soddisfa le seguenti proprietà
  • Dimostriamo la 3

109
Equazioni di Chapman Kolmogorov
  • Valgono i due seguenti lemma
  • ?Itasso istantaneo di uscita dallo stato i, qij
    tasso di transizione dallo stato i allo stato j.
    Sono le probabilità condizionale che il sistema
    compia la transizione dallo stato I allo stato j
    nellintervallo di tempo dt, dato che è nello
    stato i a t.
  • Si dimostra che le probabilità di transizione
    soddisfano le seguenti equazioni
  • se si condiziona su h.
  • Se si condiziona su t.

110
Equazioni di C-K (2)
  • Poniamo
  • ?ij è detto rateo di transizione ed è la
    probabilità che nel tempo dt il sistema passi
    allo stato j dato che è nello stato i.
  • Le equazioni di C-K si possono quindi riscrivere
    come

111
Equazioni di C-K (3)
  • Dove A e la matrice dei ratei di transizione del
    sistema, P e il vettore delle probabilita degli
    stati del sistema.

112
Costruzione della matrice di transizione
  • Esempio componente soggetto a rottura e
    riparazione. 2 stati in funzione o in
    riparazione, con tassi di guasto ? e riparazione
    ?.
  • Chi sono P12 e P21? Sono le probabilita di
    transizione in dt. Quindi
  • P12? e P21 ?
  • La matrice di transizione e costruita con le
    seguenti regole
  • () se il salto e in entrata allo stato, (-) se
    il salto e in uscita
  • Prendiamo lo stato 1 si entra in 1 da due con
    tasso ? (), si esce con tasso ? (-).
  • Quindi

113
La matrice di transizione
  • La matrice di transizione e

114
Equazione delle Pi(t)
  • Definiamo le probabilità incondizionali che il
    sistema si trovi nello stato i al tempo t come
  • Si dimostra (vedi seguito) che le equazioni
    soddisfatte dalle probabilità incondizionali sono

115
Differenza
  • Che differenza cè tra
  • e

116
Soluzione delle equazioni
  • E la probabilita che a t il componente sia
    nello stato 1. Occorre risolvere il sistema di
    equazioni differenziali lineari precedente. Modo
    piu usato in affidabilita e mediante
    trasformata di Laplace.
  • Con trasf. Laplace, le equazioni da differenziali
    diventano algebriche. Dopo aver lavorato con
    equazioni algebriche, occorre poi
    antitrasformare.
  • Si ottiene dunque la disponibilita come funzione
    del tempo. Il risultato per un componente singolo
    soggetto a riparazioni e rotture e il seguente

117
Risultato
  • Probabilità che il sistema sia nello stato
    1Disponibilita istantanea
  • Disponibilita asintotica
  • Interpretazione tempo che occorre in media alla
    riparazione diviso il tempo totale

118
Probabilità limite
  • Per t che tende ad infinito, se il processo
    Markoviano è irriducibile, le probabilità limite
    esistono e soddisfano le seguenti equazioni
  • ovvero, ?j
  • Tale relazione esprime il bilancio tra le entrate
    e le uscite dallo stato

119
Esempio
  • Si consideri un sistema con due componenti, con
    la possibilità di riparare un solo componente
    alla volta, nel caso si rompa. I due componenti
    sono identici e si rompono con tasso costante ?.
    Il tasso di riparazione è ?. Rappresentare il
    sistema come processo di Markov, scrivere le
    equazioni di C-K per il processo e trovare le
    probabilità limite.

2?
?
3
1
2
2?
?
120
Distribuzione stazionaria
  • Per un processo di Markov continuo,irriducibile,
    la distribuzione limite è anche la distribuzione
    stazionaria.

121
Distribuzione di occupazione
  • Sia T un tempo su cui osserviamo il sistema.
  • Sia mij(T) il tempo speso dal sistema nello stato
    j dato che è partito da I al tempo 0.
  • Se il processo è irriducible, vale allora che
  • la frazione di tempo che il sistema passa nello
    stato j al tendere di t allinfinito non dipende
    da i
  • La frazione di tempo spesa da sistema nello stato
    j è
  • Quindi le probabilità limite si possono
    interpretare come frazione del tempo che il
    sistema spende in un determonato stato

122
Modellazione dei Costi/Ricavo
  • Il modello dei costi è il seguente.
  • Sia c(X(t)) dt il costo istantaneo (tasso di
    costo) associato al fatto che il sistema è nello
    stato j al tempo t.
  • Il costo/ricavo totale che il sistema
    sosterrà/produrrà nel tempo 0-T sarà

123
Tasso di costo istantaneo limite
  • Per un processo continuo, Markoviano,
    irriducibile vale
  • Esempio supponiamo che se la macchina produce
    incassiamo 1000. Se si rompe spendiamo costa
    -5000. Calcoliamo se, a regime, conviene
    investire nella macchina quando ?10-4 e ?10-2.
  • clim940, quindi conviene.

124
Capitolo IXProblemi, dimostrazioni etc.
Write a Comment
User Comments (0)
About PowerShow.com