Upload
dinhtuyen
View
226
Download
0
Embed Size (px)
Citation preview
1
La probabilità
Teoria della probabilità: eventi, proprietà additiva e moltiplicativa
L’incertezza Nella maggior parte delle situazioni la nostra
condizione è caratterizzata dall’incertezza Incertezza relativa ad eventi che devono ancora
accadere: Quali numeri usciranno alla prossima estrazione del Superenalotto?
Incertezza relativa ad eventi che sono già accaduti Chi ha vinto il Campionato italiano di calcio di Serie A nella stagione
1972-73? Incertezza relativa ad eventi che stanno accadendo
Qual è la prevalenza di infezione da HIV nella popolazione italiana? Incertezza relativa all’esistenza e alla natura di leggi
generali Di quanto aumenta il rischio di avere un infarto all’aumentare dei
valori di PM10?
2
L’incertezza All’incertezza contribuiscono, in misura variabile:
La nostra ignoranza, ovvero la limitatezza delle informazioni di cui disponiamo
La variabilità dei fenomeni di cui ci occupiamo Mentre in alcuni casi l’osservazione (misura) ci permette di passare
dall’incertezza alla certezza (?) Quali numeri usciranno alla prossima estrazione del
Superenalotto? Chi ha vinto il Campionato italiano di calcio di Serie A nella
stagione 1973-74? in altri casi, per diverse ragioni, la misurazione potrà solo ridurre
l’incertezza Qual è la prevalenza di infezione da HIV nella popolazione
italiana? Di quanto aumenta il rischio di avere un infarto
all’aumentare dei valori di PM10?
La probabilità Che cos’è la probabilità? A che cosa serve, in generale? A che cosa serve, per un epidemiologo?
Interpretazione in termini probabilistici delle misure di occorrenza e di associazione Un fumatore ha una probabilità di ammalarsi di tumore
5 volte superiore a quella di un non fumatore Interpretazione in termini probabilistici delle
caratteristiche di validità di un test diagnostico La probabilità che una persona sana risulti positiva al
test mammografico è pari allo 0.5% Quantificazione dell’effetto dell’errore casuale sulle
stime campionarie La probabilità di osservare un rischio relativo ≥ 5 in
assenza di associazione è pari al 3.2%
3
La probabilità
La probabilità è ciò che ci aiuta (meglio, che ci dovrebbe aiutare) a ragionare (a fare affermazioni) in maniera corretta (o, quanto meno, coerente) in condizioni di incertezza.
“Ars conjectandi” (Jacob Bernoulli) Diversi aspetti:
Filosofico: definizioni di probabilità Matematico: assiomi e regole Applicativo: come usare le probabilità
EVENTO “ALEATORIO” Definizione
L’ evento è l’ elemento di base al quale può essere applicata la probabilità è il risultato di una osservazione o di un
esperimento è la descrizione di un potenziale risultato è lo “stato” preso da un “sistema”
L’ evento è una proposizione logica suscettibile di essere verificata o no a seconda del risultato dell’ “esperimento”
4
Eventi aleatori Un fenomeno aleatorio è un fenomeno che può
manifestarsi in vari modi e rispetto al quale siamo, pertanto, in condizioni di incertezza.
Un fenomeno aleatorio deve essere, almeno teoricamente, verificabile (L’esito deve essere conoscibile).
Una variabile aleatoria (numero aleatorio) è una variabile che può assumere diversi valori. A ciascuno di questi valori (esaustivi e mutuamente esclusivi) avrà senso attribuire una probabilità
Un evento aleatorio è una variabile aleatoria che può assumere solo due valori (V/F, 0/1) Da una variabile aleatoria si passa ad un’evento raggruppando i possibili esiti in due classi
La probabilità di un evento aleatorio è il rapporto tra il numero di esiti favorevoli ad esso e quello di tutti gli esiti possibili, purché questi ultimi siano equiprobabili.
Si adatta abbastanza bene a quelle situazioni in cui i fenomeni aleatori presentano situazioni di simmetria, in cui nessun particolare esito è favorito rispetto agli altri due facce di una moneta sei facce di un dado estrazione di una carta da un mazzo uscita di un numero alla roulette
???
Probabilità Teoria “classica”
5
Dalla definizione classica deriva che la misura della probabilità di un evento può variare da un minimo di 0 (nessun caso favorevole) come ad esempio l'uscita del 91 al Lotto (0 su 90), fino ad un massimo di 1 (tutti i casi favorevoli), come ad esempio pescare una pesciolino rosso da una vasca che contiene solo pesci rossi (n su n). Diremo, nel primo caso, che l'evento è impossibile e nel secondo caso che l'evento è certo.
In tutti gli altri casi: gli eventi hanno una probabilità 0 < p < 1, tanto più vicina a zero
quanto più è difficile che l'evento accada e tanto più vicina ad 1, quanto più è facile che accada.
Un'altra importante proprietà è che: la somma delle probabilità di tutti i possibili esiti di un fenomeno
aleatorio deve essere 1, poiché è certo che uno qualsiasi di essi dovrà per forza verificarsi
Probabilità Teoria “classica”
La nascita della teoria frequentista
11
Probabilità Teoria “frequentista”
Supponiamo di ripetere un “esperimento” n volte in condizioni sostanzialmente identiche e di contare il numero m di volte in cui l’ evento A si verifica
all’ aumentare di n la proporzione m/n si avvicina ad un limite fisso che è la probabilità di A P(A) = limn→∞ (m / n)
La probabilità di un evento è dunque definita come la frequenza relativa con cui l’ evento si verifica in una lunga serie di esperimenti indipendenti condotti in condizioni virtualmente identiche
Anche in questo caso: La probabilità di un evento è un numero compreso tra 0 e 1 La somma delle probabilità dei possibili esiti è uguale a 1
Un esercizio per capire Un esercizio per capire la differenza tra
FREQUENZA ASSOLUTA e FREQUENZA RELATIVA In Stata, la sequenza
clear
set obs 100
gen roll=1+int(6*uniform())
tab roll Genera 100 lanci di un dado (simulati…)
Proviamo a fare 10 lanci e poi 100, 1’000, 10’000, 100’000 Come sono le differenze ASSOLUTE tra le uscite? Come sono le differenze RELATIVE?
12
Probabilità Teoria “frequentista”
Esempi: Se un meteorologo ci dice che c’è una probabilità del
30% che oggi piova, non fa riferimento ad un modello simmetrico di eventi equiprobabili, ma si basa sulla frequenza osservata di giorni con pioggia con condizioni (di temperatura, umidità, pressione etc.) simili a quelli di oggi
Se un medico ci dice che la probabilità di successo di un intervento chirurgico su un dato paziente è dell’87%, si basa (dovrebbe basarsi!) sulla frequenza osservata di successi in un numero cospicuo di interventi dello stesso tipo eseguiti su pazienti con caratteristiche (età, genere, condizioni fisiche, patologie concomitanti, etc.) simili a quelle del paziente dato
Probabilità Definizioni a confronto
Ma possiamo davvero considerare tutti gli eventi “ripetibili”? Qualche volta e’ necessario un’altro approccio:
Definizione Approccio Tempo Eventi Stima Esempi
Classica teorico a priori equiprobabili calcolo gioco d' azzardo
Frequentista oggettivo a posteriori ripetibili frequenza relativamortalità e morbosità in popolazioni
Bayesiana soggettivo a priori irripetibilivalutazione individuale da
parte di un soggetto razionale e coerente
stima del rischio individuale
13
Probabilità Teoria “soggettiva”
Secondo questa teoria, la probabilità è una misura del “grado di fiducia” soggettiva (di chi parla) che un evento si realizzi (o che una variabile aleatoria assuma un determinato valore) su una scala che va da 0 (completa sfiducia che l’evento si verifichi) a 1 (certezza che l’evento si verifichi)
Ovviamente, considerazioni di simmetria e di frequenza relativa osservata sono alla base della valutazione soggettiva
Probabilità Teoria “soggettiva”
La probabilità assegnata ad un evento corrisponde a “quanto sono disposto a pagare per vincere 1 nel caso che l’evento si verifichi” Secondo la teoria soggettiva dire che la
probabilità di A è uguale a 0.75 significa dire che sarei disposto a pagare 75c per vincere 1€ al verificarsi di A
La teoria soggettiva è particolarmente adatta nel caso di eventi che possono verificarsi una sola volta e di eventi già verificatisi ma ignoti
14
Non tutti i fenomeni presentano simmetrie che li rendono riconducibili a combinazioni di eventi equiprobabili
Il fatto che all’aumentare del numero di esperimenti la frequenza relativa tenda ad un limite è un’ipotesi (legge empirica delle medie) che non può essere dimostrata né matematicamente né empiricamente
Per molti eventi non è possibile immaginare, nemmeno teoricamente, la ripetizione dell’esperimento
Probabilità ogni approccio ha i suoi aspetti critici
Probabilità: ogni approccio ha i suoi aspetti critici
Ci piacerebbe che la probabilità fosse una proprietà dell’evento, non dello stato mentale di chi la esprime
La definizione soggettiva ipotizza una rigidità rispetto al rischio che in genere non c’è
T u t t a v i a , l ’ o g g e t t i v i t à v i e n e recuperata nel definire le regole da usare per modificare le probabilità a priori alla luce
delle osservazioni fatte
15
Probabilità
Per fortuna, le regole di calcolo delle probabilità che riguardano il modo per quantificare la
probabilità di eventi complessi,
sono largamente indipendenti dalla teoria sottostante…
Le proprietà della probabilità
16
Eventi e teoria degli insiemi
Insieme collezione di elementi aventi una proprietà in
comune nel caso degli eventi e della probabilità, si
tratta realizzazioni dello stesso evento
A Esempi:
1) Che un soggetto sia fumatore
2) Che un soggetto sia affetto
da tumore polmonare
Eventi e teoria degli insiemi
Spazio o universo L’ insieme che comprende tutti i possibili
elementi Viene rappresentato spesso da un rettangolo
che rappresenta lo spazio finito dell ’ esperienza a cui si sta facendo riferimento
U
A
Esempio: La popolazione
dei suscettibili ad una specifica patologia
(coloro cioè che possono ammalarsi)
17
Eventi e teoria degli insiemi
Sottoinsieme Ogni elemento di A è anche elemento di B L’ evento A si verifica solo se è verificato
anche l’ evento B A ⊂ B
U
B A Esempio:
I forti fumatori (A) sono un sottoinsieme
dei fumatori (B)
Eventi e teoria degli insiemi
Insieme Unione l’ insieme che contiene tutti gli elementi di A e
tutti gli elementi di B Si esprime come A ∪ B
∪ = “OR” (operatore booleano)
A ∪ B
Esempio:
L’ insieme dei soggetti che fumano (A) sigari,
(B) sigarette
18
Eventi e teoria degli insiemi Insieme Intersezione
l’ insieme che contiene tutti gli elementi che appartengono sia ad A che a B
Si esprime come A ∩ B
∩ = “AND” (operatore booleano)
A B
A ∩
B
Esempio: L’ insieme dei soggetti
che fumano (B), e sono affetti da
tumore pomonare (A)
Eventi e teoria degli insiemi Insieme complementare
l’insieme che contiene tutti gli elementi dell’ Universo U che non appartengono ad A
comprende tutti gli eventi che escludono A
c = “NOT” (operatore booleano) A ∩ Ac = φ (l’evento nullo)
A Ac
Esempio: L’ insieme dei soggetti
NON affetti da tumore pomonare (Ac)
19
Eventi mutuamente esclusivi
Due eventi A e B che non possono verificarsi contemporaneamente sono definiti “mutuamente esclusivi” esempio:
A è l’evento che il tumore sia di stadio III B è l’ evento che sia di stadio IV
A ∩ B = φ ⇒ P(A ∩ B ) = 0
A A B B
20
La proprietà additiva
Quando due eventi sono mutuamente esclusivi, la proprietà additiva della probabilità afferma che: la probabilità del verificarsi dell’ uno oppure
dell’altro evento è pari alla somma della probabilità di ciascuno
dei due eventi
B B A A P(A ∪ B ) = P(A) + P(B)
P(A ∪ B ) > P(A)
P(A ∪ B ) > P(B)
OR
La proprietà additiva
Quando due event i NON sono mutuamente esclusivi, la proprietà additiva della probabilità afferma che: la probabilità del verificarsi dell’ uno oppure
dell’altro evento è pari alla somma della probabilità di ciascuno
dei due eventi meno la probabilità dell’ evento intersezione (che altrimenti sarebbe contata due volte)
P(A ∪ B ) = P(A) + P(B) - P(A ∩ B ) P(A ∪ B ) > P(A)
P(A ∪ B ) > P(B)
A B A ∩
B
22
La proprietà moltiplicativa Prendiamo in esame 1 evento aleatorio
esposizione ed 1 effetto: ad esempio esposizione al fumo ed la presenza di BPCO
Se i due eventi non sono associati, si combineranno casualmente, seguendo la proprietà moltiplicativa della probabilità
10%
50%
20%
x =
P(A AND B ) = P(A) x P(B) P(A AND B ) < P(A); P(A AND B ) < P(B)
Eventi indipedenti e dipendenti
se l’ esposizione e la malattia sono tra loro indipendenti (non esiste dunque alcuna
associazione)
se l’ esposizione e la malattia sono tra loro dipendenti (l’esposizione modifica la
probabilità di malattia)
• L’ Epidemiologia costruttiva utilizza le misure di frequenza allo scopo di stimare se i due eventi si associano solo casualmente, o se l’esposizione aumenta il RISCHIO di malattia:
La probabilità di essere Fumatore AND Malato
è il prodotto delle probabilità elementari
La probabilità di essere Fumatore AND Malato
è MAGGIORE del prodotto delle probabilità elementari
23
La probabilità condizionata
L’ esposizione e la malattia potrebbero essere distribuite nella popolazione come nel seguente schema:
0,5
0,5
Esposti
Non esposti
Malati
Non malati
0,2
0,8
24
Eventi indipendenti se l’ esposizione e la malattia sono tra loro
indipendenti la conoscenza dello stato di malattia non influenza la probabilità che un soggetto sia esposto
0,5
0,5
Esposti Non esp.
0,5*0,2= 0,1 0,5*0,2= 0,1
0,5*0,8= 0,4
0,5*0,8= 0,4
Malati
Non malati
0,2
0,8 0,5
0,5
Esposti
Non esp.
Eventi dipendenti se l’ esposizione e la malattia sono tra loro
dipendenti la conoscenza dello stato di malattia modifica la stima della probabilità che un soggetto sia esposto
0,95
0,05
Esposti Non esp.
0,95*0,2= 0,19 0,05*0,2= 0,01
0,39*0,8= 0,31
0,61*0,8= 0,49
Malati
Non malati
0,2
0,8
0,39
0,61
Esposti
Non esp.
25
La probabilità condizionata se l’ esposizione e la malattia sono tra loro
dipendenti la conoscenza dello stato di malattia modifica la stima della probabilità che un soggetto sia esposto
Esposti Non esp.
Malati
Non malati
Esposti
Non esp.
La conoscenza dello stato assunto da uno dei due eventi
condiziona la stima della probabilità che si verifichi
l’ALTRO evento:
PROBABILITA’ CONDIZIONATA
26
Il teorema di Bayes (1)
a partire dai prodotti marginali e dalle probabilità nelle singole diramazioni, è possibile “rovesciare” l’ albero delle probabilità
B
Bc
B
P(B∩A) ∪ P(B∩Ac) = P(BANDA) OR P(BANDAc) = P(B)
P(Bc∩A) ∪ P(Bc∩Ac) = P(BcANDA) OR P(BcANDAc) = P(Bc)
P(A)* P(Bc|A) + P(Ac)* P(Bc |Ac) = P(Bc)
P(A)* P(B|A) + P(Ac)* P(B|Ac) = P(B)
Bc
(0,95*0,2) + (0,39*0,8 ) = 0,19 + 0,31 = 0,50
(0,05*0,2) + (0,61*0,8) = 0,01 + 0,49 = 0,50
Non malati
Malati
Malati
Non malati
Il teorema di Bayes (2) In questo modo è possibile modificare la stima
della probabilità che un soggetto sia malato sulla base della conoscenza dello stato di esposizione
Non esposti
Esposti
0,19/0,5= 0,38
0,31/0,5= 0,62
0,01/0,5= 0,02
0,49/0,5= 0,98
0,5*0,38= 0,19
0,5*0,61= 0,31
0,5*0,02= 0,01
0,5*0,98= 0,49
0,19+0,31= 0,5
0,01+0,49= 0,5
27
Il teorema di Bayes ed i test
Il teorema di Bayes viene utilizzato spesso nel la valutazione di test diagnostici o screening Test Diagnostici: hanno come obiettivo di
consentire una diagnosi di malattia Test di Screening: utilizzati su soggetti che non
presentano alcuna sintomatologia clinica, permettono di classificare tali individui sulla base della probabilità di essere affetti da una particolare patologia
Il teorema di Bayes consente di utilizzare la probabilità per valutare le incertezze associate ai risultati
Misure di qualità di un test
SENSIBILITA’: la percentuale di soggetti malati che il test
classifica come positivi = Veri positivi / (Veri positivi + Falsi
negativi) esprime la probabilità che il test sia positivo nei
soggetti malati
SPECIFICITA’: la percentuale di soggetti sani che il test
identifica come negativi = Veri negativi / (Veri negativi + Falsi
positivi) esprime la probabilità che il test sia negativo nei
soggetti sani
28
Qualità del test ed alberi di probabilità
Test +
Test-
Veri positivi Malati
Non malati
Test +
Test-
Falsi negativi
Falsi positivi
Veri negativi
Sensibilità
Specificità
Prevalenza
P(B|A)
P(Bc|Ac)
P(A)
1- P(A)
Misure di qualità di un test
VALORE PREDITTIVO DEL TEST POSITIVO (VPP): la probabilità di essere malati dei soggetti risultati
positivi al test = Veri positivi / (Veri positivi + Falsi positivi)
VALORE PREDITTIVO DEL TEST NEGATIVO (VPN): la probabilità di essere sani dei soggetti risultati
negativi al test = Veri negativi / (Veri negativi + Falsi negativi)
29
Qualità del test ed alberi di probabilità
Test +
Test-
Veri positivi
Malati
Non malati
Falsi negativi
Falsi positivi
Veri negativi
Valore predittivo test +
Malati
Non malati
Valore predittivo test -
P(A|B)
P(Ac|Bc)
P(B)
Qualità del test ed alberi di probabilità
Test +
Test-
Malati
Non malati
Test +
Test-
Sensibilità
Specificità
Prevalenza Veri positivi Veri positivi
Veri negativi Veri negativi
Falsi positivi
Falsi positivi Falsi negativi
Falsi negativi
Malati
Non malati
Malati
Non malati
Test +
Test-
Valore predittivo del test +
Valore predittivo del test -
P(A|B) = P(A)* P(B|A) + P(Ac)* P(B|Ac)
P(A)* P(B|A) =
Preval. * Sensib.
(Preval. * Sensib.) + (1-Preval.)*(1-Specif.)
P(Ac|Bc)= P(A)* P(Bc|A) + P(Ac)* P(Bc|Ac)
P(Ac)* P(Bc|Ac) =
(1-Preval. )* Specif.
Preval. * (1-Sensib.) + (1-Preval.)*Specif.
30
da: Nanda K, et al., Ann Intern Med 2000; 132:810-819
Sistema di Classificazione
Bethesda InfezioneReazioni
riparativeASCUS
RichartCondiloma CIN I CIN II
Reagan (OMS) Normale Displasia Moderata
Displasia grave
Carcinoma in situ
Carcinoma invasivo
Papanicolau I V
CIN III
Displasia lieve
IIIII IV
Atipia
Classificazione citologica
Basso Grado (LSIL) Alto Grado (HSIL)
Neoplasia Intraepitaeliale della Cervice
Lesione Intraepiteliale Squamosa (SIL)
Il Pap-test
da: CNR - Basi scientifiche per la definizione di linee guida 10:100000(p=0.0001)
da: Loiudice et al, Eur J Cancer Prev, 1998; 7:295-304 80:1000 (p=0.08)
Sensibilità 0.40Specificità 0.96
Stime di frequenza10:1000 (p=0.01)
3:1000 (p=0.003)
10:1000 (p=0.01)
0.750.93
Un esempio: il pap-test
Test +
Test-
Veri positivi =0.01*0.75 =0.0075 Malati
Non malati
Test +
Test-
Falsi negativi =0.01*0.25 =0.0025
Falsi positivi =0.99*0.07 =0.0693
Veri negativi =0.99*0.93 =0.9207
Sensibilità P(B|A) =0.75
Specificità P(Bc|Ac) =0.93
Prevalenza P(A)=0.01
1-0.01 =0.99
1-0.75=0.25
1-0.93=0.07
31
Qualità del test ed alberi di probabilità
Test +
Test-
Malati
Non malati
Test +
Test-
Malati
Non malati
Malati
Non malati
Test +
Test-
P(A|B) = P(A)* P(B|A) + P(Ac)* P(B|Ac)
P(A)* P(B|A) =
Preval. * Sensib.
(Preval. * Sensib.) + (1-Preval.)*(1-Specif.)
P(Ac|Bc)= P(A)* P(Bc|A) + P(Ac)* P(Bc|Ac)
P(Ac)* P(Bc|Ac) =
(1-Preval. )* Specif.
Preval. * (1-Sensib.) + (1-Preval.)*Specif.
Prevalenza
0.01
0,999917
Specificità
0.93
0.07
0.25
Sensibilità
0.75 Veri positivi
0.0075
Falsi negativi 0.0025
Falsi positivi 0.0693
Veri negativi 0.9207
Veri negativi 0.9207
Falsi positivi 0.0693
Veri positivi 0.0075
Falsi negativi 0.0025 0.9232
0.0768
Valore predittivo del test -
0.9973
Valore predittivo del test +
0.0976
0.0027
0.9023
Qualità del test ed alberi di probabilità
Test +
Test-
Malati
Non malati
Valore predittivo test + Malati
Non malati
Valore predittivo test -
Veri positivi =0.0075
Falsi negativi =0.0025
Falsi positivi =0.0693
Veri negativi =0.9207
0.0075 +0.0693
=0.0768
0.0025 +0.9207
=0.9232
0.0075/0.0768 =0.0976
0.9207/0.9232 =0.9973
0.0025/0.9232 =0.0027
0.0693/0.0768 =0.9023