Upload
voque
View
215
Download
0
Embed Size (px)
Citation preview
ML estesaSe n non è fisso, ma piuttosto una variabile di Poisson, con media ν.
Il risultato dell’esperimento è allora: n, x1, ..., xn.
La funzione likelihood (estesa) è:
Se dalla teoria ν = ν(θ), allora la log-likelihood è
dove C representa i termini che non dipendono da θ.
ML estesa (2)
ML estesa usa più informazione → errori minori per
Esempio: numero aspettato di eventi
Se ν non dipende da θ, la ML estesa dà:
Esempio di ML estesaDue tipi di eventi (segnale e fondo) ognuno con una pdf per x: fs(x) e fb(x).Poniamo frazione segnale = θ, numero totale di eventi aspettato = ν, totale osservato = n.
→
Esempio di ML estesa (2)
Massimizzando la likelihood per µs and µb:
Esempio Monte Carlo con esponenziale e Gaussiana:
Gli errori riflettono sia le fluttuazioni del totale sia della proporzione di segnale/fondo
Esempio di ML estesa: una stima non-fisicaUna fluttuazione dei dati nella regione del picco può portare a meno eventi di quanti aspettati con il solo fondo
La stima per µs in questo caso è negativa (non-fisica).
Esempio di ML estesa: una stima non-fisicaL’estimatore è unbiased e la stima deve comunque essere riportata perchè la media di un numero grande di stime converge al valore vero
Se si ripete l’esperimento MC molte volte si vede che stime non-fisiche sono possibili
ML with binned dataOften put data into a histogram:
Hypothesis is where
If we model the data as multinomial (ntot constant),
then the log-likelihood function is:
ML example with binned dataPrevious example with exponential, now put data into histogram:
Limit of zero bin width → usual unbinned ML.If ni treated as Poisson, we get extended log-likelihood:
Relazione tra ML e estimatori BayesianiNella statistica Bayesiana, sia θ che x sono variabili aleatorie:
Metodo Bayesiano:
Probabilità soggettiva per l’ipotesi (θ);
probabilità a priori prima dell’esperimento π(θ);si usa il teorema di Bayes per correggere la probabilità con i dati:
pdf a posteriori (pdf condizionale per θ dato x)
ML ed estimatori Bayesiani (2)Bayesiani puri: p(θ | x) contiene tutte le nostre conoscenze su θ.
Bayesiani pragmatici: p(θ | x) può essere complicata,
→ riassumiamo usando un estimatore
la moda di p(θ | x) , (oppure la media)
Che cosa usiamo per π(θ)? È soggettivo!π(θ) = constante representa l’ ‘ignoranza a priori’, e in quel caso
Ma... se usiamo un parametro diverso, λ = 1/θ,e πθ(θ) è costante, allora πλ(λ) non lo è!
‘Completa ignoranza a priori’ non è ben definita!
Metodo dei minimi quadratiMisuriamo N valori, y1, ..., yN, independenti con distribuzione Gaussiana tale che
Siano noti i valori delle variabili x1, ..., xN e le varianze
La likelihood è
Vogliamo stimare θ, cioè fare un fit della curva ai punti
Metodo dei minimi quadrati (2)La log-likelihood diventa
Massimizzare la likelihood è equivalente a minimizzare
Il minimo è l’estimatore “least squares” (LS)
Spesso si minimizza il χ2 in modo numerico (MINUIT).
LS with correlated measurementsIf the yi follow a multivariate Gaussian, covariance matrix V,
Then maximizing the likelihood is equivalent to minimizing
Example of least squares fit
Fit a polynomial of order p:
Varianza dell’estimatore LSCome per ML, nel caso di LS abbiamo
e quindi
ovvero con il metodo grafico coincide con prendere il valore per cui
1.0
Two-parameter LS fit
Goodness-of-fit con LSIl valore del χ2 al minimo è una misura dell’accordo dati-ipotesi
È una statistica di goodness-of-fit per verificarela forma funzionale ipotizzata λ(x; θ)N.B.: da non confondere con l’errore statistico sul fit!
Se l’ipotesi è corretta la statistica t = χ2min segue la pdf del χ2
con nd = numero di punti - numero di parametri del fit
Goodness-of-fit with least squares (2)The chi-square pdf has an expectation value equal to the number of degrees of freedom, so if χ2min ≈ nd the fit is ‘good’.
More generally, find the p-value:
E.g. for the previous example with 1st order polynomial (line),
whereas for the 0th order polynomial (horizontal line),
This is the probability of obtaining a χ2min as high as the onewe got, or higher, if the hypothesis is correct.
Goodness-of-fit vs. statistical errors
Goodness-of-fit vs. stat. errors (2)
LS con istogrammi
LS con istogrammi (2)
LS con istogrammi — normalizzazione
LS normalization example
Using LS to combine measurements
Combining correlated measurements with LS
Example: averaging two correlated measurements
Negative weights in LS average