Il codice neurale
1o problema:
COME VIENE GENERATO IL CODICE NEURONALE?
2o problema :
COSA SIGNIFICA IL CODICE NEURONALE?
Dobbiamo saperci porre nella posizione di chi scrive (1o, codifica) e di chi legge (2o , decodifica).
Codificazione tutto-o-nulla mediante i p.d.a. o spikes
Codificazione in frequenza ed adattamento
Feature-selectivity
Mapping
motor sensory
Reti auto-organizzanti di Kohonen
Organizzazione colonnare
La scoperta di rate coding, feature selectivity, cortical maps, suggerisce che:
1) I neuroni codificano caratteristiche elementari dello stimolo.
2) I neuroni elaborano lo stimolo anziché riprodurlo fedelmente.
3) Esiste un ordine gerarchico nell’elaborazione dell’informazione.
4) Percezioni complesse sono costruite partendo da caratteristiche elementari
5) Qualità differenti dello stimolo sono convogliate a regioni differenti del sistema nervoso
Comprendere il codice neurale significa comprendere le relazioni tra i treni di spikes e gli eventi reali del mondo sensoriale
Il codice neuronale ha
natura probabilistica
Bisogna quantificare la randomness mediante teorie probablistiche
iii tP
tsPtstPttsP
)()()( Uguagliando le due probabilità
congiunte si ottiene la Legge di Bayes
)()(),( sarà congiunta àprobabilit la che risulta Ne
mente.simultanea trenoquel e stimolo quello osservare di congiunta àprobabilit la è ),(
priori. a àprobabilit detta è ed ),( trattaè cui da àprobabilit di onedistribuzi la è )(
stimoli. possibili di onedistribuzi una da preso è stimolo lo che moconsideria Inoltre
.)( tacondiziona àprobabilit la è Questa
e.particolarin uno osservarne di àprobabilit la ocalcolerem distinti, trainsspike numerosi esistono Poichè
. trainsspike gli misuriamo e )( stimolo uno oApplichiam
tsPtstPttsP
ttsP
tstsP
tstP
tts
ii
i
i
i
Ma noi dobbiamo essere in grado di decidere qual’era lo stimolo dato un particolare spike train.
iii tPttsPttsP )(),( sarà congiunta àprobabilit la che risulta Ne
Applicazoine della Legge di Bayes a dati sperimentali
Autocorrelazione e
interspike-interval distribution
E’ possibile quantificare l’informazione ?
Non tutti gli stimoli sono ugualmente probabili: i segnali nel mondo reale hanno strutture e limitazioni.
L’informazione fornita dagli spikes misura la riduzione dello spazio dello stimolo in scala logaritmica, cosicchè la riduzione di un fattore 2 nello spazio degli stimoli possibili vale un bit di informazione.
500 Hz
550 Hz
Range dello stimolo = 50 Hz
specifico stimolo
Spike train
Precisione = 5 Hz
bits 3.3)5/50(log gain n Informatio 2
Il teorema di Shannon (1948-1949) : informazione = entropia
X(t) Y(t)Communication
channel
P[X] e P[Y] sono le distribuzioni di probabilità dello stimolo X e dello spike train Y
Se la distribuzione è sharp (al limite un valore) il messaggio è sempre lo stesso: dobbiamo quindi QUANTIFICARE LA VARIABILITA’.
L’informazione E’ contenuta nella variabilità. La misura appropriata dell’informazione disponibile è l’ENTROPIA definita in meccanica statistica e termodinamica.
binario. formatoin scrivereper necessario digits di numero il è Questo
log
ottiene si ndoRiarrangia ./1 à,probabilit uguale hanno segnali i tuttise
bits log
bit detta è probabili eusgualment ealternativ due trarediscriminaper suficiente neinformazio di unitaria quantità La
binario. tipodi è neuronale codice il che implicando 2, base la scieglie Si log. del base la
enteopportunam osciegliend eliminato essere puòk ale.adimension è neinformaziol' Tuttavia Boltzman. di costante la è
log
onedistribuzi della log il come icomportars deve entropie di somma unain onidistribuzi di prodottoun di econversion La
......,
sommeranno si entropie le ementeConseguent
......,
:indiviuali proprietà delle prodotto del dipendemnet simultanea ilipiù variab oservare do àprobabilit la Perciò
ti.indipenden variabilid sommazione di legge alla obbedisce entropiaL'
2
1 2
1
221121
221121
K
KS
KpK
ppS
k
ppkS
XPSXPSXPSXXXPS
XPXPXPXXXP
i
i
K
i i
i
K
i i
nnn
nnn
Il codice binario
bits 6.26log n Informatio 2
Ci sono 6 digits (0 incluso): la sequenza dei digits NON è importante.
Ma se consideriamo la sequenza temporale, allora troviamo 25=32 distinti messaggi, equivalenti a 5 bits.
Il “rate coding” contiene meno informazione ma è più robusto (essendo ridondante) del “time coding”.
L’entropia di un treno di impulsi
estensiva) quantità una è (S lunghezza sua alla aleproporzion è train spike uno di entropial' Quindi
r-1lnr-1rlnr2ln
T
:ottiene si enteopportunam elaborando
!!
!log
:sarà entropial' e
!!
!N
:sarà e di ntiarrangiame diversi di numero ol random, sono ISI gli che dato
1
,Tcon stringa unaIn piccolo. sarà 1 piccolo, è Se
r1 media, frequenza la r Detta
digits. T/ di binario Numero
01
12
01
1stringhe
1
0
1
S
NN
NS
NN
N
NN
NpN
pNN
)p(
)p(
o
E’ possibile misurare la quantità di informazione trasportata da un treno di spike mettendola in relazione con la sua durata e frequenza media.
Tuttavia questo ancora non dice:
•come deve essere un codice efficiente
•come si comporta una popolazione di neuroni.
•se ha importanza il timing degli spikes.
Esempi di codici efficienti
Vector coding e population vectors
Il vettore rappresenta intensità e direzione:
Composizione di vettori
cosmaxAA
Vector coding e population coding consentono la rappresentazione della direzione del movimento
Operazioni di algebra vettoriale consentono al cervello di trasformare le coordinate spaziali sensoriali e motorie.
I treni di spikes contengono struttura, correlazione, e caos
I neuroni possono avere più stati di attività
Specifici canali ionici possono modificare le proprietà di scarica ed il codice neuronale
a) Le sequenze di p.d.a. hanno struttura (bursts, adattamento)
b) I tempi di reazione del SNC sono nell’ordine di 102 ms, e la frequenza di scarica neuronale è nell’ordine di 102 Hz.
c) La precisione delle risposte alla stimolazione sinaptica è inferiore al millisecondo
Il time-coding può essere particolarmente importante nel SNC
L’EEG rivela l’attività bioelettrica sincrona delle strutture corticali
I PEV rivelano l’attività bioelettrica di specifiche aree corticali
L’attività di regioni specifiche si inserisce su un back-ground oscillatorio sincrono: determinate da cellule autoritmiche, gap-junctions, circuiti riverberanti.
•Partecipano al processo di binding parallelizzando l’attività di enormi campi neuronali
•Consentono un particolare tipo di time-coding (radial-base coding).
Hanno implicazioni per stato di coscienza, ritmo sonno-veglia, generalizzazione epilessia.
•Il codice neuronale si basa su frequency coding, time coding, ed radial-base coding.
•Coinvolge processi a diversi livelli molecolari, cellulari e di rete.
•Lo studio delle reti neuronali artificiali può aiutare a decifrare il codice neuronale